【#文档大全网# 导语】以下是®文档大全网的小编为您整理的《大数据分析及处理方法》,欢迎阅读!
本文格式为Word版,下载可任意编辑
Oracle等来存储每一笔事务数据,除此之外,Redis和MongoDB这样的NoSQL数据库也常用于数据的采集。
在大数据的采集过程中,其主要特点和挑战是并发数高,因为同时有可能会有成千上万的用户来进行访问和操作,比方火车票售票网站和淘宝,它们并发的访问量在峰值时到达上百万,所以需要在采集端部署大量数据库才能支撑。并且如何在这些数据库之间进行负载均衡和分片确实是需要深入的思索和设计。 导入/预处理
虽然采集端本身会有许多数据库,但是假如要对这些海量数据进行有效的分析,还是应当将这些来自前端的数据导入到一个集中的大型分布式数据库,或者分布式存储集群,并且可以在导入基础上做一些简洁的清洗和预处理工作。也有一些用户会在导入时使用来自Twitter的Storm来对数据进行流式计算,来满足部分业务的实时计算需求。
大数据分析及处理方法
大数据的处理
周涛博士说:大数据处理数据时代理念的三大转变:要全体不要抽样,要效率不要肯定精确,要相关不要因果。
具体的大数据处理方法其实有许多,但是依据长时间的实践,笔者总结了一个基本的大数据处理流程,并且这个流程应当能够对大家理顺大数据的处理有所关心。整个处理流程可以概括为四步,分别是采集、导入和预处理、统计和分析,以及挖掘。 采集
大数据的采集是指利用多个数据库来接收发自客户端(Web、App或者传感器形式等)的数据,并且用户可以通过这些数据库来进行简洁的查询和处理工作。比方,电商会使用传统的关系型数据库MySQL和
魏
第 1 页 共 3 页
本文格式为Word版,下载可任意编辑
导入与预处理过程的特点和挑战主要是导入的数据量大,每秒钟的导入量常常会到达百兆,甚至千兆级别。 统计/分析
统计与分析主要利用分布式数据库,或者分布式计算集群来对存储于其内的海量数据进行一般的分析和分类汇总等,以满足大多数常见的分析需求,在这方面,一些实时性需求会用到EMC 的GreenPlum、Oracle的Exadata,以及基于MySQL的列式存储Infobright等,而一些批处理,或者基于半结构化数据的需求可以使用Hadoop。
统计与分析这部分的主要特点和挑战是分析涉及的数据量大,其对系统资源,特殊是I/O会有极大的占用。 挖掘
与前面统计和分析过程不同的是,数据挖掘一般没有什么预先设定好的主题,主要是在现有数据上面进行基于各种算法的计算,从而起到预报(Predict)的效果,从而实现一些高级别数据分析的需求。比较典
型算法有用于聚类的K-Means、用于统计学习的SVM和用于分类的Naive Bayes,主要使用的工具有Hadoop的Mahout等。
该过程的特点和挑战主要是用于挖掘的算法很冗杂,并且计算涉及的`数据量和计算量都很大,还有,常用数据挖掘算法都以单线程为主。
大数据分析的五个基本方面
1. Analytic Visualizations(可视化分析)
不管是对数据分析专家还是一般用户,数据可视化是数据分析工具最基本的要求。可视化可以直观的展示数据,让数据自己说话,让观众听到结果。
2. Data Mining Algorithms(数据挖掘算法)
可视化是给人看的,数据挖掘就是给机器看的。集群、分割、孤立点分析还有其他的算法让我们深入数据内部,挖掘价值。这些算法不仅要处理大数据的量,也要处理大数据的速度。
魏 第 2 页 共 3 页
本文来源:https://www.wddqxz.cn/449536c99dc3d5bbfd0a79563c1ec5da50e2d6f1.html