大数据时代中的数据采集技术综述

来源: 云巴巴 2020-03-10 13:35:26

随着时代的发展,以大数据,人工智能,物联网,5G等词汇风靡全球,在网络的普及下,人类产生的数据量正在日益增长,大约每两年翻一番。面对如此巨大的数据,与之相关的采集、存储、分析等等环节产生了一系列的问题。如何收集这些数据并且进行转换分析存储以及有效率的分析成为巨大的挑战,需要有这样一个系统用来收集这样的数据,并且对数据进提取、转换、加载。

ETL,是英文 Extract-Transform-Load 的缩写,数据从数据来源端经过抽取(extract)、转换(transform)、加载(load)到目的端,然后进行处理分析的过程。用户从数据源抽取出所需的数据,经过数据清洗,最终按照预先定义好的数据模型,将数据加载到数据仓库中去,最后对数据仓库中的数据进行数据分析和处理。数据采集位于数据分析生命周期的重要一环,它通过传感器数据、社交网络数据、移动互联网数据等方式获得各种类型的结构化、半结构化及非结构化的海量数据。由于采集的数据种类错综复杂,对于这种不同种类的数据。我们进行数据分析,必须通过提取技术。将复杂格式的数据,进行数据提取,从数据原始格式中提取(extract)出我们需要的数据,这里可以丢弃一些不重要的字段。对于数据提取后的数据,由于数据源头的采集可能存在不准确。所以我们必须进行数据清洗,对于那些不正确的数据进行过滤、剔除。针对不同的应用场景,对数据进行分析的工具或者系统不同,我们还需要对数据进行数据转换(transform)操作,将数据转换成不同的数据格式,最终按照预先定义好的数据仓库模型,将数据加载(load)到数据仓库中去。

在现实生活中,数据产生的种类很多,并且不同种类的数据产生的方式不同。对于大数据采集系统,主要分为以下三类系统:

一、系统日志采集系统。许多公司的业务平台每天都会产生大量的日志数据。对于这些日志信息,我们可以得到出很多有价值的数据。通过对这些日志信息进行日志采集、收集,然后进行数据分析,挖掘公司业务平台日志数据中的潜在价值。为公司决策和公司后台服务器平台性能评估提高可靠的数据保证。系统日志采集系统做的事情就是收集日志数据提供离线和在线的实时分析使用。目前常用的开源日志收集系统有FlumeScribe等。 Apache Flume是一个分布式、可靠、可用的服务,用于高效地收集、聚合和移动 大量的日志数据,它具有基于流式数据流的简单灵活的架构。其可靠性机制和许多故障转移和恢复机制,使Flume具有强大的容错能力。ScribeFacebook开源的日志采集系统。Scribe实际上是一个

分布式共享队列,它可以从各种数据源上收集日志数据,然后放入它上面的共享队列中。Scribe可以接受thrift client发送过来的数据,将其放入它上面的消息队列中。然后通过消息队列将数据Push到分布式存储系统中,并且由分布式存储系统提供可靠的容错性能。如果最后的分布式存储系统crash时,Scribe中的消息队列还可以提供容错能力,它会还日志数据写到本地磁盘中。Scribe支持持久化的消息队列,来提供日志收集系统的容错能力。

二、网络数据采集系统。通过网络爬虫和一些网站平台提供的公共API(Twitter和新浪微博API)等方式从网站上获取数据。这样就可以将非结构化数据和半结构化数据的网页数据从网页中提取出来。并将其提取、清洗、转换成结构化的数据,将其存储为统一的本地文件数据。目前常用的网页爬虫系统有Apache NutchCrawler4jScrapy等框架。Apache Nutch是一个高度可扩展和可伸缩性的分布式爬虫框架。Apache通过分布式抓取网页数据,并且由Hadoop支持,通过提交MapReduce任务来抓取网页数据,并可以将网页数据存储在HDFS分布式文件系统中。Nutch可以进行分布式多任务进行爬取数据,存储和索引。由于多个机器并行做爬取任务,Nutch利用多个机器充分利用机器的计算资源和存储能力,大大提高系统爬取数据能力。Crawler4jScrapy都是一个爬虫框架,提供给开发人员便利的爬虫API接口。开发人员只需要关心爬虫API接口的实现,不需要关心具体框架怎么爬取数据。Crawler4jScrapy框架大大降低了开发人员开发速率,开发人员可以很快的完成一个爬虫系统的开发。

 

   三、数据库采集系统。一些企业会使用传统的关系型数据库MySQLOracle等来存储数据。除此之外,RedisMongoDB这样的NoSQL数据库也常用于数据的采集。企业每时每刻产生的业务数据,以数据库一行记录形式被直接写入到数据库中。通过数据库采集系统直接与企业业务后台服务器结合,将企业业务后台每时每刻都在产生大量的业务记录写入到数据库中,最后由特定的处理分许系统进行系统分析。

   针对大数据采集技术,目前主要流行以下大数据采集分析技术。HiveFacebook团队开发的一个可以支持PB级别的可伸缩性的数据仓库。这是一个建立在Hadoop之上的开源数据仓库解决方案。 Hive支持使用类似SQL的声明性语言(HiveQL)表示的查询,这些语言被编译为使用Hadoop执行的MapReduce作业。另外,HiveQL使用户可以将自定义的map-reduce脚本插入到查询中。该语言支持基本数据类型,类似数组和Map的集合以及嵌套组合。 HiveQL语句被提交执行。首先Driver将查询传递给编译器compiler,通过典型的解析,类型检查和语义分析阶段,使用存储在Metastore中的元数据。编译器生成一个逻辑任务,然后通过一个简单的基于规则的优化器进行优化。最后生成一组MapReduce任务和HDFS TaskDAG优化后的Task。 然后执行引擎使用Hadoop按照它们的依赖性顺序执行这些TaskHive简化了对于那些不熟悉Hadoop MapReduce接口的用户学习门槛,Hive提供了一些列简单的HiveQL语句,对数据仓库中的数据进行简要分析与计算。

在大数据采技术中,其中有一个关键的环节就是transform操作。它将清洗后的

数据转换成不同的数据形式,由不同的数据分析系统和计算系统进行处理和分析。

 

更多产品了解

欢迎扫码加入云巴巴企业数字化交流服务群

产品交流、问题咨询、专业测评

都在这里!

 

评论列表

为你推荐

数据采集之日志采集的埋点是什么呢?

数据采集之日志采集的埋点是什么呢?

你知道吗,数据采集的埋点是日志采集的关键步骤,那什么是埋点呢? 埋点就是在有需要的位置采集相应的信息,进行上报,比如某页面的访问情况,包括用户信息、设备信息。或者用户在页面上的操作行为,包括时间长短等,这就是埋点,每一个埋点就像一台摄像头,采集用户行为数

2022-11-21 14:45:08

网络爬虫采集器抓取数据具体要怎么做

网络爬虫采集器抓取数据具体要怎么做

关注小编的小伙伴们应该知道,在上篇文章中,小编介绍了作为新手如何快速建立一个网络爬虫?那么网页采集器抓取数据具体应该要怎么做呢?在本文中,就来和大家揭晓。 具体怎么做呢? 打开数据采集器并选择“自定义信息采集”。 输入上面的URL设置新任务,如你所知,

2022-11-22 15:15:49

数据采集工具的软件设计程序是什么样

数据采集工具的软件设计程序是什么样

在现在这个社会,我们的工作与生活都离不开互联网,数据采集工具自然也不例外,下面,就来让我们一起讨论了解一下互联网数据采集的技术是什么样的吧。 软件设计编辑,软件部分要分别编写S3C4510B部分的程序和CPLD控制程序,前者可分为μC/OSⅡ的移植和各个

2022-11-21 14:43:18

如何运用数据源进行采集数据呢?

如何运用数据源进行采集数据呢?

上篇文章中,知道了有四类数据源,不记得的小伙伴可以去回顾一下哦。那如何采集到这些数据呢?本篇文章,就赶快跟随者小编的步伐,一起来看一下有关于如何运用数据源进行采集数据的相关知识吧。 如何使用开放数据源进行采集数据,我们先来看下开放数据源,教你个方法,开放

2022-11-21 14:45:22

有关于数据采集的系统硬件的相关知识

有关于数据采集的系统硬件的相关知识

我们所生活的社会中,并不是静态的,它是动态的,是不停变换的。从古至今,数据采集的方式方法也在不停地发展与变化。本文,就给大家介绍一下关于现在数据采集几个要点的简要介绍。 数据采集的系统硬件结构,该系统采用了Samsung公司的S3C4510B作为系统与上

2022-11-21 14:43:26

快来了解一下关于数据采集的基础知识

快来了解一下关于数据采集的基础知识

提起数据采集相信大家都不陌生,本文,就来介绍一下关于数据采集的基础知识,还不快跟紧步骤。 数据采集是指从传感器和其它待测设备等模拟和数字被测单元中自动采集非电量或者电量信号,送到上位机中进行分析,处理,数据采集系统是结合基于计算机或者其他专用测试平台的测

2022-11-21 14:44:06

严选云产品

云客家装行业营销获客解决方案 云客家装行业营销获客解决方案线索实时分配,高效添加客户微信。线索自动导入并分配客服, 及时接待。活码承接,AI外呼整合全域存量数据,主加能力提高微信添加率,群发策略促成转化。提供多种外呼方式,高效解决外呼问题。
数睿数据smardaten企业级无代码开发平台 数睿数据smardaten企业级无代码开发平台,全过程的无码化配置,传统交付团队都能轻松上手开发;支持多人同时开发一个应用、提高交付效率;贯穿数据接入、数据资产管理、数据集成、数据标准、数据服务、数据安全的一站式数据治理能力体系。
腾讯云SSL证书 SSL证书(SSL Certificates)又叫服务器证书,腾讯云为您提供证书的一站式服务,包括免费、付费证书的申请、管理及部署功能。通过与业界知名的数字证书授权(CA)机构合作,为您的网站、移动应用提供 HTTPS 解决方案。
Cloudflare全球cdn加速 Cloudflare全球cdn加速,Cloudflare每个数据中心的每一台服务器上都可以提供Cloudflare的全栈服务。全球部署的云平台来加速web内容的访问,借助边缘计算平台构建客户的serverless无服务器逻辑功能,高效的服务器健康监控机制保证灵活的故障转移策略 。
苏宁科技数据采集分析平台 苏宁数据采集分析平台,为线上、线下、实时、离线、多种异构数据源接入大数据仓库提供了一套完整解决方案,支持全终端的数据采集,覆盖APP、小程序、Web、H5、OTT;结合标准化流量模型,建立用户行为分析体系;搭建一站式平台配置管理能力;具有高可靠性与高可扩展性。
Data MAX 数据大屏展示 Data MAX基于组态技术,通过简单的组件拖拽配置,即可完成数据的可视化呈现展示。具备操作简单、部署灵活、实时呈现等特点。可广泛应用于各行各业,从百亿级数据量的企业到各垂直中小企业,专注解决各行业,各种场景的业务数据呈现需求。

甄选10000+数字化产品 为您免费使用

申请试用