我的编程空间,编程开发者的网络收藏夹
学习永远不晚

数据集成:Flume和Sqoop

短信预约 -IT技能 免费直播动态提醒
省份

北京

  • 北京
  • 上海
  • 天津
  • 重庆
  • 河北
  • 山东
  • 辽宁
  • 黑龙江
  • 吉林
  • 甘肃
  • 青海
  • 河南
  • 江苏
  • 湖北
  • 湖南
  • 江西
  • 浙江
  • 广东
  • 云南
  • 福建
  • 海南
  • 山西
  • 四川
  • 陕西
  • 贵州
  • 安徽
  • 广西
  • 内蒙
  • 西藏
  • 新疆
  • 宁夏
  • 兵团
手机号立即预约

请填写图片验证码后获取短信验证码

看不清楚,换张图片

免费获取短信验证码

数据集成:Flume和Sqoop

Flume和Sqoop是Hadoop数据集成和收集系统,两者的定位不一样,下面根据个人的经验与理解和大家做一个介绍:

Flume由cloudera开发出来,有两大产品:Flume-og和Flume-ng,Flume-og的架构过于复杂,在寻问当中会有数据丢失,所以放弃了。现在我们使用的是Flume-ng,主要是日志采集,这个日志可以是TCP的系统的日志数据,可以是文件数据(就是通常我们在Intel服务器,通过其中的机构传过来的接口,或者通过防火墙采集过来的日志),在HDFS上去存储,可以和kafka进行集成,这就是Flume的功能。     

Flume架构是分布式,可以根据需要进行扩展Flume的节点和数量。它的扩展有两个含义:一个是横向的,根据原数据源的个数、种类不同进行扩展;第二个就是纵向的,可以增加更多的汇聚层,去做更多的过程的数据处理,而不是数据加载进来之后再进行转换。

数据集成:Flume和Sqoop

Flume的性能高可靠并且高可用的,可靠性主要体现在两个方面:一方面就是有一份数据比较重要,为了保证数据传输的可靠性,可以两个agent指向这份数据,而且两个agent可以进行示范切换,如果其中一个失败,另一个还可以进行传输。另一方面就是在agent的内部可以做缓存通透区,接收到数据可以存到磁盘,放到数据库,纵使agent出问题,数据依然存在。

Flume是做日志采集的,但是更多的数据是从结构化数据库过来的,这时我们就需要Sqoop。Sqoop是关系型数据库和HDFS之间的一个桥梁,可以实现数据在关系型数据库与HDFS之间的一个传送。那么我们什么时候将数据传递到HDFS呢?主要是把新增交易,新增账户加载过来,写的时候除了hdfs,还可以写hive,甚至可以直接去建表。而且可以在源数据库设立是导整个数据库,还是导某一个表,或者导特定的列,这都是常见的在数据仓库中进行的ETL.

数据集成:Flume和Sqoop

sqoop允许增量导入,增量有两种,一种是直接追加(比如新增订单、交易可以追加);另一种是状态的改变,比如一个客户之前是白名单客户,还款很好,但是如果某个月逾期,加入黑名单,后期还款了又回到白名单,状态在不停改变,那么就不能再和交易等一样做追加,这个时候需要做的就是拉链。需要一个修改的日期,那么这个状态有没有修改,如果修改了,那么之前加载的怎么办?可以通过sqoop进行配置,加载的时候让它们在Hadoop里面进行更新。我们知道HDFS文件不能更新,这个时候进行文件合并,通过合并的方式把文本的数据清除。

数据什么时候导出呢?导出数据就在于Hadoop里面分析好的数据,我们可能需要下载一个数据集市,基于这个集市把数据导出来,所以sqoop也可以把数据导出。sqoop导出的机制是:默认的是mysql,mysql 效率较低,那么选择第二种方式---直接模式,利用数据库本身提供的一些导出工具。但是这些导出工具的效率还不够高,更高的就是专业的定制的连接器,目前定制的连接器有MySQL、Postgres、Netezza、Teradata、Oracle。

    以上就是根据自己的一些学习和工作经验总结的关于Flume和Sqoop的相关知识,有些具体的知识这里没有多涉及,如果想了解的可以自己去学习。我自己平常也会去关注“大数据cn”和“大数据时代学习中心”这些微信公众号,里面分享的一些资讯和知识点对我有很大的帮助,推荐大家去看看,期望共同进步!


免责声明:

① 本站未注明“稿件来源”的信息均来自网络整理。其文字、图片和音视频稿件的所属权归原作者所有。本站收集整理出于非商业性的教育和科研之目的,并不意味着本站赞同其观点或证实其内容的真实性。仅作为临时的测试数据,供内部测试之用。本站并未授权任何人以任何方式主动获取本站任何信息。

② 本站未注明“稿件来源”的临时测试数据将在测试完成后最终做删除处理。有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341

数据集成:Flume和Sqoop

下载Word文档到电脑,方便收藏和打印~

下载Word文档

猜你喜欢

Flume可以与哪些大数据生态系统集成

Flume可以与以下大数据生态系统集成:Apache Hadoop: Flume可以与Hadoop的HDFS(Hadoop分布式文件系统)和MapReduce集成,方便将采集的数据传输到Hadoop集群中进行存储和处理。Apache Spa
Flume可以与哪些大数据生态系统集成
2024-03-08

如何配置Flume来收集数据

要配置Flume来收集数据,首先需要安装并配置Flume agent。以下是一些基本的步骤:在Flume的conf目录中创建一个新的配置文件,例如myFlumeConfig.conf。在配置文件中定义source(数据源)、sink(数据目
如何配置Flume来收集数据
2024-03-07

深入探索Apache Flume:大数据领域的数据采集神器

Apache Flume是一个分布式、可靠的、可扩展的大数据采集工具,被广泛应用于大数据领域。它能够高效地将多种数据源的数据收集、聚合和传输到大数据存储系统,如Hadoop HDFS、Apache Kafka等。Flume的设计理念是基于流
2023-10-11

Teradata怎么管理数据集成和数据质量

Teradata是一种强大的数据仓库平台,它提供了多种工具和功能来管理数据集成和数据质量。以下是一些常用的方法:数据集成:Teradata提供了Teradata Parallel Transporter (TPT)工具,它是一个高性能的数据
Teradata怎么管理数据集成和数据质量
2024-04-09

Teradata如何处理异构数据源集成和数据转换

Teradata提供了一系列工具和技术来处理异构数据源集成和数据转换。其中一些主要功能包括:Teradata Data Mover:这是一个用于数据抽取、转换和加载的工具,可以帮助用户从不同的数据源中抽取数据,并将数据加载到Teradata
Teradata如何处理异构数据源集成和数据转换
2024-04-09

大数据Atlas是否支持跨平台数据集成和数据迁移

是的,大数据Atlas支持跨平台数据集成和数据迁移。它可以帮助用户在不同的平台之间轻松地迁移数据,包括将数据从一个平台移动到另一个平台,或者在不同平台之间同步数据。大数据Atlas提供了强大的数据迁移工具和功能,可以帮助用户高效地完成数据集
大数据Atlas是否支持跨平台数据集成和数据迁移
2024-03-11

Teradata怎么处理数据集成和ETL过程

Teradata提供了一套强大的工具和技术来处理数据集成和ETL过程。以下是一些常见的方法:使用Teradata Parallel Transporter (TPT):TPT是Teradata提供的一种高性能数据传输和转换工具,可以实现快速
Teradata怎么处理数据集成和ETL过程
2024-04-09

编程热搜

目录