- 无论数据来自什么企业,或是多大量级,通过部署Flume,可以确保数据都**安全、及时**地到达大数据平台,用户可以将精力集中在如何洞悉数据上。
一、Flume 概述
1. Flume 定义
- Flume由Cloudera公司开发,是一个分布式、高可靠、高可用的海量日志采集、聚合、传输的系统
- Flume支持在日志系统中定制各类数据发送方,用于采集数据
- Flume提供对数据进行简单处理,并写到各种数据接收方的能力
简单的说,Flume 是实时采集日志的数据采集引擎
Flume有3个重要组件:Source、Channel、Sink
特点
- 分布式:flume分布式集群部署,扩展性好
- 可靠性好: 当节点出现故障时,日志能够被传送到其他节点上而不会丢失
- 易用性:flume配置使用较繁琐,对使用人员专业技术要求高(体现在出现问题以后怎么修改好配置)
- 实时采集:flume采集流模式进行数据实时采集
适用场景:适用于日志文件实时采集
其他数据采集工具还有:dataX、kettle、Logstash、Scribe、sqoop
- dataX 是阿里开源软件异构数据源离线同步工具。实现包括关系型数据库(MySQL、Oracle等)、HDFS、Hive、ODPS、HBase、FTP等各种异构数据源间稳定高效的数据同步功能。
- 特点:
- 易用性:没有界面,以执行脚本方式运行,对使用人员技术要求较高
- 性能:数据抽取性能高
- 部署:可独立部署
- 适用场景:在异构数据库/文件系统之间高速交换数据
- 特点:
- kettle 开源ETL工具。支持数据库、FTP、文件、rest接口、hdfs、hive等平台的据进行抽取、转换、传输等操作,Java编写跨平台,C/S架构,不支持浏览器模式。
- 特点:
- 易用性:有可视化设计器进行可视化操作,使用简单
- 功能强大:不仅能进行数据传输,能同时进行数据清洗转换等操作
- 支持多种源:支持各种数据库、FTP、文件、rest接口、hdfs、Hive等源
- 部署方便:独立部署,不依赖第三方产品
- 适用场景:数据量及增量不大(不适合海量数据),业务规则变化较快,要求可视化操作,对技术人员的技术门槛要求低。
- 特点:
- Logstash:应用程序日志、事件的传输、处理、管理和搜索的平台。可以用它来统一对应用程序日志进行收集管理,提供了Web接口用于查询和统计。
- Scribe 是Facebook开源的日志收集系统,它能够从各种日志源上收集日志,存储到一个中央存储系统(可以是NFS、分布式文件系统等)上,以便于进行集中统计分析处理
- NFS,Network File System,网络文件系统
- dataX 是阿里开源软件异构数据源离线同步工具。实现包括关系型数据库(MySQL、Oracle等)、HDFS、Hive、ODPS、HBase、FTP等各种异构数据源间稳定高效的数据同步功能。
2. Flume 体系结构
Flume 架构中的组件
- Agent本质上是一个 JVM 进程,该JVM进程控制Event数据流从外部日志生产者那里传输到目的地(或者是下一个Agent)。一个完整的Agent中包含了三个组件Source、Channel和Sink,Source是指数据的来源和方式,Channel是一个数据的缓冲池,Sink定义了数据输出的方式和目的地
- Source 是负责接收数据到Flume Agent的组件。Source组件可以处理各种类型、各种格式的日志数据,包括avro、exec、spooldir、netcat等。
- Channel 是位于Source和Sink之间的缓冲区。Channel允许Source和Sink运作在不同的速率上。Channel是线程安全的,可以同时处理多个Source的写入操作及多个Sink的读取操作。常用的Channel包括:
- Memory Channel 是内存中的队列。Memory Channel在允许数据丢失的情景下适用。如果不允许数据丢失,应该避免使用Memory Channel,因为程序死亡、机器宕机或者重启都可能会导致数据丢失;
- File Channel 将所有事件写到磁盘。因此在程序关闭或机器宕机的情况下不会丢失数据;
- Sink 不断地轮询Channel中的事件且批量地移除它们,并将这些事件批量写入到存储或索引系统、或者被发送到另一个Flume Agent。
- Sink是完全事务性的。在从Channel批量删除数据之前,每个Sink用Channel启动一个事务。批量事件一旦成功写出到存储系统或下一个Flume Agent,Sink就利用Channel提交事务。事务一旦被提交,该Channel从自己的内部缓冲区删除事件,事务提交失败,则可以重新再提交。
- Sink组件包括hdfs、logger、avro、file、null、HBase、消息队列等。
- Event(事务)是Flume定义的一个数据流传输的最小单位
3. Flume 拓扑结构
串行模式
- 将多个flume给顺序连接起来,从最初的 source 开始到最终sink传送的目的存储系统。
- 此模式不建议桥接过多的flume数量, flume 数量过多不仅会影响传输速率,而且一旦传输过程中某个节点flume宕机,会影响整个传输系统
复制模式
- 单Souce多Channel、Sink模式
- 将事件流向一个或者多个目的地。这种模式将数据源复制到多个channel中,每个channel都有相同的数据,sink可以选择传送的不同的目的地
负载均衡模式
- 单Source、Channel多Sink
- 将多个sink逻辑上分到一个sink组,flume将数据发送到不同的sink,主要解决 负载均衡 和 故障转移 问题
- 类比 反向代理服务器 nginx
聚合模式【最常用】
- 这种模式最常见的,也非常实用,日常web应用通常分布在上百个服务器,大者甚至上千个、上万个服务器。产生的日志,处理起来也非常麻烦。用这种组合方式能很好的解决这一问题,每台服务器部署一个flume采集日志,传送到一个集中收集日志的flume,再由此flume上传到hdfs、hive、hbase、消息队列中
4. Flume 内部原理
- 总体数据流向:Souce => Channel => Sink
- Channel 的组成:处理器、拦截器、选择器
**
具体过程
- Source接收事件,交给其Channel处理器处理事件
- 处理器通过拦截器Interceptor,对事件一些处理,比如压缩解码,正则拦截,时间戳拦截,分类等
- 经过拦截器处理过的事件再传给Channel选择器,将事件写入相应的Channel。Channel Selector有两种:
- Replicating Channel Selector(默认),会将source过来的Event发往所有Channel(比较常用的场景是,用多个Channel实现冗余副本,保证可用性)
- Multiplexing Channel Selector,根据配置分发event。此selector会根据event中某个header对应的value来将event发往不同的channel
- 最后由Sink处理器处理各个Channel的事件
二、安装和部署
资源网站
- Flume官网地址:http://flume.apache.org/
- 文档查看地址:http://flume.apache.org/FlumeUserGuide.html
- 下载地址:http://archive.apache.org/dist/flume/
- 选择的版本 1.9.0
安装步骤:
1、下载软件 apache-flume-1.9.0-bin.tar.gz
,并上传到 linux123 上的 /opt/lagou/software
目录下
2、解压 apache-flume-1.9.0-bin.tar.gz
到 /opt/lagou/servers/
目录下,并重命名为 flume-1.9.0
3、在 /etc/profile
中增加环境变量,并执行 source /etc/profile
,使修改生效
export FLUME_HOME=/opt/lagou/servers/flume-1.9.0
export PATH=$PATH:$FLUME_HOME/bin
4、将 $FLUME_HOME/conf
下的 flume-env.sh.template
改名为 flume-env.sh
,并添加 JAVA_HOME
的配置
- JAVA_HOME的路径可以通过以下命令来获得
echo $JAVA_HOME
cd $FLUME_HOME/conf mv flume-env.sh.template flume-env.sh vi flume-env.sh export JAVA_HOME=/opt/lagou/servers/jdk1.8.0_231