Flume:
=====================
Flume是一种分布式的、可靠的、可用的服务,可以有效地收集、聚合和移动大量的日志数据。
它有一个基于流数据的简单而灵活的体系结构。
它具有健壮性和容错能力,具有可调的可靠性机制和许多故障转移和恢复机制。
它使用一个简单的可扩展数据模型,允许在线分析应用程序
source
source:源对channel而言,相当于生产者,通过接收各种格式数据发送给channel进行传输flume的source类型 共有6种NetCat,Avro,Exec,Spooling Directory,Taildir(1)NetcatNetCat Source可以使用TCP和UDP两种协议方式,使用方法基本相同,通过监听指定的IP和端口来传输数据,它会将监听到的每一行数据转化成一个Event写入到Channel中。常用参数参考channels@ –type@ – 类型指定为:avrobind@ – 监听的主机名或IP地址port@ – 端口号threads – 传输可使用的最大线程数selector.typeselector.*interceptors – 拦截器列表interceptors.*compression-type none 可设置为“none” 或 “deflate”. 压缩类型需要和AvroSource匹配(2)Avro Source不同主机上的Agent通过网络传输数据可使用的Source,一般是接受Avro client的数据,或和是上一级Agent的Avro Sink成对存在。常用参数配置channels@ –type@ – 类型指定为:avrobind@ – 监听的主机名或IP地址port@ – 端口号threads – 传输可使用的最大线程数selector.typeselector.*interceptors – 拦截器列表interceptors.*compression-type none 可设置为“none” 或 “deflate”. 压缩类型需要和AvroSource匹配(3)Exec source通过执行给定的Unix命令的传输结果数据,如,cat,tail -F等,实时 性比较高,但是一旦Agent进程出现问题,可能会导致数据的丢失。channels@ –type@ – 类型指定为:execcommand@ – 需要去执行的命令shell – 运行命令的shell脚本文件restartThrottle 10000 尝试重启的超时时间restart false 如果命令执行失败,是否重启logStdErr false 是否记录错误日志batchSize 20 批次写入channel的最大日志数量batchTimeout 3000 批次写入数据的最大等待时间(毫秒)selector.type replicating 选择器类型replicating or multiplexingselector.* 选择器其他参数interceptors – 拦截器列表,多个空格分隔interceptors.*(4).Spooling Directory Source通过监控一个文件夹将新增文件内容转换成Event传输数据,特点是不会丢失数据,使用Spooling Directory Source需要注意的两点是,1)不能对被监控的文件夹下的新增的文件做出任何更改,2)新增到监控文件夹的文件名称必须是唯一的。由于是对整个新增文件的监控,Spooling Directory Source的实时性相对较低,不过可以采用对文件高粒度分割达到近似实时channels@ –type@ – 类型指定:spooldir.spoolDir@ – 被监控的文件夹目录fileSuffix .COMPLETED 完成数据传输的文件后缀标志deletePolicy never 删除已经完成数据传输的文件时间:never or immediatefileHeader false 是否在header中添加文件的完整路径信息fileHeaderKey file 如果header中添加文件的完整路径信息时key的名称basenameHeader false 是否在header中添加文件的基本名称信息basenameHeaderKey basename 如果header中添加文件的基本名称信息时key的名称includePattern ^.*$ 使用正则来匹配新增文件需要被传输数据的文件ignorePattern ^$ 使用正则来忽略新增的文件trackerDir .flumespool 存储元数据信息目录consumeOrder oldest 文件消费顺序:oldest, youngest and random.maxBackoff 4000 如果channel容量不足,尝试写入的超时时间,如果仍然不能写入,则会抛出ChannelExceptionbatchSize 100 批次处理粒度inputCharset UTF-8 输入码表格式decodeErrorPolicy FAIL 遇到不可解码字符后的处理方式:FAIL,REPLACE,IGNOREselector.type replicating 选择器类型:replicating or multiplexingselector.* 选择器其他参数interceptors – 拦截器列表,空格分隔interceptors.*(5)Taildir Source可以实时的监控指定一个或多个文件中的新增内容,由于该方式将数据的偏移量保 存在一个指定的json文件中,即使在Agent挂掉或被kill也不会有数据的丢失,需要注意的是,该Source不能在Windows上使用。Property Name Default Descriptionchannels@ –type@ – 指定类型:TAILDIR.filegroups@ – 文件组的名称,多个空格分隔filegroups.<filegroupName>@ – 被监控文件的绝对路径positionFile ~/.flume/taildir_position.json 存储数据偏移量路径headers.<filegroupName>.<headerKey> – Header key的名称byteOffsetHeader false 是否添加字节偏移量到key为‘byteoffset’值中skipToEnd false 当偏移量不能写入到文件时是否跳到文件结尾idleTimeout 120000 关闭没有新增内容的文件超时时间(毫秒)writePosInterval 3000 在positionfile 写入每一个文件lastposition的时间间隔batchSize 100 批次处理行数fileHeader false 是否添加header存储文件绝对路径fileHeaderKey file fileHeader启用时,使用的key
Channels (通道)
Channels
官网提供的Channel有多种类型可供选择,这里介绍Memory Channel和File Channel。
Memory Channel
Memory Channel是使用内存来存储Event,使用内存的意味着数据传输速率会很快,但是当Agent挂掉后,存储在Channel中的数据将会丢失。
Property Name Default Description
type@ – 类型指定为:memory
capacity 100 存储在channel中的最大容量
transactionCapacity 100 从一个source中去或者给一个sink,每个事务中最大的事件数
keep-alive 3 对于添加或者删除一个事件的超时的秒钟
byteCapacityBufferPercentage 20 定义缓存百分比
byteCapacity see description Channel中允许存储的最大字节总数
File Channel
File Channel使用磁盘来存储Event,速率相对于Memory Channel较慢,但数据不会丢失。
Property Name Default Description
type@ – 类型指定:file.
checkpointDir ~/.flume/file-channel/checkpoint checkpoint目录
useDualCheckpoints false 备份checkpoint,为True,backupCheckpointDir必须设置
backupCheckpointDir – 备份checkpoint目录
dataDirs ~/.flume/file-channel/data 数据存储所在的目录设置
transactionCapacity 10000 Event存储最大值
checkpointInterval 30000 checkpoint间隔时间
maxFileSize 2146435071 单一日志最大设置字节数
minimumRequiredSpace 524288000 最小的请求闲置空间(以字节为单位)
capacity 1000000 Channel最大容量
keep-alive 3 一个存放操作的等待时间值(秒)
use-log-replay-v1 false Expert: 使用老的回复逻辑
use-fast-replay false Expert: 回复不需要队列
checkpointOnClose true
Sinks
Sinks
Flume常用Sinks有Log Sink,HDFS Sink,Avro Sink,Kafka Sink,当然也可以自定义Sink。
Logger Sink
Logger Sink以INFO 级别的日志记录到log日志中,这种方式通常用于测试。
Property Name Default Description
channel@ –
type@ – 类型指定:logger
maxBytesToLog 16 能够记录的最大Event Body字节数
HDFS Sink
Sink数据到HDFS,目前支持text 和 sequence files两种文件格式,支持压缩,并可以对数据进行分区,分桶存储。
Name Default Description
channel@ –
type@ – 指定类型:hdfs
hdfs.path@ – HDFS的路径,eg hdfs://namenode/flume/webdata/
hdfs.filePrefix FlumeData 保存数据文件的前缀名
hdfs.fileSuffix – 保存数据文件的后缀名
hdfs.inUsePrefix – 临时写入的文件前缀名
hdfs.inUseSuffix .tmp 临时写入的文件后缀名
hdfs.rollInterval 30 间隔多长将临时文件滚动成最终目标文件,单位:秒,
如果设置成0,则表示不根据时间来滚动文件
hdfs.rollSize 1024 当临时文件达到多少(单位:bytes)时,滚动成目标文件,
如果设置成0,则表示不根据临时文件大小来滚动文件
hdfs.rollCount 10 当 events 数据达到该数量时候,将临时文件滚动成目标文件,
如果设置成0,则表示不根据events数据来滚动文件
hdfs.idleTimeout 0 当目前被打开的临时文件在该参数指定的时间(秒)内,
没有任何数据写入,则将该临时文件关闭并重命名成目标文件
hdfs.batchSize 100 每个批次刷新到 HDFS 上的 events 数量
hdfs.codeC – 文件压缩格式,包括:gzip, bzip2, lzo, lzop, snappy
hdfs.fileType SequenceFile 文件格式,包括:SequenceFile, DataStream,CompressedStre,
当使用DataStream时候,文件不会被压缩,不需要设置hdfs.codeC;
当使用CompressedStream时候,必须设置一个正确的hdfs.codeC值;
hdfs.maxOpenFiles 5000 最大允许打开的HDFS文件数,当打开的文件数达到该值,
最早打开的文件将会被关闭
hdfs.minBlockReplicas – HDFS副本数,写入 HDFS 文件块的最小副本数。
该参数会影响文件的滚动配置,一般将该参数配置成1,才可以按照配置正确滚动文件
hdfs.writeFormat Writable 写 sequence 文件的格式。包含:Text, Writable(默认)
hdfs.callTimeout 10000 执行HDFS操作的超时时间(单位:毫秒)
hdfs.threadsPoolSize 10 hdfs sink 启动的操作HDFS的线程数
hdfs.rollTimerPoolSize 1 hdfs sink 启动的根据时间滚动文件的线程数
hdfs.kerberosPrincipal – HDFS安全认证kerberos配置
hdfs.kerberosKeytab – HDFS安全认证kerberos配置
hdfs.proxyUser 代理用户
hdfs.round false 是否启用时间上的”舍弃”
hdfs.roundValue 1 时间上进行“舍弃”的值
hdfs.roundUnit second 时间上进行”舍弃”的单位,包含:second,minute,hour
hdfs.timeZone Local Time 时区。
hdfs.useLocalTimeStamp false 是否使用当地时间
hdfs.closeTries 0 Number hdfs sink 关闭文件的尝试次数;
如果设置为1,当一次关闭文件失败后,hdfs sink将不会再次尝试关闭文件,
这个未关闭的文件将会一直留在那,并且是打开状态;
设置为0,当一次关闭失败后,hdfs sink会继续尝试下一次关闭,直到成功
hdfs.retryInterval 180 hdfs sink 尝试关闭文件的时间间隔,
如果设置为0,表示不尝试,相当于于将hdfs.closeTries设置成1
serializer TEXT 序列化类型
serializer.*
Avro Sink
Property Name Default Description
channel@ –
type@ – 指定类型:avro.
hostname@ – 主机名或IP
port@ – 端口号
batch-size 100 批次处理Event数
connect-timeout 20000 连接超时时间
request-timeout 20000 请求超时时间
compression-type none 压缩类型,“none” or “deflate”.
compression-level 6 压缩级别,0表示不压缩,1-9数字越大,压缩比越高
ssl false 使用ssl加密
Kafka Sink
传输数据到Kafka中,需要注意的是Flume版本和Kafka版本的兼容性
Property Name Default Description
type – 指定类型:org.apache.flume.sink.kafka.KafkaSink
kafka.bootstrap.servers – kafka服务地址
kafka.topic default-flume-topic kafka Topic
flumeBatchSize 100 批次写入kafka Event数
kafka.producer.acks 1 多少个副本确认后才能确定消息传递成功,0表示不需要确认
1表示只需要首要的副本得到确认,-1表示等待所有确认。
