配置过程
1. 下载 kafka 安装包到 /opt/software(略)
2. 将其解压到 /opt/module 修改文件名为 kafka
3. 修改配置文件 config/server.properties
cd /opt/module/kafka/configvim server.properties
主要配置说明
#broker 的全局唯一编号,不能重复broker.id=0#删除 topic 功能使能delete.topic.enable=true#处理网络请求的线程数量num.network.threads=3#用来处理磁盘 IO 的现成数量num.io.threads=8#发送套接字的缓冲区大小socket.send.buffer.bytes=102400#接收套接字的缓冲区大小socket.receive.buffer.bytes=102400#请求套接字的缓冲区大小socket.request.max.bytes=104857600#kafka 运行日志存放的路径log.dirs=/opt/module/kafka/logs#topic 在当前 broker 上的分区个数num.partitions=1#用来恢复和清理 data 下数据的线程数量num.recovery.threads.per.data.dir=1#segment 文件保留的最长时间,超时将被删除log.retention.hours=168#配置连接 Zookeeper 集群地址zookeeper.connect=hadoop102:2181,hadoop103:2181,hadoop104:2181
4. 配置环境变量
vim /etc/profile# 增加以下内容#KAFKA_HOMEexport KAFKA_HOME=/opt/module/kafkaexport PATH=$PATH:$KAFKA_HOME/binsource /etc/profile
5. 分发安装包
cd /opt/modulexsync kafka/
注意:分发之后记得配置其他机器的环境变量
6. 在分发的机器中配置 server.properties
分别在 hadoop103 和 hadoop104 上修改配置文件/opt/module/kafka/config/server.properties中的 broker.id=1、broker.id=2
注意:broker.id 不得重复
7. 启动与关闭 kafka 集群
- 启动之前先启动 zookeeper
[root@hadoop-node1 kafka]# bin/kafka-server-start.sh config/server.properties[root@hadoop-node2 kafka]# bin/kafka-server-start.sh config/server.properties[root@hadoop-node2 kafka]# bin/kafka-server-start.sh config/server.properties
[root@hadoop-node1 kafka]# bin/kafka-server-stop.sh stop[root@hadoop-node2 kafka]# bin/kafka-server-stop.sh stop[root@hadoop-node2 kafka]# bin/kafka-server-stop.sh stop




