安装zookeeper
下载
下载:从官方网站下载稳定版本 apache-zookeeper-3.6.2-bin.tar.gz,网址为:https://zookeeper.apache.org/index.html
最新下载URL:https://mirrors.tuna.tsinghua.edu.cn/apache/zookeeper/zookeeper-3.6.2/apache-zookeeper-3.6.2-bin.tar.gz
解压
tar -zxvf apache-zookeeper-3.6.2-bin.tar.gzmv apache-zookeeper-3.6.2 zookeeper
编辑配置文件
# 进入conf目录cd ./zookeeper/conf# 将zoo_sample.cfg这个文件复制为zoo.cfg (必须是这个文件名)cp zoo_sample.cfg zoo.cfg# 修改配置文件# 将zookeeper的数据目录和日志目录存放在zookeeper,以我本机为例dataDir=/data/zookeeper/datadataLogDir=/data/zookeeper/log# 注意:如果想配置集群的话,请在clientPort下面添加服务器的ip。如server.1=192.168.180.132:2888:3888server.2=192.168.180.133:2888:3888server.3=192.168.180.134:2888:3888# 如果电脑内存比较小,zookeeper还可以设置成伪集群。也就是全部服务器采用同一个ip,但是使用不同的端口。server.1=cloudmas:2005:6005server.2=cloudmas:2006:6006server.3=cloudmas:2007:6007# 创建数据和日志目录mkdir /data/zookeeper/datamkdir /data/zookeeper/log# 如果是配置集群,还需要在前面配置过的dataDir路径下新增myid文件# 在data目录下创建文件,文件名为“myid”, 编辑该“myid”文件,并在对应的IP的机器上输入对应的编号。# 如在192.168.180.132上,“myid”文件内容就是1。在192.168.180.133上,内容就是2。# 例如ip为192.168.180.132vim myid# 输入i进入编辑模式1# Esc退出编辑模式进入命令模式,输入:wq,退出并保存
配置环境变量
vim /etc/profile# 添加export ZOOKEEPER_HOME=/data/zookeeper #(这里是zookeeper安装目录)export PATH=${PATH}:${ZOOKEEPER_HOME}/bin
启动
# 进入bin目录,并启动zookeeper,如果不是在bin目录下执行,需写绝对路径,# bin目录,注意: ./zkServer.sh start前面的 . 不可忽略。./zkServer.sh start# 绝对路径,本机zookeeper目录/data/zookeeper/data/zookeeper/bin/zkServer.sh start# 启动成功效果如下:ZooKeeper JMX enabled by defaultUsing config: /data/zookeeper/bin/../conf/zoo.cfgStarting zookeeper ... STARTED# 查看状态./zkServer.sh statusZooKeeper JMX enabled by defaultUsing config: /data/zookeeper/bin/../conf/zoo.cfgMode: standalone
安装kafka
下载
下载:从官方网站下载版本 kafka_2.12-2.3.1.tgz,网址为:http://kafka.apache.org/
下载URL:https://mirrors.tuna.tsinghua.edu.cn/apache/kafka/2.3.1/kafka_2.12-2.3.1.tgz
解压
tar -zxvf kafka_2.12-2.3.1.tgzmv kafka_2.12-2.3.1 kafka
修改配置文件
# 进入config目录cd ./kafka/config# 修改server.propertiesvim server.properties# broker就是一个kafka的部署实例,在一个kafka集群中,每一台kafka都要有一个broker.id# 并且,该id唯一,且必须为整数broker.id=1# 默认配置 advertised.listeners=PLAINTEXT://:your.host.name:9092 改为:advertised.listeners=PLAINTEXT://:clown:9092# 默认配置 listeners=PLAINTEXT://:9092 改为listeners=PLAINTEXT://clown:9092# log.dirs改为kafka/logslog.dirs=/data/kafka/logs# zookeeper.connect修改为本机或集群zookeeper的连接地址zookeeper.connect=clown:2181# 如果是集群zookeeper.connect=clown01:2181,clown02:2181,clown03:2181# 以下两项可不改# 修改producer.properties# 默认配置 bootstrap.servers=localhost:9092 改为bootstrap.servers=clown:9092# 修改consumer.properties# 默认配置 bootstrap.servers=localhost:9092 改为bootstrap.servers=clown:9092
配置环境变量
vim /etc/profile# 添加export KAFKA_HOME=/data/kafka #(这里kafka安装目录)export PATH=${PATH}:${KAFKA_HOME}/bin
启动
# 进入bin目录,并启动kafka,如果不是在bin目录下执行,需写绝对路径,# bin目录,注意: ./kafka-server-start.sh start前面的 . 不可忽略。./kafka-server-start.sh -daemon ../config/server.properties# 绝对路径,本机kafka目录/data/kafka/data/kafka/bin/kafka-server-start.sh -daemon ../config/server.properties
测试生产数据和消费数据
# 启动生产者,生产数据/data/kafka/bin/kafka-console-producer.sh --broker-list clown:9092 --topic test_install# 启动消费者,消费数据/data/kafka/bin/kafka-console-consumer.sh --bootstrap-server clown:9092 --topic test_install# 使用生产者,生产数据, 查看消费者是否消费到数据# 如果消费成功,则表示安装成功
6.安装minio
# MinIO 是一个基于Apache License v2.0开源协议的对象存储服务。它兼容亚马逊S3云存储服务接口,非常适合于存储大容量非结构化的数据,# 例如图片、视频、日志文件、备份数据和容器/虚拟机镜像等,而一个对象文件可以是任意大小,从几kb到最大5T不等。1. 下载:从官方网站下载最新版本Minio,网址为: https://github.com/minio/minio,最新下载URL为: https://dl.min.io/server/minio/release/linux-amd64/minio用ftp或sftp工具拷贝minio到linux操作系统2. 启动chmod +x minio# 使用默认端口:9000./minio server /data# 指定端口./minio server --address ":9001" ./data# 指定accessKey和secretKey启动export MINIO_ACCESS_KEY=cloudmasexport MINIO_SECRET_KEY=cloudmas./minio server /data
7.安装redis
1. 下载:从官方网站下载稳定版本 redis-6.0.8.tar.gz,网址为:http://download.redis.io/releases/用ftp或sftp工具拷贝redis-6.0.8.tar.gz到linux系统2. 安装:1. 将上述包解压后tar -xvf redis-6.0.8.tar.gz2. 编译 安装cd redis-6.0.8./configure# 编译安装到指定目录下makecd src && make PREFIX=/data/redis install# 如果有执行出错,先安装gcc# 若出现【zmalloc.h:50:31: 致命错误:jemalloc/jemalloc.h:没有那个文件或目录】,则运行命令make MALLOC=libc# 以下命令视情况使用# 编译出错时,清出编译生成的文件make distclean# 卸载make uninstall3. 拷贝配置文件到安装目录下cd ../mkdir /data/redis/confcp redis.conf /data/conf/redis4. 配置redis为后台启动vim /data/redis/conf/redis.conf# 将daemonize no改为daemonize yesdaemonize no -> daemonize yes# 如有需要添加reids密码,添加requirepass cloudmas5. 将redis加入到开机启动vi /etc/rc.local# 添加内容:/data/redis/bin/redis-server /data/redis/conf/redis.conf6.启动# 开启redis:/data/redis/bin/redis-server /data/redis/conf/redis.conf
8.安装flink
1. 下载:从官方网站下载版本 flink-1.10.1-bin-scala_2.12.tgz,网址为:https://flink.apache.org/downloads.html下载URL:https://archive.apache.org/dist/flink/flink-1.10.1/flink-1.10.1-bin-scala_2.12.tgz2. 解压tar -zxvf flink-1.10.1-bin-scala_2.12.tgzmv flink-1.10.1 flink3. 修改配置文件1. 进入config目录cd ./flink/conf2. 修改flink-conf.yaml,masters,slavesvim server.properties# 添加如下配置env.java.home: /data/java/jdk-11.0.8# 可根据机器环境调整大小env.java.ops: -Xms2048m -Xmx2048m# 默认配置 jobmanager.rpc.address: localhost 改为:jobmanager.rpc.address: cloudmas# 以下两项可根据机器环境调整大小# 默认配置 jobmanager.heap.size: 1024m 改为jobmanager.heap.size: 2048m# 默认配置 jobmanager.heap.size: 1728m 改为jobmanager.heap.size: 2048m# 任务管理插槽,最低设置为8 默认配置 taskmanager.numberOfTaskSlots: 1 改为taskmanager.numberOfTaskSlots: 12# 任务并行度,默认配置 parallelism.default: 1 改为parallelism.default: 4# zookeeper.connect修改为本机或集群zookeeper的连接地址zookeeper.connect=cloudmas:2181# 如果是集群zookeeper.connect=cloudmas01:2181,cloudmas02:2181,cloudmas03:21813. 修改masters# 默认配置 localhost:8081 改为cloudmas:80814. 修改slaves# 默认配置 localhost 改为cloudmas4. 配置环境变量vim /etc/profile# 添加export FLINK_HOME=/data/flink #(这里flink安装目录)export PATH=${PATH}:${FLINK_HOME}/bin5. 启动1. 进入bin目录,并启动flink,如果不是在bin目录下执行,需写绝对路径,# bin目录,注意: ./start-cluster.sh前面的 . 不可忽略。./start-cluster.sh# 绝对路径,本机flink目录/data/flink/data/flink/bin/start-cluster.sh6. 查看是否启动1. 使用jps,可查看当前运行的程序# 如果包含以下两个程序,则代表启动成功StandaloneSessionClusterEntrypointTaskManagerRunner2. 使用WEB UI界面# 使用IP:PORT,如果进入页面,则代表启动成功
9.安装elasticsearch
1. 下载:从官方网站下载版本 elasticsearch-6.2.0.tar.gz,网址为:https://www.elastic.co/cn/elasticsearch/下载URL:https://artifacts.elastic.co/downloads/elasticsearch/elasticsearch-6.2.0.tar.gz2. 解压tar -zxvf elasticsearch-6.2.0.tar.gzmv elasticsearch-6.2.0 elasticsearch3. 修改配置文件1. 进入config目录cd ./elasticsearch/config2. 修改elasticsearch.ymlvim elasticsearch.yml# 添加如下配置cluster.name: my-application #(集群名)node.name: node-1 #(节点名)# 数据目录和日志目录path.data: /data/elasticsearch/path/to/datapath.logs: /data/elasticsearch/path/to/logsbootstrap.memory_lock: falsenetwork.host: cloudmas #(IP地址||主机名)4. 配置环境变量vim /etc/profile# 添加export ELASTICSEARCH_HOME=/data/elasticsearch #(这里flink安装目录)export PATH=${PATH}:${ELASTICSEARCH_HOME}/bin5. 启动1. 进入bin目录,并启动elasticsearch,如果不是在bin目录下执行,需写绝对路径,# bin目录,注意: ./elasticsearch前面的 . 不可忽略。./elasticsearch -d# 绝对路径,本机flink目录/data/flink/data/elasticsearch/bin/elasticsearch -d6. 查看是否启动1. 使用jps,可查看当前运行的程序# 如果包含以下两个程序,则代表启动成功Elasticsearch2. 使用WEB UI界面# 使用IP:PORT,如果进入页面,则代表启动成功7. 安装可能遇到的问题:# 解决方案:1. max file descriptors [65535] for elasticsearch process is too low, increase to at least [65536]vim /etc/security/limits.conf* hard nofile 65536* soft nofile 655362. max virtual memory areas vm.max_map_count [65530] is too low, increase to at least [262144]vim /etc/sysctl.confvm.max_map_count=655360# 保存后,执行:sysctl -p8. 跳过root启动验证问题:Caused by: java.lang.RuntimeException: can not run elasticsearch as root# 解决方案1. bin/elasticsearch -Des.insecure.allow.root=true
