安装zookeeper

下载

下载:从官方网站下载稳定版本 apache-zookeeper-3.6.2-bin.tar.gz,网址为:https://zookeeper.apache.org/index.html
最新下载URL:https://mirrors.tuna.tsinghua.edu.cn/apache/zookeeper/zookeeper-3.6.2/apache-zookeeper-3.6.2-bin.tar.gz

解压

  1. tar -zxvf apache-zookeeper-3.6.2-bin.tar.gz
  2. mv apache-zookeeper-3.6.2 zookeeper

编辑配置文件

  1. # 进入conf目录
  2. cd ./zookeeper/conf
  3. # 将zoo_sample.cfg这个文件复制为zoo.cfg (必须是这个文件名)
  4. cp zoo_sample.cfg zoo.cfg
  5. # 修改配置文件
  6. # 将zookeeper的数据目录和日志目录存放在zookeeper,以我本机为例
  7. dataDir=/data/zookeeper/data
  8. dataLogDir=/data/zookeeper/log
  9. # 注意:如果想配置集群的话,请在clientPort下面添加服务器的ip。如
  10. server.1=192.168.180.132:2888:3888
  11. server.2=192.168.180.133:2888:3888
  12. server.3=192.168.180.134:2888:3888
  13. # 如果电脑内存比较小,zookeeper还可以设置成伪集群。也就是全部服务器采用同一个ip,但是使用不同的端口。
  14. server.1=cloudmas:2005:6005
  15. server.2=cloudmas:2006:6006
  16. server.3=cloudmas:2007:6007
  17. # 创建数据和日志目录
  18. mkdir /data/zookeeper/data
  19. mkdir /data/zookeeper/log
  20. # 如果是配置集群,还需要在前面配置过的dataDir路径下新增myid文件
  21. # 在data目录下创建文件,文件名为“myid”, 编辑该“myid”文件,并在对应的IP的机器上输入对应的编号。
  22. # 如在192.168.180.132上,“myid”文件内容就是1。在192.168.180.133上,内容就是2。
  23. # 例如ip为192.168.180.132
  24. vim myid
  25. # 输入i进入编辑模式
  26. 1
  27. # Esc退出编辑模式进入命令模式,输入:wq,退出并保存

配置环境变量

  1. vim /etc/profile
  2. # 添加
  3. export ZOOKEEPER_HOME=/data/zookeeper #(这里是zookeeper安装目录)
  4. export PATH=${PATH}:${ZOOKEEPER_HOME}/bin

启动

  1. # 进入bin目录,并启动zookeeper,如果不是在bin目录下执行,需写绝对路径,
  2. # bin目录,注意: ./zkServer.sh start前面的 . 不可忽略。
  3. ./zkServer.sh start
  4. # 绝对路径,本机zookeeper目录/data/zookeeper
  5. /data/zookeeper/bin/zkServer.sh start
  6. # 启动成功效果如下:
  7. ZooKeeper JMX enabled by default
  8. Using config: /data/zookeeper/bin/../conf/zoo.cfg
  9. Starting zookeeper ... STARTED
  10. # 查看状态
  11. ./zkServer.sh status
  12. ZooKeeper JMX enabled by default
  13. Using config: /data/zookeeper/bin/../conf/zoo.cfg
  14. Mode: standalone

安装kafka

下载

下载:从官方网站下载版本 kafka_2.12-2.3.1.tgz,网址为:http://kafka.apache.org/
下载URL:https://mirrors.tuna.tsinghua.edu.cn/apache/kafka/2.3.1/kafka_2.12-2.3.1.tgz

解压

  1. tar -zxvf kafka_2.12-2.3.1.tgz
  2. mv kafka_2.12-2.3.1 kafka

修改配置文件

  1. # 进入config目录
  2. cd ./kafka/config
  3. # 修改server.properties
  4. vim server.properties
  5. # broker就是一个kafka的部署实例,在一个kafka集群中,每一台kafka都要有一个broker.id
  6. # 并且,该id唯一,且必须为整数
  7. broker.id=1
  8. # 默认配置 advertised.listeners=PLAINTEXT://:your.host.name:9092 改为:
  9. advertised.listeners=PLAINTEXT://:clown:9092
  10. # 默认配置 listeners=PLAINTEXT://:9092 改为
  11. listeners=PLAINTEXT://clown:9092
  12. # log.dirs改为kafka/logs
  13. log.dirs=/data/kafka/logs
  14. # zookeeper.connect修改为本机或集群zookeeper的连接地址
  15. zookeeper.connect=clown:2181
  16. # 如果是集群
  17. zookeeper.connect=clown01:2181,clown02:2181,clown03:2181
  18. # 以下两项可不改
  19. # 修改producer.properties
  20. # 默认配置 bootstrap.servers=localhost:9092 改为
  21. bootstrap.servers=clown:9092
  22. # 修改consumer.properties
  23. # 默认配置 bootstrap.servers=localhost:9092 改为
  24. bootstrap.servers=clown:9092

配置环境变量

  1. vim /etc/profile
  2. # 添加
  3. export KAFKA_HOME=/data/kafka #(这里kafka安装目录)
  4. export PATH=${PATH}:${KAFKA_HOME}/bin

启动

  1. # 进入bin目录,并启动kafka,如果不是在bin目录下执行,需写绝对路径,
  2. # bin目录,注意: ./kafka-server-start.sh start前面的 . 不可忽略。
  3. ./kafka-server-start.sh -daemon ../config/server.properties
  4. # 绝对路径,本机kafka目录/data/kafka
  5. /data/kafka/bin/kafka-server-start.sh -daemon ../config/server.properties

测试生产数据和消费数据

  1. # 启动生产者,生产数据
  2. /data/kafka/bin/kafka-console-producer.sh --broker-list clown:9092 --topic test_install
  3. # 启动消费者,消费数据
  4. /data/kafka/bin/kafka-console-consumer.sh --bootstrap-server clown:9092 --topic test_install
  5. # 使用生产者,生产数据, 查看消费者是否消费到数据
  6. # 如果消费成功,则表示安装成功

6.安装minio

  1. # MinIO 是一个基于Apache License v2.0开源协议的对象存储服务。它兼容亚马逊S3云存储服务接口,非常适合于存储大容量非结构化的数据,
  2. # 例如图片、视频、日志文件、备份数据和容器/虚拟机镜像等,而一个对象文件可以是任意大小,从几kb到最大5T不等。
  3. 1. 下载:从官方网站下载最新版本Minio,网址为: https://github.com/minio/minio,最新下载URL为: https://dl.min.io/server/minio/release/linux-amd64/minio
  4. ftpsftp工具拷贝miniolinux操作系统
  5. 2. 启动
  6. chmod +x minio
  7. # 使用默认端口:9000
  8. ./minio server /data
  9. # 指定端口
  10. ./minio server --address ":9001" ./data
  11. # 指定accessKey和secretKey启动
  12. export MINIO_ACCESS_KEY=cloudmas
  13. export MINIO_SECRET_KEY=cloudmas
  14. ./minio server /data

7.安装redis

  1. 1. 下载:从官方网站下载稳定版本 redis-6.0.8.tar.gz,网址为:http://download.redis.io/releases/
  2. ftpsftp工具拷贝redis-6.0.8.tar.gzlinux系统
  3. 2. 安装:
  4. 1. 将上述包解压后
  5. tar -xvf redis-6.0.8.tar.gz
  6. 2. 编译 安装
  7. cd redis-6.0.8
  8. ./configure
  9. # 编译安装到指定目录下
  10. make
  11. cd src && make PREFIX=/data/redis install
  12. # 如果有执行出错,先安装gcc
  13. # 若出现【zmalloc.h:50:31: 致命错误:jemalloc/jemalloc.h:没有那个文件或目录】,则运行命令make MALLOC=libc
  14. # 以下命令视情况使用
  15. # 编译出错时,清出编译生成的文件
  16. make distclean
  17. # 卸载
  18. make uninstall
  19. 3. 拷贝配置文件到安装目录下
  20. cd ../
  21. mkdir /data/redis/conf
  22. cp redis.conf /data/conf/redis
  23. 4. 配置redis为后台启动
  24. vim /data/redis/conf/redis.conf
  25. # 将daemonize no改为daemonize yes
  26. daemonize no -> daemonize yes
  27. # 如有需要添加reids密码,添加
  28. requirepass cloudmas
  29. 5. redis加入到开机启动
  30. vi /etc/rc.local
  31. # 添加内容:
  32. /data/redis/bin/redis-server /data/redis/conf/redis.conf
  33. 6.启动
  34. # 开启redis:
  35. /data/redis/bin/redis-server /data/redis/conf/redis.conf

8.安装flink

  1. 1. 下载:从官方网站下载版本 flink-1.10.1-bin-scala_2.12.tgz,网址为:https://flink.apache.org/downloads.html
  2. 下载URL:https://archive.apache.org/dist/flink/flink-1.10.1/flink-1.10.1-bin-scala_2.12.tgz
  3. 2. 解压
  4. tar -zxvf flink-1.10.1-bin-scala_2.12.tgz
  5. mv flink-1.10.1 flink
  6. 3. 修改配置文件
  7. 1. 进入config目录
  8. cd ./flink/conf
  9. 2. 修改flink-conf.yaml,masters,slaves
  10. vim server.properties
  11. # 添加如下配置
  12. env.java.home: /data/java/jdk-11.0.8
  13. # 可根据机器环境调整大小
  14. env.java.ops: -Xms2048m -Xmx2048m
  15. # 默认配置 jobmanager.rpc.address: localhost 改为:
  16. jobmanager.rpc.address: cloudmas
  17. # 以下两项可根据机器环境调整大小
  18. # 默认配置 jobmanager.heap.size: 1024m 改为
  19. jobmanager.heap.size: 2048m
  20. # 默认配置 jobmanager.heap.size: 1728m 改为
  21. jobmanager.heap.size: 2048m
  22. # 任务管理插槽,最低设置为8 默认配置 taskmanager.numberOfTaskSlots: 1 改为
  23. taskmanager.numberOfTaskSlots: 12
  24. # 任务并行度,默认配置 parallelism.default: 1 改为
  25. parallelism.default: 4
  26. # zookeeper.connect修改为本机或集群zookeeper的连接地址
  27. zookeeper.connect=cloudmas:2181
  28. # 如果是集群
  29. zookeeper.connect=cloudmas01:2181,cloudmas02:2181,cloudmas03:2181
  30. 3. 修改masters
  31. # 默认配置 localhost:8081 改为
  32. cloudmas:8081
  33. 4. 修改slaves
  34. # 默认配置 localhost 改为
  35. cloudmas
  36. 4. 配置环境变量
  37. vim /etc/profile
  38. # 添加
  39. export FLINK_HOME=/data/flink #(这里flink安装目录)
  40. export PATH=${PATH}:${FLINK_HOME}/bin
  41. 5. 启动
  42. 1. 进入bin目录,并启动flink,如果不是在bin目录下执行,需写绝对路径,
  43. # bin目录,注意: ./start-cluster.sh前面的 . 不可忽略。
  44. ./start-cluster.sh
  45. # 绝对路径,本机flink目录/data/flink
  46. /data/flink/bin/start-cluster.sh
  47. 6. 查看是否启动
  48. 1. 使用jps,可查看当前运行的程序
  49. # 如果包含以下两个程序,则代表启动成功
  50. StandaloneSessionClusterEntrypoint
  51. TaskManagerRunner
  52. 2. 使用WEB UI界面
  53. # 使用IP:PORT,如果进入页面,则代表启动成功

9.安装elasticsearch

  1. 1. 下载:从官方网站下载版本 elasticsearch-6.2.0.tar.gz,网址为:https://www.elastic.co/cn/elasticsearch/
  2. 下载URL:https://artifacts.elastic.co/downloads/elasticsearch/elasticsearch-6.2.0.tar.gz
  3. 2. 解压
  4. tar -zxvf elasticsearch-6.2.0.tar.gz
  5. mv elasticsearch-6.2.0 elasticsearch
  6. 3. 修改配置文件
  7. 1. 进入config目录
  8. cd ./elasticsearch/config
  9. 2. 修改elasticsearch.yml
  10. vim elasticsearch.yml
  11. # 添加如下配置
  12. cluster.name: my-application #(集群名)
  13. node.name: node-1 #(节点名)
  14. # 数据目录和日志目录
  15. path.data: /data/elasticsearch/path/to/data
  16. path.logs: /data/elasticsearch/path/to/logs
  17. bootstrap.memory_lock: false
  18. network.host: cloudmas #(IP地址||主机名)
  19. 4. 配置环境变量
  20. vim /etc/profile
  21. # 添加
  22. export ELASTICSEARCH_HOME=/data/elasticsearch #(这里flink安装目录)
  23. export PATH=${PATH}:${ELASTICSEARCH_HOME}/bin
  24. 5. 启动
  25. 1. 进入bin目录,并启动elasticsearch,如果不是在bin目录下执行,需写绝对路径,
  26. # bin目录,注意: ./elasticsearch前面的 . 不可忽略。
  27. ./elasticsearch -d
  28. # 绝对路径,本机flink目录/data/flink
  29. /data/elasticsearch/bin/elasticsearch -d
  30. 6. 查看是否启动
  31. 1. 使用jps,可查看当前运行的程序
  32. # 如果包含以下两个程序,则代表启动成功
  33. Elasticsearch
  34. 2. 使用WEB UI界面
  35. # 使用IP:PORT,如果进入页面,则代表启动成功
  36. 7. 安装可能遇到的问题:
  37. # 解决方案:
  38. 1. max file descriptors [65535] for elasticsearch process is too low, increase to at least [65536]
  39. vim /etc/security/limits.conf
  40. * hard nofile 65536
  41. * soft nofile 65536
  42. 2. max virtual memory areas vm.max_map_count [65530] is too low, increase to at least [262144]
  43. vim /etc/sysctl.conf
  44. vm.max_map_count=655360
  45. # 保存后,执行:
  46. sysctl -p
  47. 8. 跳过root启动验证
  48. 问题:Caused by: java.lang.RuntimeException: can not run elasticsearch as root
  49. # 解决方案
  50. 1. bin/elasticsearch -Des.insecure.allow.root=true