安装zookeeper
下载
下载:从官方网站下载稳定版本 apache-zookeeper-3.6.2-bin.tar.gz,网址为:https://zookeeper.apache.org/index.html
最新下载URL:https://mirrors.tuna.tsinghua.edu.cn/apache/zookeeper/zookeeper-3.6.2/apache-zookeeper-3.6.2-bin.tar.gz
解压
tar -zxvf apache-zookeeper-3.6.2-bin.tar.gz
mv apache-zookeeper-3.6.2 zookeeper
编辑配置文件
# 进入conf目录
cd ./zookeeper/conf
# 将zoo_sample.cfg这个文件复制为zoo.cfg (必须是这个文件名)
cp zoo_sample.cfg zoo.cfg
# 修改配置文件
# 将zookeeper的数据目录和日志目录存放在zookeeper,以我本机为例
dataDir=/data/zookeeper/data
dataLogDir=/data/zookeeper/log
# 注意:如果想配置集群的话,请在clientPort下面添加服务器的ip。如
server.1=192.168.180.132:2888:3888
server.2=192.168.180.133:2888:3888
server.3=192.168.180.134:2888:3888
# 如果电脑内存比较小,zookeeper还可以设置成伪集群。也就是全部服务器采用同一个ip,但是使用不同的端口。
server.1=cloudmas:2005:6005
server.2=cloudmas:2006:6006
server.3=cloudmas:2007:6007
# 创建数据和日志目录
mkdir /data/zookeeper/data
mkdir /data/zookeeper/log
# 如果是配置集群,还需要在前面配置过的dataDir路径下新增myid文件
# 在data目录下创建文件,文件名为“myid”, 编辑该“myid”文件,并在对应的IP的机器上输入对应的编号。
# 如在192.168.180.132上,“myid”文件内容就是1。在192.168.180.133上,内容就是2。
# 例如ip为192.168.180.132
vim myid
# 输入i进入编辑模式
1
# Esc退出编辑模式进入命令模式,输入:wq,退出并保存
配置环境变量
vim /etc/profile
# 添加
export ZOOKEEPER_HOME=/data/zookeeper #(这里是zookeeper安装目录)
export PATH=${PATH}:${ZOOKEEPER_HOME}/bin
启动
# 进入bin目录,并启动zookeeper,如果不是在bin目录下执行,需写绝对路径,
# bin目录,注意: ./zkServer.sh start前面的 . 不可忽略。
./zkServer.sh start
# 绝对路径,本机zookeeper目录/data/zookeeper
/data/zookeeper/bin/zkServer.sh start
# 启动成功效果如下:
ZooKeeper JMX enabled by default
Using config: /data/zookeeper/bin/../conf/zoo.cfg
Starting zookeeper ... STARTED
# 查看状态
./zkServer.sh status
ZooKeeper JMX enabled by default
Using config: /data/zookeeper/bin/../conf/zoo.cfg
Mode: standalone
安装kafka
下载
下载:从官方网站下载版本 kafka_2.12-2.3.1.tgz,网址为:http://kafka.apache.org/
下载URL:https://mirrors.tuna.tsinghua.edu.cn/apache/kafka/2.3.1/kafka_2.12-2.3.1.tgz
解压
tar -zxvf kafka_2.12-2.3.1.tgz
mv kafka_2.12-2.3.1 kafka
修改配置文件
# 进入config目录
cd ./kafka/config
# 修改server.properties
vim server.properties
# broker就是一个kafka的部署实例,在一个kafka集群中,每一台kafka都要有一个broker.id
# 并且,该id唯一,且必须为整数
broker.id=1
# 默认配置 advertised.listeners=PLAINTEXT://:your.host.name:9092 改为:
advertised.listeners=PLAINTEXT://:clown:9092
# 默认配置 listeners=PLAINTEXT://:9092 改为
listeners=PLAINTEXT://clown:9092
# log.dirs改为kafka/logs
log.dirs=/data/kafka/logs
# zookeeper.connect修改为本机或集群zookeeper的连接地址
zookeeper.connect=clown:2181
# 如果是集群
zookeeper.connect=clown01:2181,clown02:2181,clown03:2181
# 以下两项可不改
# 修改producer.properties
# 默认配置 bootstrap.servers=localhost:9092 改为
bootstrap.servers=clown:9092
# 修改consumer.properties
# 默认配置 bootstrap.servers=localhost:9092 改为
bootstrap.servers=clown:9092
配置环境变量
vim /etc/profile
# 添加
export KAFKA_HOME=/data/kafka #(这里kafka安装目录)
export PATH=${PATH}:${KAFKA_HOME}/bin
启动
# 进入bin目录,并启动kafka,如果不是在bin目录下执行,需写绝对路径,
# bin目录,注意: ./kafka-server-start.sh start前面的 . 不可忽略。
./kafka-server-start.sh -daemon ../config/server.properties
# 绝对路径,本机kafka目录/data/kafka
/data/kafka/bin/kafka-server-start.sh -daemon ../config/server.properties
测试生产数据和消费数据
# 启动生产者,生产数据
/data/kafka/bin/kafka-console-producer.sh --broker-list clown:9092 --topic test_install
# 启动消费者,消费数据
/data/kafka/bin/kafka-console-consumer.sh --bootstrap-server clown:9092 --topic test_install
# 使用生产者,生产数据, 查看消费者是否消费到数据
# 如果消费成功,则表示安装成功
6.安装minio
# MinIO 是一个基于Apache License v2.0开源协议的对象存储服务。它兼容亚马逊S3云存储服务接口,非常适合于存储大容量非结构化的数据,
# 例如图片、视频、日志文件、备份数据和容器/虚拟机镜像等,而一个对象文件可以是任意大小,从几kb到最大5T不等。
1. 下载:从官方网站下载最新版本Minio,网址为: https://github.com/minio/minio,最新下载URL为: https://dl.min.io/server/minio/release/linux-amd64/minio
用ftp或sftp工具拷贝minio到linux操作系统
2. 启动
chmod +x minio
# 使用默认端口:9000
./minio server /data
# 指定端口
./minio server --address ":9001" ./data
# 指定accessKey和secretKey启动
export MINIO_ACCESS_KEY=cloudmas
export MINIO_SECRET_KEY=cloudmas
./minio server /data
7.安装redis
1. 下载:从官方网站下载稳定版本 redis-6.0.8.tar.gz,网址为:http://download.redis.io/releases/
用ftp或sftp工具拷贝redis-6.0.8.tar.gz到linux系统
2. 安装:
1. 将上述包解压后
tar -xvf redis-6.0.8.tar.gz
2. 编译 安装
cd redis-6.0.8
./configure
# 编译安装到指定目录下
make
cd src && make PREFIX=/data/redis install
# 如果有执行出错,先安装gcc
# 若出现【zmalloc.h:50:31: 致命错误:jemalloc/jemalloc.h:没有那个文件或目录】,则运行命令make MALLOC=libc
# 以下命令视情况使用
# 编译出错时,清出编译生成的文件
make distclean
# 卸载
make uninstall
3. 拷贝配置文件到安装目录下
cd ../
mkdir /data/redis/conf
cp redis.conf /data/conf/redis
4. 配置redis为后台启动
vim /data/redis/conf/redis.conf
# 将daemonize no改为daemonize yes
daemonize no -> daemonize yes
# 如有需要添加reids密码,添加
requirepass cloudmas
5. 将redis加入到开机启动
vi /etc/rc.local
# 添加内容:
/data/redis/bin/redis-server /data/redis/conf/redis.conf
6.启动
# 开启redis:
/data/redis/bin/redis-server /data/redis/conf/redis.conf
8.安装flink
1. 下载:从官方网站下载版本 flink-1.10.1-bin-scala_2.12.tgz,网址为:https://flink.apache.org/downloads.html
下载URL:https://archive.apache.org/dist/flink/flink-1.10.1/flink-1.10.1-bin-scala_2.12.tgz
2. 解压
tar -zxvf flink-1.10.1-bin-scala_2.12.tgz
mv flink-1.10.1 flink
3. 修改配置文件
1. 进入config目录
cd ./flink/conf
2. 修改flink-conf.yaml,masters,slaves
vim server.properties
# 添加如下配置
env.java.home: /data/java/jdk-11.0.8
# 可根据机器环境调整大小
env.java.ops: -Xms2048m -Xmx2048m
# 默认配置 jobmanager.rpc.address: localhost 改为:
jobmanager.rpc.address: cloudmas
# 以下两项可根据机器环境调整大小
# 默认配置 jobmanager.heap.size: 1024m 改为
jobmanager.heap.size: 2048m
# 默认配置 jobmanager.heap.size: 1728m 改为
jobmanager.heap.size: 2048m
# 任务管理插槽,最低设置为8 默认配置 taskmanager.numberOfTaskSlots: 1 改为
taskmanager.numberOfTaskSlots: 12
# 任务并行度,默认配置 parallelism.default: 1 改为
parallelism.default: 4
# zookeeper.connect修改为本机或集群zookeeper的连接地址
zookeeper.connect=cloudmas:2181
# 如果是集群
zookeeper.connect=cloudmas01:2181,cloudmas02:2181,cloudmas03:2181
3. 修改masters
# 默认配置 localhost:8081 改为
cloudmas:8081
4. 修改slaves
# 默认配置 localhost 改为
cloudmas
4. 配置环境变量
vim /etc/profile
# 添加
export FLINK_HOME=/data/flink #(这里flink安装目录)
export PATH=${PATH}:${FLINK_HOME}/bin
5. 启动
1. 进入bin目录,并启动flink,如果不是在bin目录下执行,需写绝对路径,
# bin目录,注意: ./start-cluster.sh前面的 . 不可忽略。
./start-cluster.sh
# 绝对路径,本机flink目录/data/flink
/data/flink/bin/start-cluster.sh
6. 查看是否启动
1. 使用jps,可查看当前运行的程序
# 如果包含以下两个程序,则代表启动成功
StandaloneSessionClusterEntrypoint
TaskManagerRunner
2. 使用WEB UI界面
# 使用IP:PORT,如果进入页面,则代表启动成功
9.安装elasticsearch
1. 下载:从官方网站下载版本 elasticsearch-6.2.0.tar.gz,网址为:https://www.elastic.co/cn/elasticsearch/
下载URL:https://artifacts.elastic.co/downloads/elasticsearch/elasticsearch-6.2.0.tar.gz
2. 解压
tar -zxvf elasticsearch-6.2.0.tar.gz
mv elasticsearch-6.2.0 elasticsearch
3. 修改配置文件
1. 进入config目录
cd ./elasticsearch/config
2. 修改elasticsearch.yml
vim elasticsearch.yml
# 添加如下配置
cluster.name: my-application #(集群名)
node.name: node-1 #(节点名)
# 数据目录和日志目录
path.data: /data/elasticsearch/path/to/data
path.logs: /data/elasticsearch/path/to/logs
bootstrap.memory_lock: false
network.host: cloudmas #(IP地址||主机名)
4. 配置环境变量
vim /etc/profile
# 添加
export ELASTICSEARCH_HOME=/data/elasticsearch #(这里flink安装目录)
export PATH=${PATH}:${ELASTICSEARCH_HOME}/bin
5. 启动
1. 进入bin目录,并启动elasticsearch,如果不是在bin目录下执行,需写绝对路径,
# bin目录,注意: ./elasticsearch前面的 . 不可忽略。
./elasticsearch -d
# 绝对路径,本机flink目录/data/flink
/data/elasticsearch/bin/elasticsearch -d
6. 查看是否启动
1. 使用jps,可查看当前运行的程序
# 如果包含以下两个程序,则代表启动成功
Elasticsearch
2. 使用WEB UI界面
# 使用IP:PORT,如果进入页面,则代表启动成功
7. 安装可能遇到的问题:
# 解决方案:
1. max file descriptors [65535] for elasticsearch process is too low, increase to at least [65536]
vim /etc/security/limits.conf
* hard nofile 65536
* soft nofile 65536
2. max virtual memory areas vm.max_map_count [65530] is too low, increase to at least [262144]
vim /etc/sysctl.conf
vm.max_map_count=655360
# 保存后,执行:
sysctl -p
8. 跳过root启动验证
问题:Caused by: java.lang.RuntimeException: can not run elasticsearch as root
# 解决方案
1. bin/elasticsearch -Des.insecure.allow.root=true