Linux:
jmap -histo:live pid
分析哪些对象占用了堆内存jmap -histo:live pid | head -20
条数限制查看Linux 系统核数
grep ^processor /proc/cpuinfo | wc -l
查看物理Cpu的个数
cat /proc/cpuinfo| grep “processor”| wc -l
查看Cpu型号(信息)
cat /proc/cpuinfo | grep name | cut -f2 -d: | uniq -c dmidecode -s processor-version
查看内存信息
cat /proc/meminfo
内存使用概况
free -h
检测程序是否启动
ps aux | grep redis
赋予权限
chown -R es /package
SCP
scp -r 当前目录 远程目录 scp -r ./zookeeper.out node02:$PWD
Vi / vim 下复制粘贴
yy p
-
查看 Cpu 信息
```java top - 20:13:13 up 59 days, 3:01, 1 user, load average: 0.21, 0.19, 0.16 当前时间 | 系统运行时长 | 当前登录用户数 | 系统平均负载(同cat /proc/loadavg命令前三个值)
Tasks: 286 total, 1 running, 285 sleeping, 0 stopped, 0 zombie 进程总数 | 正在运行的进程数 | 睡眠的进程数 | 停止的进程数 | 僵尸进程数
%Cpu(s): 0.5 us, 0.4 sy, 0.0 ni, 99.2 id, 0.0 wa, 0.0 hi, 0.0 si, 0.0 st 用户空间占用CPU时间百分比 | 内核空间占用CPU时间百分比 | 用户进程空间内改变过优先级的进程占用CPU时间百分比 | 空闲CPU时间百分比 | 等待输入输出的CPU时间百分比 | CPU服务于硬件中断的CPU时间百分比 | CPU服务于软件中断的CPU时间百分比 | 被虚拟机偷走的CPU时间百分比
KiB Mem : 49291268 total, 2254964 free, 36304120 used, 10732184 buff/cache 总的 | 剩余 | 使用 | 缓存 KiB Swap: 0 total, 0 free, 0 used. 12420288 avail Mem 总 | 剩余 | 使用 | 可用
---
<a name="2JQnT"></a>
## Flink
```java
触发savepoint
首先,我们需要指定一个savepoint的目录,使用下面参数来指定:
state.savepoints.dir: hdfs:///flink/savepoints
一般情况下,我们可以使用下面的命令来触发savepoint:
bin/flink savepoint :jobId [:targetDirectory]
如果是基于YARN搭建的集群,那么可以使用下面命令来触发:
bin/flink savepoint :jobId [:targetDirectory] -yid :yarnAppId
一般我们在进行savepoint之后,然后cancel这个job,下面这个命令可以在savepoint之后 自动cancel这个job,如下所示:
bin/flink cancel -s [:targetDirectory] :jobId
当我们需要使用savepoint进行恢复的时候,可以使用下面命令:
bin/flink run -s :savepointPath [:runArgs]
有时候在恢复的时候,会遇到一些不能映射的状态(上面提到可以将savepoint想象为一个ID->state的映射),例如删除了一个操作符,那么我们可以使用下面命令来跳过这个状态:
bin/flink run -s :savepointPath -n [:runArgs]
当然,我们还可以删除savepoint,使用下面命令即可:
bin/flink savepoint -d :savepointPath
Kafka
• 生产者
/export/kafka_2.11-1.0.0/bin/kafka-console-producer.sh --broker-list node01:9092 --topic
• 消费者
/export/kafka_2.11-1.0.0/bin/kafka-console-consumer.sh --zookeeper node01:2181,node02:2181 --from-beginning --topic
• 先本地检测
./kafka-server-start.sh ../config/server.properties
• 如果没有报错信息,启动正常,那么就可以在后台启动了
• 启动kafka
nohup /export/kafka_2.11-1.0.0/bin/kafka-server-start.sh -daemon /export/kafka_2.11-1.0.0/config/server.properties 2>&1 &
• 创建Topic
/export/kafka_2.11-1.0.0/bin/kafka-topics.sh --create --zookeeper node01:2181,node02:2181,node03:2181 --replication-factor 2 --partitions 3 --topic
• 删除Topic
./kafka-topics.sh --deltele --zookeeper node01:2181 --topic
• 查看所有Topic
./kafka-topics.sh --zookeeper node01:2181 --list
• 启动kafka
bin/kafka-server-start.sh config/server.properties 1>/dev/null 2>&1 &
Hadoop
• job history
mr-jobhistory-daemon.sh start historyserver
--------------------------------------------------------
start-all.sh
stop-all.sh
--------------------------------------------------------
start-dfs. stop-dfs.sh
start-yarn.sh stop-yarn.sh
--------------------------------------------------------
1. 单独启动namenode守护进程
hadoop-daemons.sh start namenode
2. 单独启动DataNode守护进程
hadoop-daemons.sh start datanode
3. 单独启动SecondaryNameNode 守护进程
hadoop-daemons.sh start SecondaryNameNode
4.开启resourcemanager
yarn-daemon.sh start resourcemanager
5.开启nodemanager
yarn-daemons.sh start nodemanager
6.启动historyserver
mr-historyserver-dameon.sh start /stop historyserver
--------------------------------------------------------
• node状态都为standby
hdfs haadmin -transitionToActive --forcemanual nn1
--------------------------------------------------------
• 修改写入权限
hadoop fs -chmod -R 777 /
Zookeeper
查看kafka Topic
ls /brokers/topics
删除kafka Topic
rmr /brokers/topics/
启动zookeeper
/export/servers/servers/zookeeper-3.4.5-cdh5.14.0/bin/zkServer.sh start
查看 zookeeper 状态
/export/servers/servers/zookeeper-3.4.5-cdh5.14.0/bin/zkServer.sh status
关闭Zk
sh zkServer.sh stop
ES
设置分片与备份数量
“settings”:{
"number_of_shards":3, "number_of_replicas":1
}
设置Ik 分词器
“keyword”: {
"type": "text", "analyzer": "ik_max_word" }
创建索引并设置属性类型
PUT /index/ { “mappings”: {
"doc": { }
} }
查看指定索引 分片数量
5
GET _cat/indices?v
pri(主分片数) rep(副分片数) docs.count(索引现有文档数) docs.deleted(索引删除文档数) store.size(索引总大小) pri.store.size(索引主分片大小)。
启动 es
nohup ./elasticsearch &
Mysql
- 查看连接线程数
show status like ‘Threads%’;
- 查看版本
select version();
- 在命令行使用status查看
status
解压 tar.gz 文件 到 指定目录
tar -zxvf zookeeper-3.4.9.tar.gz -C ../servers/
Tomcat
./startup.sh ./shutdown.sh
Nginx
./nginx —-> 启动 ./nginx -s reload —-> 重启 ./nginx -t —-> 判断配置文件是否正确
- 定时器
- 将Mysql 数据 导入到 Redis 12小时一次
- 定时往kafka 发送数据 1小时一次
mvn install -DskipTests -Dfast