Linux:

  • jmap -histo:live pid 分析哪些对象占用了堆内存
  • jmap -histo:live pid | head -20 条数限制

  • 查看Linux 系统核数

    grep ^processor /proc/cpuinfo | wc -l

  • 查看物理Cpu的个数

    cat /proc/cpuinfo| grep “processor”| wc -l

  • 查看Cpu型号(信息)

    cat /proc/cpuinfo | grep name | cut -f2 -d: | uniq -c dmidecode -s processor-version

  • 查看内存信息

    cat /proc/meminfo

  • 内存使用概况

    free -h

  • 检测程序是否启动

    ps aux | grep redis

  • 赋予权限

    chown -R es /package

  • SCP

    scp -r 当前目录 远程目录 scp -r ./zookeeper.out node02:$PWD

  • Vi / vim 下复制粘贴

    yy p

  • nc -l port

    查看 Cpu 信息

    ```java top - 20:13:13 up 59 days, 3:01, 1 user, load average: 0.21, 0.19, 0.16 当前时间 | 系统运行时长 | 当前登录用户数 | 系统平均负载(同cat /proc/loadavg命令前三个值)

Tasks: 286 total, 1 running, 285 sleeping, 0 stopped, 0 zombie 进程总数 | 正在运行的进程数 | 睡眠的进程数 | 停止的进程数 | 僵尸进程数

%Cpu(s): 0.5 us, 0.4 sy, 0.0 ni, 99.2 id, 0.0 wa, 0.0 hi, 0.0 si, 0.0 st 用户空间占用CPU时间百分比 | 内核空间占用CPU时间百分比 | 用户进程空间内改变过优先级的进程占用CPU时间百分比 | 空闲CPU时间百分比 | 等待输入输出的CPU时间百分比 | CPU服务于硬件中断的CPU时间百分比 | CPU服务于软件中断的CPU时间百分比 | 被虚拟机偷走的CPU时间百分比

KiB Mem : 49291268 total, 2254964 free, 36304120 used, 10732184 buff/cache 总的 | 剩余 | 使用 | 缓存 KiB Swap: 0 total, 0 free, 0 used. 12420288 avail Mem 总 | 剩余 | 使用 | 可用

  1. ---
  2. <a name="2JQnT"></a>
  3. ## Flink
  4. ```java
  5. 触发savepoint
  6. 首先,我们需要指定一个savepoint的目录,使用下面参数来指定:
  7. state.savepoints.dir: hdfs:///flink/savepoints
  8. 一般情况下,我们可以使用下面的命令来触发savepoint:
  9. bin/flink savepoint :jobId [:targetDirectory]
  10. 如果是基于YARN搭建的集群,那么可以使用下面命令来触发:
  11. bin/flink savepoint :jobId [:targetDirectory] -yid :yarnAppId
  12. 一般我们在进行savepoint之后,然后cancel这个job,下面这个命令可以在savepoint之后 自动cancel这个job,如下所示:
  13. bin/flink cancel -s [:targetDirectory] :jobId
  14. 当我们需要使用savepoint进行恢复的时候,可以使用下面命令:
  15. bin/flink run -s :savepointPath [:runArgs]
  16. 有时候在恢复的时候,会遇到一些不能映射的状态(上面提到可以将savepoint想象为一个ID->state的映射),例如删除了一个操作符,那么我们可以使用下面命令来跳过这个状态:
  17. bin/flink run -s :savepointPath -n [:runArgs]
  18. 当然,我们还可以删除savepoint,使用下面命令即可:
  19. bin/flink savepoint -d :savepointPath

Kafka

• 生产者
/export/kafka_2.11-1.0.0/bin/kafka-console-producer.sh --broker-list node01:9092 --topic

• 消费者
/export/kafka_2.11-1.0.0/bin/kafka-console-consumer.sh --zookeeper node01:2181,node02:2181 --from-beginning --topic

• 先本地检测
./kafka-server-start.sh ../config/server.properties

• 如果没有报错信息,启动正常,那么就可以在后台启动了
• 启动kafka
nohup /export/kafka_2.11-1.0.0/bin/kafka-server-start.sh -daemon /export/kafka_2.11-1.0.0/config/server.properties  2>&1 &

• 创建Topic
/export/kafka_2.11-1.0.0/bin/kafka-topics.sh --create --zookeeper node01:2181,node02:2181,node03:2181 --replication-factor 2 --partitions 3 --topic

• 删除Topic
./kafka-topics.sh --deltele --zookeeper node01:2181 --topic 

• 查看所有Topic
./kafka-topics.sh --zookeeper node01:2181 --list

• 启动kafka
bin/kafka-server-start.sh config/server.properties 1>/dev/null 2>&1 &

Hadoop

• job history
mr-jobhistory-daemon.sh start historyserver
--------------------------------------------------------
start-all.sh 
stop-all.sh
--------------------------------------------------------
start-dfs.                     stop-dfs.sh
start-yarn.sh               stop-yarn.sh
--------------------------------------------------------
1. 单独启动namenode守护进程
  hadoop-daemons.sh start namenode
2. 单独启动DataNode守护进程
   hadoop-daemons.sh start datanode
3. 单独启动SecondaryNameNode 守护进程
   hadoop-daemons.sh start SecondaryNameNode 
4.开启resourcemanager
   yarn-daemon.sh start resourcemanager
5.开启nodemanager
    yarn-daemons.sh start nodemanager 
 6.启动historyserver
    mr-historyserver-dameon.sh start /stop historyserver
--------------------------------------------------------
• node状态都为standby
hdfs haadmin -transitionToActive --forcemanual nn1 
--------------------------------------------------------
• 修改写入权限
hadoop fs -chmod  -R 777 /

Zookeeper

查看kafka Topic
ls /brokers/topics

删除kafka Topic
rmr /brokers/topics/

启动zookeeper
/export/servers/servers/zookeeper-3.4.5-cdh5.14.0/bin/zkServer.sh  start

查看 zookeeper 状态
/export/servers/servers/zookeeper-3.4.5-cdh5.14.0/bin/zkServer.sh  status

关闭Zk
sh zkServer.sh stop

ES

  • 设置分片与备份数量

    “settings”:{

    "number_of_shards":3,
    "number_of_replicas":1
    

    }

  • 设置Ik 分词器

    “keyword”: {

          "type": "text",
          "analyzer": "ik_max_word"
        }
    
  • 创建索引并设置属性类型

    PUT /index/ { “mappings”: {

    "doc": { }
    

    } }

  • 查看指定索引 分片数量

    5

  • GET _cat/indices?v

    pri(主分片数) rep(副分片数) docs.count(索引现有文档数) docs.deleted(索引删除文档数) store.size(索引总大小) pri.store.size(索引主分片大小)。

  • 启动 es

    nohup ./elasticsearch &


Mysql

  • 查看连接线程数

show status like ‘Threads%’;

  • 查看版本

select version();

  • 在命令行使用status查看

status


  • 解压 tar.gz 文件 到 指定目录

    tar -zxvf zookeeper-3.4.9.tar.gz -C ../servers/

  • Tomcat

    ./startup.sh ./shutdown.sh

  • Nginx

    ./nginx —-> 启动 ./nginx -s reload —-> 重启 ./nginx -t —-> 判断配置文件是否正确 



  • 定时器
    • 将Mysql 数据 导入到 Redis 12小时一次
    • 定时往kafka 发送数据 1小时一次

mvn install -DskipTests -Dfast