1加快ssh登录速度

vi /etc/ssh/sshd_config
image.png
systemctl restart sshd

2 集群分发脚本编写

2.1编写集群分发脚本xsync

1)scp(secure copy)安全拷贝
(1)scp定义
scp可以实现服务器与服务器之间的数据拷贝。(from server1 to server2)
(2)基本语法
scp -r $pdir/$fname $user@hadoop$host:$pdir/$fname
命令 递归 要拷贝的文件路径/名称 目的用户@主机:目的路径/名称
(3)案例实操
(a)在hadoop102上,将hadoop102中/opt/module目录下的软件拷贝到hadoop103上。

  1. [zcz@hadoop102 ~]$ scp -r /opt/module/* zcz@hadoop103:/opt/module

(b)在hadoop104上,将hadoop102服务器上的/opt/module目录下的软件拷贝到hadoop104上。

  1. [zcz@hadoop104 opt]$ scp -r zcz@hadoop102:/opt/module/* zcz@hadoop104:/opt/module

2)rsync远程同步工具
rsync主要用于备份和镜像。具有速度快、避免复制相同内容和支持符号链接的优点。
rsync和scp区别:用rsync做文件的复制要比scp的速度快,rsync只对差异文件做更新。scp是把所有文件都复制过去。

  1. yum install -y rsync

备注:使用这个命令其他机器都要安装这个命令
(1)基本语法
rsync -av $pdir/$fname $user@hadoop$host:$pdir/$fname
命令 选项参数 要拷贝的文件路径/名称 目的用户@主机:目的路径/名称
选项参数说明

选项 功能
-a 归档拷贝
-v 显示复制过程

(2)案例实操
(a)将hadoop102中/etc/profile.d/my_env.sh文件拷贝到hadoop103的/etc/profile.d/my_env.sh上。

  1. [zcz@hadoop102 ~]$ sudo rsync -av /etc/profile.d/my_env.sh root@hadoop103:/etc/profile.d/my_env.sh

(b)将hadoop102中/etc/profile.d/my_env.sh文件拷贝到hadoop103的/etc/profile.d/my_env.sh上。

  1. [zcz@hadoop102 ~]$ sudo rsync -av /etc/profile.d/my_env.sh root@hadoop104:/etc/profile.d/my_env.sh

注意:拷贝过来的配置文件别忘了source一下/etc/profile.d/my_env.sh。
3)xsync集群分发脚本
(1)需求:循环复制文件到所有节点的相同目录下
(2)需求分析:
(a)rsync命令原始拷贝:

  1. rsync -av /opt/module root@hadoop103:/opt/

(b)期望脚本:
xsync要同步的文件名称
(c)说明:在/soft/bin这个目录下存放的脚本,root用户可以在系统任何地方直接执行。
(3)脚本实现
(a)在用的家目录/home/zcz下创建bin文件夹

  1. [root@hadoop102 ~]$ mkdir bin

(b)在/root/bin目录下创建xsync文件,以便全局调用

  1. [root@hadoop102 ~]$ cd /root/bin
  2. [root@hadoop102 ~]$ vim xsync

在该文件中编写如下代码

  1. #!/bin/bash
  2. #1. 判断参数个数
  3. if [ $# -lt 1 ]
  4. then
  5. echo Not Enough Arguement!
  6. exit;
  7. fi
  8. #2. 遍历集群所有机器
  9. for host in hadoop102 hadoop103 hadoop104
  10. do
  11. echo ==================== $host ====================
  12. #3. 遍历所有目录,挨个发送
  13. for file in $@
  14. do
  15. #4 判断文件是否存在
  16. if [ -e $file ]
  17. then
  18. #5. 获取父目录
  19. pdir=$(cd -P $(dirname $file); pwd)
  20. #6. 获取当前文件的名称
  21. fname=$(basename $file)
  22. ssh $host "mkdir -p $pdir"
  23. rsync -av $pdir/$fname $host:$pdir
  24. else
  25. echo $file does not exists!
  26. fi
  27. done
  28. done

(c)修改脚本 xsync 具有执行权限

[root@hadoop102 bin]$ chmod +x xsync

(d)测试脚本

[root@hadoop102 bin]$ xsync xsync

2.2SSH无密登录配置

1)配置ssh
(1)基本语法
ssh另一台电脑的IP地址
(2)ssh连接时出现Host key verification failed的解决方法
[root@hadoop102 ~]$ ssh hadoop103
出现:
The authenticity of host ‘192.168.1.103 (192.168.1.103)’ can’t be established.
RSA key fingerprint is cf:1e:de:d7:d0:4c:2d:98:60:b4:fd:ae:b1:2d:ad:06.
Are you sure you want to continue connecting (yes/no)?
(3)解决方案如下:直接输入yes
2)无密钥配置
(1)免密登录原理
image.png
(2)生成公钥和私钥:

[zcz@hadoop102 .ssh]$ ssh-keygen -t rsa

然后敲(三个回车),就会生成两个文件id_rsa(私钥)、id_rsa.pub(公钥)
(3)将公钥拷贝到要免密登录的目标机器上

[zcz@hadoop102 .ssh]$ ssh-copy-id hadoop102
[zcz@hadoop102 .ssh]$ ssh-copy-id hadoop103
[zcz@hadoop102 .ssh]$ ssh-copy-id hadoop104

3).ssh文件夹下(~/.ssh)的文件功能解释

known_hosts 记录ssh访问过计算机的公钥(public key)
id_rsa 生成的私钥
id_rsa.pub 生成的公钥
authorized_keys 存放授权过的无密登录服务器公钥