k8s最基本的硬件要求
CPU: 双核
Mem: 2G
3台dockerhost
时间必须同步

docker要先下载好

一.环境准备

分别将3台虚拟机命名,设置好对应IP,并将其写入域名解析/etc/hosts中,关闭防火墙,iptables,禁用selinux。还有要做到,时间必须一致。全部禁用swap

1.给三台docker命名

  1. hostnamectl set-hostname master
  2. hostnamectl set-hostname node1
  3. hostnamectl set-hostname node2

2.关闭防火墙及禁用selinux(三台)

  1. systemctl stop firewalld systemctl disable firewalld
  2. vim /etc/selinux/config
  3. SELINUX=disabled
  4. 或者
  5. setenforce 0
  6. sed -i 's/^SELINUX=.*/SELINUX=disabled/' /etc/selinux/config

3.禁用swap(三台)

  1. swapoff -a
  2. //临时禁用swap
  3. vim /etc/fstab

image.png

4.添加域名解析(三台)

  1. echo 192.168.128.220 master >> /etc/hosts
  2. echo 192.168.128.221 node1 >> /etc/hosts
  3. echo 192.168.128.222 node2 >> /etc/hosts

5.做免密登陆(三台)

  1. ssh-keygen -t rsa

复制密钥到其他主机

  1. ssh-copy-id node1
  2. ssh-copy-id node2

把域名解析复制到其他主机
scp /etc/hosts node1:/etc
scp /etc/hosts node2:/etc

6. 打开路由转发和iptables桥接功能(三台)

  1. vim /etc/sysctl.d/k8s.conf
  2. //开启iptables桥接功能
  3. net.bridge.bridge-nf-call-iptables = 1
  4. net.bridge.bridge-nf-call-ip6tables = 1
  5. echo net.ipv4.ip_forward = 1 >> /etc/sysctl.conf
  6. //**打开路由转发
  7. ------------------------------------------------
  8. sysctl -p /etc/sysctl.d/k8s.conf
  9. sysctl -p
  10. 如果上面执行失败执行这个
  11. modprobe br_netfilter

把路由转发和iptables桥接复制到其他主机

  1. [root@master ~]# scp /etc/sysctl.d/k8s.conf node1:/etc/sysctl.d/
  2. [root@master ~]# scp /etc/sysctl.d/k8s.conf node2:/etc/sysctl.d/
  3. [root@master ~]# scp /etc/sysctl.conf node2:/etc/
  4. [root@master ~]# scp /etc/sysctl.conf node1:/etc/

记得node01和node02也要执行以下命令

  1. sysctl -p /etc/sysctl.d/k8s.conf
  2. sysctl -p

二.master节点安装部署k8s

1.指定yum安装kubernetes的yum源(三台)

  1. cat <<EOF > /etc/yum.repos.d/kubernetes.repo
  2. [kubernetes]
  3. name=Kubernetes
  4. baseurl=https://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64/
  5. enabled=1
  6. gpgcheck=1
  7. repo_gpgcheck=1
  8. gpgkey=https://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg https://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg
  9. EOF

下载完成之后,查看一下仓库是否可用

  1. yum repolist

出现kubernetes就成功

创建本地缓存(三台)

  1. yum makecache fast

2.各节点安装所需安装包

1).master下载

  1. yum -y install kubeadm-1.15.0-0 kubelet-1.15.0-0 kubectl-1.15.0-0

2).node01和node02下载

  1. yum -y install kubeadm-1.15.0-0 kubelet-1.15.0-0

3).三台主机把 kubelet加入开机自启

  1. systemctl enable kubelet

3.master导入,之前准备好的镜像

或者从docker镜像站下载镜像

  1. docker pull k8s.gcr.io/kube-apiserver:v1.15.1
  2. docker pull k8s.gcr.io/kube-controller-manager:v1.15.1
  3. docker pull k8s.gcr.io/kube-scheduler:v1.15.1
  4. docker pull k8s.gcr.io/kube-proxy:v1.15.1
  5. docker pull k8s.gcr.io/pause:3.1
  6. docker pull k8s.gcr.io/etcd:3.3.10
  7. docker pull coredns/coredns:1.3.1

三.初始化Kubernetes集群

1.执行初始化命令

  1. kubeadm init --kubernetes-version=v1.15.0 --pod-network-cidr=10.244.0.0/16 --service-cidr=10.96.0.0/12 --ignore-preflight-errors=Swap

如果以上的命令报错,找出问题后先重置一下(下面的命令),然后再执行以上命令

  1. kubeadm reset

image.png

  1. 按照提示执行命令
  2. 稍后让node节点加入master
    1. kubectl get node //查看当前节点信息

目前master的状态是未就绪(NotReady),之所以是这种状态是因为还缺少一个附件flannel,没有网络各Pod是无法通信的

可以通过检查组件的健康状态

  1. kubectl get cs

2.添加网络组件(flannel)

1)组件flannel可以通过https://github.com/coreos/flannel中获取

  1. kubectl apply -f https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml

以上只是方式之一,在网络状况良好的情况下建议使用上述方法(调用远端文件执行一下),若网速较差,建议使用以下方法:

2)下载文件,使用kubectl执行

  1. wget https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml
  2. #将github官网指定的.yml配置文件下载到本地
  3. ls | grep flannel.yml
  4. #确定下载到了当前目录 kube-flannel.yml
  5. kubectl apply -f kube-flannel.yml
  6. #指定下载的.yml文件执行相应命令

上述方法,二选一进行配置即可

看到很多东西被创建是还不够的,还需要查看flannel是否处于正常启动并运行的状态,才算正在的部署完成

  1. kubectl get pods --all-namespaces
  2. //查看所有的名称空间的pod(可以看到flannel网络运行正常)

查看当前节点信息

  1. kubectl get node //查看当前节点信息(已经准备好了)

四. node两台节点,导入镜像并加入群集

1.使用docker pull下载镜像

  1. quay.io/coreos/flannel:v0.15.0(跟随master)
  2. k8s.gcr.io/pause:3.1
  3. k8s.gcr.io/kube-proxy:v1.15.0

2.node01和node02加入群集

这时使用的命令是初始化群集之后生成的令牌(只有24小时的时效)
image.png

3.加入群集之后查看一下

  1. kubectl get node


五.优化部分

已经安装完毕!!!!
以下属于操作优化

1.设置table键的默认间距;

  1. vim .vimrc
  2. set tabstop=2

2.设置kubectl命令自动补全

  1. yum -y install bash-completion
  2. source /usr/share/bash-completion/bash_completion
  3. source <(kubectl completion bash)
  4. echo "source <(kubectl completion bash)" >> ~/.bashrc

3.确认k8s群集没有问题,并设置为开机自启

master主机操作如下:

  1. kubectl get pod -n kube-system
  2. #查看pod资源,类似于docker中的容器,确保返回的信息都是running
  3. #“-n kube-system”:是k8s的名称空间

master和node节点上都需要进行以下操作,以便设置为开机自启:

  1. systemctl enable kubelet
  2. systemctl enable docker

设置为开机自启后,k8s群集的配置基本完成了,现在可以重启一下这三台服务器,如果重启后,执行下面的命令,状态都还是running,则表示绝对没有问题了。

  1. kubectl get pod -n kube-system #重启后验证状态是否