K8S核心插件-coredns服务

目录

  • K8S核心插件-coredns服务
    • 1 coredns用途
      • 1.1 为什么需要服务发现
    • 2 coredns的部署
      • 2.1 获取coredns的docker镜像
      • 2.2 创建coredns的资源配置清单
        • 2.2.1 rbac集群权限清单
        • 2.2.2 configmap配置清单
        • 2.2.3 depoly控制器清单
      • 2.2.4 service资源清单
      • 2.3 创建资源并验证
        • 2.3.1 验证服务能够访问`
        • 2.3.2 创建资源:
        • 2.3.3. 查看创建情况:
        • 2.3.4 使用dig测试解析
        • 2.3.5 创建一个service资源来验证

          1 coredns用途

          coredns github地址
          coredns都做了什么:Kubernetes内部域名解析原理、弊端及优化方式
          coredns在K8S中的用途,主要是用作服务发现,也就是服务(应用)之间相互定位的过程。

          1.1 为什么需要服务发现

          在K8S集群中,POD有以下特性:
  1. 服务动态性强
    容器在k8s中迁移会导致POD的IP地址变化
  2. 更新发布频繁
    版本迭代快,新旧POD的IP地址会不同
  3. 支持自动伸缩
    大促或流量高峰需要动态伸缩,IP地址会动态增减

service资源解决POD服务发现:
为了解决pod地址变化的问题,需要部署service资源,用service资源代理后端pod,通过暴露service资源的固定地址(集群IP),来解决以上POD资源变化产生的IP变动问题
那service资源的服务发现呢?
service资源提供了一个不变的集群IP供外部访问,但

  1. IP地址毕竟难以记忆
  2. service资源可能也会被销毁和创建
  3. 能不能将service资源名称和service暴露的集群网络IP对于
  4. 类似域名与IP关系,则只需记服务名就能自动匹配服务IP
  5. 岂不就达到了service服务的自动发现

在k8s中,coredns就是为了解决以上问题。

2 coredns的部署

从coredns开始,我们使用声明式向k8s中交付容器的方式,来部署服务

2.1 获取coredns的docker镜像

以下操作可以在任意节点上完成,推荐在7.200上做,因为接下来制作coredns的k8s配置清单也是在运维主机7.200上创建后,再到node节点上应用

  1. docker pull docker.io/coredns/coredns:1.6.1
  2. docker tag coredns:1.6.1 harbor.zq.com/public/coredns:v1.6.1
  3. docker push harbor.zq.com/public/coredns:v1.6.1

2.2 创建coredns的资源配置清单

以下资源配置清单,都是参考官网改出来的

  1. mkdir -p /data/k8s-yaml/coredns

2.2.1 rbac集群权限清单

  1. cat >/data/k8s-yaml/coredns/rbac.yaml <<EOF
  2. apiVersion: v1
  3. kind: ServiceAccount
  4. metadata:
  5. name: coredns
  6. namespace: kube-system
  7. labels:
  8. kubernetes.io/cluster-service: "true"
  9. addonmanager.kubernetes.io/mode: Reconcile
  10. ---
  11. apiVersion: rbac.authorization.k8s.io/v1
  12. kind: ClusterRole
  13. metadata:
  14. labels:
  15. kubernetes.io/bootstrapping: rbac-defaults
  16. addonmanager.kubernetes.io/mode: Reconcile
  17. name: system:coredns
  18. rules:
  19. - apiGroups:
  20. - ""
  21. resources:
  22. - endpoints
  23. - services
  24. - pods
  25. - namespaces
  26. verbs:
  27. - list
  28. - watch
  29. ---
  30. apiVersion: rbac.authorization.k8s.io/v1
  31. kind: ClusterRoleBinding
  32. metadata:
  33. annotations:
  34. rbac.authorization.kubernetes.io/autoupdate: "true"
  35. labels:
  36. kubernetes.io/bootstrapping: rbac-defaults
  37. addonmanager.kubernetes.io/mode: EnsureExists
  38. name: system:coredns
  39. roleRef:
  40. apiGroup: rbac.authorization.k8s.io
  41. kind: ClusterRole
  42. name: system:coredns
  43. subjects:
  44. - kind: ServiceAccount
  45. name: coredns
  46. namespace: kube-system
  47. EOF

2.2.2 configmap配置清单

  1. cat >/data/k8s-yaml/coredns/cm.yaml <<EOF
  2. apiVersion: v1
  3. kind: ConfigMap
  4. metadata:
  5. name: coredns
  6. namespace: kube-system
  7. data:
  8. Corefile: |
  9. .:53 {
  10. errors
  11. log
  12. health
  13. ready
  14. kubernetes cluster.local 192.168.0.0/16 #service资源cluster地址
  15. forward . 10.4.7.11 #上级DNS地址
  16. cache 30
  17. loop
  18. reload
  19. loadbalance
  20. }
  21. EOF

2.2.3 depoly控制器清单

  1. cat >/data/k8s-yaml/coredns/dp.yaml <<EOF
  2. apiVersion: apps/v1
  3. kind: Deployment
  4. metadata:
  5. name: coredns
  6. namespace: kube-system
  7. labels:
  8. k8s-app: coredns
  9. kubernetes.io/name: "CoreDNS"
  10. spec:
  11. replicas: 1
  12. selector:
  13. matchLabels:
  14. k8s-app: coredns
  15. template:
  16. metadata:
  17. labels:
  18. k8s-app: coredns
  19. spec:
  20. priorityClassName: system-cluster-critical
  21. serviceAccountName: coredns
  22. containers:
  23. - name: coredns
  24. image: harbor.zq.com/public/coredns:v1.6.1
  25. args:
  26. - -conf
  27. - /etc/coredns/Corefile
  28. volumeMounts:
  29. - name: config-volume
  30. mountPath: /etc/coredns
  31. ports:
  32. - containerPort: 53
  33. name: dns
  34. protocol: UDP
  35. - containerPort: 53
  36. name: dns-tcp
  37. protocol: TCP
  38. - containerPort: 9153
  39. name: metrics
  40. protocol: TCP
  41. livenessProbe:
  42. httpGet:
  43. path: /health
  44. port: 8080
  45. scheme: HTTP
  46. initialDelaySeconds: 60
  47. timeoutSeconds: 5
  48. successThreshold: 1
  49. failureThreshold: 5
  50. dnsPolicy: Default
  51. volumes:
  52. - name: config-volume
  53. configMap:
  54. name: coredns
  55. items:
  56. - key: Corefile
  57. path: Corefile
  58. EOF

2.2.4 service资源清单

  1. cat >/data/k8s-yaml/coredns/svc.yaml <<EOF
  2. apiVersion: v1
  3. kind: Service
  4. metadata:
  5. name: coredns
  6. namespace: kube-system
  7. labels:
  8. k8s-app: coredns
  9. kubernetes.io/cluster-service: "true"
  10. kubernetes.io/name: "CoreDNS"
  11. spec:
  12. selector:
  13. k8s-app: coredns
  14. clusterIP: 192.168.0.2
  15. ports:
  16. - name: dns
  17. port: 53
  18. protocol: UDP
  19. - name: dns-tcp
  20. port: 53
  21. - name: metrics
  22. port: 9153
  23. protocol: TCP
  24. EOF

2.3 创建资源并验证

在任意NODE节点执行配置都可以,先

2.3.1 验证服务能够访问`

  1. [root@hdss7-21 ~]# dig -t A harbor.zq.com +short
  2. 10.4.7.200

2.3.2 创建资源:

  1. kubectl create -f http://k8s-yaml.zq.com/coredns/rbac.yaml
  2. kubectl create -f http://k8s-yaml.zq.com/coredns/cm.yaml
  3. kubectl create -f http://k8s-yaml.zq.com/coredns/dp.yaml
  4. kubectl create -f http://k8s-yaml.zq.com/coredns/svc.yaml

K8S(04)核心插件-coredns服务 - 图1

2.3.3. 查看创建情况:

  1. kubectl get all -n kube-system
  2. kubectl get svc -o wide -n kube-system
  3. dig -t A www.baidu.com @192.168.0.2 +short

K8S(04)核心插件-coredns服务 - 图2

2.3.4 使用dig测试解析

  1. [root@hdss7-21 ~]# dig -t A www.baidu.com @192.168.0.2 +short
  2. www.a.shifen.com.
  3. 39.156.66.18
  4. 39.156.66.14
  5. [root@hdss7-21 ~]# dig -t A harbor.zq.com @192.168.0.2 +short
  6. 10.4.7.200

coredns已经能解析外网域名了,因为coredns的配置中,写了他的上级DNS为10.4.7.11,如果它自己解析不出来域名,会通过递归查询一级级查找
但coredns我们不是用来做外网解析的,而是用来做service名和serviceIP的解析

2.3.5 创建一个service资源来验证

先查看kube-public名称空间有没有pod

  1. ~]# kubectl get pod -n kube-public
  2. No resources found.
  3. # 之前我调试问题已经清理了所有的POD,所以没有

如果没有则先创建pod

  1. kubectl create deployment nginx-dp --image=harbor.zq.com/public/nginx:v1.17.9 -n kube-public
  2. ~]# kubectl get deployments -n kube-public
  3. NAME READY UP-TO-DATE AVAILABLE AGE
  4. nginx-dp 1/1 1 1 35s
  5. ~]# kubectl get pod -n kube-public
  6. NAME READY STATUS RESTARTS AGE
  7. nginx-dp-568f8dc55-rxvx2 1/1 Running 0 56s

给pod创建一个service

  1. kubectl expose deployment nginx-dp --port=80 -n kube-public
  2. ~]# kubectl -n kube-public get service
  3. NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE
  4. nginx-dp ClusterIP 192.168.63.255 <none> 80/TCP 11s

验证是否可以解析

  1. ~]# dig -t A nginx-dp @192.168.0.2 +short
  2. # 发现无返回数据,难道解析不了
  3. # 其实是需要完整域名:服务名.名称空间.svc.cluster.local.
  4. ~]# dig -t A nginx-dp.kube-public.svc.cluster.local. @192.168.0.2 +short
  5. 192.168.63.255

可以看到我们没有手动添加任何解析记录,我们nginx-dp的service资源的IP,已经被解析了:

进入到pod内部再次验证

  1. ~]# kubectl -n kube-public exec -it nginx-dp-568f8dc55-rxvx2 /bin/bash
  2. -qjwmz:/# apt update && apt install curl
  3. -qjwmz:/# ping nginx-dp
  4. PING nginx-dp.kube-public.svc.cluster.local (192.168.191.232): 56 data bytes
  5. 64 bytes from 192.168.191.232: icmp_seq=0 ttl=64 time=0.184 ms
  6. 64 bytes from 192.168.191.232: icmp_seq=1 ttl=64 time=0.225 ms

为什么在容器中不用加全域名?

  1. -qjwmz:/# cat /etc/resolv.conf
  2. nameserver 192.168.0.2
  3. search kube-public.svc.cluster.local svc.cluster.local cluster.local host.com
  4. options ndots:5

当我进入到pod内部以后,会发现我们的dns地址是我们的coredns地址,以及搜索域中已经添加了搜索域:kube-public.svc.cluster.local

我们解决了在集群内部解析的问题,要想在集群外部访问我们的服务还需要igerss服务暴露功能
现在,我们已经解决了在集群内部解析的问题,但是我们怎么做到在集群外部访问我们的服务呢?
转载自cnblog:https://www.cnblogs.com/noah-luo/p/13345194.html