前篇文章说了service,这篇文章来折腾下ingress这个玩意。

ingress是什么

在上文我们说到暴露了service的三种方式ClusterIP、NodePort与LoadBalance,这几种方式都是在service的维度提供的,service的作用体现在两个方面,对集群内部,它不断跟踪pod的变化,更新endpoint中对应pod的对象,提供了ip不断变化的pod的服务发现机制,对集群外部,他类似负载均衡器,可以在集群内外部对pod进行访问。但是,单独用service暴露服务的方式,在实际生产环境中不太合适:

  • ClusterIP的方式只能在集群内部访问。
  • NodePort方式的话,测试环境使用还行,当有几十上百的服务在集群中运行时,NodePort的端口管理是灾难。
  • LoadBalance方式受限于云平台,且通常在云平台部署ELB还需要额外的费用。

所幸k8s还提供了一种集群维度暴露服务的方式,也就是ingress。ingress可以简单理解为service的service,他通过独立的ingress对象来制定请求转发的规则,把请求路由到一个或多个service中。这样就把服务与请求规则解耦了,可以从业务维度统一考虑业务的暴露,而不用为每个service单独考虑。
举个例子,现在集群有api、文件存储、前端3个service,可以通过一个ingress对象来实现图中的请求转发:
ingress详解 - 图1
ingress规则是很灵活的,可以根据不同域名、不同path转发请求到不同的service,并且支持https/http。

ingress与ingress-controller

要理解ingress,需要区分两个概念,ingress和ingress-controller:

  • ingress对象:
    指的是k8s中的一个api对象,一般用yaml配置。作用是定义请求如何转发到service的规则,可以理解为配置模板。
  • ingress-controller:
    具体实现反向代理及负载均衡的程序,对ingress定义的规则进行解析,根据配置的规则来实现请求转发。

简单来说,ingress-controller才是负责具体转发的组件,通过各种方式将它暴露在集群入口,外部对集群的请求流量会先到ingress-controller,而ingress对象是用来告诉ingress-controller该如何转发请求,比如哪些域名哪些path要转发到哪些服务等等。

ingress-controller

ingress-controller并不是k8s自带的组件,实际上ingress-controller只是一个统称,用户可以选择不同的ingress-controller实现,目前,由k8s维护的ingress-controller只有google云的GCE与ingress-nginx两个,其他还有很多第三方维护的ingress-controller,具体可以参考官方文档。但是不管哪一种ingress-controller,实现的机制都大同小异,只是在具体配置上有差异。一般来说,ingress-controller的形式都是一个pod,里面跑着daemon程序和反向代理程序。daemon负责不断监控集群的变化,根据ingress对象生成配置并应用新配置到反向代理,比如nginx-ingress就是动态生成nginx配置,动态更新upstream,并在需要的时候reload程序应用新配置。为了方便,后面的例子都以k8s官方维护的nginx-ingress为例。

ingress

ingress是一个API对象,和其他对象一样,通过yaml文件来配置。ingress通过http或https暴露集群内部service,给service提供外部URL、负载均衡、SSL/TLS能力以及基于host的方向代理。ingress要依靠ingress-controller来具体实现以上功能。前一小节的图如果用ingress来表示,大概就是如下配置:

  1. apiVersion: extensions/v1beta1
  2. kind: Ingress
  3. metadata:
  4. name: abc-ingress
  5. annotations:
  6. kubernetes.io/ingress.class: "nginx"
  7. nginx.ingress.kubernetes.io/use-regex: "true"
  8. spec:
  9. tls:
  10. - hosts:
  11. - api.abc.com
  12. secretName: abc-tls
  13. rules:
  14. - host: api.abc.com
  15. http:
  16. paths:
  17. - backend:
  18. serviceName: apiserver
  19. servicePort: 80
  20. - host: www.abc.com
  21. http:
  22. paths:
  23. - path: /image/*
  24. backend:
  25. serviceName: fileserver
  26. servicePort: 80
  27. - host: www.abc.com
  28. http:
  29. paths:
  30. - backend:
  31. serviceName: feserver
  32. servicePort: 8080

与其他k8s对象一样,ingress配置也包含了apiVersion、kind、metadata、spec等关键字段。有几个关注的在spec字段中,tls用于定义https密钥、证书。rule用于指定请求路由规则。这里值得关注的是metadata.annotations字段。在ingress配置中,annotations很重要。前面有说ingress-controller有很多不同的实现,而不同的ingress-controller就可以根据”kubernetes.io/ingress.class:”来判断要使用哪些ingress配置,同时,不同的ingress-controller也有对应的annotations配置,用于自定义一些参数。列如上面配置的’nginx.ingress.kubernetes.io/use-regex: “true”‘,最终是在生成nginx配置中,会采用location ~来表示正则匹配。

ingress的部署

ingress的部署,需要考虑两个方面:

  1. ingress-controller是作为pod来运行的,以什么方式部署比较好
  2. ingress解决了把如何请求路由到集群内部,那它自己怎么暴露给外部比较好

下面列举一些目前常见的部署和暴露方式,具体使用哪种方式还是得根据实际需求来考虑决定。

Deployment+LoadBalancer模式的Service

如果要把ingress部署在公有云,那用这种方式比较合适。用Deployment部署ingress-controller,创建一个type为LoadBalancer的service关联这组pod。大部分公有云,都会为LoadBalancer的service自动创建一个负载均衡器,通常还绑定了公网地址。只要把域名解析指向该地址,就实现了集群服务的对外暴露。

Deployment+NodePort模式的Service

同样用deployment模式部署ingress-controller,并创建对应的服务,但是type为NodePort。这样,ingress就会暴露在集群节点ip的特定端口上。由于nodeport暴露的端口是随机端口,一般会在前面再搭建一套负载均衡器来转发请求。该方式一般用于宿主机是相对固定的环境ip地址不变的场景。
NodePort方式暴露ingress虽然简单方便,但是NodePort多了一层NAT,在请求量级很大时可能对性能会有一定影响。

DaemonSet+HostNetwork+nodeSelector

用DaemonSet结合nodeselector来部署ingress-controller到特定的node上,然后使用HostNetwork直接把该pod与宿主机node的网络打通,直接使用宿主机的80/433端口就能访问服务。这时,ingress-controller所在的node机器就很类似传统架构的边缘节点,比如机房入口的nginx服务器。该方式整个请求链路最简单,性能相对NodePort模式更好。缺点是由于直接利用宿主机节点的网络和端口,一个node只能部署一个ingress-controller pod。比较适合大并发的生产环境使用。

ingress测试

我们来实际部署和简单测试一下ingress。测试集群中已经部署有2个服务gowebhost与gowebip,每次请求能返回容器hostname与ip。测试搭建一个ingress来实现通过域名的不同path来访问这两个服务:
ingress详解 - 图2
测试ingress使用k8s社区的ingress-nginx,部署方式用DaemonSet+HostNetwork。

部署ingress-controller

部署ingress-controller pod及相关资源

官方文档中,部署只要简单的执行一个yaml

  1. https://raw.githubusercontent.com/kubernetes/ingress-nginx/master/deploy/static/mandatory.yaml

mandatory.yaml这一个yaml中包含了很多资源的创建,包括namespace、ConfigMap、role,ServiceAccount等等所有部署ingress-controller需要的资源,配置太多就不粘出来了,我们重点看下deployment部分:

  1. apiVersion: apps/v1
  2. kind: Deployment
  3. metadata:
  4. name: nginx-ingress-controller
  5. namespace: ingress-nginx
  6. labels:
  7. app.kubernetes.io/name: ingress-nginx
  8. app.kubernetes.io/part-of: ingress-nginx
  9. spec:
  10. replicas: 1
  11. selector:
  12. matchLabels:
  13. app.kubernetes.io/name: ingress-nginx
  14. app.kubernetes.io/part-of: ingress-nginx
  15. template:
  16. metadata:
  17. labels:
  18. app.kubernetes.io/name: ingress-nginx
  19. app.kubernetes.io/part-of: ingress-nginx
  20. annotations:
  21. prometheus.io/port: "10254"
  22. prometheus.io/scrape: "true"
  23. spec:
  24. serviceAccountName: nginx-ingress-serviceaccount
  25. containers:
  26. - name: nginx-ingress-controller
  27. image: quay.io/kubernetes-ingress-controller/nginx-ingress-controller:0.25.0
  28. args:
  29. - /nginx-ingress-controller
  30. - --configmap=$(POD_NAMESPACE)/nginx-configuration
  31. - --tcp-services-configmap=$(POD_NAMESPACE)/tcp-services
  32. - --udp-services-configmap=$(POD_NAMESPACE)/udp-services
  33. - --publish-service=$(POD_NAMESPACE)/ingress-nginx
  34. - --annotations-prefix=nginx.ingress.kubernetes.io
  35. securityContext:
  36. allowPrivilegeEscalation: true
  37. capabilities:
  38. drop:
  39. - ALL
  40. add:
  41. - NET_BIND_SERVICE
  42. # www-data -> 33
  43. runAsUser: 33
  44. env:
  45. - name: POD_NAME
  46. valueFrom:
  47. fieldRef:
  48. fieldPath: metadata.name
  49. - name: POD_NAMESPACE
  50. valueFrom:
  51. fieldRef:
  52. fieldPath: metadata.namespace
  53. ports:
  54. - name: http
  55. containerPort: 80
  56. - name: https
  57. containerPort: 443
  58. livenessProbe:
  59. failureThreshold: 3
  60. httpGet:
  61. path: /healthz
  62. port: 10254
  63. scheme: HTTP
  64. initialDelaySeconds: 10
  65. periodSeconds: 10
  66. successThreshold: 1
  67. timeoutSeconds: 10
  68. readinessProbe:
  69. failureThreshold: 3
  70. httpGet:
  71. path: /healthz
  72. port: 10254
  73. scheme: HTTP
  74. periodSeconds: 10
  75. successThreshold: 1
  76. timeoutSeconds: 10

可以看到主要使用了“quay.io/kubernetes-ingress-controller/nginx-ingress-controller:0.25.0”这个镜像,指定了一些启动参数。同时开放了80与443两个端口,并在10254端口做了健康检查。
我们需要使用daemonset部署到特定node,需要修改部分配置:先给要部署nginx-ingress的node打上特定标签,这里测试部署在”node-1”这个节点。

  1. $ kubectl label node node-1 isIngress="true"

然后修改上面mandatory.yaml的deployment部分配置为:

  1. # 修改api版本及kind
  2. # apiVersion: apps/v1
  3. # kind: Deployment
  4. apiVersion: extensions/v1beta1
  5. kind: DaemonSet
  6. metadata:
  7. name: nginx-ingress-controller
  8. namespace: ingress-nginx
  9. labels:
  10. app.kubernetes.io/name: ingress-nginx
  11. app.kubernetes.io/part-of: ingress-nginx
  12. spec:
  13. # 删除Replicas
  14. # replicas: 1
  15. selector:
  16. matchLabels:
  17. app.kubernetes.io/name: ingress-nginx
  18. app.kubernetes.io/part-of: ingress-nginx
  19. template:
  20. metadata:
  21. labels:
  22. app.kubernetes.io/name: ingress-nginx
  23. app.kubernetes.io/part-of: ingress-nginx
  24. annotations:
  25. prometheus.io/port: "10254"
  26. prometheus.io/scrape: "true"
  27. spec:
  28. serviceAccountName: nginx-ingress-serviceaccount
  29. # 选择对应标签的node
  30. nodeSelector:
  31. isIngress: "true"
  32. # 使用hostNetwork暴露服务
  33. hostNetwork: true
  34. containers:
  35. - name: nginx-ingress-controller
  36. image: quay.io/kubernetes-ingress-controller/nginx-ingress-controller:0.25.0
  37. args:
  38. - /nginx-ingress-controller
  39. - --configmap=$(POD_NAMESPACE)/nginx-configuration
  40. - --tcp-services-configmap=$(POD_NAMESPACE)/tcp-services
  41. - --udp-services-configmap=$(POD_NAMESPACE)/udp-services
  42. - --publish-service=$(POD_NAMESPACE)/ingress-nginx
  43. - --annotations-prefix=nginx.ingress.kubernetes.io
  44. securityContext:
  45. allowPrivilegeEscalation: true
  46. capabilities:
  47. drop:
  48. - ALL
  49. add:
  50. - NET_BIND_SERVICE
  51. # www-data -> 33
  52. runAsUser: 33
  53. env:
  54. - name: POD_NAME
  55. valueFrom:
  56. fieldRef:
  57. fieldPath: metadata.name
  58. - name: POD_NAMESPACE
  59. valueFrom:
  60. fieldRef:
  61. fieldPath: metadata.namespace
  62. ports:
  63. - name: http
  64. containerPort: 80
  65. - name: https
  66. containerPort: 443
  67. livenessProbe:
  68. failureThreshold: 3
  69. httpGet:
  70. path: /healthz
  71. port: 10254
  72. scheme: HTTP
  73. initialDelaySeconds: 10
  74. periodSeconds: 10
  75. successThreshold: 1
  76. timeoutSeconds: 10
  77. readinessProbe:
  78. failureThreshold: 3
  79. httpGet:
  80. path: /healthz
  81. port: 10254
  82. scheme: HTTP
  83. periodSeconds: 10
  84. successThreshold: 1
  85. timeoutSeconds: 10

修改完后执行apply,并检查服务

  1. $ kubectl apply -f mandatory.yaml
  2. namespace/ingress-nginx created
  3. configmap/nginx-configuration created
  4. configmap/tcp-services created
  5. configmap/udp-services created
  6. serviceaccount/nginx-ingress-serviceaccount created
  7. clusterrole.rbac.authorization.k8s.io/nginx-ingress-clusterrole created
  8. role.rbac.authorization.k8s.io/nginx-ingress-role created
  9. rolebinding.rbac.authorization.k8s.io/nginx-ingress-role-nisa-binding created
  10. clusterrolebinding.rbac.authorization.k8s.io/nginx-ingress-clusterrole-nisa-binding created
  11. daemonset.extensions/nginx-ingress-controller created
  12. # 检查部署情况
  13. $ kubectl get daemonset -n ingress-nginx
  14. NAME DESIRED CURRENT READY UP-TO-DATE AVAILABLE NODE SELECTOR AGE
  15. nginx-ingress-controller 1 1 1 1 1 isIngress=true 101s
  16. $ kubectl get po -n ingress-nginx -o wide
  17. NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES
  18. nginx-ingress-controller-fxx68 1/1 Running 0 117s 172.16.201.108 node-1 <none> <none>

可以看到,nginx-controller的pod已经部署在在node-1上了。

暴露nginx-controller

到node-1上看下本地端口:

  1. [root@node-1 ~]# netstat -lntup | grep nginx
  2. tcp 0 0 0.0.0.0:80 0.0.0.0:* LISTEN 2654/nginx: master
  3. tcp 0 0 0.0.0.0:8181 0.0.0.0:* LISTEN 2654/nginx: master
  4. tcp 0 0 0.0.0.0:443 0.0.0.0:* LISTEN 2654/nginx: master
  5. tcp6 0 0 :::10254 :::* LISTEN 2632/nginx-ingress-
  6. tcp6 0 0 :::80 :::* LISTEN 2654/nginx: master
  7. tcp6 0 0 :::8181 :::* LISTEN 2654/nginx: master
  8. tcp6 0 0 :::443 :::* LISTEN 2654/nginx: master

由于配置了hostnetwork,nginx已经在node主机本地监听80/443/8181端口。其中8181是nginx-controller默认配置的一个default backend。这样,只要访问node主机有公网IP,就可以直接映射域名来对外网暴露服务了。如果要nginx高可用的话,可以在多个node
上部署,并在前面再搭建一套LVS+keepalive做负载均衡。用hostnetwork的另一个好处是,如果lvs用DR模式的话,是不支持端口映射的,这时候如果用nodeport,暴露非标准的端口,管理起来会很麻烦。

配置ingress资源

部署完ingress-controller,接下来就按照测试的需求来创建ingress资源。

  1. # ingresstest.yaml
  2. apiVersion: extensions/v1beta1
  3. kind: Ingress
  4. metadata:
  5. name: ingress-test
  6. annotations:
  7. kubernetes.io/ingress.class: "nginx"
  8. # 开启use-regex,启用path的正则匹配
  9. nginx.ingress.kubernetes.io/use-regex: "true"
  10. spec:
  11. rules:
  12. # 定义域名
  13. - host: test.ingress.com
  14. http:
  15. paths:
  16. # 不同path转发到不同端口
  17. - path: /ip
  18. backend:
  19. serviceName: gowebip-svc
  20. servicePort: 80
  21. - path: /host
  22. backend:
  23. serviceName: gowebhost-svc
  24. servicePort: 80

部署资源

  1. $ kubectl apply -f ingresstest.yaml

测试访问

部署好以后,做一条本地host来模拟解析test.ingress.com到node的ip地址。测试访问
ingress详解 - 图3
ingress详解 - 图4
可以看到,请求不同的path已经按照需求请求到不同服务了。
由于没有配置默认后端,所以访问其他path会提示404:
ingress详解 - 图5

关于ingress-nginx

关于ingress-nginx多说几句,上面测试的例子是非常简单的,实际ingress-nginx的有非常多的配置,都可以单独开几篇文章来讨论了。但本文主要想说明ingress,所以不过多涉及。具体可以参考ingress-nginx的官方文档。同时,在生产环境使用ingress-nginx还有很多要考虑的地方,这篇文章写得很好,总结了不少最佳实践,值得参考。

最后

  • ingress是k8s集群的请求入口,可以理解为对多个service的再次抽象
  • 通常说的ingress一般包括ingress资源对象及ingress-controller两部分组成
  • ingress-controller有多种实现,社区原生的是ingress-nginx,根据具体需求选择
  • ingress自身的暴露有多种方式,需要根据基础环境及业务类型选择合适的方式