控制组

简介

这是 linux 内核揭秘 的新一章的第一部分。你可以根据这部分的标题猜测 - 这一部分将涉及 Linux 内核中的 控制组cgroups 机制。

Cgroups 是由 Linux 内核提供的一种机制,它允许我们分配诸如处理器时间、每组进程的数量、每个 cgroup 的内存大小,或者针对一个或一组进程的上述资源的组合。Cgroups 是按照层级结构组织的,这种机制类似于通常的进程,他们也是层级结构,并且子 cgroups 会继承其上级的一些属性。但实际上他们还是有区别的。cgroups 和进程之间的主要区别在于,多个不同层级的 cgroup 可以同时存在,而进程树则是单一的。同时存在的多个不同层级的 cgroup 并不是任意的,因为每个 cgroup 层级都要附加到一组 cgroup “子系统”中。

每个 cgroup 子系统代表一种资源,如针对某个 cgroup 的处理器时间或者 pid 的数量,也叫进程数。Linux 内核提供对以下 12 种 cgroup 子系统的支持:

  • cpuset - 为 cgroup 内的任务分配独立的处理器和内存节点;
  • cpu - 使用调度程序对 cgroup 内的任务提供 CPU 资源的访问;
  • cpuacct - 生成 cgroup 中所有任务的处理器使用情况报告;
  • io - 限制对块设备的读写操作;
  • memory - 限制 cgroup 中的一组任务的内存使用;
  • devices - 限制 cgroup 中的一组任务访问设备;
  • freezer - 允许 cgroup 中的一组任务挂起/恢复;
  • net_cls - 允许对 cgroup 中的任务产生的网络数据包进行标记;
  • net_prio - 针对 cgroup 中的每个网络接口提供一种动态修改网络流量优先级的方法;
  • perf_event - 支持访问 cgroup 中的性能事件);
  • hugetlb - 为 cgroup 开启对大页内存的支持;
  • pid - 限制 cgroup 中的进程数量。

每个 cgroup 子系统是否被支持均与相关配置选项有关。例如,cpuset 子系统应该通过 CONFIG_CPUSETS 内核配置选项启用,io 子系统通过 CONFIG_BLK_CGROUP 内核配置选项等。所有这些内核配置选项都可以在 General setup → Control Group support 菜单里找到:

menuconfig

你可以通过 proc 虚拟文件系统在计算机上查看已经启用的 cgroup

  1. $ cat /proc/cgroups
  2. #subsys_name hierarchy num_cgroups enabled
  3. cpuset 8 1 1
  4. cpu 7 66 1
  5. cpuacct 7 66 1
  6. blkio 11 66 1
  7. memory 9 94 1
  8. devices 6 66 1
  9. freezer 2 1 1
  10. net_cls 4 1 1
  11. perf_event 3 1 1
  12. net_prio 4 1 1
  13. hugetlb 10 1 1
  14. pids 5 69 1

或者通过 sysfs 虚拟文件系统查看:

  1. $ ls -l /sys/fs/cgroup/
  2. total 0
  3. dr-xr-xr-x 5 root root 0 Dec 2 22:37 blkio
  4. lrwxrwxrwx 1 root root 11 Dec 2 22:37 cpu -> cpu,cpuacct
  5. lrwxrwxrwx 1 root root 11 Dec 2 22:37 cpuacct -> cpu,cpuacct
  6. dr-xr-xr-x 5 root root 0 Dec 2 22:37 cpu,cpuacct
  7. dr-xr-xr-x 2 root root 0 Dec 2 22:37 cpuset
  8. dr-xr-xr-x 5 root root 0 Dec 2 22:37 devices
  9. dr-xr-xr-x 2 root root 0 Dec 2 22:37 freezer
  10. dr-xr-xr-x 2 root root 0 Dec 2 22:37 hugetlb
  11. dr-xr-xr-x 5 root root 0 Dec 2 22:37 memory
  12. lrwxrwxrwx 1 root root 16 Dec 2 22:37 net_cls -> net_cls,net_prio
  13. dr-xr-xr-x 2 root root 0 Dec 2 22:37 net_cls,net_prio
  14. lrwxrwxrwx 1 root root 16 Dec 2 22:37 net_prio -> net_cls,net_prio
  15. dr-xr-xr-x 2 root root 0 Dec 2 22:37 perf_event
  16. dr-xr-xr-x 5 root root 0 Dec 2 22:37 pids
  17. dr-xr-xr-x 5 root root 0 Dec 2 22:37 systemd

正如你所猜测的那样,cgroup 机制不只是针对 Linux 内核的需求而创建的,更多的是用户空间层面的需求。要使用 cgroup ,需要先创建它。我们可以通过两种方式来创建。

第一种方法是在 /sys/fs/cgroup 目录下的任意子系统中创建子目录,并将任务的 pid 添加到 tasks 文件中,这个文件在我们创建子目录后会自动创建。

第二种方法是使用 libcgroup 库提供的工具集来创建/销毁/管理 cgroups(在 Fedora 中是 libcgroup-tools)。

我们来看一个简单的例子。下面的 bash 脚本会持续把一行信息输出到代表当前进程的控制终端的设备:

  1. #!/bin/bash
  2. while :
  3. do
  4. echo "print line" > /dev/tty
  5. sleep 5
  6. done

因此,如果我们运行这个脚本,将看到下面的结果:

  1. $ sudo chmod +x cgroup_test_script.sh
  2. ~$ ./cgroup_test_script.sh
  3. print line
  4. print line
  5. print line
  6. ...
  7. ...
  8. ...

现在让我们进入系统中 cgroupfs 的挂载点。前面说到,它位于 /sys/fs/cgroup 目录,但你可以将它挂载到任何你希望的地方。

  1. $ cd /sys/fs/cgroup

接着我们进入 devices 子目录,这个子目录表示允许或拒绝 cgroup 中的任务访问的设备:

  1. # cd devices

然后在这里创建 cgroup_test_group 目录:

  1. # mkdir cgroup_test_group

创建 cgroup_test_group 目录之后,会在目录下生成以下文件:

  1. /sys/fs/cgroup/devices/cgroup_test_group$ ls -l
  2. total 0
  3. -rw-r--r-- 1 root root 0 Dec 3 22:55 cgroup.clone_children
  4. -rw-r--r-- 1 root root 0 Dec 3 22:55 cgroup.procs
  5. --w------- 1 root root 0 Dec 3 22:55 devices.allow
  6. --w------- 1 root root 0 Dec 3 22:55 devices.deny
  7. -r--r--r-- 1 root root 0 Dec 3 22:55 devices.list
  8. -rw-r--r-- 1 root root 0 Dec 3 22:55 notify_on_release
  9. -rw-r--r-- 1 root root 0 Dec 3 22:55 tasks

现在我们重点关注 tasksdevices.deny 这两个文件。第一个文件 tasks 包含的是要附加到 cgroup_test_group cgroup 的 pid,第二个文件 devices.deny 包含的是拒绝访问的设备列表。新创建的 cgroup 默认对设备没有任何访问限制。为了禁止访问某个设备(在我们的示例中是 /dev/tty),我们应该向 devices.deny 写入下面这行:

  1. # echo "c 5:0 w" > devices.deny

我们来对这行进行详细解读。第一个字符 c 表示一种设备类型,我们示例中的 /dev/tty 是“字符设备”,我们可以通过 ls 命令的输出对此进行验证:

  1. ~$ ls -l /dev/tty
  2. crw-rw-rw- 1 root tty 5, 0 Dec 3 22:48 /dev/tty

可以看到权限列表中的第一个字符是 c。第二部分的 5:0 是设备的主次设备号,你也可以在 ls 命令的输出中看到。最后的字符 w 表示禁止 cgroups 中的任务对指定的设备执行写入操作。现在让我们再次运行 cgroup_test_script.sh 脚本:

  1. ~$ ./cgroup_test_script.sh
  2. print line
  3. print line
  4. print line
  5. ...
  6. ...

没有任何效果。再把这个进程的 pid 加到我们 cgroupdevices/tasks 文件:

  1. # echo $(pidof -x cgroup_test_script.sh) > /sys/fs/cgroup/devices/cgroup_test_group/tasks

现在,脚本的运行结果和预期的一样:

  1. ~$ ./cgroup_test_script.sh
  2. print line
  3. print line
  4. print line
  5. print line
  6. print line
  7. print line
  8. ./cgroup_test_script.sh: line 5: /dev/tty: Operation not permitted

在你运行 docker) 容器的时候也会出现类似的情况:

  1. ~$ docker ps
  2. CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
  3. fa2d2085cd1c mariadb:10 "docker-entrypoint..." 12 days ago Up 4 minutes 0.0.0.0:3306->3306/tcp mysql-work
  4. ~$ cat /sys/fs/cgroup/devices/docker/fa2d2085cd1c8d797002c77387d2061f56fefb470892f140d0dc511bd4d9bb61/tasks | head -3
  5. 5501
  6. 5584
  7. 5585
  8. ...
  9. ...
  10. ...

因此,在 docker 容器的启动过程中,docker 会为这个容器中的进程创建一个 cgroup

  1. $ docker exec -it mysql-work /bin/bash
  2. $ top
  3. PID USER PR NI VIRT RES SHR S %CPU %MEM TIME+ COMMAND 1 mysql 20 0 963996 101268 15744 S 0.0 0.6 0:00.46 mysqld 71 root 20 0 20248 3028 2732 S 0.0 0.0 0:00.01 bash 77 root 20 0 21948 2424 2056 R 0.0 0.0 0:00.00 top

我们可以在宿主机上看到这个 cgroup

  1. $ systemd-cgls
  2. Control group /:
  3. -.slice
  4. ├─docker
  5. └─fa2d2085cd1c8d797002c77387d2061f56fefb470892f140d0dc511bd4d9bb61
  6. ├─5501 mysqld
  7. └─6404 /bin/bash

现在我们了解了一些关于 cgroup 的机制,如何手动使用它,以及这个机制的用途。是时候深入 Linux 内核源码来了解这个机制的实现了。

cgroup 的早期初始化

现在,在我们刚刚看到关于 Linux 内核的 cgroup 机制的一些理论之后,我们可以开始深入到 Linux 的内核源码,以便更深入的了解这种机制。 与往常一样,我们将从 cgroup 的初始化开始。在 Linux 内核中,cgroups 的初始化分为两个部分:早期和晚期。在这部分我们只考虑“早期”的部分,“晚期”的部分会在下一部分考虑。

Cgroups 的早期初始化是在 Linux 内核的早期初始化期间从 init/main.c 中调用:

  1. cgroup_init_early();

函数开始的。这个函数定义在源文件 kernel/cgroup.c 中,从下面两个局部变量的定义开始:

  1. int __init cgroup_init_early(void)
  2. {
  3. static struct cgroup_sb_opts __initdata opts;
  4. struct cgroup_subsys *ss;
  5. ...
  6. ...
  7. ...
  8. }

cgroup_sb_opts 结构体的定义也可以在这个源文件中找到:

  1. struct cgroup_sb_opts {
  2. u16 subsys_mask;
  3. unsigned int flags;
  4. char *release_agent;
  5. bool cpuset_clone_children;
  6. char *name;
  7. bool none;
  8. };

用来表示 cgroupfs 的挂载选项。例如,我们可以使用 name= 选项创建指定名称的 cgroup 层级(本示例中以 my_cgrp 命名),不附加到任何子系统:

  1. $ mount -t cgroup -oname=my_cgrp,none /mnt/cgroups

第二个变量 - sscgroup_subsys 结构体,这个结构体定义在 include/linux/cgroup-defs.h 头文件中。你可以从这个结构体的名称中猜到,这个变量表示一个 cgroup 子系统。这个结构体包含多个字段和回调函数,如:

  1. struct cgroup_subsys {
  2. int (*css_online)(struct cgroup_subsys_state *css);
  3. void (*css_offline)(struct cgroup_subsys_state *css);
  4. ...
  5. ...
  6. ...
  7. bool early_init:1;
  8. int id;
  9. const char *name;
  10. struct cgroup_root *root;
  11. ...
  12. ...
  13. ...
  14. }

例如,css_onlinecss_offline 回调分别在 cgroup 成功完成所有分配之后和 cgroup 释放之前调用,early_init 标志位用来标记子系统是否要提前初始化,idname 字段分别表示在 cgroup 中已注册的子系统的唯一标识和子系统的”名称“。最后的 root 字段指向 cgroup 层级结构的根。

当然,cgroup_subsys 结构体还有一些其他字段,比上面展示的要多,不过目前了解这么多已经够了。现在我们了解了与 cgroups 机制有关的重要结构体,让我们再回到 cgroup_init_early 函数。这个函数的主要目的是对一些子系统进行早期初始化。你可能已经猜到了,这些需要”早期“初始化的子系统的 cgroup_subsys->early_init 字段应该为 1。来看看哪些子系统可以提前初始化吧。

在两个局部变量定义之后,我们可以看到下面几行代码:

  1. init_cgroup_root(&cgrp_dfl_root, &opts);
  2. cgrp_dfl_root.cgrp.self.flags |= CSS_NO_REF;

这里我们可以看到 init_cgroup_root 函数的调用,它会使用缺省的层级结构进行初始化。接着我们在缺省的 cgroup 中设置 CSS_NO_REF 标志来禁止这个 css 的引用计数。cgrp_dfl_root 的定义也在这个文件中:

  1. struct cgroup_root cgrp_dfl_root;

这里的 cgrp 字段是 cgroup 结构体,你也许已经猜到了,它表示一个 cgroupcgroup 定义在 include/linux/cgroup-defs.h 头文件中。我们知道一个进程在 Linux 内核中是用 task_struct 结构体表示的, task_struct 并不包含直接访问这个任务所属的 cgroup 的链接,但是可以通过 task_structcss_set 字段访问。这个 css_set 结构体拥有指向子系统状态数组的指针:

  1. struct css_set {
  2. ...
  3. ...
  4. ....
  5. struct cgroup_subsys_state *subsys[CGROUP_SUBSYS_COUNT];
  6. ...
  7. ...
  8. ...
  9. }

通过 cgroup_subsys_state 结构体,一个进程可以找到其所属的 cgroup

  1. struct cgroup_subsys_state {
  2. ...
  3. ...
  4. ...
  5. struct cgroup *cgroup;
  6. ...
  7. ...
  8. ...
  9. }

所以,cgroups 相关数据结构的整体情况如下:

  1. +-------------+ +---------------------+ +------------->+---------------------+ +----------------+
  2. | task_struct | | css_set | | | cgroup_subsys_state | | cgroup |
  3. +-------------+ | | | +---------------------+ +----------------+
  4. | | | | | | | | flags |
  5. | | | | | +---------------------+ | cgroup.procs |
  6. | | | | | | cgroup |--------->| id |
  7. | | | | | +---------------------+ | .... |
  8. |-------------+ |---------------------+----+ +----------------+
  9. | cgroups | ------> | cgroup_subsys_state | array of cgroup_subsys_state
  10. |-------------+ +---------------------+------------------>+---------------------+ +----------------+
  11. | | | | | cgroup_subsys_state | | cgroup |
  12. +-------------+ +---------------------+ +---------------------+ +----------------+
  13. | | | flags |
  14. +---------------------+ | cgroup.procs |
  15. | cgroup |--------->| id |
  16. +---------------------+ | .... |
  17. | cgroup_subsys | +----------------+
  18. +---------------------+
  19. |
  20. |
  21. +---------------------+
  22. | cgroup_subsys |
  23. +---------------------+
  24. | id |
  25. | name |
  26. | css_online |
  27. | css_ofline |
  28. | attach |
  29. | .... |
  30. +---------------------+

因此,init_cgroup_root 函数使用默认值设置 cgrp_dfl_root。接下来的工作是把初始化的 css_set 分配给 init_task,它表示系统中的第一个进程:

  1. RCU_INIT_POINTER(init_task.cgroups, &init_css_set);

cgroup_init_early 函数里最后一件重要的任务是 early cgroups 的初始化。在这里,我们遍历所有已注册的子系统,给子系统分配一个唯一的标识号和名称,并且对标记为早期的子系统调用 cgroup_init_subsys 函数:

  1. for_each_subsys(ss, i) {
  2. ss->id = i;
  3. ss->name = cgroup_subsys_name[i];
  4. if (ss->early_init)
  5. cgroup_init_subsys(ss, true);
  6. }

这里的 for_each_subsyskernel/cgroup.c 源文件中的一个宏定义,正好扩展成基于 cgroup_subsys 数组的 for 循环。这个数组的定义可以在该源文件中找到,它看起来有点不寻常:

  1. #define SUBSYS(_x) [_x ## _cgrp_id] = &_x ## _cgrp_subsys,
  2. static struct cgroup_subsys *cgroup_subsys[] = {
  3. #include <linux/cgroup_subsys.h>
  4. };
  5. #undef SUBSYS

它被定义为 SUBSYS 宏,它接受一个参数(子系统名称),并定义了 cgroup 子系统的 cgroup_subsys数组。另外,我们可以看到这个数组是使用 linux/cgroup_subsys.h 头文件的内容进行初始化。如果我们看一下这个头文件,就会发现一组具有给定子系统名称的 SUBSYS 宏:

  1. #if IS_ENABLED(CONFIG_CPUSETS)
  2. SUBSYS(cpuset)
  3. #endif
  4. #if IS_ENABLED(CONFIG_CGROUP_SCHED)
  5. SUBSYS(cpu)
  6. #endif
  7. ...
  8. ...
  9. ...

可以这样定义是因为第一个 SUBSYS 的宏定义后面的 #undef 语句。来看看 &_x ## _cgrp_subsys 表达式,在 C 语言的宏定义中,## 操作符连接左右两边的表达式,所以当我们把 cpusetcpu 等参数传给 SUBSYS 宏时,其实是在定义 cpuset_cgrp_subsyscp_cgrp_subsys。确实如此,在 kernel/cpuset.c 源文件中你可以看到这些结构体的定义:

  1. struct cgroup_subsys cpuset_cgrp_subsys = {
  2. ...
  3. ...
  4. ...
  5. .early_init = true,
  6. };

因此,cgroup_init_early 函数中的最后一步是调用 cgroup_init_subsys 函数完成早期子系统的初始化,下面的早期子系统将被初始化:

  • cpuset;
  • cpu;
  • cpuacct.

cgroup_init_subsys 函数使用缺省值对指定的子系统进行初始化。比如,设置层级结构的根,使用 css_alloc 回调函数为指定的子系统分配空间,将一个子系统链接到一个已经存在的子系统,为初始进程分配子系统等。

至此,早期子系统就初始化结束了。

结束语

这是第一部分的结尾,它描述了 Linux 内核中 cgroup 机制的引入,我们讨论了与 cgroup 机制相关的一些理论和初始化步骤,在接下来的部分中,我们将继续深入讨论 cgroup 更实用的方面。

如果你有任何问题或建议,可以写评论给我,也可以在 twitter 上联系我。

请注意,英语不是我的第一语言,对于任何不便,我深表歉意。如果你发现任何错误,请给我发送一个 PR 到 linux-insides.

链接