cbb70cc5-48fe-46dc-bf8b-a8367ee25d76.webp

前情概要

通过上篇 Go 存储基础 — 文件 IO 的姿势, 我们看到有两种文件读写的方式,一种是系统调用的方式,操作的对象是一个整数 fd,另一种是 Go 标准库自己封装的标准库 IO ,操作对象是 Go 封装的 file 结构体,但其内部还是针对整数 fd 的操作。所以一切的本源是通过 fd 来操作的,那么,这个 fd 究竟是什么?就这个点我们深入剖析。

fd 是什么?

fdFile descriptor 的缩写,中文名叫做:文件描述符文件描述符是一个非负整数,本质上是一个索引值(这句话非常重要)

什么时候拿到的 fd ?

当打开一个文件时,内核向进程返回一个文件描述符( open 系统调用得到 ),后续 readwrite 这个文件时,则只需要用这个文件描述符来标识该文件,将其作为参数传入 readwrite

fd 的值范围是什么?

在 POSIX 语义中,0,1,2 这三个 fd 值已经被赋予特殊含义,分别是标准输入( STDIN_FILENO ),标准输出( STDOUT_FILENO ),标准错误( STDERR_FILENO )。

文件描述符是有一个范围的:0 ~ OPEN_MAX-1 ,最早期的 UNIX 系统中范围很小,现在的主流系统单就这个值来说,变化范围是几乎不受限制的,只受到系统硬件配置和系统管理员配置的约束。

你可以通过 ulimit 命令查看当前系统的配置:

  1. ulimit -n
  2. 4864

如上,我系统上进程默认最多打开 4864 文件。

窥探 Linux 内核

fd 究竟是什么?必须去 Linux 内核看一眼。

用户使用系统调用 open 或者 creat 来打开或创建一个文件,用户态得到的结果值就是 fd ,后续的 IO 操作全都是用 fd 来标识这个文件,可想而知内核做的操作并不简单,我们接下来就是要揭开这层面纱。

task_struct

首先,我们知道进程的抽象是基于 struct task_struct 结构体,这是 Linux 里面最复杂的结构体之一 ,成员字段非常多,我们今天不需要详解这个结构体,我稍微简化一下,只提取我们今天需要理解的字段如下:

  1. struct task_struct {
  2. // ...
  3. /* Open file information: */
  4. struct files_struct *files;
  5. // ...
  6. }

**files;** 这个字段就是今天的主角之一files 是一个指针,指向一个为 struct files_struct 的结构体。这个结构体就是用来管理该进程打开的所有文件的管理结构。

重点理解一个概念:

**struct task_struct** 是进程的抽象封装,标识一个进程,在 Linux 里面的进程各种抽象视角,都是这个结构体给到你的。当创建一个进程,其实也就是 new 一个 struct task_struct 出来;

files_struct

好,上面通过进程结构体引出了 struct files_struct 这个结构体。这个结构体管理某进程打开的所有文件的管理结构,这个结构体本身是比较简单的:

  1. /*
  2. * Open file table structure
  3. */
  4. struct files_struct {
  5. // 读相关字段
  6. atomic_t count;
  7. bool resize_in_progress;
  8. wait_queue_head_t resize_wait;
  9. // 打开的文件管理结构
  10. struct fdtable __rcu *fdt;
  11. struct fdtable fdtab;
  12. // 写相关字段
  13. unsigned int next_fd;
  14. unsigned long close_on_exec_init[1];
  15. unsigned long open_fds_init[1];
  16. unsigned long full_fds_bits_init[1];
  17. struct file * fd_array[NR_OPEN_DEFAULT];
  18. };

files_struct 这个结构体我们说是用来管理所有打开的文件的。怎么管理?本质上就是数组管理的方式,所有打开的文件结构都在一个数组里。这可能会让你疑惑,数组在那里?有两个地方:

  1. struct file * fd_array[NR_OPEN_DEFAULT] 是一个静态数组,随着 files_struct 结构体分配出来的,在 64 位系统上,静态数组大小为 64;
  2. struct fdtable 也是个数组管理结构,只不过这个是一个动态数组,数组边界是用字段描述的;

思考:为什么会有这种静态 + 动态的方式?

性能和资源的权衡 !大部分进程只会打开少量的文件,所以静态数组就够了,这样就不用另外分配内存。如果超过了静态数组的阈值,那么就动态扩展。

可以回忆下,这个是不是跟 inode 的直接索引,一级索引的优化思路类似。

fdtable

简单介绍下 fdtable 结构体,这个结构体就是封装用来管理 fd 的结构体,fd 的秘密就在这个里面。简化结构体如下:

  1. struct fdtable {
  2. unsigned int max_fds;
  3. struct file __rcu **fd; /* current fd array */
  4. };

注意到 fdtable.fd 这个字段是一个二级指针,什么意思?

就是指向 fdtable.fd 是一个指针字段,指向的内存地址还是存储指针的(元素指针类型为 struct file * )。换句话说,fdtable.fd 指向一个数组,数组元素为指针(指针类型为 struct file *)。

其中 max_fds 指明数组边界。

files_struct 小结

file_struct 本质上是用来管理所有打开的文件的,内部的核心是由一个静态数组动态数组管理结构实现。

还记得上面我们说文件描述符 **fd** 本质上就是索引吗?这里就把概念接上了,**fd** 就是这个数组的索引,也就是数组的槽位编号而已。 通过非负数 fd 就能拿到对应的 struct file 结构体的地址。

我们把概念串起来(注意,这里为了突出 fd 的本质,把 fdtable 管理简化掉):

3da880cd-2347-4edc-82fa-b14b70de2a61.webp

  • fd 真的就是 files 这个字段指向的指针数组的索引而已(仅此而已)。通过 fd 能够找到对应文件的 struct file 结构体;

file

现在我们知道了 fd 本质是数组索引,数组元素是 struct file 结构体的指针。那么这里就引出了一个 struct file 的结构体。这个结构体又是用来干什么的呢?

这个结构体是用来表征进程打开的文件的。简化结构如下:

  1. struct file {
  2. // ...
  3. struct path f_path;
  4. struct inode *f_inode;
  5. const struct file_operations *f_op;
  6. atomic_long_t f_count;
  7. unsigned int f_flags;
  8. fmode_t f_mode;
  9. struct mutex f_pos_lock;
  10. loff_t f_pos;
  11. struct fown_struct f_owner;
  12. // ...
  13. }

这个结构体非常重要,它标识一个进程打开的文件,下面解释 IO 相关的几个最重要的字段:

  • f_path :标识文件名
  • f_inode :非常重要的一个字段,inode 这个是 vfs 的 inode 类型,是基于具体文件系统之上的抽象封装;
  • f_pos :这个字段非常重要,偏移,对,就是当前文件偏移。还记得上一篇 IO 基础里也提过偏移对吧,指的就是这个,f_posopen 的时候会设置成默认值,seek 的时候可以更改,从而影响到 write/read 的位置;

思考问题

思考问题一:**files_struct** 结构体只会属于一个进程,那么**struct file** 这个结构体呢,是只会属于某一个进程?还是可能被多个进程共享?

划重点:**struct file** 是属于系统级别的结构,换句话说是可以共享与多个不同的进程。

思考问题二:什么时候会出现多个进程的 **fd** 指向同一个 **file** 结构体?

比如 fork 的时候,父进程打开了文件,后面 fork 出一个子进程。这种情况就会出现共享 file 的场景。如图:

0f565a78-b4de-4cc3-9305-a30b4ae8d60a.webp

思考问题三:在同一个进程中,多个 **fd** 可能指向同一个 file 结构吗?

可以。dup 函数就是做这个的。

  1. #include <unistd.h>
  2. int dup(int oldfd);
  3. int dup2(int oldfd, int newfd);

inode

我们看到 struct file 结构体里面有一个 inode 的指针,也就自然引出了 inode 的概念。这个指向的 inode 并没有直接指向具体文件系统的 inode ,而是操作系统抽象出来的一层虚拟文件系统,叫做 VFS ( Virtual File System ),然后在 VFS 之下才是真正的文件系统,比如 ext4 之类的。

完整架构图如下:

ad2b9688-cf95-466c-bcea-cbff967fec67.webp

思考:为什么会有这一层封装呢?

其实很容里理解,就是解耦。如果让 struct file 直接和 struct ext4_inode 这样的文件系统对接,那么会导致 struct file 的处理逻辑非常复杂,因为每对接一个具体的文件系统,就要考虑一种实现。所以操作系统必须把底下文件系统屏蔽掉,对外提供统一的 inode 概念,对下定义好接口进行回调注册。这样让 inode 的概念得以统一,Unix 一切皆文件的基础就来源于此。

再来看一样 VFS 的 inode 的结构:

  1. struct inode {
  2. // 文件相关的基本信息(权限,模式,uid,gid等)
  3. umode_t i_mode;
  4. unsigned short i_opflags;
  5. kuid_t i_uid;
  6. kgid_t i_gid;
  7. unsigned int i_flags;
  8. // 回调函数
  9. const struct inode_operations *i_op;
  10. struct super_block *i_sb;
  11. struct address_space *i_mapping;
  12. // 文件大小,atime,ctime,mtime等
  13. loff_t i_size;
  14. struct timespec64 i_atime;
  15. struct timespec64 i_mtime;
  16. struct timespec64 i_ctime;
  17. // 回调函数
  18. const struct file_operations *i_fop;
  19. struct address_space i_data;
  20. // 指向后端具体文件系统的特殊数据
  21. void *i_private; /* fs or device private pointer */
  22. };

其中包括了一些基本的文件信息,包括 uid,gid,大小,模式,类型,时间等等。

一个 vfs 和 后端具体文件系统的纽带:i_private 字段。用来传递一些具体文件系统使用的数据结构。

至于 i_op 回调函数在构造 inode 的时候,就注册成了后端的文件系统函数,比如 ext4 等等。

思考问题:通用的 VFS 层,定义了所有文件系统通用的 inode,叫做 vfs inode,而后端文件系统也有自身特殊的 inode 格式,该格式是在 vfs inode 之上进行扩展的,怎么通过 vfs inode 怎么得到具体文件系统的 inode 呢?

下面以 ext4 文件系统举例(因为所有的文件系统套路一样),ext4 的 inode 类型是 struct ext4_inode_info

划重点:方法其实很简单,这个是属于 c 语言一种常见的(也是特有)编程手法:强转类型。vfs inode 出生就和 **ext4_inode_info** 结构体分配在一起的,直接通过 vfs inode 结构体的地址强转类型就能得到 **ext4_inode_info** 结构体

  1. struct ext4_inode_info {
  2. // ext4 inode 特色字段
  3. // ...
  4. // 重要!!!
  5. struct inode vfs_inode;
  6. };

举个例子,现已知 inode 地址和 vfs_inode 字段的内偏移如下:

  • inode 的地址为 0xa89be0;
  • ext4_inode_info 里有个内嵌字段 vfs_inode,类型为 struct inode ,该字段在结构体内偏移为 64 字节;

则可以得到:

ext4_inode_info 的地址为

  1. (struct ext4_inode_info *)(0xa89be0 - 64)

强转方法使用了一个叫做 container_of 的宏,如下:

  1. // 强转函数
  2. static inline struct ext4_inode_info *EXT4_I(struct inode *inode)
  3. {
  4. return container_of(inode, struct ext4_inode_info, vfs_inode);
  5. }
  6. // 强转实际封装
  7. #define container_of(ptr, type, member) \
  8. (type *)((char *)(ptr) - (char *) &((type *)0)->member)
  9. #endif

所以,你懂了吗?

分配 inode 的时候,其实分配的是 ext4_inode_info 结构体,包含了 vfs inode,然后对外给出去 vfs_inode 字段的地址即可。VFS 层拿 inode 的地址使用,底下文件系统强转类型后,取外层的 inode 地址使用。

举个 ext4 文件系统的例子:

  1. static struct inode *ext4_alloc_inode(struct super_block *sb)
  2. {
  3. struct ext4_inode_info *ei;
  4. // 内存分配,分配 ext4_inode_info 的地址
  5. ei = kmem_cache_alloc(ext4_inode_cachep, GFP_NOFS);
  6. // ext4_inode_info 结构体初始化
  7. // 返回 vfs_inode 字段的地址
  8. return &ei->vfs_inode;
  9. }

vfs 拿到的就是这个 inode 地址。

a7f4a47e-0d3b-48f8-86f0-ce24c483280b.webp

划重点:inode 的内存由后端文件系统分配,vfs inode 结构体内嵌在不同的文件系统的 inode 之中。不同的层次用不同的地址,ext4 文件系统用 **ext4_inode_info** 的结构体的地址,vfs 层用 **ext4_inode_info.vfs_inode** 字段的地址。

这种用法在 C 语言编程中很常见,算是 C 的特色了(仔细想想,这种用法和面向对象的多态的实现异曲同工)。

思考问题:怎么理解 vfs **inode****ext2_inode_info****ext4_inode_info** 等结构体的区别?

所有文件系统共性的东西抽象到 vfs inode ,不同文件系统差异的东西放在各自的 inode 结构体中。

小结梳理

当用户打开一个文件,用户只得到了一个 fd 句柄,但内核做了很多事情,梳理下来,我们得到几个关键的数据结构,这几个数据结构是有层次递进关系的,我们简单梳理下:

  1. 进程结构 task_struct :表征进程实体,每一个进程都和一个 task_struct 结构体对应,其中 task_struct.files 指向一个管理打开文件的结构体 fiels_struct
  2. 文件表项管理结构 files_struct :用于管理进程打开的 open 文件列表,内部以数组的方式实现(静态数组和动态数组结合)。返回给用户的 fd 就是这个数组的编号索引而已,索引元素为 file 结构;
    • files_struct 只从属于某进程;
  3. 文件 file 结构:表征一个打开的文件,内部包含关键的字段有:当前文件偏移,inode 结构地址
    • 该结构虽然由进程触发创建,但是 file 结构可以在进程间共享;
  4. vfs inode 结构体:文件 file 结构指向 的是 vfs 的 inode ,这个是操作系统抽象出来的一层,用于屏蔽后端各种各样的文件系统的 inode 差异;
    • inode 这个具体进程无关,是文件系统级别的资源;
  5. ext4 inode 结构体(指代具体文件系统 inode ):后端文件系统的 inode 结构,不同文件系统自定义的结构体,ext2 有 ext2_inode_info,ext4 有ext4_inode_info,minix 有 minix_inode_info,这些结构里都是内嵌了一个 vfs inode 结构体,原理相同;

完整的架构图:

efb5fce8-dc17-455a-981c-574b456596f9.webp

思考实验

现在我们已经彻底了解 fd 这个所谓的非负整数代表的深层含义了,我们可以准备一些 IO 的思考举一反三。

文件读写( IO )的时候会发生什么?

  • 在完成 write 操作后,在文件 file 中的当前文件偏移量会增加所写入的字节数,如果这导致当前文件偏移量超处了当前文件长度,则会把 inode 的当前长度设置为当前文件偏移量(也就是文件变长)
  • O_APPEND 标志打开一个文件,则相应的标识会被设置到文件 file 状态的标识中,每次对这种具有追加写标识的文件执行 write 操作的时候,file 的当前文件偏移量首先会被设置成 inode 结构体中的文件长度,这就使得每次写入的数据都追加到文件的当前尾端处(该操作对用户态提供原子语义);
  • 若一个文件 seek 定位到文件当前的尾端,则 file 中的当前文件偏移量设置成 inode 的当前文件长度;
  • seek 函数值修改 file 中的当前文件偏移量,不进行任何 I/O 操作;
  • 每个进程对有它自己的 file,其中包含了当前文件偏移,当多个进程写同一个文件的时候,由于一个文件 IO 最终只会是落到全局的一个 inode 上,这种并发场景则可能产生用户不可预期的结果;

总结

回到初心,理解 fd 的概念有什么用?

一切 IO 的行为到系统层面都是以 fd 的形式进行。无论是 C/C++,Go,Python,JAVA 都是一样,任何语言都是一样,这才是最本源的东西,理解了 fd 关联的一系列结构,你才能对 IO 游刃有余。

简要的总结:

  1. 从姿势上来讲,用户 open 文件得到一个非负数句柄 fd,之后针对该文件的 IO 操作都是基于这个 fd
  2. 文件描述符 fd 本质上来讲就是数组索引,fd 等于 5 ,那对应数组的第 5 个元素而已,该数组是进程打开的所有文件的数组,数组元素类型为 struct file
  3. 结构体 task_struct 对应一个抽象的进程,files_struct 是这个进程管理该进程打开的文件数组管理器。fd 则对应了这个数组的编号,每一个打开的文件用 file 结构体表示,内含当前偏移等信息;
  4. file 结构体可以为进程间共享,属于系统级资源,同一个文件可能对应多个 file 结构体,file 内部有个 inode 指针,指向文件系统的 inode
  5. inode 是文件系统级别的概念,只由文件系统管理维护,不因进程改变( file 是进程出发创建的,进程 open 同一个文件会导致多个 file ,指向同一个 inode );

内核把最复杂的活干了,只暴露给您最简单的一个非负整数 fd 。所以,绝大部分场景会用fd 就行,倒不用想太多。当然如果能再深入看一眼知其所以然是最好不过。本文分享是基础准备篇,希望能给你带来不一样的 IO 视角。