中断和中断处理 Part 2.

深入Linux内核中的中断和异常处理

上一章节中我们学习了中断和异常处理的一些理论知识,在本章节中,我们将深入了解Linux内核源代码中关于中断与异常处理的部分。之前的章节中主要从理论方面描述了Linux中断和异常处理的相关内容,而在本章节中,我们将直接深入Linux源代码来了解相关内容。像其他章节一样,我们将从启动早期的代码开始阅读。本章将不会像 Linux内核启动过程中那样从Linux内核启动的 最开始几行代码读起,而是从与中断与异常处理相关的最早期代码开始阅读,了解Linux内核源代码中所有与中断和异常处理相关的代码。

如果你读过本书的前面部分,你可能记得Linux内核中关于 x86_64架构的代码中与中断相关的最早期代码出现在 arch/x86/boot/pm.c文件中,该文件首次配置了 中断描述符表(IDT)。对IDT的配置在go_to_protected_mode函数中完成,该函数首先调用了 setup_idt函数配置了IDT,然后将处理器的工作模式切换为 保护模式:

  1. void go_to_protected_mode(void)
  2. {
  3. ...
  4. setup_idt();
  5. ...
  6. }

setup_idt函数在同一文件中定义,它仅仅是用 NULL填充了中断描述符表:

  1. static void setup_idt(void)
  2. {
  3. static const struct gdt_ptr null_idt = {0, 0};
  4. asm volatile("lidtl %0" : : "m" (null_idt));
  5. }

其中,gdt_ptr表示了一个48-bit的特殊功能寄存器 GDTR,其包含了全局描述符表 Global Descriptor的基地址:

  1. struct gdt_ptr {
  2. u16 len;
  3. u32 ptr;
  4. } __attribute__((packed));

显然,在此处的 gdt_prt不是代表 GDTR寄存器而是代表 IDTR寄存器,因为我们将其设置到了中断描述符表中。之所以在Linux内核代码中没有idt_ptr结构体,是因为其与gdt_prt具有相同的结构而仅仅是名字不同,因此没必要定义两个重复的数据结构。可以看到,内核在此处并没有填充Interrupt Descriptor Table,这是因为此刻处理任何中断或异常还为时尚早,因此我们仅仅以NULL来填充IDT

在设置完 Interrupt descriptor table, Global Descriptor Table和其他一些东西以后,内核开始进入保护模式,这部分代码在 arch/x86/boot/pmjump.S中实现,你可以在描述如何进入保护模式的 章节中了解到更多细节。

在最早的章节中我们已经了解到进入保护模式的代码位于 boot_params.hdr.code32_start,你可以在 arch/x86/boot/pm.c的末尾看到内核将入口函数指针和启动参数 boot_params传递给了 protected_mode_jump函数:

  1. protected_mode_jump(boot_params.hdr.code32_start,
  2. (u32)&boot_params + (ds() << 4));

定义在文件 arch/x86/boot/pmjump.S中的函数protected_mode_jump通过一种8086的调用 约定,通过 axdx两个寄存器来获取参数:

  1. GLOBAL(protected_mode_jump)
  2. ...
  3. ...
  4. ...
  5. .byte 0x66, 0xea # ljmpl opcode
  6. 2: .long in_pm32 # offset
  7. .word __BOOT_CS # segment
  8. ...
  9. ...
  10. ...
  11. ENDPROC(protected_mode_jump)

其中 in_pm32包含了对32-bit入口的跳转语句:

  1. GLOBAL(in_pm32)
  2. ...
  3. ...
  4. jmpl *%eax // %eax contains address of the `startup_32`
  5. ...
  6. ...
  7. ENDPROC(in_pm32)

你可能还记得32-bit的入口地址位于汇编文件 arch/x86/boot/compressed/head_64.S中,尽管它的名字包含 _64后缀。我们可以在 arch/x86/boot/compressed目录下看到两个相似的文件:

  • arch/x86/boot/compressed/head_32.S.
  • arch/x86/boot/compressed/head_64.S;

然而32-bit模式的入口位于第二个文件中,而第一个文件在 x86_64配置下不会参与编译。如 arch/x86/boot/compressed/Makefile:

  1. vmlinux-objs-y := $(obj)/vmlinux.lds $(obj)/head_$(BITS).o $(obj)/misc.o \
  2. ...
  3. ...

代码中的 head_*取决于 $(BITS) 变量的值,而该值由”架构”决定。我们可以在 arch/x86/Makefile找到相关信息:

  1. ifeq ($(CONFIG_X86_32),y)
  2. ...
  3. BITS := 32
  4. else
  5. BITS := 64
  6. ...
  7. endif

现在我们从 arch/x86/boot/compressed/head_64.S跳入了 startup_32函数,在这个函数中没有与中断处理相关的内容。startup_32函数包含了进入 long mode之前必须的准备工作,并直接进入了 long modelong mode的入口位于 startup_64函数中,在这个函数中完成了 内核解压的准备工作。内核解压的代码位于 arch/x86/boot/compressed/misc.c中的 decompress_kernel函数中。内核解压完成以后,程序跳入 arch/x86/kernel/head_64.S中的 startup_64函数。在这个函数中,我们开始构建 identity-mapped pages,并在之后检查 NX位,配置 Extended Feature Enable Register(见链接),使用 lgdt指令更新早期的Global Descriptor Table,在此之后我们还需要使用如下代码来设置 gs寄存器:

  1. movl $MSR_GS_BASE,%ecx
  2. movl initial_gs(%rip),%eax
  3. movl initial_gs+4(%rip),%edx
  4. wrmsr

这段代码在之前的 章节中也出现过。请注意代码最后的 wrmsr指令,这个指令将 edx:eax寄存器指定的地址中的数据写入到由 ecx寄存器指定的 model specific register中。由代码可以看到,ecx中的值是 $MSR_GS_BASE,该值在 arch/x86/include/uapi/asm/msr-index.h中定义:

  1. #define MSR_GS_BASE 0xc0000101

由此可见,MSR_GS_BASE定义了 model specific register的编号。由于 cs, ds, es,和 ss在64-bit模式中不再使用,这些寄存器中的值将会被忽略,但我们可以通过 fsgs寄存器来访问内存空间。model specific register提供了一种后门 back door来访问这些段寄存器,也让我们可以通过段寄存器 fsgs来访问64-bit的基地址。看起来这部分代码映射在 GS.base域中。再看到 initial_gs函数的定义:

  1. GLOBAL(initial_gs)
  2. .quad INIT_PER_CPU_VAR(irq_stack_union)

这段代码将 irq_stack_union传递给 INIT_PER_CPU_VAR宏,后者只是给输入参数添加了 init_per_cpu__前缀而已。在此得出了符号 init_per_cpu__irq_stack_union。再看到 链接脚本,其中可以看到如下定义:

  1. #define INIT_PER_CPU(x) init_per_cpu__##x = x + __per_cpu_load
  2. INIT_PER_CPU(irq_stack_union);

这段代码告诉我们符号 init_per_cpu__irq_stack_union的地址将会是 irq_stack_union + __per_cpu_load。现在再来看看 init_per_cpu__irq_stack_union__per_cpu_load在哪里。irq_stack_union的定义出现在 arch/x86/include/asm/processor.h中,其中的 DECLARE_INIT_PER_CPU宏展开后又调用了 init_per_cpu_var宏:

  1. DECLARE_INIT_PER_CPU(irq_stack_union);
  2. #define DECLARE_INIT_PER_CPU(var) \
  3. extern typeof(per_cpu_var(var)) init_per_cpu_var(var)
  4. #define init_per_cpu_var(var) init_per_cpu__##var

将所有的宏展开之后我们可以得到与之前相同的名称 init_per_cpu__irq_stack_union,但此时它不再只是一个符号,而成了一个变量。请注意表达式 typeof(per_cpu_var(var)),在此时 varirq_stack_union,而 per_cpu_var宏在 arch/x86/include/asm/percpu.h中定义:

  1. #define PER_CPU_VAR(var) %__percpu_seg:var

其中:

  1. #ifdef CONFIG_X86_64
  2. #define __percpu_seg gs
  3. endif

因此,我们实际访问的是 gs:irq_stack_union,它的类型是 irq_union。到此为止,我们定义了上面所说的第一个变量并且知道了它的地址。再看到第二个符号 __per_cpu_load,该符号定义在 include/asm-generic/sections.h,这个符号定义了一系列 per-cpu变量:

  1. extern char __per_cpu_load[], __per_cpu_start[], __per_cpu_end[];

同时,符号代表了这一系列变量的数据区域的基地址。因此我们知道了 irq_stack_union__per_cpu_load的地址,并且知道变量 init_per_cpu__irq_stack_union位于 __per_cpu_load。并且看到 System.map:

  1. ...
  2. ...
  3. ...
  4. ffffffff819ed000 D __init_begin
  5. ffffffff819ed000 D __per_cpu_load
  6. ffffffff819ed000 A init_per_cpu__irq_stack_union
  7. ...
  8. ...
  9. ...

现在我们终于知道了 initial_gs是什么,回到之前的代码中:

  1. movl $MSR_GS_BASE,%ecx
  2. movl initial_gs(%rip),%eax
  3. movl initial_gs+4(%rip),%edx
  4. wrmsr

此时我们通过 MSR_GS_BASE指定了一个平台相关寄存器,然后将 initial_gs的64-bit地址放到了 edx:eax段寄存器中,然后执行 wrmsr指令,将 init_per_cpu__irq_stack_union的基地址放入了 gs寄存器,而这个地址将是中断栈的栈底地址。在此之后我们将进入 x86_64_start_kernel函数的C语言代码中,此函数定义在 arch/x86/kernel/head64.c。在这个函数中,我们将完成最后的准备工作,之后就要进入到与平台无关的通用内核代码。如果你读过前文的 早期中断和异常处理章节,你可能记得其中之一的工作就是将中断服务程序入口地址填写到早期 Interrupt Descriptor Table中。

  1. for (i = 0; i < NUM_EXCEPTION_VECTORS; i++)
  2. set_intr_gate(i, early_idt_handlers[i]);
  3. load_idt((const struct desc_ptr *)&idt_descr);

当我写 早期中断和异常处理章节时Linux内核版本是 3.18,而如今Linux内核版本已经生长到了 4.1.0-rc6+,并且 Andy Lutomirski提交了一个与 early_idt_handlers相关的修改 patch,该修改即将并入内核代码主线中。NOTE在我写这一段时,这个 patch已经进入了Linux内核源代码中。现在这段代码变成了:

  1. for (i = 0; i < NUM_EXCEPTION_VECTORS; i++)
  2. set_intr_gate(i, early_idt_handler_array[i]);
  3. load_idt((const struct desc_ptr *)&idt_descr);

如你所见,这段代码与之前相比唯一的区别在于中断服务程序入口点数组的名称现在改为了 early_idt_handler_array:

  1. extern const char early_idt_handler_array[NUM_EXCEPTION_VECTORS][EARLY_IDT_HANDLER_SIZE];

其中 NUM_EXCEPTION_VECTORSEARLY_IDT_HANDLER_SIZE 的定义如下:

  1. #define NUM_EXCEPTION_VECTORS 32
  2. #define EARLY_IDT_HANDLER_SIZE 9

因此,数组 early_idt_handler_array 存放着中断服务程序入口,其中每个入口占据9个字节。early_idt_handlers 定义在文件arch/x86/kernel/head_64.S中。early_idt_handler_array 也定义在这个文件中:

  1. ENTRY(early_idt_handler_array)
  2. ...
  3. ...
  4. ...
  5. ENDPROC(early_idt_handler_common)

这里使用 .rept NUM_EXCEPTION_VECTORS 填充了 early_idt_handler_array ,其中也包含了 early_make_pgtable 的中断服务函数入口(关于该中断服务函数的实现请参考章节 早期的中断和异常控制)。现在我们完成了所有x86-64平台相关的代码,即将进入通用内核代码中。当然,我们之后还会在 setup_arch 函数中重新回到平台相关代码,但这已经是 x86_64 平台早期代码的最后部分。

为中断堆栈设置Stack Canary

正如之前阅读过的关于Linux内核初始化过程的章节,在arch/x86/kernel/head_64.S之后的下一步进入到了init/main.c中的函数体最大的函数 start_kernel 中。这个函数将完成内核以pid - 1运行第一个init进程 之前的所有初始化工作。其中,与中断和异常处理相关的第一件事是调用 boot_init_stack_canary 函数。这个函数通过设置canary值来防止中断栈溢出。前面我们已经看过了 boot_init_stack_canary 实现的一些细节,现在我们更进一步地认识它。你可以在arch/x86/include/asm/stackprotector.h中找到这个函数的实现,它的实现取决于 CONFIG_CC_STACKPROTECTOR 这个内核配置选项。如果该选项没有置位,那该函数将是一个空函数:

  1. #ifdef CONFIG_CC_STACKPROTECTOR
  2. ...
  3. ...
  4. ...
  5. #else
  6. static inline void boot_init_stack_canary(void)
  7. {
  8. }
  9. #endif

如果设置了内核配置选项 CONFIG_CC_STACKPROTECTOR ,那么函数boot_init_stack_canary 一开始将检查联合体 irq_stack_union 的状态,这个联合体代表了per-cpu中断栈,其与 stack_canary 值中间有40个字节的 offset :

  1. #ifdef CONFIG_X86_64
  2. BUILD_BUG_ON(offsetof(union irq_stack_union, stack_canary) != 40);
  3. #endif

如之前章节所描述, irq_stack_union 联合体的定义如下:

  1. union irq_stack_union {
  2. char irq_stack[IRQ_STACK_SIZE];
  3. struct {
  4. char gs_base[40];
  5. unsigned long stack_canary;
  6. };
  7. };

以上定义位于文件arch/x86/include/asm/processor.h。总所周知,C语言中的联合体是一种描述多个数据结构共用一片内存的数据结构。可以看到,第一个数据域 gs_base 大小为40 bytes,代表了 irq_stack 的栈底。因此,当我们使用 BUILD_BUG_ON 对该表达式进行检查时结果应为成功。(关于 BUILD_BUG_ON 宏的详细信息可见Linux内核初始化过程章节)。

紧接着我们使用随机数和时戳计数器计算新的 canary 值:

  1. get_random_bytes(&canary, sizeof(canary));
  2. tsc = __native_read_tsc();
  3. canary += tsc + (tsc << 32UL);

并且通过 this_cpu_write 宏将 canary 值写入了 irq_stack_union 中:

  1. this_cpu_write(irq_stack_union.stack_canary, canary);

关于 this_cpu_* 系列宏的更多信息参见Linux kernel documentation

禁用/使能本地中断

init/main.c 中,与中断和中断处理相关的操作中,设置的 canary 的下一步是调用 local_irq_disable 宏。

这个宏定义在头文件 include/linux/irqflags.h 中,宏如其名,调用这个宏将禁用本地CPU的中断。我们来仔细了解一下这个宏的实现,首先,它依赖于内核配置选项 CONFIG_TRACE_IRQFLAGS_SUPPORT :

  1. #ifdef CONFIG_TRACE_IRQFLAGS_SUPPORT
  2. ...
  3. #define local_irq_disable() \
  4. do { raw_local_irq_disable(); trace_hardirqs_off(); } while (0)
  5. ...
  6. #else
  7. ...
  8. #define local_irq_disable() do { raw_local_irq_disable(); } while (0)
  9. ...
  10. #endif

如你所见,两者唯一的区别在于当 CONFIG_TRACE_IRQFLAGS_SUPPORT 选项使能时, local_irq_disable 宏将同时调用 trace_hardirqs_off 函数。在Linux死锁检测模块lockdep中有一项功能 irq-flags tracing 可以追踪 hardirqsoftirq 的状态。在这种情况下, lockdep 死锁检测模块可以提供系统中关于硬/软中断的开/关事件的相关信息。函数 trace_hardirqs_off 的定义位于kernel/locking/lockdep.c:

  1. void trace_hardirqs_off(void)
  2. {
  3. trace_hardirqs_off_caller(CALLER_ADDR0);
  4. }
  5. EXPORT_SYMBOL(trace_hardirqs_off);

可见它只是调用了 trace_hardirqs_off_caller 函数。 trace_hardirqs_off_caller 函数,该函数检查了当前进程的 hardirqs_enabled 域,如果本次 local_irq_disable 调用是冗余的话,便使 redundant_hardirqs_off 域的值增长,否则便使 hardirqs_off_events 域的值增加。这两个域或其它与死锁检测模块 lockdep 统计相关的域定义在文件kernel/locking/lockdep_insides.h中的 lockdep_stats 结构体中:

  1. struct lockdep_stats {
  2. ...
  3. ...
  4. ...
  5. int softirqs_off_events;
  6. int redundant_softirqs_off;
  7. ...
  8. ...
  9. ...
  10. }

如果你使能了 CONFIG_DEBUG_LOCKDEP 内核配置选项,lockdep_stats_debug_show函数会将所有的调试信息写入 /proc/lockdep 文件中:

  1. static void lockdep_stats_debug_show(struct seq_file *m)
  2. {
  3. #ifdef CONFIG_DEBUG_LOCKDEP
  4. unsigned long long hi1 = debug_atomic_read(hardirqs_on_events),
  5. hi2 = debug_atomic_read(hardirqs_off_events),
  6. hr1 = debug_atomic_read(redundant_hardirqs_on),
  7. ...
  8. ...
  9. ...
  10. seq_printf(m, " hardirq on events: %11llu\n", hi1);
  11. seq_printf(m, " hardirq off events: %11llu\n", hi2);
  12. seq_printf(m, " redundant hardirq ons: %11llu\n", hr1);
  13. #endif
  14. }

你可以如下命令查看其内容:

  1. $ sudo cat /proc/lockdep
  2. hardirq on events: 12838248974
  3. hardirq off events: 12838248979
  4. redundant hardirq ons: 67792
  5. redundant hardirq offs: 3836339146
  6. softirq on events: 38002159
  7. softirq off events: 38002187
  8. redundant softirq ons: 0
  9. redundant softirq offs: 0

现在我们总算了解了调试函数 trace_hardirqs_off 的一些信息,下文将有独立的章节介绍 lockdeptrancinglocal_disable_irq 宏的实现中都包含了一个宏 raw_local_irq_disable ,这个定义在 arch/x86/include/asm/irqflags.h 中,其展开后的样子是:

  1. static inline void native_irq_disable(void)
  2. {
  3. asm volatile("cli": : :"memory");
  4. }

你可能还记得, cli 指令将清除IF 标志位,这个标志位控制着处理器是否响应中断或异常。与 local_irq_disable 相对的还有宏 local_irq_enable ,这个宏的实现与 local_irq_disable 很相似,也具有相同的调试机制,区别在于使用 sti 指令使能了中断:

  1. static inline void native_irq_enable(void)
  2. {
  3. asm volatile("sti": : :"memory");
  4. }

如今我们了解了 local_irq_disablelocal_irq_enable 宏的实现机理。此处是首次调用 local_irq_disable 宏,我们还将在Linux内核源代码中多次看到它的倩影。现在我们位于 init/main.c 中的 start_kernel 函数,并且刚刚禁用了本地中断。为什么叫”本地”中断?为什么要禁用本地中断呢?早期版本的内核中提供了一个叫做 cli 的函数来禁用所有处理器的中断,该函数已经被移除,替代它的是 local_irq_{enabled,disable} 宏,用于禁用或使能当前处理器的中断。我们在调用 local_irq_disable 宏禁用中断以后,接着设置了变量值:

  1. early_boot_irqs_disabled = true;

变量 early_boot_irqs_disabled 定义在文件 include/linux/kernel.h 中:

  1. extern bool early_boot_irqs_disabled;

并在另外的地方使用。例如在 kernel/smp.c 中的 smp_call_function_many 函数中,通过这个变量来检查当前是否由于中断禁用而处于死锁状态:

  1. WARN_ON_ONCE(cpu_online(this_cpu) && irqs_disabled()
  2. && !oops_in_progress && !early_boot_irqs_disabled);

内核初始化过程中的早期 trap 初始化

local_disable_irq 之后执行的函数是 boot_cpu_initpage_address_init,但这两个函数与中断和异常处理无关(更多与这两个函数有关的信息请阅读内核初始化过程章节)。接下来是 setup_arch 函数。你可能还有印象,这个函数定义在arch/x86/kernel/setup.c 文件中,并完成了很多架构相关的初始化工作。在 setup_arch 函数中与中断相关的第一个函数是 early_trap_init 函数,该函数定义于 arch/x86/kernel/traps.c ,其用许多对程序入口填充了中断描述符表 Interrupt Descriptor Table :

  1. void __init early_trap_init(void)
  2. {
  3. set_intr_gate_ist(X86_TRAP_DB, &debug, DEBUG_STACK);
  4. set_system_intr_gate_ist(X86_TRAP_BP, &int3, DEBUG_STACK);
  5. #ifdef CONFIG_X86_32
  6. set_intr_gate(X86_TRAP_PF, page_fault);
  7. #endif
  8. load_idt(&idt_descr);
  9. }

这里出现了三个不同的函数调用

  • set_intr_gate_ist
  • set_system_intr_gate_ist
  • set_intr_gate

这些函数都定义在 arch/x86/include/asm/desc.h 中,他们做的事情也差不多。第一个函数 set_intr_gate_ist 将一个新的中断门插入到IDT中,其实现如下:

  1. static inline void set_intr_gate_ist(int n, void *addr, unsigned ist)
  2. {
  3. BUG_ON((unsigned)n > 0xFF);
  4. _set_gate(n, GATE_INTERRUPT, addr, 0, ist, __KERNEL_CS);
  5. }

该函数首先检查了参数 n中断向量编号 是否不大于 0xff 或 255。之前的 [章节] (http://0xax.gitbooks.io/linux-insides/content/interrupts/interrupts-1.html) 中提到过,中断的向量号必须处于 0 到 255 的闭区间。然后调用了 _set_gate 函数将中断门设置到了 IDT 表中:

  1. static inline void _set_gate(int gate, unsigned type, void *addr,
  2. unsigned dpl, unsigned ist, unsigned seg)
  3. {
  4. gate_desc s;
  5. pack_gate(&s, type, (unsigned long)addr, dpl, ist, seg);
  6. write_idt_entry(idt_table, gate, &s);
  7. write_trace_idt_entry(gate, &s);
  8. }

首先,通过 pack_gate 函数填充了一个表示 IDT 入口项的 gate_desc 类型的结构体,参数包括基地址,限制范围,中断栈表, 特权等级 和中断类型。中断类型的取值如下:

  • GATE_INTERRUPT
  • GATE_TRAP
  • GATE_CALL
  • GATE_TASK

并设置了该 IDT 项的present位域:

  1. static inline void pack_gate(gate_desc *gate, unsigned type, unsigned long func,
  2. unsigned dpl, unsigned ist, unsigned seg)
  3. {
  4. gate->offset_low = PTR_LOW(func);
  5. gate->segment = __KERNEL_CS;
  6. gate->ist = ist;
  7. gate->p = 1;
  8. gate->dpl = dpl;
  9. gate->zero0 = 0;
  10. gate->zero1 = 0;
  11. gate->type = type;
  12. gate->offset_middle = PTR_MIDDLE(func);
  13. gate->offset_high = PTR_HIGH(func);
  14. }

然后,我们把这个中断门通过 write_idt_entry 宏填入了 IDT 中。这个宏展开后是 native_write_idt_entry ,其将中断门信息通过索引拷贝到了 idt_table 之中:

  1. #define write_idt_entry(dt, entry, g) native_write_idt_entry(dt, entry, g)
  2. static inline void native_write_idt_entry(gate_desc *idt, int entry, const gate_desc *gate)
  3. {
  4. memcpy(&idt[entry], gate, sizeof(*gate));
  5. }

其中 idt_table 是一个 gate_desc 类型的数组:

  1. extern gate_desc idt_table[];

函数 set_intr_gate_ist 的内容到此为止。第二个函数 set_system_intr_gate_ist 的实现仅有一个地方不同:

  1. static inline void set_system_intr_gate_ist(int n, void *addr, unsigned ist)
  2. {
  3. BUG_ON((unsigned)n > 0xFF);
  4. _set_gate(n, GATE_INTERRUPT, addr, 0x3, ist, __KERNEL_CS);
  5. }

注意 _set_gate 函数的第四个参数是 0x3,而在 set_intr_gate_ist函数中这个值是 0x0,这个参数代表的是 DPL或称为特权等级。其中,0代表最高特权等级而 3代表最低等级。现在我们了解了 set_system_intr_gate_ist, set_intr_gate_ist, set_intr_gate这三函数的作用并回到 early_trap_init函数中:

  1. set_intr_gate_ist(X86_TRAP_DB, &debug, DEBUG_STACK);
  2. set_system_intr_gate_ist(X86_TRAP_BP, &int3, DEBUG_STACK);

我们设置了 #DBint3两个 IDT入口项。这些函数输入相同的参数组:

  • vector number of an interrupt;
  • address of an interrupt handler;
  • interrupt stack table index.

这就是 early_trap_init函数的全部内容,你将在下一章节中看到更多与中断和服务函数相关的内容。

总结

现在已经到了Linux内核中断和中断服务部分的第二部分的结尾。我们在之前的章节中了解了中断与异常处理的相关理论,并在本部分中开始深入阅读中断和异常处理的代码。我们从Linux内核启动最早期的代码中与中断相关的代码开始。下一部分中我们将继续深入这个有趣的主题,并学习更多关于中断处理相关的内容。

如果你有任何建议或疑问,请在我的 twitter页面中留言或抖一抖我。

Please note that English is not my first language, And I am really sorry for any inconvenience. If you find any mistakes please send me PR to linux-insides.

链接