Lab8: Locks

Memory allocator

本实验完成的任务是为每个CPU都维护一个空闲列表,初始时将所有的空闲内存分配到某个CPU,此后各个CPU需要内存时,如果当前CPU的空闲列表上没有,则窃取其他CPU的。例如,所有的空闲内存初始分配到CPU0,当CPU1需要内存时就会窃取CPU0的,而使用完成后就挂在CPU1的空闲列表,此后CPU1再次需要内存时就可以从自己的空闲列表中取。

(1). 将kmem定义为一个数组,包含NCPU个元素,即每个CPU对应一个

  1. struct {
  2. struct spinlock lock;
  3. struct run *freelist;
  4. } kmem[NCPU];

(2). 修改kinit,为所有锁初始化以“kmem”开头的名称,该函数只会被一个CPU调用,freerange调用kfree将所有空闲内存挂在该CPU的空闲列表上

  1. void
  2. kinit()
  3. {
  4. char lockname[8];
  5. for(int i = 0;i < NCPU; i++) {
  6. snprintf(lockname, sizeof(lockname), "kmem_%d", i);
  7. initlock(&kmem[i].lock, lockname);
  8. }
  9. freerange(end, (void*)PHYSTOP);
  10. }

(3). 修改kfree,使用cpuid()和它返回的结果时必须关中断,请参考《XV6使用手册》第7.4节

  1. void
  2. kfree(void *pa)
  3. {
  4. struct run *r;
  5. if(((uint64)pa % PGSIZE) != 0 || (char*)pa < end || (uint64)pa >= PHYSTOP)
  6. panic("kfree");
  7. // Fill with junk to catch dangling refs.
  8. memset(pa, 1, PGSIZE);
  9. r = (struct run*)pa;
  10. push_off(); // 关中断
  11. int id = cpuid();
  12. acquire(&kmem[id].lock);
  13. r->next = kmem[id].freelist;
  14. kmem[id].freelist = r;
  15. release(&kmem[id].lock);
  16. pop_off(); //开中断
  17. }

(4). 修改kalloc,使得在当前CPU的空闲列表没有可分配内存时窃取其他内存的

  1. void *
  2. kalloc(void)
  3. {
  4. struct run *r;
  5. push_off();// 关中断
  6. int id = cpuid();
  7. acquire(&kmem[id].lock);
  8. r = kmem[id].freelist;
  9. if(r)
  10. kmem[id].freelist = r->next;
  11. else {
  12. int antid; // another id
  13. // 遍历所有CPU的空闲列表
  14. for(antid = 0; antid < NCPU; ++antid) {
  15. if(antid == id)
  16. continue;
  17. acquire(&kmem[antid].lock);
  18. r = kmem[antid].freelist;
  19. if(r) {
  20. kmem[antid].freelist = r->next;
  21. release(&kmem[antid].lock);
  22. break;
  23. }
  24. release(&kmem[antid].lock);
  25. }
  26. }
  27. release(&kmem[id].lock);
  28. pop_off(); //开中断
  29. if(r)
  30. memset((char*)r, 5, PGSIZE); // fill with junk
  31. return (void*)r;
  32. }

Buffer cache

这个实验的目的是将缓冲区的分配与回收并行化以提高效率,这个实验折腾了一天,有些内容还是比较绕的,

(1). 定义哈希桶结构,并在bcache中删除全局缓冲区链表,改为使用素数个散列桶

  1. #define NBUCKET 13
  2. #define HASH(id) (id % NBUCKET)
  3. struct hashbuf {
  4. struct buf head; // 头节点
  5. struct spinlock lock; // 锁
  6. };
  7. struct {
  8. struct buf buf[NBUF];
  9. struct hashbuf buckets[NBUCKET]; // 散列桶
  10. } bcache;

(2). 在binit中,(1)初始化散列桶的锁,(2)将所有散列桶的head->prevhead->next都指向自身表示为空,(3)将所有的缓冲区挂载到bucket[0]桶上,代码如下

  1. void
  2. binit(void) {
  3. struct buf* b;
  4. char lockname[16];
  5. for(int i = 0; i < NBUCKET; ++i) {
  6. // 初始化散列桶的自旋锁
  7. snprintf(lockname, sizeof(lockname), "bcache_%d", i);
  8. initlock(&bcache.buckets[i].lock, lockname);
  9. // 初始化散列桶的头节点
  10. bcache.buckets[i].head.prev = &bcache.buckets[i].head;
  11. bcache.buckets[i].head.next = &bcache.buckets[i].head;
  12. }
  13. // Create linked list of buffers
  14. for(b = bcache.buf; b < bcache.buf + NBUF; b++) {
  15. // 利用头插法初始化缓冲区列表,全部放到散列桶0上
  16. b->next = bcache.buckets[0].head.next;
  17. b->prev = &bcache.buckets[0].head;
  18. initsleeplock(&b->lock, "buffer");
  19. bcache.buckets[0].head.next->prev = b;
  20. bcache.buckets[0].head.next = b;
  21. }
  22. }

(3). 在buf.h中增加新字段timestamp,这里来理解一下这个字段的用途:在原始方案中,每次brelse都将被释放的缓冲区挂载到链表头,禀明这个缓冲区最近刚刚被使用过,在bget中分配时从链表尾向前查找,这样符合条件的第一个就是最久未使用的。而在提示中建议使用时间戳作为LRU判定的法则,这样我们就无需在brelse中进行头插法更改结点位置

  1. struct buf {
  2. ...
  3. ...
  4. uint timestamp; // 时间戳
  5. };

(4). 更改brelse,不再获取全局锁

  1. void
  2. brelse(struct buf* b) {
  3. if(!holdingsleep(&b->lock))
  4. panic("brelse");
  5. int bid = HASH(b->blockno);
  6. releasesleep(&b->lock);
  7. acquire(&bcache.buckets[bid].lock);
  8. b->refcnt--;
  9. // 更新时间戳
  10. // 由于LRU改为使用时间戳判定,不再需要头插法
  11. acquire(&tickslock);
  12. b->timestamp = ticks;
  13. release(&tickslock);
  14. release(&bcache.buckets[bid].lock);
  15. }

(5). 更改bget,当没有找到指定的缓冲区时进行分配,分配方式是优先从当前列表遍历,找到一个没有引用且timestamp最小的缓冲区,如果没有就申请下一个桶的锁,并遍历该桶,找到后将该缓冲区从原来的桶移动到当前桶中,最多将所有桶都遍历完。在代码中要注意锁的释放

  1. static struct buf*
  2. bget(uint dev, uint blockno) {
  3. struct buf* b;
  4. int bid = HASH(blockno);
  5. acquire(&bcache.buckets[bid].lock);
  6. // Is the block already cached?
  7. for(b = bcache.buckets[bid].head.next; b != &bcache.buckets[bid].head; b = b->next) {
  8. if(b->dev == dev && b->blockno == blockno) {
  9. b->refcnt++;
  10. // 记录使用时间戳
  11. acquire(&tickslock);
  12. b->timestamp = ticks;
  13. release(&tickslock);
  14. release(&bcache.buckets[bid].lock);
  15. acquiresleep(&b->lock);
  16. return b;
  17. }
  18. }
  19. // Not cached.
  20. b = 0;
  21. struct buf* tmp;
  22. // Recycle the least recently used (LRU) unused buffer.
  23. // 从当前散列桶开始查找
  24. for(int i = bid, cycle = 0; cycle != NBUCKET; i = (i + 1) % NBUCKET) {
  25. ++cycle;
  26. // 如果遍历到当前散列桶,则不重新获取锁
  27. if(i != bid) {
  28. if(!holding(&bcache.buckets[i].lock))
  29. acquire(&bcache.buckets[i].lock);
  30. else
  31. continue;
  32. }
  33. for(tmp = bcache.buckets[i].head.next; tmp != &bcache.buckets[i].head; tmp = tmp->next)
  34. // 使用时间戳进行LRU算法,而不是根据结点在链表中的位置
  35. if(tmp->refcnt == 0 && (b == 0 || tmp->timestamp < b->timestamp))
  36. b = tmp;
  37. if(b) {
  38. // 如果是从其他散列桶窃取的,则将其以头插法插入到当前桶
  39. if(i != bid) {
  40. b->next->prev = b->prev;
  41. b->prev->next = b->next;
  42. release(&bcache.buckets[i].lock);
  43. b->next = bcache.buckets[bid].head.next;
  44. b->prev = &bcache.buckets[bid].head;
  45. bcache.buckets[bid].head.next->prev = b;
  46. bcache.buckets[bid].head.next = b;
  47. }
  48. b->dev = dev;
  49. b->blockno = blockno;
  50. b->valid = 0;
  51. b->refcnt = 1;
  52. acquire(&tickslock);
  53. b->timestamp = ticks;
  54. release(&tickslock);
  55. release(&bcache.buckets[bid].lock);
  56. acquiresleep(&b->lock);
  57. return b;
  58. } else {
  59. // 在当前散列桶中未找到,则直接释放锁
  60. if(i != bid)
  61. release(&bcache.buckets[i].lock);
  62. }
  63. }
  64. panic("bget: no buffers");
  65. }

(6). 最后将末尾的两个小函数也改一下

  1. void
  2. bpin(struct buf* b) {
  3. int bid = HASH(b->blockno);
  4. acquire(&bcache.buckets[bid].lock);
  5. b->refcnt++;
  6. release(&bcache.buckets[bid].lock);
  7. }
  8. void
  9. bunpin(struct buf* b) {
  10. int bid = HASH(b->blockno);
  11. acquire(&bcache.buckets[bid].lock);
  12. b->refcnt--;
  13. release(&bcache.buckets[bid].lock);
  14. }

踩过的坑:

  1. bget中重新分配可能要持有两个锁,如果桶a持有自己的锁,再申请桶b的锁,与此同时如果桶b持有自己的锁,再申请桶a的锁就会造成死锁!因此代码中使用了if(!holding(&bcache.bucket[i].lock))来进行检查。此外,代码优先从自己的桶中获取缓冲区,如果自身没有依次向后查找这样的方式也尽可能地避免了前面的情况。
  2. bget中搜索缓冲区并在找不到缓冲区时为该缓冲区分配条目必须是原子的!在提示中说bget如果未找到而进行分配的操作可以是串行化的,也就是说多个CPU中未找到,应当串行的执行分配,同时还应当避免死锁。于是在发现未命中(Not cached)后,我写了如下的代码(此时未删除bcache.lock
  1. // 前半部分查找缓冲区的代码
  2. // Not cached
  3. release(&bcache.buckets[bid].lock);
  4. acquire(&bcache.lock);
  5. acquire(&bcache.buckets[bid].lock);
  6. // 后半部分分配缓冲区的代码

这段代码中先释放了散列桶的锁之后再重新获取,之所以这样做是为了让所有代码都保证申请锁的顺序:先获取整个缓冲区的大锁再获取散列桶的小锁,这样才能避免死锁。但是这样做却破坏了程序执行的原子性

release桶的锁并重新acquire的这段时间,另一个CPU可能也以相同的参数调用了bget,也发现没有该缓冲区并想要执行分配。最终的结果是一个磁盘块对应了两个缓冲区,破坏了最重要的不变量,即每个块最多缓存一个副本。这样会导致usertests中的manywrites测试报错:panic: freeing free block