内存分布

与数组对比

  • 数组需要一块连续的内存空间来存储,对内存的要求比较高
    • 如果我们申请一个 100MB 大小的数组,当内存中没有连续的、足够大的存储空间时,即便内存的剩余总可用空间大于 100MB,仍然会申请失败
  • 链表并不需要一块连续的内存空间,它通过“指针”将一组零散的内存块串联起来使用

    1. ![image.png](https://cdn.nlark.com/yuque/0/2021/png/12492651/1628671788744-08ae4975-4767-4ed5-a870-97fa8aa933f2.png#clientId=u11c47f98-1103-4&from=paste&height=300&id=uf8f45206&margin=%5Bobject%20Object%5D&name=image.png&originHeight=600&originWidth=956&originalType=binary&ratio=1&size=327323&status=done&style=none&taskId=u3d8e3005-4772-4829-9225-39efdf36e54&width=478)

    单链表

    功能

  • 单链表中的每一个节点都必须具备两个功能:

    • 一个功能是存储数据
    • 另外一个功能是记录下一个节点的地址

如图所示,我们把这个记录下个结点地址的指针叫作后继指针 next
image.png

头结点 | 尾节点 | 空地址 null

  • 我们习惯性地把第一个结点叫作头结点
    • 头结点用来记录链表的基地址
  • 把最后一个结点叫作尾结点

    • 指针不是指向下一个结点,而是指向一个空地址 NULL,表示这是链表上最后一个结点

      数据的查找、插入和删除操作

  • 进行数组的插入、删除操作时,为了保持内存数据的连续性,需要做大量的数据搬移,所以时间复杂度是 O(n)。

  • 在链表中插入或者删除一个数据,我们并不需要为了保持内存的连续性而搬移结点,因为链表的存储空间本身就不是连续的。所以,在链表中插入和删除一个数据是非常快速的, 时间复杂度为O(1)

    1. ![image.png](https://cdn.nlark.com/yuque/0/2021/png/12492651/1628672539542-91ddb2e2-91bb-44a0-9832-f05dd41dc062.png#clientId=u11c47f98-1103-4&from=paste&height=271&id=u9fff34f9&margin=%5Bobject%20Object%5D&name=image.png&originHeight=542&originWidth=1052&originalType=binary&ratio=1&size=272659&status=done&style=none&taskId=u945c205f-00e7-4ffb-bb5d-b6f253ab7ae&width=526)

    弊端

  • 链表随机访问,需要 O(n) 的时间复杂度

    • 链表要想随机访问第 k 个元素,就没有数组那么高效了。因为链表中的数据并非连续存储的,所以无法像数组那样,根据首地址和下标,通过寻址公式就能直接计算出对应的内存地址,而是需要根据指针一个结点一个结点地依次遍历,直到找到相应的结点

      循环链表

  • 循环链表的尾结点指针是指向链表的头结点

image.png

优点

  • 从链尾到链头比较方便。当要处理的数据具有环型结构特点时,就特别适合采用循环链表。比如著名的约瑟夫问题(丢手绢)

    双向链表

  • 每个结点不止有一个后继指针 next 指向后面的结点,还有一个前驱指针 prev 指向前面的结点

image.png

优点

  • 但可以支持双向遍历,这样也带来了双向链表操作的灵活性
  • 从结构上来看,双向链表可以支持 O(1) 时间复杂度的情况下找到前驱结点

    • 单链表的平均时间复杂度为O(n),因为需要从头节点开始找。 而双向链表的时间复杂度为O(1),因为这个结点中的prev前驱结点指针域存放的是前驱结点的地址,通过这个地址,我们一步就找到了该结点的前驱结点,所以时间复杂度O(1)

      缺点

  • 双向链表需要额外的两个空间来存储后继结点和前驱结点的地址。所以,如果存储同样多的数据,双向链表要比单链表占用更多的内存空间。虽然两个指针比较浪费存储空间

    链表 VS 数组性能大比拼

    1. ![image.png](https://cdn.nlark.com/yuque/0/2021/png/12492651/1628689356869-7b6d7483-1743-4728-bcff-36cffe5de0b1.png#clientId=u757f411f-48ba-4&from=paste&height=169&id=u291cda95&margin=%5Bobject%20Object%5D&name=image.png&originHeight=169&originWidth=254&originalType=binary&ratio=1&size=46023&status=done&style=none&taskId=ue6632e0a-ec53-45d7-9729-727108aae37&width=254)

    LRU最近最少使用策略

    链表实现

    如何基于链表实现 LRU 缓存淘汰算法?
    思路: 我们维护一个有序单链表,越靠近链表尾部的结点是越早之前访问的。当有一个新的数据被访问时,我们从链表头开始顺序遍历链表。
    实现:

  1. 如果此数据之前已经被缓存在链表中了,我们遍历得到这个数据对应的结点,并将其从原来的位置删除,然后再插入到链表的头部
  2. 如果此数据没有在缓存链表中,又可以分为两种情况:
    1. 如果此时缓存未满,则将此结点直接插入到链表的头部
    2. 如果此时缓存已满,则链表尾结点删除,将新的数据结点插入链表的头部