Java HashMap

HashMap的数据结构

HashMap是数组+链表+红黑树结构,这是在JDK1.8的时候设计的,为什么要这样设计呢?来分析下。
浅析HashMap原理 - 图1

HashMap红黑树分析

在jdk1.8就是引入了红黑树这一设计,当hash表的单一个链表长度超过了8个的时候,链表的结构就会变成红黑树结构。可以设计就是可以避免在很极端的情况下,链表的长度是很长很长的,结果在查询的时候就会变得很慢了。
红黑树查询: 它的性能跟折半查找差不多类似,时间复杂度O(logn);
链表查询: 需要遍历全部元素,时间复杂度O(n);
可以说红黑树是一种类似平衡的二叉查找树,优点就是平衡,就是左右子树它们的高度近乎是一致的,这样来防止退化成为链表。

红黑树的特征

(1)每个节点只能是红色或者黑色
(2)根节点必须是黑色
(3)红色的节点,它的叶节点只能是黑色
(4)从任一节点到其每个叶子的所有路径都包含相同数目的黑色节点

重要方法之一:hash

hash这个方法的最主要目的,就是为了提高存储的数组的下标位置随机和分布均匀性,尽可能的不让出现hash冲突,看看源码。

  1. /**
  2. * 分析1:hash(key)
  3. * 作用:计算传入数据的哈希码(哈希值、Hash值)
  4. * 该函数在JDK 1.7 和 1.8 中的实现不同,但原理一样 = 扰动函数 = 使得根据key生成的哈希码(hash值)分布更加均匀、更具备随机性,避免出现hash值冲突(即指不同key但生成同1个hash值)
  5. * JDK 1.7 做了9次扰动处理 = 4次位运算 + 5次异或运算
  6. * JDK 1.8 简化了扰动函数 = 只做了2次扰动 = 1次位运算 + 1次异或运算
  7. */
  8. // JDK 1.7实现:将 键key 转换成 哈希码(hash值)操作 = 使用hashCode() + 4次位运算 + 5次异或运算(9次扰动)
  9. static final int hash(int h) {
  10. h ^= k.hashCode();
  11. h ^= (h >>> 20) ^ (h >>> 12);
  12. return h ^ (h >>> 7) ^ (h >>> 4);
  13. }
  14. // JDK 1.8实现:将 键key 转换成 哈希码(hash值)操作 = 使用hashCode() + 1次位运算 + 1次异或运算(2次扰动)
  15. // 1. 取hashCode值:h = key.hashCode()
  16. // 2. 高位参与低位的运算:h ^ (h >>> 16)
  17. static final int hash(Object key) {
  18. int h;
  19. return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
  20. // a. 当key = null时,hash值 = 0,所以HashMap的key 可为null
  21. // 注:对比HashTable,HashTable对key直接hashCode(),若key为null时,会抛出异常,所以HashTable的key不可为null
  22. // b. 当key ≠ null时,则通过先计算出 key的 hashCode()(记为h),然后 对哈希码进行 扰动处理: 按位 异或(^) 哈希码自身右移16位后的二进制
  23. }
  24. /**
  25. * 计算存储位置的函数分析:indexFor(hash, table.length)
  26. * 注:该函数仅存在于JDK 1.7 ,JDK 1.8中实际上无该函数(直接用1条语句判断写出),但原理相同
  27. * 为了方便讲解,故提前到此讲解
  28. */
  29. static int indexFor(int h, int length) {
  30. return h & (length-1);
  31. // 将对哈希码扰动处理后的结果 与运算(&) (数组长度-1),最终得到存储在数组table的位置(即数组下标、索引)
  32. }

那为什么不用hashcode来处理出来的哈希码来作为下标位置呢,原因就是会出现哈希码与数组的大小范围不匹配的这种情况,就无法匹配到存储的位置了。
那为什么采用哈希码与运算(数组长度-1)计算下标?
因为根据容量大小,按照需要取哈希码一定数量的地位作为数组的下标位置,来解决哈希码跟数组的大小范围不匹配的问题。

重要方法之二:put

先看put的流程图,再看源码
浅析HashMap原理 - 图2

  1. /**
  2. * 分析2:putVal(hash(key), key, value, false, true)
  3. */
  4. final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
  5. boolean evict) {
  6. Node<K,V>[] tab; Node<K,V> p; int n, i;
  7. // 1. 若哈希表的数组tab为空,则 通过resize() 创建
  8. // 所以,初始化哈希表的时机 = 第1次调用put函数时,即调用resize() 初始化创建
  9. // 关于resize()的源码分析将在下面讲解扩容时详细分析,此处先跳过
  10. if ((tab = table) == null || (n = tab.length) == 0)
  11. n = (tab = resize()).length;
  12. // 2. 计算插入存储的数组索引i:根据键值key计算的hash值 得到
  13. // 此处的数组下标计算方式 = i = (n - 1) & hash,同JDK 1.7中的indexFor(),上面已详细描述
  14. // 3. 插入时,需判断是否存在Hash冲突:
  15. // 若不存在(即当前table[i] == null),则直接在该数组位置新建节点,插入完毕
  16. // 否则,代表存在Hash冲突,即当前存储位置已存在节点,则依次往下判断:a. 当前位置的key是否与需插入的key相同、b. 判断需插入的数据结构是否为红黑树 or 链表
  17. if ((p = tab[i = (n - 1) & hash]) == null)
  18. tab[i] = newNode(hash, key, value, null); // newNode(hash, key, value, null)的源码 = new Node<>(hash, key, value, next)
  19. else {
  20. Node<K,V> e; K k;
  21. // a. 判断 table[i]的元素的key是否与 需插入的key一样,若相同则 直接用新value 覆盖 旧value
  22. // 判断原则:equals()
  23. if (p.hash == hash &&
  24. ((k = p.key) == key || (key != null && key.equals(k))))
  25. e = p;
  26. // b. 继续判断:需插入的数据结构是否为红黑树 or 链表
  27. // 若是红黑树,则直接在树中插入 or 更新键值对
  28. else if (p instanceof TreeNode)
  29. e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value); ->>分析3
  30. // 若是链表,则在链表中插入 or 更新键值对
  31. // i. 遍历table[i],判断Key是否已存在:采用equals() 对比当前遍历节点的key 与 需插入数据的key:若已存在,则直接用新value 覆盖 旧value
  32. // ii. 遍历完毕后仍无发现上述情况,则直接在链表尾部插入数据
  33. // 注:新增节点后,需判断链表长度是否>8(8 = 桶的树化阈值):若是,则把链表转换为红黑树
  34. else {
  35. for (int binCount = 0; ; ++binCount) {
  36. // 对于ii:若数组的下1个位置,表示已到表尾也没有找到key值相同节点,则新建节点 = 插入节点
  37. // 注:此处是从链表尾插入,与JDK 1.7不同(从链表头插入,即永远都是添加到数组的位置,原来数组位置的数据则往后移)
  38. if ((e = p.next) == null) {
  39. p.next = newNode(hash, key, value, null);
  40. // 插入节点后,若链表节点>数阈值,则将链表转换为红黑树
  41. if (binCount >= TREEIFY_THRESHOLD - 1)
  42. treeifyBin(tab, hash); // 树化操作
  43. break;
  44. }
  45. // 对于i
  46. if (e.hash == hash &&
  47. ((k = e.key) == key || (key != null && key.equals(k))))
  48. break;
  49. // 更新p指向下一个节点,继续遍历
  50. p = e;
  51. }
  52. }
  53. // 对i情况的后续操作:发现key已存在,直接用新value 覆盖 旧value & 返回旧value
  54. if (e != null) {
  55. V oldValue = e.value;
  56. if (!onlyIfAbsent || oldValue == null)
  57. e.value = value;
  58. afterNodeAccess(e); // 替换旧值时会调用的方法(默认实现为空)
  59. return oldValue;
  60. }
  61. }
  62. ++modCount;
  63. // 插入成功后,判断实际存在的键值对数量size > 最大容量threshold
  64. // 若 > ,则进行扩容 ->>分析4(但单独讲解,请直接跳出该代码块)
  65. if (++size > threshold)
  66. resize();
  67. afterNodeInsertion(evict);// 插入成功时会调用的方法(默认实现为空)
  68. return null;
  69. }

重要方法之三:risize扩容机制

在resize的方法里,定义了一个叫oldCap的参数,它是记录了原来的table长度,接着又定义了newCap参数来记录最新的table长度,注意newCap它是oldCap长度的两倍。然后循环原来的table,再把原来table的元素放到新的table里。具体看流程图+源码
浅析HashMap原理 - 图3

  1. /**
  2. * 分析4:resize()
  3. * 该函数有2种使用情况:1.初始化哈希表 2.当前数组容量过小,需扩容
  4. */
  5. final Node<K,V>[] resize() {
  6. Node<K,V>[] oldTab = table; // 扩容前的数组(当前数组)
  7. int oldCap = (oldTab == null) ? 0 : oldTab.length; // 扩容前的数组的容量 = 长度
  8. int oldThr = threshold;// 扩容前的数组的阈值
  9. int newCap, newThr = 0;
  10. // 针对情况2:若扩容前的数组容量超过最大值,则不再扩充
  11. if (oldCap > 0) {
  12. if (oldCap >= MAXIMUM_CAPACITY) {
  13. threshold = Integer.MAX_VALUE;
  14. return oldTab;
  15. }
  16. // 针对情况2:若无超过最大值,就扩充为原来的2倍
  17. else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
  18. oldCap >= DEFAULT_INITIAL_CAPACITY)
  19. newThr = oldThr << 1; // 通过右移扩充2倍
  20. }
  21. // 针对情况1:初始化哈希表(采用指定 or 默认值)
  22. else if (oldThr > 0) // initial capacity was placed in threshold
  23. newCap = oldThr;
  24. else { // zero initial threshold signifies using defaults
  25. newCap = DEFAULT_INITIAL_CAPACITY;
  26. newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
  27. }
  28. // 计算新的resize上限
  29. if (newThr == 0) {
  30. float ft = (float)newCap * loadFactor;
  31. newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
  32. (int)ft : Integer.MAX_VALUE);
  33. }
  34. threshold = newThr;
  35. @SuppressWarnings({"rawtypes","unchecked"})
  36. Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
  37. table = newTab;
  38. if (oldTab != null) {
  39. // 把每个bucket都移动到新的buckets中
  40. for (int j = 0; j < oldCap; ++j) {
  41. Node<K,V> e;
  42. if ((e = oldTab[j]) != null) {
  43. oldTab[j] = null;
  44. if (e.next == null)
  45. newTab[e.hash & (newCap - 1)] = e;
  46. else if (e instanceof TreeNode)
  47. ((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
  48. else { // 链表优化重hash的代码块
  49. Node<K,V> loHead = null, loTail = null;
  50. Node<K,V> hiHead = null, hiTail = null;
  51. Node<K,V> next;
  52. do {
  53. next = e.next;
  54. // 原索引
  55. if ((e.hash & oldCap) == 0) {
  56. if (loTail == null)
  57. loHead = e;
  58. else
  59. loTail.next = e;
  60. loTail = e;
  61. }
  62. // 原索引 + oldCap
  63. else {
  64. if (hiTail == null)
  65. hiHead = e;
  66. else
  67. hiTail.next = e;
  68. hiTail = e;
  69. }
  70. } while ((e = next) != null);
  71. // 原索引放到bucket里
  72. if (loTail != null) {
  73. loTail.next = null;
  74. newTab[j] = loHead;
  75. }
  76. // 原索引+oldCap放到bucket里
  77. if (hiTail != null) {
  78. hiTail.next = null;
  79. newTab[j + oldCap] = hiHead;
  80. }
  81. }
  82. }
  83. }
  84. }
  85. return newTab;
  86. }