和HashMap类似,ConcurrentHashMap使用了一个table来存储Node,ConcurrentHashMap同样使用记录的key的hashCode来寻找记录的存储index,而处理哈希冲突的方式与HashMap也是类似的,冲突的记录将被存储在同一个位置上,形成一条链表,当链表的长度大于8的时候会将链表转化为一棵红黑树,从而将查找的复杂度从O(N)降到了O(lgN)。下文中将详细分析ConcurrentHashMap的实现,以及ConcurrentHashMap是如何保证在并发环境下的线程安全的。

1、重要的属性

sizeCtl,是使用的最多的一个属性,

  • 负数代表正在进行初始化或扩容操作,
  • -1代表正在初始化,
  • -N表示有N-1个线程在进行扩容操作
  • 正数或0代表hash表还没被初始化,表示初始化或下次扩容的大小,起到阈值的概念 ```java

    1. /**
    • 盛装Node元素的数组 它的大小是2的整数次幂
    • Size is always a power of two. Accessed directly by iterators. */ transient volatile Node[] table;

      /**

    • Table initialization and resizing control. When negative, the
    • table is being initialized or resized: -1 for initialization,
    • else -(1 + the number of active resizing threads). Otherwise,
    • when table is null, holds the initial table size to use upon
    • creation, or 0 for default. After initialization, holds the
    • next element count value upon which to resize the table. hash表初始化或扩容时的一个控制位标识量。 负数代表正在进行初始化或扩容操作 -1代表正在初始化 -N 表示有N-1个线程正在进行扩容操作 正数或0代表hash表还没有被初始化,这个数值表示初始化或下一次进行扩容的大小

      / private transient volatile int sizeCtl; // 以下两个是用来控制扩容的时候 单线程进入的变量 /*

    • The number of bits used for generation stamp in sizeCtl.
    • Must be at least 6 for 32bit arrays. / private static int RESIZE_STAMP_BITS = 16; /*
    • The bit shift for recording size stamp in sizeCtl. */ private static final int RESIZE_STAMP_SHIFT = 32 - RESIZE_STAMP_BITS;
  1. /*
  2. * Encodings for Node hash fields. See above for explanation.
  3. */
  4. static final int MOVED = -1; // hash值是-1,表示这是一个forwardNode节点
  5. static final int TREEBIN = -2; // hash值是-2 表示这时一个TreeBin节点
  1. <a name="sk99ku"></a>
  2. # 2、重要的内部类
  3. <a name="vni5xu"></a>
  4. ## 2.1、node
  5. node是最核心的内部类,包装了key-value键值对,所有插入的值都存在了这里,但是value和next用了volatile修饰,保证线程可见,不允许调用setValue方法,提供了find方法
  6. ```java
  7. static class Node<K,V> implements Map.Entry<K,V> {
  8. final int hash;
  9. final K key;
  10. volatile V val;//带有同步锁的value
  11. volatile Node<K,V> next;//带有同步锁的next指针
  12. Node(int hash, K key, V val, Node<K,V> next) {
  13. this.hash = hash;
  14. this.key = key;
  15. this.val = val;
  16. this.next = next;
  17. }
  18. public final K getKey() { return key; }
  19. public final V getValue() { return val; }
  20. public final int hashCode() { return key.hashCode() ^ val.hashCode(); }
  21. public final String toString(){ return key + "=" + val; }
  22. //不允许直接改变value的值
  23. public final V setValue(V value) {
  24. throw new UnsupportedOperationException();
  25. }
  26. public final boolean equals(Object o) {
  27. Object k, v, u; Map.Entry<?,?> e;
  28. return ((o instanceof Map.Entry) &&
  29. (k = (e = (Map.Entry<?,?>)o).getKey()) != null &&
  30. (v = e.getValue()) != null &&
  31. (k == key || k.equals(key)) &&
  32. (v == (u = val) || v.equals(u)));
  33. }
  34. /**
  35. * Virtualized support for map.get(); overridden in subclasses.
  36. */
  37. Node<K,V> find(int h, Object k) {
  38. Node<K,V> e = this;
  39. if (k != null) {
  40. do {
  41. K ek;
  42. if (e.hash == h &&
  43. ((ek = e.key) == k || (ek != null && k.equals(ek))))
  44. return e;
  45. } while ((e = e.next) != null);
  46. }
  47. return null;
  48. }
  49. }

2.2、TreeNode

树节点类,当链表长度过长的时候,会转换成TreeNode,于HashMap不同的是,它并不是直接转换为红黑树,而是把这些节点包装成TreeNode放在TreeBin对象中,由TreeBin完成对红黑树的包装,TreeNode带有next指针,方便基于TreeBin的访问。

  1. /* ---------------- TreeNodes -------------- */
  2. /**
  3. * Nodes for use in TreeBins
  4. */
  5. static final class TreeNode<K,V> extends Node<K,V> {
  6. TreeNode<K,V> parent; // red-black tree links
  7. TreeNode<K,V> left;
  8. TreeNode<K,V> right;
  9. TreeNode<K,V> prev; // needed to unlink next upon deletion
  10. boolean red;
  11. TreeNode(int hash, K key, V val, Node<K,V> next,
  12. TreeNode<K,V> parent) {
  13. super(hash, key, val, next);
  14. this.parent = parent;
  15. }
  16. Node<K,V> find(int h, Object k) {
  17. return findTreeNode(h, k, null);
  18. }
  19. /**
  20. * Returns the TreeNode (or null if not found) for the given key
  21. * starting at given root.
  22. */
  23. final TreeNode<K,V> findTreeNode(int h, Object k, Class<?> kc) {
  24. if (k != null) {
  25. TreeNode<K,V> p = this;
  26. do {
  27. int ph, dir; K pk; TreeNode<K,V> q;
  28. TreeNode<K,V> pl = p.left, pr = p.right;
  29. if ((ph = p.hash) > h)
  30. p = pl;
  31. else if (ph < h)
  32. p = pr;
  33. else if ((pk = p.key) == k || (pk != null && k.equals(pk)))
  34. return p;
  35. else if (pl == null)
  36. p = pr;
  37. else if (pr == null)
  38. p = pl;
  39. else if ((kc != null ||
  40. (kc = comparableClassFor(k)) != null) &&
  41. (dir = compareComparables(kc, k, pk)) != 0)
  42. p = (dir < 0) ? pl : pr;
  43. else if ((q = pr.findTreeNode(h, k, kc)) != null)
  44. return q;
  45. else
  46. p = pl;
  47. } while (p != null);
  48. }
  49. return null;
  50. }
  51. }

2.3、TreeBin

这个类包装了TreeNode节点来进行操作,还带有读写锁,构造方法中使用了TREEBIN常量作为hash值,标识节点类型

2.4、ForwardingNode

一个用于连接两个table的节点类,包含一个nextTable指针,指向下一张表,而这个节点的key value next指针全为null,hash值为-1,这里的find方法是从nextTable里进行查找,而不是以自身为头结点进行查找。

  1. /**
  2. * A node inserted at head of bins during transfer operations.
  3. */
  4. static final class ForwardingNode<K,V> extends Node<K,V> {
  5. final Node<K,V>[] nextTable;
  6. ForwardingNode(Node<K,V>[] tab) {
  7. super(MOVED, null, null, null);
  8. this.nextTable = tab;
  9. }
  10. Node<K,V> find(int h, Object k) {
  11. // loop to avoid arbitrarily deep recursion on forwarding nodes
  12. outer: for (Node<K,V>[] tab = nextTable;;) {
  13. Node<K,V> e; int n;
  14. if (k == null || tab == null || (n = tab.length) == 0 ||
  15. (e = tabAt(tab, (n - 1) & h)) == null)
  16. return null;
  17. for (;;) {
  18. int eh; K ek;
  19. if ((eh = e.hash) == h &&
  20. ((ek = e.key) == k || (ek != null && k.equals(ek))))
  21. return e;
  22. if (eh < 0) {
  23. if (e instanceof ForwardingNode) {
  24. tab = ((ForwardingNode<K,V>)e).nextTable;
  25. continue outer;
  26. }
  27. else
  28. return e.find(h, k);
  29. }
  30. if ((e = e.next) == null)
  31. return null;
  32. }
  33. }
  34. }
  35. }

3、Unsafe于CAS

内部随处可见U 也就是Unsafe,是一个本地类,实现了一系列的原子方法,利用CAS算法实现无锁化的修改操作,大大降低锁的性能消耗,CAS就是不断去比较当前值是否是你指定的值,如果是就接受并修改成功,如果不是修改失败,返回false

3.1、unsafe静态块

  1. private static final sun.misc.Unsafe U;
  2. private static final long SIZECTL;
  3. private static final long TRANSFERINDEX;
  4. private static final long BASECOUNT;
  5. private static final long CELLSBUSY;
  6. private static final long CELLVALUE;
  7. private static final long ABASE;
  8. private static final int ASHIFT;
  9. static {
  10. try {
  11. U = sun.misc.Unsafe.getUnsafe();
  12. Class<?> k = ConcurrentHashMap.class;
  13. SIZECTL = U.objectFieldOffset
  14. (k.getDeclaredField("sizeCtl"));
  15. TRANSFERINDEX = U.objectFieldOffset
  16. (k.getDeclaredField("transferIndex"));
  17. BASECOUNT = U.objectFieldOffset
  18. (k.getDeclaredField("baseCount"));
  19. CELLSBUSY = U.objectFieldOffset
  20. (k.getDeclaredField("cellsBusy"));
  21. Class<?> ck = CounterCell.class;
  22. CELLVALUE = U.objectFieldOffset
  23. (ck.getDeclaredField("value"));
  24. Class<?> ak = Node[].class;
  25. ABASE = U.arrayBaseOffset(ak);
  26. int scale = U.arrayIndexScale(ak);
  27. if ((scale & (scale - 1)) != 0)
  28. throw new Error("data type scale not a power of two");
  29. ASHIFT = 31 - Integer.numberOfLeadingZeros(scale);
  30. } catch (Exception e) {
  31. throw new Error(e);
  32. }
  33. }

3.2、三个核心方法

定义了三个原子操作,用于对指定位置节点进行操作

  1. @SuppressWarnings("unchecked")
  2. //获得在i位置上的Node节点
  3. static final <K,V> Node<K,V> tabAt(Node<K,V>[] tab, int i) {
  4. return (Node<K,V>)U.getObjectVolatile(tab, ((long)i << ASHIFT) + ABASE);
  5. }
  6. //利用CAS算法设置i位置上的Node节点。之所以能实现并发是因为他指定了原来这个节点的值是多少
  7. //在CAS算法中,会比较内存中的值与你指定的这个值是否相等,如果相等才接受你的修改,否则拒绝你的修改
  8. //因此当前线程中的值并不是最新的值,这种修改可能会覆盖掉其他线程的修改结果 有点类似于SVN
  9. static final <K,V> boolean casTabAt(Node<K,V>[] tab, int i,
  10. Node<K,V> c, Node<K,V> v) {
  11. return U.compareAndSwapObject(tab, ((long)i << ASHIFT) + ABASE, c, v);
  12. }
  13. //利用volatile方法设置节点位置的值
  14. static final <K,V> void setTabAt(Node<K,V>[] tab, int i, Node<K,V> v) {
  15. U.putObjectVolatile(tab, ((long)i << ASHIFT) + ABASE, v);
  16. }

4、初始化方法initTable

对应ConcurrentHashMap来说,调用构造方法只是设置了一些参数,真正初始化是在插入元素的时候发生的,比如put,computeIfAbsent,compute,merge等方法的时候,通过table == null判断,使用sizeCtl属性判断,如果值小于0,表示正在初始化,交出CPU,只能由一个线程进行初始化,如果获得了初始化权限,通过CAS将sizeCtl置为-1获得,防止其他线程进入

  1. /**
  2. * Initializes table, using the size recorded in sizeCtl.
  3. */
  4. private final Node<K,V>[] initTable() {
  5. Node<K,V>[] tab; int sc;
  6. while ((tab = table) == null || tab.length == 0) {
  7. //sizeCtl表示有其他线程正在进行初始化操作,把线程挂起。对于table的初始化工作,只能有一个线程在进行。
  8. if ((sc = sizeCtl) < 0)
  9. Thread.yield(); // lost initialization race; just spin
  10. else if (U.compareAndSwapInt(this, SIZECTL, sc, -1)) {//利用CAS方法把sizectl的值置为-1 表示本线程正在进行初始化
  11. try {
  12. if ((tab = table) == null || tab.length == 0) {
  13. int n = (sc > 0) ? sc : DEFAULT_CAPACITY;
  14. @SuppressWarnings("unchecked")
  15. Node<K,V>[] nt = (Node<K,V>[])new Node<?,?>[n];
  16. table = tab = nt;
  17. sc = n - (n >>> 2);//相当于0.75*n 设置一个扩容的阈值
  18. }
  19. } finally {
  20. sizeCtl = sc;
  21. }
  22. break;
  23. }
  24. }
  25. return tab;
  26. }

5、扩容方法transfer

容量不足的时候,需要对table进行扩容,整个扩容分为两部分

  • 构建nextTable,容量为原来的两倍,单线程进行操作,通过RESIZE_STAMP_SHIFT变量来保证
  • 将原来table中的元素复制到nextTable中,允许多线程操作单线程大体思想就是遍历、复制的过程,首先根据运算得到要遍历的次数i,然后利用tabAt方法获得i位置的元素:
  • 如果这个位置为空,就在原table中的i位置放入forwardNode节点,这里是支持并发扩容的关键
  • 如果这个位置是Node节点(fn>=0),如果是链表的头结点,就构造一个反序链表,把他们分别放在nextTable的i和i+n的位置
  • 如果是TreeBin节点,也做一个反序处理并判断是否需要untreeify,并把处理结果分别放在nextTable的i和i+1的位置上
  • 遍历过所有的节点以后就可以完成复制工作,这时让nextTable作为新的table,并更新sizeCtl的值为原来的0.75倍

    1. /**
    2. * 一个过渡的table表 只有在扩容的时候才会使用
    3. */
    4. private transient volatile Node<K,V>[] nextTable;
    5. /**
    6. * Moves and/or copies the nodes in each bin to new table. See
    7. * above for explanation.
    8. */
    9. private final void transfer(Node<K,V>[] tab, Node<K,V>[] nextTab) {
    10. int n = tab.length, stride;
    11. if ((stride = (NCPU > 1) ? (n >>> 3) / NCPU : n) < MIN_TRANSFER_STRIDE)
    12. stride = MIN_TRANSFER_STRIDE; // subdivide range
    13. if (nextTab == null) { // initiating
    14. try {
    15. @SuppressWarnings("unchecked")
    16. //构造一个nextTable对象 它的容量是原来的两倍
    17. Node<K,V>[] nt = (Node<K,V>[])new Node<?,?>[n << 1];
    18. nextTab = nt;
    19. } catch (Throwable ex) { // try to cope with OOME
    20. sizeCtl = Integer.MAX_VALUE;
    21. return;
    22. }
    23. nextTable = nextTab;
    24. transferIndex = n;
    25. }
    26. int nextn = nextTab.length;
    27. //构造一个连节点指针 用于标志位
    28. ForwardingNode<K,V> fwd = new ForwardingNode<K,V>(nextTab);
    29. //并发扩容的关键属性 如果等于true 说明这个节点已经处理过
    30. boolean advance = true;
    31. boolean finishing = false;
    32. // to ensure sweep before committing nextTab
    33. for (int i = 0, bound = 0;;) {
    34. Node<K,V> f; int fh;
    35. //这个while循环体的作用就是在控制i-- 通过i--可以依次遍历原hash表中的节点
    36. while (advance) {
    37. int nextIndex, nextBound;
    38. if (--i >= bound || finishing)
    39. advance = false;
    40. else if ((nextIndex = transferIndex) <= 0) {
    41. i = -1;
    42. advance = false;
    43. }
    44. else if (U.compareAndSwapInt
    45. (this, TRANSFERINDEX, nextIndex,
    46. nextBound = (nextIndex > stride ?
    47. nextIndex - stride : 0))) {
    48. bound = nextBound;
    49. i = nextIndex - 1;
    50. advance = false;
    51. }
    52. }
    53. if (i < 0 || i >= n || i + n >= nextn) {
    54. int sc;
    55. if (finishing) {
    56. //如果所有的节点都已经完成复制工作 就把nextTable赋值给table 清空临时对象nextTable
    57. nextTable = null;
    58. table = nextTab;
    59. //扩容阈值设置为原来容量的1.5倍 依然相当于现在容量的0.75倍
    60. sizeCtl = (n << 1) - (n >>> 1);
    61. return;
    62. }
    63. //利用CAS方法更新这个扩容阈值,在这里面sizectl值减一,说明新加入一个线程参与到扩容操作
    64. if (U.compareAndSwapInt(this, SIZECTL, sc = sizeCtl, sc - 1)) {
    65. if ((sc - 2) != resizeStamp(n) << RESIZE_STAMP_SHIFT)
    66. return;
    67. finishing = advance = true;
    68. i = n; // recheck before commit
    69. }
    70. }
    71. //如果遍历到的节点为空 则放入ForwardingNode指针
    72. else if ((f = tabAt(tab, i)) == null)
    73. advance = casTabAt(tab, i, null, fwd);
    74. //如果遍历到ForwardingNode节点 说明这个点已经被处理过了 直接跳过 这里是控制并发扩容的核心
    75. else if ((fh = f.hash) == MOVED)
    76. advance = true; // already processed
    77. else {
    78. //节点上锁
    79. synchronized (f) {
    80. if (tabAt(tab, i) == f) {
    81. Node<K,V> ln, hn;
    82. //如果fh>=0 证明这是一个Node节点
    83. if (fh >= 0) {
    84. int runBit = fh & n;
    85. //以下的部分在完成的工作是构造两个链表 一个是原链表 另一个是原链表的反序排列
    86. Node<K,V> lastRun = f;
    87. for (Node<K,V> p = f.next; p != null; p = p.next) {
    88. int b = p.hash & n;
    89. if (b != runBit) {
    90. runBit = b;
    91. lastRun = p;
    92. }
    93. }
    94. if (runBit == 0) {
    95. ln = lastRun;
    96. hn = null;
    97. }
    98. else {
    99. hn = lastRun;
    100. ln = null;
    101. }
    102. for (Node<K,V> p = f; p != lastRun; p = p.next) {
    103. int ph = p.hash; K pk = p.key; V pv = p.val;
    104. if ((ph & n) == 0)
    105. ln = new Node<K,V>(ph, pk, pv, ln);
    106. else
    107. hn = new Node<K,V>(ph, pk, pv, hn);
    108. }
    109. //在nextTable的i位置上插入一个链表
    110. setTabAt(nextTab, i, ln);
    111. //在nextTable的i+n的位置上插入另一个链表
    112. setTabAt(nextTab, i + n, hn);
    113. //在table的i位置上插入forwardNode节点 表示已经处理过该节点
    114. setTabAt(tab, i, fwd);
    115. //设置advance为true 返回到上面的while循环中 就可以执行i--操作
    116. advance = true;
    117. }
    118. //对TreeBin对象进行处理 与上面的过程类似
    119. else if (f instanceof TreeBin) {
    120. TreeBin<K,V> t = (TreeBin<K,V>)f;
    121. TreeNode<K,V> lo = null, loTail = null;
    122. TreeNode<K,V> hi = null, hiTail = null;
    123. int lc = 0, hc = 0;
    124. //构造正序和反序两个链表
    125. for (Node<K,V> e = t.first; e != null; e = e.next) {
    126. int h = e.hash;
    127. TreeNode<K,V> p = new TreeNode<K,V>
    128. (h, e.key, e.val, null, null);
    129. if ((h & n) == 0) {
    130. if ((p.prev = loTail) == null)
    131. lo = p;
    132. else
    133. loTail.next = p;
    134. loTail = p;
    135. ++lc;
    136. }
    137. else {
    138. if ((p.prev = hiTail) == null)
    139. hi = p;
    140. else
    141. hiTail.next = p;
    142. hiTail = p;
    143. ++hc;
    144. }
    145. }
    146. //如果扩容后已经不再需要tree的结构 反向转换为链表结构
    147. ln = (lc <= UNTREEIFY_THRESHOLD) ? untreeify(lo) :
    148. (hc != 0) ? new TreeBin<K,V>(lo) : t;
    149. hn = (hc <= UNTREEIFY_THRESHOLD) ? untreeify(hi) :
    150. (lc != 0) ? new TreeBin<K,V>(hi) : t;
    151. //在nextTable的i位置上插入一个链表
    152. setTabAt(nextTab, i, ln);
    153. //在nextTable的i+n的位置上插入另一个链表
    154. setTabAt(nextTab, i + n, hn);
    155. //在table的i位置上插入forwardNode节点 表示已经处理过该节点
    156. setTabAt(tab, i, fwd);
    157. //设置advance为true 返回到上面的while循环中 就可以执行i--操作
    158. advance = true;
    159. }
    160. }
    161. }
    162. }
    163. }
    164. }

6、put 方法

根据hash值计算新值的位置i,如果i位置为空,就直接放进去,否则进行判断,是树节点就按照树的方式插入新值,如果是链表就插入到链表的尾部

  1. 如果有线程在进行扩容操作,当前线程也要进入扩容操作
  2. 如果检测到要插入的节点非空且不是forward节点,就加锁进行添加操作。

如果这个位置存在结点,说明发生了hash碰撞,首先判断这个节点的类型。如果是链表节点(fh>0),则得到的结点就是hash值相同的节点组成的链表的头节点。需要依次向后遍历确定这个新加入的值所在位置。如果遇到hash值与key值都与新加入节点是一致的情况,则只需要更新value值即可。否则依次向后遍历,直到链表尾插入这个结点。 如果加入这个节点以后链表长度大于8,就把这个链表转换成红黑树。如果这个节点的类型已经是树节点的话,直接调用树节点的插入方法进行插入新的值。

  1. public V put(K key, V value) {
  2. return putVal(key, value, false);
  3. }
  4. /** Implementation for put and putIfAbsent */
  5. final V putVal(K key, V value, boolean onlyIfAbsent) {
  6. //不允许 key或value为null
  7. if (key == null || value == null) throw new NullPointerException();
  8. //计算hash值
  9. int hash = spread(key.hashCode());
  10. int binCount = 0;
  11. //死循环 何时插入成功 何时跳出
  12. for (Node<K,V>[] tab = table;;) {
  13. Node<K,V> f; int n, i, fh;
  14. //如果table为空的话,初始化table
  15. if (tab == null || (n = tab.length) == 0)
  16. tab = initTable();
  17. //根据hash值计算出在table里面的位置
  18. else if ((f = tabAt(tab, i = (n - 1) & hash)) == null) {
  19. //如果这个位置没有值 ,直接放进去,不需要加锁
  20. if (casTabAt(tab, i, null,
  21. new Node<K,V>(hash, key, value, null)))
  22. break; // no lock when adding to empty bin
  23. }
  24. //当遇到表连接点时,需要进行整合表的操作
  25. else if ((fh = f.hash) == MOVED)
  26. tab = helpTransfer(tab, f);
  27. else {
  28. V oldVal = null;
  29. //结点上锁 这里的结点可以理解为hash值相同组成的链表的头结点
  30. synchronized (f) {
  31. if (tabAt(tab, i) == f) {
  32. //fh〉0 说明这个节点是一个链表的节点 不是树的节点
  33. if (fh >= 0) {
  34. binCount = 1;
  35. //在这里遍历链表所有的结点
  36. for (Node<K,V> e = f;; ++binCount) {
  37. K ek;
  38. //如果hash值和key值相同 则修改对应结点的value值
  39. if (e.hash == hash &&
  40. ((ek = e.key) == key ||
  41. (ek != null && key.equals(ek)))) {
  42. oldVal = e.val;
  43. if (!onlyIfAbsent)
  44. e.val = value;
  45. break;
  46. }
  47. Node<K,V> pred = e;
  48. //如果遍历到了最后一个结点,那么就证明新的节点需要插入 就把它插入在链表尾部
  49. if ((e = e.next) == null) {
  50. pred.next = new Node<K,V>(hash, key,
  51. value, null);
  52. break;
  53. }
  54. }
  55. }
  56. //如果这个节点是树节点,就按照树的方式插入值
  57. else if (f instanceof TreeBin) {
  58. Node<K,V> p;
  59. binCount = 2;
  60. if ((p = ((TreeBin<K,V>)f).putTreeVal(hash, key,
  61. value)) != null) {
  62. oldVal = p.val;
  63. if (!onlyIfAbsent)
  64. p.val = value;
  65. }
  66. }
  67. }
  68. }
  69. if (binCount != 0) {
  70. //如果链表长度已经达到临界值8 就需要把链表转换为树结构
  71. if (binCount >= TREEIFY_THRESHOLD)
  72. treeifyBin(tab, i);
  73. if (oldVal != null)
  74. return oldVal;
  75. break;
  76. }
  77. }
  78. }
  79. //将当前ConcurrentHashMap的元素数量+1
  80. addCount(1L, binCount);
  81. return null;
  82. }

6.1、helpTransfer方法

这是一个协助扩容的方法,被调用的时候一定有nextTable,首先拿到nextTable,调用transfer方法

  1. /**
  2. * Helps transfer if a resize is in progress.
  3. */
  4. final Node<K,V>[] helpTransfer(Node<K,V>[] tab, Node<K,V> f) {
  5. Node<K,V>[] nextTab; int sc;
  6. if (tab != null && (f instanceof ForwardingNode) &&
  7. (nextTab = ((ForwardingNode<K,V>)f).nextTable) != null) {
  8. int rs = resizeStamp(tab.length);//计算一个操作校验码
  9. while (nextTab == nextTable && table == tab &&
  10. (sc = sizeCtl) < 0) {
  11. if ((sc >>> RESIZE_STAMP_SHIFT) != rs || sc == rs + 1 ||
  12. sc == rs + MAX_RESIZERS || transferIndex <= 0)
  13. break;
  14. if (U.compareAndSwapInt(this, SIZECTL, sc, sc + 1)) {
  15. transfer(tab, nextTab);
  16. break;
  17. }
  18. }
  19. return nextTab;
  20. }
  21. return table;
  22. }

6.2、treeifyBin方法

这个方法是将过长的链表转换为TreeBin对象,不是直接转换,先进行容量判断,没达到就进行扩容操作,满足条件后才将链表转换为TreeBin

  1. private final void treeifyBin(Node<K,V>[] tab, int index) {
  2. Node<K,V> b; int n, sc;
  3. if (tab != null) {
  4. if ((n = tab.length) < MIN_TREEIFY_CAPACITY)//如果table.length<64 就扩大一倍 返回
  5. tryPresize(n << 1);
  6. else if ((b = tabAt(tab, index)) != null && b.hash >= 0) {
  7. synchronized (b) {
  8. if (tabAt(tab, index) == b) {
  9. TreeNode<K,V> hd = null, tl = null;
  10. //构造了一个TreeBin对象 把所有Node节点包装成TreeNode放进去
  11. for (Node<K,V> e = b; e != null; e = e.next) {
  12. TreeNode<K,V> p =
  13. new TreeNode<K,V>(e.hash, e.key, e.val,
  14. null, null);//这里只是利用了TreeNode封装 而没有利用TreeNode的next域和parent域
  15. if ((p.prev = tl) == null)
  16. hd = p;
  17. else
  18. tl.next = p;
  19. tl = p;
  20. }
  21. //在原来index的位置 用TreeBin替换掉原来的Node对象
  22. setTabAt(tab, index, new TreeBin<K,V>(hd));
  23. }
  24. }
  25. }
  26. }
  27. }

7、get方法

get方法比较简单,给定一个key确定value的时候,必须满足hash和key都相同,查找可能是链表或者树上。

  1. public V get(Object key) {
  2. Node<K,V>[] tab; Node<K,V> e, p; int n, eh; K ek;
  3. //计算hash值
  4. int h = spread(key.hashCode());
  5. //根据hash值确定节点位置
  6. if ((tab = table) != null && (n = tab.length) > 0 &&
  7. (e = tabAt(tab, (n - 1) & h)) != null) {
  8. //如果搜索到的节点key与传入的key相同且不为null,直接返回这个节点
  9. if ((eh = e.hash) == h) {
  10. if ((ek = e.key) == key || (ek != null && key.equals(ek)))
  11. return e.val;
  12. }
  13. //如果eh<0 说明这个节点在树上 直接寻找
  14. else if (eh < 0)
  15. return (p = e.find(h, key)) != null ? p.val : null;
  16. //否则遍历链表 找到对应的值并返回
  17. while ((e = e.next) != null) {
  18. if (e.hash == h &&
  19. ((ek = e.key) == key || (ek != null && key.equals(ek))))
  20. return e.val;
  21. }
  22. }
  23. return null;
  24. }

8、size相关方法

size值不一定准确,但也经过了计算

8.1、辅助定义

为了统计元素个数,定义了一些变量和一个内部类

  1. /**
  2. * A padded cell for distributing counts. Adapted from LongAdder
  3. * and Striped64. See their internal docs for explanation.
  4. */
  5. @sun.misc.Contended static final class CounterCell {
  6. volatile long value;
  7. CounterCell(long x) { value = x; }
  8. }
  9. /******************************************/
  10. /**
  11. * 实际上保存的是hashmap中的元素个数 利用CAS锁进行更新
  12. 但它并不用返回当前hashmap的元素个数
  13. */
  14. private transient volatile long baseCount;
  15. /**
  16. * Spinlock (locked via CAS) used when resizing and/or creating CounterCells.
  17. */
  18. private transient volatile int cellsBusy;
  19. /**
  20. * Table of counter cells. When non-null, size is a power of 2.
  21. */
  22. private transient volatile CounterCell[] counterCells;

8.2、mappingCount与size方法

从代码来看,mappingCount方法比size方法更准确,都用到了sumCount方法进行统计,由于没有进行加锁,可能会因为并发问题出现一些误差,因为size方法返回的是int类型,所以如果数量超过int最大值的情况下,还是使用mappingCount方法。

  1. public int size() {
  2. long n = sumCount();
  3. return ((n < 0L) ? 0 :
  4. (n > (long)Integer.MAX_VALUE) ? Integer.MAX_VALUE :
  5. (int)n);
  6. }
  7. /**
  8. * Returns the number of mappings. This method should be used
  9. * instead of {@link #size} because a ConcurrentHashMap may
  10. * contain more mappings than can be represented as an int. The
  11. * value returned is an estimate; the actual count may differ if
  12. * there are concurrent insertions or removals.
  13. *
  14. * @return the number of mappings
  15. * @since 1.8
  16. */
  17. public long mappingCount() {
  18. long n = sumCount();
  19. return (n < 0L) ? 0L : n; // ignore transient negative values
  20. }
  21. final long sumCount() {
  22. CounterCell[] as = counterCells; CounterCell a;
  23. long sum = baseCount;
  24. if (as != null) {
  25. for (int i = 0; i < as.length; ++i) {
  26. if ((a = as[i]) != null)
  27. sum += a.value;//所有counter的值求和
  28. }
  29. }
  30. return sum;
  31. }

8.3、addCount方法

put方法最后调用了这个方法,将当前元素个数+1,一共做了两件事,更新baseCount的值,检查是否需要扩容。

  1. private final void addCount(long x, int check) {
  2. CounterCell[] as; long b, s;
  3. //利用CAS方法更新baseCount的值
  4. if ((as = counterCells) != null ||
  5. !U.compareAndSwapLong(this, BASECOUNT, b = baseCount, s = b + x)) {
  6. CounterCell a; long v; int m;
  7. boolean uncontended = true;
  8. if (as == null || (m = as.length - 1) < 0 ||
  9. (a = as[ThreadLocalRandom.getProbe() & m]) == null ||
  10. !(uncontended =
  11. U.compareAndSwapLong(a, CELLVALUE, v = a.value, v + x))) {
  12. fullAddCount(x, uncontended);
  13. return;
  14. }
  15. if (check <= 1)
  16. return;
  17. s = sumCount();
  18. }
  19. //如果check值大于等于0 则需要检验是否需要进行扩容操作
  20. if (check >= 0) {
  21. Node<K,V>[] tab, nt; int n, sc;
  22. while (s >= (long)(sc = sizeCtl) && (tab = table) != null &&
  23. (n = tab.length) < MAXIMUM_CAPACITY) {
  24. int rs = resizeStamp(n);
  25. //
  26. if (sc < 0) {
  27. if ((sc >>> RESIZE_STAMP_SHIFT) != rs || sc == rs + 1 ||
  28. sc == rs + MAX_RESIZERS || (nt = nextTable) == null ||
  29. transferIndex <= 0)
  30. break;
  31. //如果已经有其他线程在执行扩容操作
  32. if (U.compareAndSwapInt(this, SIZECTL, sc, sc + 1))
  33. transfer(tab, nt);
  34. }
  35. //当前线程是唯一的或是第一个发起扩容的线程 此时nextTable=null
  36. else if (U.compareAndSwapInt(this, SIZECTL, sc,
  37. (rs << RESIZE_STAMP_SHIFT) + 2))
  38. transfer(tab, null);
  39. s = sumCount();
  40. }
  41. }
  42. }

参考资料
https://juejin.im/entry/59fc786d518825297f3fa968
https://blog.csdn.net/u010723709/article/details/48007881