HashMap 源码中主要了解其核心源码及实现逻辑。ConcurrentHashMap 就不再重复那些数据结构相关的内容咯,这里重点看一下它的并发安全实现。源码如下。

    1. public class ConcurrentHashMap<K,V> extends AbstractMap<K,V> implements ConcurrentMap<K,V>,
    2. Serializable {
    3. /* --------- 常量及成员变量的设计 几乎与HashMap相差无几 -------- */
    4. /**
    5. * 最大容量
    6. */
    7. private static final int MAXIMUM_CAPACITY = 1 << 30;
    8. /**
    9. * 默认初始容量
    10. */
    11. private static final int DEFAULT_CAPACITY = 16;
    12. /**
    13. * 单个数组最大容量
    14. */
    15. static final int MAX_ARRAY_SIZE = Integer.MAX_VALUE - 8;
    16. /**
    17. * 默认并发等级,也就分成多少个单独上锁的区域
    18. */
    19. private static final int DEFAULT_CONCURRENCY_LEVEL = 16;
    20. /**
    21. * 扩容因子
    22. */
    23. private static final float LOAD_FACTOR = 0.75f;
    24. /**
    25. *
    26. */
    27. transient volatile Node<K,V>[] table;
    28. /**
    29. *
    30. */
    31. private transient volatile Node<K,V>[] nextTable;
    32. /* --------- 系列构造方法,依然推荐在初始化时根据实际情况设置好初始容量 -------- */
    33. public ConcurrentHashMap() {
    34. }
    35. public ConcurrentHashMap(int initialCapacity) {
    36. if (initialCapacity < 0)
    37. throw new IllegalArgumentException();
    38. int cap = ((initialCapacity >= (MAXIMUM_CAPACITY >>> 1)) ?
    39. MAXIMUM_CAPACITY :
    40. tableSizeFor(initialCapacity + (initialCapacity >>> 1) + 1));
    41. this.sizeCtl = cap;
    42. }
    43. public ConcurrentHashMap(Map<? extends K, ? extends V> m) {
    44. this.sizeCtl = DEFAULT_CAPACITY;
    45. putAll(m);
    46. }
    47. public ConcurrentHashMap(int initialCapacity, float loadFactor) {
    48. this(initialCapacity, loadFactor, 1);
    49. }
    50. public ConcurrentHashMap(int initialCapacity,
    51. float loadFactor, int concurrencyLevel) {
    52. if (!(loadFactor > 0.0f) || initialCapacity < 0 || concurrencyLevel <= 0)
    53. throw new IllegalArgumentException();
    54. if (initialCapacity < concurrencyLevel) // Use at least as many bins
    55. initialCapacity = concurrencyLevel; // as estimated threads
    56. long size = (long)(1.0 + (long)initialCapacity / loadFactor);
    57. int cap = (size >= (long)MAXIMUM_CAPACITY) ?
    58. MAXIMUM_CAPACITY : tableSizeFor((int)size);
    59. this.sizeCtl = cap;
    60. }
    61. /**
    62. * ConcurrentHashMap 的核心就在于其put元素时 利用synchronized局部锁 和
    63. * CAS乐观锁机制 大大提升了本集合的并发能力,比JDK7的分段锁性能更强
    64. */
    65. public V put(K key, V value) {
    66. return putVal(key, value, false);
    67. }
    68. /**
    69. * 当前指定数组位置无元素时,使用CAS操作 将 Node键值对 放入对应的数组下标。
    70. * 出现hash冲突,则用synchronized局部锁锁住,若当前hash对应的节点是链表的头节点,遍历链表,
    71. * 若找到对应的node节点,则修改node节点的val,否则在链表末尾添加node节点;倘若当前节点是
    72. * 红黑树的根节点,在树结构上遍历元素,更新或增加节点
    73. */
    74. final V putVal(K key, V value, boolean onlyIfAbsent) {
    75. if (key == null || value == null) throw new NullPointerException();
    76. int hash = spread(key.hashCode());
    77. int binCount = 0;
    78. for (Node<K,V>[] tab = table;;) {
    79. Node<K,V> f; int n, i, fh;
    80. if (tab == null || (n = tab.length) == 0)
    81. tab = initTable();
    82. else if ((f = tabAt(tab, i = (n - 1) & hash)) == null) {
    83. // 注意!这是一个CAS的方法,将新节点放入指定位置,不用加锁阻塞线程
    84. // 也能保证并发安全
    85. if (casTabAt(tab, i, null, new Node<K,V>(hash, key, value, null)))
    86. break; // no lock when adding to empty bin
    87. }
    88. // 当前Map在扩容,先协助扩容,在更新值
    89. else if ((fh = f.hash) == MOVED)
    90. tab = helpTransfer(tab, f);
    91. else { // hash冲突
    92. V oldVal = null;
    93. // 局部锁,有效减少锁竞争的发生
    94. synchronized (f) { // f 是 链表头节点/红黑树根节点
    95. if (tabAt(tab, i) == f) {
    96. if (fh >= 0) {
    97. binCount = 1;
    98. for (Node<K,V> e = f;; ++binCount) {
    99. K ek;
    100. // 若节点已经存在,修改该节点的值
    101. if (e.hash == hash && ((ek = e.key) == key ||
    102. (ek != null && key.equals(ek)))) {
    103. oldVal = e.val;
    104. if (!onlyIfAbsent)
    105. e.val = value;
    106. break;
    107. }
    108. Node<K,V> pred = e;
    109. // 节点不存在,添加到链表末尾
    110. if ((e = e.next) == null) {
    111. pred.next = new Node<K,V>(hash, key,
    112. value, null);
    113. break;
    114. }
    115. }
    116. }
    117. // 如果该节点是 红黑树节点
    118. else if (f instanceof TreeBin) {
    119. Node<K,V> p;
    120. binCount = 2;
    121. if ((p = ((TreeBin<K,V>)f).putTreeVal(hash, key,
    122. value)) != null) {
    123. oldVal = p.val;
    124. if (!onlyIfAbsent)
    125. p.val = value;
    126. }
    127. }
    128. }
    129. }
    130. // 链表节点超过了8,链表转为红黑树
    131. if (binCount != 0) {
    132. if (binCount >= TREEIFY_THRESHOLD)
    133. treeifyBin(tab, i);
    134. if (oldVal != null)
    135. return oldVal;
    136. break;
    137. }
    138. }
    139. }
    140. // 统计节点个数,检查是否需要resize
    141. addCount(1L, binCount);
    142. return null;
    143. }
    144. }

    与 JDK1.7 在同步机制上的区别 总结如下:
    JDK1.7 使用的是分段锁机制,其内部类 Segment 继承了 ReentrantLock,将 容器内的数组划分成多段区域,每个区域对应一把锁,相比于 HashTable 确实提升了不少并发能力,但在数据量庞大的情况下,性能依然不容乐观,只能通过不断的增加锁来维持并发性能。而 JDK1.8 则使用了 CAS 乐观锁 + synchronized 局部锁 处理并发问题,锁粒度更细,即使数据量很大也能保证良好的并发性。