1 Map并发集合

1.1 ConcurrentMap

ConcurrentMap,它是一个接口,是一个能够支持并发访问的java.util.map集合;
在原有java.util.map接口基础上又新提供了4种方法,进一步扩展了原有Map的功能:

  1. public interface ConcurrentMap<K, V> extends Map<K, V> {
  2. //插入元素
  3. V putIfAbsent(K key, V value);
  4. //移除元素
  5. boolean remove(Object key, Object value);
  6. //替换元素
  7. boolean replace(K key, V oldValue, V newValue);
  8. //替换元素
  9. V replace(K key, V value);
  10. }

putIfAbsent:与原有put方法不同的是,putIfAbsent方法中如果插入的key相同,则不替换原有的value值;
remove:与原有remove方法不同的是,新remove方法中增加了对value的判断,如果要删除的key—value不能与Map中原有的key—value对应上,则不会删除该元素;
replace(K,V,V):增加了对value值的判断,如果key—oldValue能与Map中原有的key—value对应上,才进行替换操作;
replace(K,V):与上面的replace不同的是,此replace不会对Map中原有的key—value进行比较,如果key存在则直接替换;
其实,对于ConcurrentMap来说,我们更关注Map本身的操作,在并发情况下是如何实现数据安全的。在java.util.concurrent包中,ConcurrentMap的实现类主要以ConcurrentHashMap为主。接下来,我们具体来看下。

1.2 ConcurrentHashMap

ConcurrentHashMap是一个线程安全,并且是一个高效的HashMap。
但是,如果从线程安全的角度来说,HashTable已经是一个线程安全的HashMap,那推出ConcurrentHashMap的意义又是什么呢?
说起ConcurrentHashMap,就不得不先提及下HashMap在线程不安全的表现,以及HashTable的效率!

  • HashMap

关于HashMap的讲解,在此前的文章中已经说过了,本篇不在做过多的描述,有兴趣的朋友可以来这里看下—HashMap
在此节中,我们主要来说下,在多线程情况下HashMap的表现?
HashMap中添加元素的源码:(基于JDK1.7.0_45)

  1. public V put(K key, V value) {
  2. 。。。忽略
  3. addEntry(hash, key, value, i);
  4. return null;
  5. }
  6. void addEntry(int hash, K key, V value, int bucketIndex) {
  7. 。。。忽略
  8. createEntry(hash, key, value, bucketIndex);
  9. }
  10. //向链表头部插入元素:在数组的某一个角标下形成链表结构;
  11. void createEntry(int hash, K key, V value, int bucketIndex) {
  12. Entry<K,V> e = table[bucketIndex];
  13. table[bucketIndex] = new Entry<>(hash, key, value, e);
  14. size++;
  15. }

在多线程情况下,同时A、B两个线程走到createEntry()方法中,并且这两个线程中插入的元素hash值相同,bucketIndex值也相同,那么无论A线程先执行,还是B线程先被执行,最终都会2个元素先后向链表的头部插入,导致互相覆盖,致使其中1个线程中的数据丢失。这样就造成了HashMap的线程不安全,数据的不一致;
更要命的是,HashMap在多线程情况下还会出现死循环的可能,造成CPU占用率升高,导致系统卡死。
举个简单的例子:

  1. public class ConcurrentHashMapTest {
  2. public static void main(String[] agrs) throws InterruptedException {
  3. final HashMap<String,String> map = new HashMap<String,String>();
  4. Thread t = new Thread(new Runnable(){
  5. public void run(){
  6. for(int x=0;x<10000;x++){
  7. Thread tt = new Thread(new Runnable(){
  8. public void run(){
  9. map.put(UUID.randomUUID().toString(),"");
  10. }
  11. });
  12. tt.start();
  13. System.out.println(tt.getName());
  14. }
  15. }
  16. });
  17. t.start();
  18. t.join();
  19. }
  20. }

在上面的例子中,我们利用for循环,启动了10000个线程,每个线程都向共享变量中添加一个元素。
测试结果:通过使用JDK自带的jconsole工具,可以看到HashMap内部形成了死循环,并且主要集中在两处代码上。
image.png
image
image.png
image
那么,是什么原因造成了死循环?
HashMap—put()494行:(基于JDK1.7.0_45)

  1. public V put(K key, V value) {
  2. if (table == EMPTY_TABLE) {
  3. inflateTable(threshold);
  4. }
  5. if (key == null)
  6. return putForNullKey(value);
  7. int hash = hash(key);
  8. int i = indexFor(hash, table.length);
  9. for (Entry<K,V> e = table[i]; e != null; e = e.next) {------**for循环494行**
  10. Object k;
  11. if (e.hash == hash && ((k = e.key) == key || key.equals(k))) {
  12. V oldValue = e.value;
  13. e.value = value;
  14. e.recordAccess(this);
  15. return oldValue;
  16. }
  17. }
  18. modCount++;
  19. addEntry(hash, key, value, i);
  20. return null;
  21. }

HashMap—transfer()601行:(基于JDK1.7.0_45)

  1. void transfer(Entry[] newTable, boolean rehash) {
  2. int newCapacity = newTable.length;
  3. for (Entry<K,V> e : table) {
  4. while(null != e) {
  5. Entry<K,V> next = e.next;
  6. if (rehash) {
  7. e.hash = null == e.key ? 0 : hash(e.key);
  8. }
  9. int i = indexFor(e.hash, newCapacity);
  10. e.next = newTable[i];
  11. newTable[i] = e;
  12. e = next;
  13. }-----**while循环601行**
  14. }
  15. }

通过查看代码,可以看出,死循环的产生:主要因为在遍历数组角标下的链表时,没有了为null的元素,单向链表变成了循环链表,头尾相连了。
以上两点,就是HashMap在多线程情况下的表现。

  • HashTable

说完了HashMap的线程不安全,接下来说下HashTable的效率!!
HashTable与HashMap的结构一致,都是哈希表实现。
与HashMap不同的是,在HashTable中,所有的方法都加上了synchronized锁,用锁来实现线程的安全性。由于synchronized锁加在了HashTable的每一个方法上,所以这个锁就是HashTable本身—this。那么,可想而知HashTable的效率是如何,安全是保证了,但是效率却损失了。
无论执行哪个方法,整个哈希表都会被锁住,只有其中一个线程执行完毕,释放所,下一个线程才会执行。无论你是调用get方法,还是put方法皆是如此;
HashTable部分源码:(基于JDK1.7.0_45)

  1. public class Hashtable<K,V> extends Dictionary<K,V>
  2. implements Map<K,V>, Cloneable, java.io.Serializable {
  3. public synchronized int size() {...}
  4. public synchronized boolean isEmpty() {...}
  5. public synchronized V get(Object key) {...}
  6. public synchronized V put(K key, V value) {...}
  7. }

通过上述代码,可以清晰看出,在HashTable中的主要操作方法上都加了synchronized锁以来保证线程安全。
说完了HashMap和HashTable,下面我们就重点介绍下ConcurrentHashMap,看看ConcurrentHashMap是如何来解决上述的两个问题的!

1.3 ConcurrentHashMap结构

在说到ConcurrentHashMap源码之前,我们首先来了解下ConcurrentHashMap的整体结构,这样有利于我们快速理解源码。
不知道,大家还是否记得HashMap的整体结构呢?如果忘记的话,我们就在此进行回顾下!
image.png
image
HashMap底层使用数组和链表,实现哈希表结构。插入的元素通过散列的形式分布到数组的各个角标下;当有重复的散列值时,便将新增的元素插入在链表头部,使其形成链表结构,依次向后排列。
下面是,ConcurrentHashMap的结构:
image.png
image
与HashMap不同的是,ConcurrentHashMap中多了一层数组结构,由Segment和HashEntry两个数组组成。其中Segment起到了加锁同步的作用,而HashEntry则起到了存储K.V键值对的作用。
在ConcurrentHashMap中,每一个ConcurrentHashMap都包含了一个Segment数组,在Segment数组中每一个Segment对象则又包含了一个HashEntry数组,而在HashEntry数组中,每一个HashEntry对象保存K-V数据的同时又形成了链表结构,此时与HashMap结构相同。
在多线程中,每一个Segment对象守护了一个HashEntry数组,当对ConcurrentHashMap中的元素修改时,在获取到对应的Segment数组角标后,都会对此Segment对象加锁,之后再去操作后面的HashEntry元素,这样每一个Segment对象下,都形成了一个小小的HashMap,在保证数据安全性的同时,又提高了同步的效率。只要不是操作同一个Segment对象的话,就不会出现线程等待的问题!

转自:https://www.jianshu.com/p/8f7b2cd34c47