• Java8中改变了HasMap的数据结构,改为“数组-链表-红黑树”的组合结构来存储数据,大幅度提升运行效率
  • ConcurrentHashMap优化,多线程操作时使用CAS算法实现,大幅度提升运行效率

Map简介

Java为数据结构中的映射定义了一个接口java.util.Map,此接口主要有四个常用的实现类,分别是HashMap、Hashtable、LinkedHashMap和TreeMap,类继承关系如下图所示:
HasMap优化 - 图1
下面针对各个实现类的特点做一些说明:

  • (1) HashMap:它根据键的hashCode值存储数据,大多数情况下可以直接定位到它的值,因而具有很快的访问速度,但遍历顺序却是不确定的。 HashMap最多只允许一条记录的键为null,允许多条记录的值为null。HashMap非线程安全,即任一时刻可以有多个线程同时写HashMap,可能会导致数据的不一致。如果需要满足线程安全,可以用 Collections的synchronizedMap方法使HashMap具有线程安全的能力,或者使用ConcurrentHashMap
  • (2) Hashtable:Hashtable是遗留类,很多映射的常用功能与HashMap类似,不同的是它承自Dictionary类,并且是线程安全的,任一时间只有一个线程能写Hashtable,并发性不如ConcurrentHashMap,因为ConcurrentHashMap引入了分段锁。Hashtable不建议在新代码中使用,不需要线程安全的场合可以用HashMap替换,需要线程安全的场合可以用ConcurrentHashMap替换。
  • (3) LinkedHashMap:LinkedHashMap是HashMap的一个子类,保存了记录的插入顺序,在用Iterator遍历LinkedHashMap时,先得到的记录肯定是先插入的,也可以在构造时带参数,按照访问次序排序。
  • (4) TreeMap:TreeMap实现SortedMap接口,能够把它保存的记录根据键排序,默认是按键值的升序排序,也可以指定排序的比较器,当用Iterator遍历TreeMap时,得到的记录是排过序的。如果使用排序的映射,建议使用TreeMap。在使用TreeMap时,key必须实现Comparable接口或者在构造TreeMap传入自定义的Comparator,否则会在运行时抛出java.lang.ClassCastException类型的异常。

对于上述四种Map类型的类,要求映射中的key是不可变对象。不可变对象是该对象在创建后它的哈希值不会被改变。如果对象的哈希值发生变化,Map对象很可能就定位不到映射的位置了。

通过上面的比较,我们知道了HashMap是Java的Map家族中一个普通成员,鉴于它可以满足大多数场景的使用条件,所以是使用频度最高的一个。下文我们主要结合源码,从存储结构、常用方法分析、扩容以及安全性等方面深入讲解HashMap的工作原理。

搞清楚HashMap,首先需要知道HashMap是什么,即它的存储结构-字段;其次弄明白它能干什么,即它的功能实现-方法。下面我们针对这两个方面详细展开讲解。

存储结构-字段

从结构实现来讲,HashMap是数组+链表+红黑树(JDK1.8增加了红黑树部分)实现的,如下如所示。
HasMap优化 - 图2
这里需要讲明白两个问题:数据底层具体存储的是什么?这样的存储方式有什么优点呢?

(1) 从源码可知,HashMap类中有一个非常重要的字段,就是 Node[] table,即哈希桶数组,明显它是一个Node的数组。我们来看Node[JDK1.8]是何物。

  1. static class Node<K,V> implements Map.Entry<K,V> {
  2. final int hash; //用来定位数组索引位置
  3. final K key;
  4. V value;
  5. Node<K,V> next; //链表的下一个node
  6. Node(int hash, K key, V value, Node<K,V> next) { ... }
  7. public final K getKey(){ ... }
  8. public final V getValue() { ... }
  9. public final String toString() { ... }
  10. public final int hashCode() { ... }
  11. public final V setValue(V newValue) { ... }
  12. public final boolean equals(Object o) { ... }
  13. }

Node是HashMap的一个内部类,实现了Map.Entry接口,本质是就是一个映射(键值对)。上图中的每个黑色圆点就是一个Node对象。

(2) HashMap就是使用哈希表来存储的。哈希表为解决冲突,可以采用开放地址法和链地址法等来解决问题,Java中HashMap采用了链地址法。链地址法,简单来说,就是数组加链表的结合。在每个数组元素上都一个链表结构,当数据被Hash后,得到数组下标,把数据放在对应下标元素的链表上。例如程序执行下面代码:

  1. map.put("编程指南","initit.com");

系统将调用”编程指南”这个key的hashCode()方法得到其hashCode 值(该方法适用于每个Java对象),然后再通过Hash算法的后两步运算(高位运算和取模运算,下文有介绍)来定位该键值对的存储位置,有时两个key会定位到相同的位置,表示发生了Hash碰撞。当然Hash算法计算结果越分散均匀,Hash碰撞的概率就越小,map的存取效率就会越高。

如果哈希桶数组很大,即使较差的Hash算法也会比较分散,如果哈希桶数组数组很小,即使好的Hash算法也会出现较多碰撞,所以就需要在空间成本和时间成本之间权衡,其实就是在根据实际情况确定哈希桶数组的大小,并在此基础上设计好的hash算法减少Hash碰撞。那么通过什么方式来控制map使得Hash碰撞的概率又小,哈希桶数组(Node[] table)占用空间又少呢?答案就是好的Hash算法和扩容机制。

在理解Hash和扩容流程之前,我们得先了解下HashMap的几个字段。从HashMap的默认构造函数源码可知,构造函数就是对下面几个字段进行初始化,源码如下:

  1. int threshold; // 所能容纳的key-value对极限
  2. final float loadFactor; // 负载因子
  3. int modCount;
  4. int size;

首先,Node[] table的初始化长度length(默认值是16),Load factor为负载因子(默认值是0.75),threshold是HashMap所能容纳的最大数据量的Node(键值对)个数。threshold = length * Load factor。也就是说,在数组定义好长度之后,负载因子越大,所能容纳的键值对个数越多。

结合负载因子的定义公式可知,threshold就是在此Load factor和length(数组长度)对应下允许的最大元素数目,超过这个数目就重新resize(扩容),扩容后的HashMap容量是之前容量的两倍。默认的负载因子0.75是对空间和时间效率的一个平衡选择,建议大家不要修改,除非在时间和空间比较特殊的情况下,如果内存空间很多而又对时间效率要求很高,可以降低负载因子Load factor的值;相反,如果内存空间紧张而对时间效率要求不高,可以增加负载因子loadFactor的值,这个值可以大于1。

size这个字段其实很好理解,就是HashMap中实际存在的键值对数量。注意和table的长度length、容纳最大键值对数量threshold的区别。而modCount字段主要用来记录HashMap内部结构发生变化的次数,主要用于迭代的快速失败。强调一点,内部结构发生变化指的是结构发生变化,例如put新键值对,但是某个key对应的value值被覆盖不属于结构变化。

在HashMap中,哈希桶数组table的长度length大小必须为2的n次方(一定是合数),这是一种非常规的设计,常规的设计是把桶的大小设计为素数。相对来说素数导致冲突的概率要小于合数,Hashtable初始化桶大小为11,就是桶大小设计为素数的应用(Hashtable扩容后不能保证还是素数)。HashMap采用这种非常规设计,主要是为了在取模和扩容时做优化,同时为了减少冲突,HashMap定位哈希桶索引位置时,也加入了高位参与运算的过程。

这里存在一个问题,即使负载因子和Hash算法设计的再合理,也免不了会出现拉链过长的情况,一旦出现拉链过长,则会严重影响HashMap的性能。于是,在JDK1.8版本中,对数据结构做了进一步的优化,引入了红黑树。而当链表长度太长(默认超过8)时,链表就转换为红黑树,利用红黑树快速增删改查的特点提高HashMap的性能,其中会用到红黑树的插入、删除、查找等算法

为什么一般hashtable的桶数会取一个素数

设有一个哈希函数
H( c ) = c % N;
当N取一个合数时,最简单的例子是取2^n,比如说取2^3=8,这时候
H( 11100(二进制) ) = H( 28 ) = 4
H( 10100(二进制) ) = H( 20 )= 4

这时候c的二进制第4位(从右向左数)就”失效”了,也就是说,无论第c的4位取什么值,都会导致H( c )的值一样.这时候c的第四位就根本不参与H( c )的运算,这样H( c )就无法完整地反映c的特性,增大了导致冲突的几率.

取其他合数时,都会不同程度的导致c的某些位”失效”,从而在一些常见应用中导致冲突.
但是取质数,基本可以保证c的每一位都参与H( c )的运算,从而在常见应用中减小冲突几率.
(个人意见:有时候不取质数效率也不会太差..但是无疑取质数之比较保险的..)

我个人认为更普遍意义的理解,如果不取素数的话是会有一定危险的,危险出现在当假设所选非素数m=x*y,如果需要hash的key正好跟这个约数x存在关系就惨了,最坏情况假设都为x的倍数,那么可以想象hash的结果为:1~y,而不是1~m。但是如果选桶的大小为素数是不会有这个问题。

功能实现-方法

HashMap的内部功能实现很多,本文主要从根据key获取哈希桶数组索引位置、put方法的详细执行、扩容过程三个具有代表性的点深入展开讲解。

1. 确定哈希桶数组索引位置

不管增加、删除、查找键值对,定位到哈希桶数组的位置都是很关键的第一步。前面说过HashMap的数据结构是数组和链表的结合,所以我们当然希望这个HashMap里面的元素位置尽量分布均匀些,尽量使得每个位置上的元素数量只有一个,那么当我们用hash算法求得这个位置的时候,马上就可以知道对应位置的元素就是我们要的,不用遍历链表,大大优化了查询的效率。HashMap定位数组索引位置,直接决定了hash方法的离散性能。先看看源码的实现(方法一+方法二):

  1. 方法一:
  2. static final int hash(Object key) { //jdk1.8 & jdk1.7
  3. int h;
  4. // h = key.hashCode() 为第一步 取hashCode值
  5. // h ^ (h >>> 16) 为第二步 高位参与运算
  6. return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
  7. }
  8. 方法二:
  9. static int indexFor(int h, int length) { //jdk1.7的源码,jdk1.8没有这个方法,但是实现原理一样的
  10. return h & (length-1); //第三步 取模运算
  11. }

这里的Hash算法本质上就是三步:取key的hashCode值、高位运算、取模运算
对于任意给定的对象,只要它的hashCode()返回值相同,那么程序调用方法一所计算得到的Hash码值总是相同的。我们首先想到的就是把hash值对数组长度取模运算,这样一来,元素的分布相对来说是比较均匀的。但是,模运算的消耗还是比较大的,在HashMap中是这样做的:调用方法二来计算该对象应该保存在table数组的哪个索引处。
这个方法非常巧妙,它通过h & (table.length -1)来得到该对象的保存位,而HashMap底层数组的长度总是2的n次方,这是HashMap在速度上的优化。当length总是2的n次方时,h& (length-1)运算等价于对length取模,也就是h%length,但是&比%具有更高的效率。
在JDK1.8的实现中,优化了高位运算的算法,通过hashCode()的高16位异或低16位实现的:(h = k.hashCode()) ^ (h >>> 16),主要是从速度、功效、质量来考虑的,这么做可以在数组table的length比较小的时候,也能保证考虑到高低Bit都参与到Hash的计算中,同时不会有太大的开销。
下面举例说明下,n为table的长度。
HasMap优化 - 图3

2. 分析HashMap的put方法

HashMap的put方法执行过程可以通过下图来理解,自己有兴趣可以去对比源码更清楚地研究学习。
HasMap优化 - 图4

  • ①.判断键值对数组table[i]是否为空或为null,否则执行resize()进行扩容;
  • ②.根据键值key计算hash值得到插入的数组索引i,如果table[i]==null,直接新建节点添加,转向⑥,如果table[i]不为空,转向③;
  • ③.判断table[i]的首个元素是否和key一样,如果相同直接覆盖value,否则转向④,这里的相同指的是hashCode以及equals;
  • ④.判断table[i] 是否为treeNode,即table[i] 是否是红黑树,如果是红黑树,则直接在树中插入键值对,否则转向⑤;
  • ⑤.遍历table[i],判断链表长度是否大于8,大于8的话把链表转换为红黑树,在红黑树中执行插入操作,否则进行链表的插入操作;遍历过程中若发现key已经存在直接覆盖value即可;
  • ⑥.插入成功后,判断实际存在的键值对数量size是否超多了最大容量threshold,如果超过,进行扩容。

JDK1.8HashMap的put方法源码如下:

  1. 1 public V put(K key, V value) {
  2. 2 // 对key的hashCode()做hash
  3. 3 return putVal(hash(key), key, value, false, true);
  4. 4 }
  5. 5
  6. 6 final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
  7. 7 boolean evict) {
  8. 8 Node<K,V>[] tab; Node<K,V> p; int n, i;
  9. 9 // 步骤①:tab为空则创建
  10. 10 if ((tab = table) == null || (n = tab.length) == 0)
  11. 11 n = (tab = resize()).length;
  12. 12 // 步骤②:计算index,并对null做处理
  13. 13 if ((p = tab[i = (n - 1) & hash]) == null)
  14. 14 tab[i] = newNode(hash, key, value, null);
  15. 15 else {
  16. 16 Node<K,V> e; K k;
  17. 17 // 步骤③:节点key存在,直接覆盖value
  18. 18 if (p.hash == hash &&
  19. 19 ((k = p.key) == key || (key != null && key.equals(k))))
  20. 20 e = p;
  21. 21 // 步骤④:判断该链为红黑树
  22. 22 else if (p instanceof TreeNode)
  23. 23 e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
  24. 24 // 步骤⑤:该链为链表
  25. 25 else {
  26. 26 for (int binCount = 0; ; ++binCount) {
  27. 27 if ((e = p.next) == null) {
  28. 28 p.next = newNode(hash, key,value,null);
  29. //链表长度大于8转换为红黑树进行处理
  30. 29 if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
  31. 30 treeifyBin(tab, hash);
  32. 31 break;
  33. 32 }
  34. // key已经存在直接覆盖value
  35. 33 if (e.hash == hash &&
  36. 34 ((k = e.key) == key || (key != null && key.equals(k))))
  37. 35 break;
  38. 36 p = e;
  39. 37 }
  40. 38 }
  41. 39
  42. 40 if (e != null) { // existing mapping for key
  43. 41 V oldValue = e.value;
  44. 42 if (!onlyIfAbsent || oldValue == null)
  45. 43 e.value = value;
  46. 44 afterNodeAccess(e);
  47. 45 return oldValue;
  48. 46 }
  49. 47 }
  50. 48 ++modCount;
  51. 49 // 步骤⑥:超过最大容量 就扩容
  52. 50 if (++size > threshold)
  53. 51 resize();
  54. 52 afterNodeInsertion(evict);
  55. 53 return null;
  56. 54 }

3. 扩容机制

扩容(resize)就是重新计算容量,向HashMap对象里不停的添加元素,而HashMap对象内部的数组无法装载更多的元素时,对象就需要扩大数组的长度,以便能装入更多的元素。当然Java里的数组是无法自动扩容的,方法是使用一个新的数组代替已有的容量小的数组,就像我们用一个小桶装水,如果想装更多的水,就得换大水桶。
我们分析下resize的源码,鉴于JDK1.8融入了红黑树,较复杂,为了便于理解我们仍然使用JDK1.7的代码,好理解一些,本质上区别不大,具体区别后文再说。

  1. 1 void resize(int newCapacity) { //传入新的容量
  2. 2 Entry[] oldTable = table; //引用扩容前的Entry数组
  3. 3 int oldCapacity = oldTable.length;
  4. 4 if (oldCapacity == MAXIMUM_CAPACITY) { //扩容前的数组大小如果已经达到最大(2^30)了
  5. 5 threshold = Integer.MAX_VALUE; //修改阈值为int的最大值(2^31-1),这样以后就不会扩容了
  6. 6 return;
  7. 7 }
  8. 8
  9. 9 Entry[] newTable = new Entry[newCapacity]; //初始化一个新的Entry数组
  10. 10 transfer(newTable); //!!将数据转移到新的Entry数组里
  11. 11 table = newTable; //HashMap的table属性引用新的Entry数组
  12. 12 threshold = (int)(newCapacity * loadFactor);//修改阈值
  13. 13 }

这里就是使用一个容量更大的数组来代替已有的容量小的数组,transfer()方法将原有Entry数组的元素拷贝到新的Entry数组里。

  1. 1 void transfer(Entry[] newTable) {
  2. 2 Entry[] src = table; //src引用了旧的Entry数组
  3. 3 int newCapacity = newTable.length;
  4. 4 for (int j = 0; j < src.length; j++) { //遍历旧的Entry数组
  5. 5 Entry<K,V> e = src[j]; //取得旧Entry数组的每个元素
  6. 6 if (e != null) {
  7. 7 src[j] = null;//释放旧Entry数组的对象引用(for循环后,旧的Entry数组不再引用任何对象)
  8. 8 do {
  9. 9 Entry<K,V> next = e.next;
  10. 10 int i = indexFor(e.hash, newCapacity); //!!重新计算每个元素在数组中的位置
  11. 11 e.next = newTable[i]; //标记[1]
  12. 12 newTable[i] = e; //将元素放在数组上
  13. 13 e = next; //访问下一个Entry链上的元素
  14. 14 } while (e != null);
  15. 15 }
  16. 16 }
  17. 17 }

newTable[i]的引用赋给了e.next,也就是使用了单链表的头插入方式,同一位置上新元素总会被放在链表的头部位置;这样先放在一个索引上的元素终会被放到Entry链的尾部(如果发生了hash冲突的话),这一点和Jdk1.8有区别,下文详解。

在旧数组中同一条Entry链上的元素,通过重新计算索引位置后,有可能被放到了新数组的不同位置上。
下面举个例子说明下扩容过程。假设了我们的hash算法就是简单的用key mod 一下表的大小(也就是数组的长度)。其中的哈希桶数组table的size=2, 所以key = 3、7、5,put顺序依次为 5、7、3。在mod 2以后都冲突在table[1]这里了。这里假设负载因子 loadFactor=1,即当键值对的实际大小size 大于 table的实际大小时进行扩容。接下来的三个步骤是哈希桶数组 resize成4,然后所有的Node重新rehash的过程。
HasMap优化 - 图5
下面我们讲解下JDK1.8做了哪些优化。经过观测可以发现,我们使用的是2次幂的扩展(指长度扩为原来2倍),所以,元素的位置要么是在原位置,要么是在原位置再移动2次幂的位置。看下图可以明白这句话的意思,n为table的长度,图(a)表示扩容前的key1和key2两种key确定索引位置的示例,图(b)表示扩容后key1和key2两种key确定索引位置的示例,其中hash1是key1对应的哈希与高位运算结果。
HasMap优化 - 图6
元素在重新计算hash之后,因为n变为2倍,那么n-1的mask范围在高位多1bit(红色),因此新的index就会发生这样的变化:
HasMap优化 - 图7
因此,我们在扩充HashMap的时候,不需要像JDK1.7的实现那样重新计算hash,只需要看看原来的hash值新增的那个bit是1还是0就好了,是0的话索引没变,是1的话索引变成“原索引+oldCap”,可以看看下图为16扩充为32的resize示意图:
HasMap优化 - 图8
这个设计确实非常的巧妙,既省去了重新计算hash值的时间,而且同时,由于新增的1bit是0还是1可以认为是随机的,因此resize的过程,均匀的把之前的冲突的节点分散到新的bucket了。这一块就是JDK1.8新增的优化点。有一点注意区别,JDK1.7中rehash的时候,旧链表迁移新链表的时候,如果在新表的数组索引位置相同,则链表元素会倒置,但是从上图可以看出,JDK1.8不会倒置。有兴趣的同学可以研究下JDK1.8的resize源码,写的很赞,如下:

  1. 1 final Node<K,V>[] resize() {
  2. 2 Node<K,V>[] oldTab = table;
  3. 3 int oldCap = (oldTab == null) ? 0 : oldTab.length;
  4. 4 int oldThr = threshold;
  5. 5 int newCap, newThr = 0;
  6. 6 if (oldCap > 0) {
  7. 7 // 超过最大值就不再扩充了,就只好随你碰撞去吧
  8. 8 if (oldCap >= MAXIMUM_CAPACITY) {
  9. 9 threshold = Integer.MAX_VALUE;
  10. 10 return oldTab;
  11. 11 }
  12. 12 // 没超过最大值,就扩充为原来的2倍
  13. 13 else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
  14. 14 oldCap >= DEFAULT_INITIAL_CAPACITY)
  15. 15 newThr = oldThr << 1; // double threshold
  16. 16 }
  17. 17 else if (oldThr > 0) // initial capacity was placed in threshold
  18. 18 newCap = oldThr;
  19. 19 else { // zero initial threshold signifies using defaults
  20. 20 newCap = DEFAULT_INITIAL_CAPACITY;
  21. 21 newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
  22. 22 }
  23. 23 // 计算新的resize上限
  24. 24 if (newThr == 0) {
  25. 25
  26. 26 float ft = (float)newCap * loadFactor;
  27. 27 newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
  28. 28 (int)ft : Integer.MAX_VALUE);
  29. 29 }
  30. 30 threshold = newThr;
  31. 31 @SuppressWarnings({"rawtypes""unchecked"})
  32. 32 Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
  33. 33 table = newTab;
  34. 34 if (oldTab != null) {
  35. 35 // 把每个bucket都移动到新的buckets中
  36. 36 for (int j = 0; j < oldCap; ++j) {
  37. 37 Node<K,V> e;
  38. 38 if ((e = oldTab[j]) != null) {
  39. 39 oldTab[j] = null;
  40. 40 if (e.next == null)
  41. 41 newTab[e.hash & (newCap - 1)] = e;
  42. 42 else if (e instanceof TreeNode)
  43. 43 ((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
  44. 44 else { // 链表优化重hash的代码块
  45. 45 Node<K,V> loHead = null, loTail = null;
  46. 46 Node<K,V> hiHead = null, hiTail = null;
  47. 47 Node<K,V> next;
  48. 48 do {
  49. 49 next = e.next;
  50. 50 // 原索引
  51. 51 if ((e.hash & oldCap) == 0) {
  52. 52 if (loTail == null)
  53. 53 loHead = e;
  54. 54 else
  55. 55 loTail.next = e;
  56. 56 loTail = e;
  57. 57 }
  58. 58 // 原索引+oldCap
  59. 59 else {
  60. 60 if (hiTail == null)
  61. 61 hiHead = e;
  62. 62 else
  63. 63 hiTail.next = e;
  64. 64 hiTail = e;
  65. 65 }
  66. 66 } while ((e = next) != null);
  67. 67 // 原索引放到bucket里
  68. 68 if (loTail != null) {
  69. 69 loTail.next = null;
  70. 70 newTab[j] = loHead;
  71. 71 }
  72. 72 // 原索引+oldCap放到bucket里
  73. 73 if (hiTail != null) {
  74. 74 hiTail.next = null;
  75. 75 newTab[j + oldCap] = hiHead;
  76. 76 }
  77. 77 }
  78. 78 }
  79. 79 }
  80. 80 }
  81. 81 return newTab;
  82. 82 }

在多线程使用场景中,应该尽量避免使用线程不安全的HashMap,而使用线程安全的ConcurrentHashMap。那么为什么说HashMap是线程不安全的,下面举例子说明在并发的多线程使用场景中使用HashMap可能造成死循环。代码例子如下(便于理解,仍然使用JDK1.7的环境):

  1. public class HashMapInfiniteLoop {
  2. private static HashMap<Integer,String> map = new HashMap<Integer,String>(20.75f);
  3. public static void main(String[] args) {
  4. map.put(5 "C");
  5. new Thread("Thread1") {
  6. public void run() {
  7. map.put(7, "B");
  8. System.out.println(map);
  9. };
  10. }.start();
  11. new Thread("Thread2") {
  12. public void run() {
  13. map.put(3, "A);
  14. System.out.println(map);
  15. };
  16. }.start();
  17. }
  18. }

其中,map初始化为一个长度为2的数组,loadFactor=0.75,threshold=2*0.75=1,也就是说当put第二个key的时候,map就需要进行resize。
通过设置断点让线程1和线程2同时debug到transfer方法(3.3小节代码块)的首行。注意此时两个线程已经成功添加数据。放开thread1的断点至transfer方法的“Entry next = e.next;” 这一行;然后放开线程2的的断点,让线程2进行resize。结果如下图。
HasMap优化 - 图9
注意,Thread1的 e 指向了key(3),而next指向了key(7),其在线程二rehash后,指向了线程二重组后的链表。
线程一被调度回来执行,先是执行 newTalbe[i] = e, 然后是e = next,导致了e指向了key(7),而下一次循环的next = e.next导致了next指向了key(3)。
HasMap优化 - 图10
HasMap优化 - 图11
e.next = newTable[i] 导致 key(3).next 指向了 key(7)。注意:此时的key(7).next 已经指向了key(3), 环形链表就这样出现了。

于是,当我们用线程一调用map.get(11)时,悲剧就出现了——Infinite Loop。
HashMap中,如果key经过hash算法得出的数组索引位置全部不相同,即Hash算法非常好,那样的话,getKey方法的时间复杂度就是O(1),如果Hash算法技术的结果碰撞非常多,假如Hash算极其差,所有的Hash算法结果得出的索引位置一样,那样所有的键值对都集中到一个桶中,或者在一个链表中,或者在一个红黑树中,时间复杂度分别为O(n)和O(lgn)。 鉴于JDK1.8做了多方面的优化,总体性能优于JDK1.7,下面我们从两个方面用例子证明这一点。

Hash较均匀的情况

为了便于测试,我们先写一个类Key,如下:

  1. class Key implements Comparable<Key> {
  2. private final int value;
  3. Key(int value) {
  4. this.value = value;
  5. }
  6. @Override
  7. public int compareTo(Key o) {
  8. return Integer.compare(this.value, o.value);
  9. }
  10. @Override
  11. public boolean equals(Object o) {
  12. if (this == o) return true;
  13. if (o == null || getClass() != o.getClass())
  14. return false;
  15. Key key = (Key) o;
  16. return value == key.value;
  17. }
  18. @Override
  19. public int hashCode() {
  20. return value;
  21. }
  22. }

这个类复写了equals方法,并且提供了相当好的hashCode函数,任何一个值的hashCode都不会相同,因为直接使用value当做hashcode。为了避免频繁的GC,我将不变的Key实例缓存了起来,而不是一遍一遍的创建它们。代码如下:

  1. public class Keys {
  2. public static final int MAX_KEY = 10_000_000;
  3. private static final Key[] KEYS_CACHE = new Key[MAX_KEY];
  4. static {
  5. for (int i = 0; i < MAX_KEY; ++i) {
  6. KEYS_CACHE[i] = new Key(i);
  7. }
  8. }
  9. public static Key of(int value) {
  10. return KEYS_CACHE[value];
  11. }
  12. }

现在开始我们的试验,测试需要做的仅仅是,创建不同size的HashMap(1、10、100、……10000000),屏蔽了扩容的情况,代码如下:

  1. static void test(int mapSize) {
  2. HashMap<Key, Integer> map = new HashMap<Key,Integer>(mapSize);
  3. for (int i = 0; i < mapSize; ++i) {
  4. map.put(Keys.of(i), i);
  5. }
  6. long beginTime = System.nanoTime(); //获取纳秒
  7. for (int i = 0; i < mapSize; i++) {
  8. map.get(Keys.of(i));
  9. }
  10. long endTime = System.nanoTime();
  11. System.out.println(endTime - beginTime);
  12. }
  13. public static void main(String[] args) {
  14. for(int i=10;i<= 1000 0000;i*= 10){
  15. test(i);
  16. }
  17. }

在测试中会查找不同的值,然后度量花费的时间,为了计算getKey的平均时间,我们遍历所有的get方法,计算总的时间,除以key的数量,计算一个平均值,主要用来比较,绝对值可能会受很多环境因素的影响。结果如下:
HasMap优化 - 图12
通过观测测试结果可知,JDK1.8的性能要高于JDK1.7 15%以上,在某些size的区域上,甚至高于100%。由于Hash算法较均匀,JDK1.8引入的红黑树效果不明显,下面我们看看Hash不均匀的的情况。

Hash极不均匀的情况

假设我们又一个非常差的Key,它们所有的实例都返回相同的hashCode值。这是使用HashMap最坏的情况。代码修改如下:

  1. class Key implements Comparable<Key> {
  2. //...
  3. @Override
  4. public int hashCode() {
  5. return 1;
  6. }
  7. }

仍然执行main方法,得出的结果如下表所示:
HasMap优化 - 图13
从表中结果中可知,随着size的变大,JDK1.7的花费时间是增长的趋势,而JDK1.8是明显的降低趋势,并且呈现对数增长稳定。当一个链表太长的时候,HashMap会动态的将它替换成一个红黑树,这话的话会将时间复杂度从O(n)降为O(logn)。hash算法均匀和不均匀所花费的时间明显也不相同,这两种情况的相对比较,可以说明一个好的hash算法的重要性。
测试环境:处理器为2.2 GHz Intel Core i7,内存为16 GB 1600 MHz DDR3,SSD硬盘,使用默认的JVM参数,运行在64位的OS X 10.10.1上。

  • (1) 扩容是一个特别耗性能的操作,所以当程序员在使用HashMap的时候,估算map的大小,初始化的时候给一个大致的数值,避免map进行频繁的扩容。
  • (2) 负载因子是可以修改的,也可以大于1,但是建议不要轻易修改,除非情况非常特殊。
  • (3) HashMap是线程不安全的,不要在并发的环境中同时操作HashMap,建议使用ConcurrentHashMap。
  • (4) JDK1.8引入红黑树大程度优化了HashMap的性能。
  • (5) 还没升级JDK1.8的,现在开始升级吧。HashMap的性能提升仅仅是JDK1.8的冰山一角。

红黑树

教你透彻了解红黑树

二叉查找树

由于红黑树本质上就是一棵二叉查找树,所以在了解红黑树之前,咱们先来看下二叉查找树。

二叉查找树(Binary Search Tree),也称有序二叉树(ordered binary tree),排序二叉树(sorted binary tree),是指一棵空树或者具有下列性质的二叉树:

  • 若任意结点的左子树不空,则左子树上所有结点的值均小于它的根结点的值;
  • 若任意结点的右子树不空,则右子树上所有结点的值均大于它的根结点的值;
  • 任意结点的左、右子树也分别为二叉查找树。
  • 没有键值相等的结点(no duplicate nodes)。

因为,一棵由n个结点,随机构造的二叉查找树的高度为lgn,所以顺理成章,一般操作的执行时间为O(lgn).(至于n个结点的二叉树高度为lgn的证明,可参考算法导论 第12章 二叉查找树 第12.4节)。

但二叉树若退化成了一棵具有n个结点的线性链后,则此些操作最坏情况运行时间为O(n)。后面我们会看到一种基于二叉查找树-红黑树,它通过一些性质使得树相对平衡,使得最终查找、插入、删除的时间复杂度最坏情况下依然为O(lgn)。

红黑树

前面我们已经说过,红黑树,本质上来说就是一棵二叉查找树,但它在二叉查找树的基础上增加了着色和相关的性质使得红黑树相对平衡,从而保证了红黑树的查找、插入、删除的时间复杂度最坏为O(log n)。

但它是如何保证一棵n个结点的红黑树的高度始终保持在h = logn的呢?这就引出了红黑树的5条性质:

  • 1)每个结点要么是红的,要么是黑的。
  • 2)根结点是黑的。
  • 3)每个叶结点(叶结点即指树尾端NIL指针或NULL结点)是黑的。
  • 4)如果一个结点是红的,那么它的俩个儿子都是黑的。
  • 5)对于任一结点而言,其到叶结点树尾端NIL指针的每一条路径都包含相同数目的黑结点。

正是红黑树的这5条性质,使得一棵n个结点是红黑树始终保持了logn的高度,从而也就解释了上面我们所说的“红黑树的查找、插入、删除的时间复杂度最坏为O(log n)”这一结论的原因。

如下图所示,即是一颗红黑树(下图引自wikipedia:http://t.cn/hgvH1l):

image.png

上文中我们所说的 “叶结点” 或”NULL结点”,它不包含数据而只充当树在此结束的指示,这些结点以及它们的父结点,在绘图中都会经常被省略。

树的旋转知识

当我们在对红黑树进行插入和删除等操作时,对树做了修改,那么可能会违背红黑树的性质。

为了继续保持红黑树的性质,我们可以通过对结点进行重新着色,以及对树进行相关的旋转操作,即修改树中某些结点的颜色及指针结构,来达到对红黑树进行插入或删除结点等操作后,继续保持它的性质或平衡。

树的旋转,分为左旋和右旋,以下借助图来做形象的解释和介绍:

1.左旋

image.png

如上图所示:

当在某个结点pivot上,做左旋操作时,我们假设它的右孩子y不是NIL[T],pivot可以为任何不是NIL[T]的左孩子结点。

左旋以pivot到y之间的链为“支轴”进行,它使y成为该孩子树新的根,而y的左孩子b则成为pivot的右孩子。

左旋操作的参考代码如下所示(以x代替上述的pivot):

  1. LEFT-ROTATE(T, x)
  2. 1 y right[x] Set y.
  3. 2 right[x] left[y] Turn y's left subtree into x's right subtree.
  4. 3 p[left[y]] x
  5. 4 p[y] p[x] Link x's parent to y.
  6. 5 if p[x] = nil[T]
  7. 6 then root[T] ← y
  8. 7 else if x = left[p[x]]
  9. 8 then left[p[x]] ← y
  10. 9 else right[p[x]] ← y
  11. 10 left[y] ← x ▹ Put x on y's left.
  12. 11 p[x] y

2.右旋

右旋与左旋差不多,再此不做详细介绍。

image.png

对于树的旋转,能保持不变的只有原树的搜索性质,而原树的红黑性质则不能保持,在红黑树的数据插入和删除后可利用旋转和颜色重涂来恢复树的红黑性质。

红黑树的插入

要真正理解红黑树的插入和删除,还得先理解二叉查找树的插入和删除。磨刀不误砍柴工,咱们再来分别了解下二叉查找树的插入和删除。

二叉查找树的插入

如果要在二叉查找树中插入一个结点,首先要查找到结点插入的位置,然后进行插入,假设插入的结点为z的话,插入的伪代码如下:

  1. TREE-INSERT(T, z)
  2. 1 y NIL
  3. 2 x root[T]
  4. 3 while x NIL
  5. 4 do y x
  6. 5 if key[z] < key[x]
  7. 6 then x left[x]
  8. 7 else x right[x]
  9. 8 p[z] y
  10. 9 if y = NIL
  11. 10 then root[T] z Tree T was empty
  12. 11 else if key[z] < key[y]
  13. 12 then left[y] z
  14. 13 else right[y] z

可以看到,上述第3-7行代码即是在二叉查找树中查找z待插入的位置,如果插入结点z小于当前遍历到的结点,则到当前结点的左子树中继续查找,如果z大于当前结点,则到当前结点的右子树中继续查找,第9-13行代码找到待插入的位置,如果z依然比此刻遍历到的新的当前结点小,则z作为当前结点的左孩子,否则作为当前结点的右孩子。

红黑树的插入和插入修复

现在我们了解了二叉查找树的插入,接下来,咱们便来具体了解红黑树的插入操作。红黑树的插入相当于在二叉查找树插入的基础上,为了重新恢复平衡,继续做了插入修复操作。

假设插入的结点为z,红黑树的插入伪代码具体如下所示:

  1. RB-INSERT(T, z)
  2. 1 y nil[T]
  3. 2 x root[T]
  4. 3 while x nil[T]
  5. 4 do y x
  6. 5 if key[z] < key[x]
  7. 6 then x left[x]
  8. 7 else x right[x]
  9. 8 p[z] y
  10. 9 if y = nil[T]
  11. 10 then root[T] z
  12. 11 else if key[z] < key[y]
  13. 12 then left[y] z
  14. 13 else right[y] z
  15. 14 left[z] nil[T]
  16. 15 right[z] nil[T]
  17. 16 color[z] RED
  18. 17 RB-INSERT-FIXUP(T, z)

我们把上面这段红黑树的插入代码,跟我们之前看到的二叉查找树的插入代码,可以看出,RB-INSERT(T, z)前面的第1-13行代码基本就是二叉查找树的插入代码,然后第14-16行代码把z的左孩子、右孩子都赋为叶结点nil,再把z结点着为红色,最后为保证红黑性质在插入操作后依然保持,调用一个辅助程序RB-INSERT-FIXUP来对结点进行重新着色,并旋转。

换言之

  • 如果插入的是根结点,因为原树是空树,此情况只会违反性质2,所以直接把此结点涂为黑色。
  • 如果插入的结点的父结点是黑色,由于此不会违反性质2和性质4,红黑树没有被破坏,所以此时也是什么也不做。

但当遇到下述3种情况时:

  • 插入修复情况1:如果当前结点的父结点是红色且祖父结点的另一个子结点(叔叔结点)是红色
  • 插入修复情况2:当前结点的父结点是红色,叔叔结点是黑色,当前结点是其父结点的右子
  • 插入修复情况3:当前结点的父结点是红色,叔叔结点是黑色,当前结点是其父结点的左子

又该如何调整呢?答案就是根据红黑树插入代码RB-INSERT(T, z)最后一行调用的RB-INSERT-FIXUP(T,z)所示操作进行,具体如下所示:

  1. RB-INSERT-FIXUPT,z
  2. 1 while color[p[z]] = RED
  3. 2 do if p[z] = left[p[p[z]]]
  4. 3 then y right[p[p[z]]]
  5. 4 if color[y] = RED
  6. 5 then color[p[z]] BLACK Case 1
  7. 6 color[y] BLACK Case 1
  8. 7 color[p[p[z]]] RED Case 1
  9. 8 z p[p[z]] Case 1
  10. 9 else if z = right[p[z]]
  11. 10 then z p[z] Case 2
  12. 11 LEFT-ROTATE(T, z) Case 2
  13. 12 color[p[z]] BLACK Case 3
  14. 13 color[p[p[z]]] RED Case 3
  15. 14 RIGHT-ROTATE(T, p[p[z]]) Case 3
  16. 15 else (same as then clause
  17. with "right" and "left" exchanged)
  18. 16 color[root[T]] BLACK

下面,咱们来分别处理上述3种插入修复情况。

插入修复情况1:当前结点的父结点是红色且祖父结点的另一个子结点(叔叔结点)是红色。

即如下代码所示:

  1. 1 while color[p[z]] = RED
  2. 2 do if p[z] = left[p[p[z]]]
  3. 3 then y right[p[p[z]]]
  4. 4 if color[y] = RED

此时父结点的父结点一定存在,否则插入前就已不是红黑树。
与此同时,又分为父结点是祖父结点的左子还是右子,对于对称性,我们只要解开一个方向就可以了。

在此,我们只考虑父结点为祖父左子的情况。
同时,还可以分为当前结点是其父结点的左子还是右子,但是处理方式是一样的。我们将此归为同一类。

对策:将当前结点的父结点和叔叔结点涂黑,祖父结点涂红,把当前结点指向祖父结点,从新的当前结点重新开始算法。即如下代码所示:

  1. 5 then color[p[z]] BLACK Case 1
  2. 6 color[y] BLACK Case 1
  3. 7 color[p[p[z]]] RED Case 1
  4. 8 z p[p[z]] Case 1

针对情况1,变化前(图片来源:saturnman)[当前结点为4结点]:

image.png

变化后:

image.png

插入修复情况2:当前结点的父结点是红色,叔叔结点是黑色,当前结点是其父结点的右子
对策:当前结点的父结点做为新的当前结点,以新当前结点为支点左旋。即如下代码所示:

  1. 9 else if z = right[p[z]]
  2. 10 then z p[z] Case 2
  3. 11 LEFT-ROTATE(T, z) Case 2

如下图所示,变化前[当前结点为7结点]:

image.png

变化后:

image.png

插入修复情况3:当前结点的父结点是红色,叔叔结点是黑色,当前结点是其父结点的左子
解法:父结点变为黑色,祖父结点变为红色,在祖父结点为支点右旋,操作代码为:

  1. 12 color[p[z]] BLACK Case 3
  2. 13 color[p[p[z]]] RED Case 3
  3. 14 RIGHT-ROTATE(T, p[p[z]]) Case 3

最后,把根结点涂为黑色,整棵红黑树便重新恢复了平衡。

如下图所示[当前结点为2结点]

image.png

变化后:

image.png

红黑树的删除

ok,接下来,咱们最后来了解,红黑树的删除操作。

“我们删除的结点的方法与常规二叉搜索树中删除结点的方法是一样的,如果被删除的结点不是有双非空子女,则直接删除这个结点,用它的唯一子结点顶替它的位置,如果它的子结点都是空结点,那就用空结点顶替它的位置,如果它的双子全为非空,我们就把它的直接后继结点内容复制到它的位置,之后以同样的方式删除它的后继结点,它的后继结点不可能是双子非空,因此此传递过程最多只进行一次。”

二叉查找树的删除

继续讲解之前,补充说明下二叉树结点删除的几种情况,待删除的结点按照儿子的个数可以分为三种:

  1. 没有儿子,即为叶结点。直接把父结点的对应儿子指针设为NULL,删除儿子结点就OK了。
  2. 只有一个儿子。那么把父结点的相应儿子指针指向儿子的独生子,删除儿子结点也OK了。
  3. 有两个儿子。这是最麻烦的情况,因为你删除结点之后,还要保证满足搜索二叉树的结构。其实也比较容易,我们可以选择左儿子中的最大元素或者右儿子中的最小元素放到待删除结点的位置,就可以保证结构的不变。当然,你要记得调整子树,毕竟又出现了结点删除。习惯上大家选择左儿子中的最大元素,其实选择右儿子的最小元素也一样,没有任何差别,只是人们习惯从左向右。这里咱们也选择左儿子的最大元素,将它放到待删结点的位置。左儿子的最大元素其实很好找,只要顺着左儿子不断的去搜索右子树就可以了,直到找到一个没有右子树的结点。那就是最大的了。

二叉查找树的删除代码如下所示:

  1. TREE-DELETE(T, z)
  2. 1 if left[z] = NIL or right[z] = NIL
  3. 2 then y z
  4. 3 else y TREE-SUCCESSOR(z)
  5. 4 if left[y] NIL
  6. 5 then x left[y]
  7. 6 else x right[y]
  8. 7 if x NIL
  9. 8 then p[x] p[y]
  10. 9 if p[y] = NIL
  11. 10 then root[T] x
  12. 11 else if y = left[p[y]]
  13. 12 then left[p[y]] x
  14. 13 else right[p[y]] x
  15. 14 if y z
  16. 15 then key[z] key[y]
  17. 16 copy y's satellite data into z
  18. 17 return y

红黑树的删除和删除修复

OK,回到红黑树上来,红黑树结点删除的算法实现是:

RB-DELETE(T, z) 单纯删除结点的总操作

  1. 1 if left[z] = nil[T] or right[z] = nil[T]
  2. 2 then y z
  3. 3 else y TREE-SUCCESSOR(z)
  4. 4 if left[y] nil[T]
  5. 5 then x left[y]
  6. 6 else x right[y]
  7. 7 p[x] p[y]
  8. 8 if p[y] = nil[T]
  9. 9 then root[T] x
  10. 10 else if y = left[p[y]]
  11. 11 then left[p[y]] x
  12. 12 else right[p[y]] x
  13. 13 if y z
  14. 14 then key[z] key[y]
  15. 15 copy y's satellite data into z
  16. 16 if color[y] = BLACK
  17. 17 then RB-DELETE-FIXUP(T, x)
  18. 18 return y

“在删除结点后,原红黑树的性质可能被改变,如果删除的是红色结点,那么原红黑树的性质依旧保持,此时不用做修正操作,如果删除的结点是黑色结点,原红黑树的性质可能会被改变,我们要对其做修正操作。那么哪些树的性质会发生变化呢,如果删除结点不是树唯一结点,那么删除结点的那一个支的到各叶结点的黑色结点数会发生变化,此时性质5被破坏。如果被删结点的唯一非空子结点是红色,而被删结点的父结点也是红色,那么性质4被破坏。如果被删结点是根结点,而它的唯一非空子结点是红色,则删除后新根结点将变成红色,违背性质2。”

RB-DELETE-FIXUP(T, x) 恢复与保持红黑性质的工作

  1. 1 while x root[T] and color[x] = BLACK
  2. 2 do if x = left[p[x]]
  3. 3 then w right[p[x]]
  4. 4 if color[w] = RED
  5. 5 then color[w] BLACK Case 1
  6. 6 color[p[x]] RED Case 1
  7. 7 LEFT-ROTATE(T, p[x]) Case 1
  8. 8 w right[p[x]] Case 1
  9. 9 if color[left[w]] = BLACK and color[right[w]] = BLACK
  10. 10 then color[w] RED Case 2
  11. 11 x p[x] Case 2
  12. 12 else if color[right[w]] = BLACK
  13. 13 then color[left[w]] BLACK Case 3
  14. 14 color[w] RED Case 3
  15. 15 RIGHT-ROTATE(T, w) Case 3
  16. 16 w right[p[x]] Case 3
  17. 17 color[w] color[p[x]] Case 4
  18. 18 color[p[x]] BLACK Case 4
  19. 19 color[right[w]] BLACK Case 4
  20. 20 LEFT-ROTATE(T, p[x]) Case 4
  21. 21 x root[T] Case 4
  22. 22 else (same as then clause with "right" and "left" exchanged)
  23. 23 color[x] BLACK

“上面的修复情况看起来有些复杂,下面我们用一个分析技巧:我们从被删结点后来顶替它的那个结点开始调整,并认为它有额外的一重黑色。这里额外一重黑色是什么意思呢,我们不是把红黑树的结点加上除红与黑的另一种颜色,这里只是一种假设,我们认为我们当前指向它,因此空有额外一种黑色,可以认为它的黑色是从它的父结点被删除后继承给它的,它现在可以容纳两种颜色,如果它原来是红色,那么现在是红+黑,如果原来是黑色,那么它现在的颜色是黑+黑。有了这重额外的黑色,原红黑树性质5就能保持不变。现在只要恢复其它性质就可以了,做法还是尽量向根移动和穷举所有可能性。”—saturnman。

如果是以下情况,恢复比较简单:

  • a)当前结点是红+黑色
    解法,直接把当前结点染成黑色,结束此时红黑树性质全部恢复。
  • b)当前结点是黑+黑且是根结点,
    解法:什么都不做,结束。

但如果是以下情况呢?:

  • 删除修复情况1:当前结点是黑+黑且兄弟结点为红色(此时父结点和兄弟结点的子结点分为黑)
  • 删除修复情况2:当前结点是黑加黑且兄弟是黑色且兄弟结点的两个子结点全为黑色
  • 删除修复情况3:当前结点颜色是黑+黑,兄弟结点是黑色,兄弟的左子是红色,右子是黑色
  • 删除修复情况4:当前结点颜色是黑-黑色,它的兄弟结点是黑色,但是兄弟结点的右子是红色,兄弟结点左子的颜色任意

此时,我们需要调用RB-DELETE-FIXUP(T, x),来恢复与保持红黑性质的工作。

下面,咱们便来分别处理这4种删除修复情况。

删除修复情况1:当前结点是黑+黑且兄弟结点为红色(此时父结点和兄弟结点的子结点分为黑)。

解法:把父结点染成红色,把兄弟结点染成黑色,之后重新进入算法(我们只讨论当前结点是其父结点左孩子时的情况)。此变换后原红黑树性质5不变,而把问题转化为兄弟结点为黑色的情况(注:变化前,原本就未违反性质5,只是为了把问题转化为兄弟结点为黑色的情况)。 即如下代码操作:

  1. //调用RB-DELETE-FIXUP(T, x) 的1-8行代码
  2. 1 while x root[T] and color[x] = BLACK
  3. 2 do if x = left[p[x]]
  4. 3 then w right[p[x]]
  5. 4 if color[w] = RED
  6. 5 then color[w] BLACK Case 1
  7. 6 color[p[x]] RED Case 1
  8. 7 LEFT-ROTATE(T, p[x]) Case 1
  9. 8 w right[p[x]] Case 1

变化前:

image.png

变化后:

image.png

删除修复情况2:当前结点是黑加黑且兄弟是黑色且兄弟结点的两个子结点全为黑色。

解法:把当前结点和兄弟结点中抽取一重黑色追加到父结点上,把父结点当成新的当前结点,重新进入算法。(此变换后性质5不变),即调用RB-INSERT-FIXUP(T, z) 的第9-10行代码操作,如下:

  1. //调用RB-DELETE-FIXUP(T, x) 的9-11行代码
  2. 9 if color[left[w]] = BLACK and color[right[w]] = BLACK
  3. 10 then color[w] RED Case 2
  4. 11 x p[x] Case 2

变化前:

image.png

变化后:

image.png

删除修复情况3:当前结点颜色是黑+黑,兄弟结点是黑色,兄弟的左子是红色,右子是黑色。

解法:把兄弟结点染红,兄弟左子结点染黑,之后再在兄弟结点为支点解右旋,之后重新进入算法。此是把当前的情况转化为情况4,而性质5得以保持,即调用RB-INSERT-FIXUP(T, z) 的第12-16行代码,如下所示:

  1. //调用RB-DELETE-FIXUP(T, x) 的第12-16行代码
  2. 12 else if color[right[w]] = BLACK
  3. 13 then color[left[w]] BLACK Case 3
  4. 14 color[w] RED Case 3
  5. 15 RIGHT-ROTATE(T, w) Case 3
  6. 16 w right[p[x]] Case 3

变化前:

image.png

变化后:

image.png

删除修复情况4:当前结点颜色是黑-黑色,它的兄弟结点是黑色,但是兄弟结点的右子是红色,兄弟结点左子的颜色任意。

解法:把兄弟结点染成当前结点父结点的颜色,把当前结点父结点染成黑色,兄弟结点右子染成黑色,之后以当前结点的父结点为支点进行左旋,此时算法结束,红黑树所有性质调整正确,即调用RB-INSERT-FIXUP(T, z)的第17-21行代码,如下所示:

  1. //调用RB-DELETE-FIXUP(T, x) 的第17-21行代码
  2. 17 color[w] color[p[x]] Case 4
  3. 18 color[p[x]] BLACK Case 4
  4. 19 color[right[w]] BLACK Case 4
  5. 20 LEFT-ROTATE(T, p[x]) Case 4
  6. 21 x root[T] Case 4

变化前:

image.png

变化后:

image.png

原文连接:https://github.com/julycoding/The-Art-Of-Programming-By-July/edit/master/ebook/zh/03.01.md
本文参考了算法导论、STL源码剖析、计算机程序设计艺术等资料,并推荐阅读这个PDF:Left-Leaning Red-Black Trees, Dagstuhl Workshop on Data Structures, Wadern, Germany, February, 2008.
下载地址:http://www.cs.princeton.edu/~rs/talks/LLRB/RedBlack.pdf