Java基础集合篇-HashMap
简介
Java为数据结构中的映射定义了一个接口java.util.Map,此接口主要有四个常用的实现类,分别是HashMap
、Hashtable
、LinkedHashMap
和TreeMap
,类继承关系如下图:
这四个类的特点有:
(1)HashMap
:它根据键的hashCode
值存储数据,大多数情况下可以直接定位到它的值,因而具有很快的访问速度,但遍历顺序
却是不确定的。 HashMap最多只允许一条
记录的键为null,允许多条记录的值为null。HashMap非线程安全
,即任一时刻可以有多个线程同时写HashMap,可能会导致数据的不一致。如果需要满足线程安全,可以用 Collections的synchronizedMap方法使HashMap具有线程安全的能力,或者使用ConcurrentHashMap。
(2)Hashtable
:Hashtable是遗留类,很多映射的常用功能与HashMap类似,不同的是它继承子Dictionary类,并且是线程安全的,任一时间只有一个线程
能写Hashtable,并发性不如ConcurrentHashMap,因为ConcurrentHashMap引入了分段锁
。Hashtable不建议在新代码中使用,不需要线程安全的场合可以用HashMap替换,需要线程安全的场合可以用ConcurrentHashMap替换
。
(3)LinkedHashMap
:LinkedHashMap是HashMap的一个子类,保存了记录的插入顺序,在用Iterator遍历LinkedHashMap时,先得到的记录肯定是先插入的,也可以在构造时带参数,按照访问次序排序。
(4)TreeMap
:TreeMap实现SortedMap接口,能够把它保存的记录根据键排序,默认是按照键值的升序排序,也可以指定排序的比较器,当用Iterator遍历TreeMap时,得到的记录时排过序的。如果使用排序的映射,建议使用TreeMap。在使用TreeMap时,key
必须实现Comparable接口
或者在构造TreeMap传入自定义的Comparator
,否则会在运行时抛出java.lang.ClassCastException类型的异常。
HashMap的源码阅读
1、HashMap数据底层存储的是什么?
从源码中可知,HashMap类中有一个Node[] table数组,这个数组用来存储key-value对。Node类实现了Map.Entry接口,Node[JDK1.8]的定义如下:
static class Node<K,V> implements Map.Entry<K,V> {
final int hash; //用来定位数组索引位置
final K key;
V value;
Node<K,V> next; //链表的下一个node
Node(int hash, K key, V value, Node<K,V> next) { ... }
public final K getKey(){ ... }
public final V getValue() { ... }
public final String toString() { ... }
public final int hashCode() { ... }
public final V setValue(V newValue) { ... }
public final boolean equals(Object o) { ... }
}
2、HashMap解决哈希冲突的方法?
HashMap采用了数组+链表。当发生Hash冲突时,将元素插入到对应位置的链表中。
3、如何获取key对应的存储下标?
例如程序执行map.put("美团","小美");
代码。首先调用"美团"这个key的hashCode()方法得到其hashCode值,然后通过hash算法,再调用indexFor方法获取key对应的存储位置。
Hash算法的结果越分散均匀,Hash碰撞的概率就越小,map的存取效率就越高。如果哈希桶数组很大,即使好的Hash算法也会出现较多碰撞,所以就需要再空间成本和时间成本之间权衡。通过什么方式来控制map使得Hash碰撞的概率又小,哈希桶数组占用空间又小呢?答案就是Hash算法
和扩容机制
。
4、HashMap中几个重要变量
int threshold; // 所能容纳的key-value对极限
final float loadFactor; // 负载因子
int modCount;
int size;
Threshold
Node[] table的初始化长度length(默认值是16),Load factor为负载因子(默认是0.75),threshold=length * Load factor,当数组中的元素个数超过threshold,就会扩容(resize),将容量扩大为原来的两倍。
Load factor的选择
负载因子默认为0.75,是对空间和时间效率的一个平衡选择,建议不要修改。除非在时间和空间比较特殊的情况下,如果内存空间很多而又对时间效率要求很高,可以降低负载因子Load factor的值;相反,如果内存空间紧张而对时间效率要求不高,可以增加负载因子Load factor的值,这个值可以大于1。
size
size就是HashMap中实际存在的键值对的数量。而modCount
字段主要用来记录HashMap内部结构
发生变化的次数,put时,某个key对应的value值被覆盖不属于结构变化。
5、HashMap中,为什么容量大小必须是2的次幂?
常规的设计是把桶的大小设计为素数。相对来说素数导致冲突的概率要小于合数,Hashtable初始化桶大小为11,就是桶大小设计为素数的应用(Hashtable扩容后不能保证还是素数)。
HashMap采用这种设计,主要是为了在取模和扩容时做优化,同时为了减少冲突。
6、链表转换成红黑树的条件
当链表中元素超过阈值(默认为8)且数组长度超过64时(数组长度不超过64优先进行扩容),会将链表转换成红黑树。
7、确定哈希桶数组的索引位置
方法一:
static final int hash(Object key) { //jdk1.8 & jdk1.7
int h;
// h = key.hashCode() 为第一步 取hashCode值
// h ^ (h >>> 16) 为第二步 高位参与运算
return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
}
方法二:
static int indexFor(int h, int length) { //jdk1.7的源码,jdk1.8没有这个方法,但是实现原理一样的
return h & (length-1); //第三步 取模运算
}
这里的Hash算法本质上就是三步:取key的hashCode值、高位运算、取模运算。
对于任意给定的对象,只要它的hashCode()返回值相同,那么程序调用方法一所计算得到的Hash码值总是相同的。我们首先想到的就是把hash值对数组长度取模运算
,这样一来,元素的分布相对来说是比较均匀
的。但是,模运算的消耗还是比较大的,在HashMap中是这样做的:调用方法二来计算该对象应该保存在table数组的哪个索引处。
**当数组的大小是2的次幂时,取模和&(length-1)这两个操作等价,而与操作效率更高。**这个方法非常巧妙,它通过h & (table.length -1)来得到该对象的保存位,而HashMap底层数组的长度总是2的n次方,这是HashMap在速度上的优化。当length总是2的n次方时,h& (length-1)运算等价于对length取模,也就是h%length,但是&比%具有更高的效率。
hash算法是将key的hashCode()的高16位异或低16位实现的,这样做的目的是为了在数组的长度较小时,保证高低Bit都能参与到hash的计算中,减少hash冲突。。在JDK1.8的实现中,优化了高位运算的算法,通过hashCode()的高16位异或低16位实现的:(h = k.hashCode()) ^ (h >>> 16),主要是从速度、功效、质量来考虑的,这么做可以在数组table的length比较小的时候,也能保证考虑到高低Bit都参与到Hash的计算中,同时不会有太大的开销。
8、HashMap的put方法
①.判断键值对数组table[i]是否为空或为null,否则执行resize()进行扩容; ②.根据键值key计算hash值得到插入的数组索引i,如果table[i]==null,直接新建节点添加,转向⑥,如果table[i]不为空,转向③; ③.判断table[i]的首个元素是否和key一样,如果相同直接覆盖value,否则转向④,这里的相同指的是hashCode以及equals; ④.判断table[i] 是否为treeNode,即table[i] 是否是红黑树,如果是红黑树,则直接在树中插入键值对,否则转向⑤; ⑤.遍历table[i],判断链表长度是否大于8,大于8的话把链表转换为红黑树,在红黑树中执行插入操作,否则进行链表的插入操作;遍历过程中若发现key已经存在直接覆盖value即可; ⑥.插入成功后,判断实际存在的键值对数量size是否超多了最大容量threshold,如果超过,进行扩容。
1 public V put(K key, V value) {
2 // 对key的hashCode()做hash
3 return putVal(hash(key), key, value, false, true);
4 }
5
6 final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
7 boolean evict) {
8 Node<K,V>[] tab; Node<K,V> p; int n, i;
9 // 步骤①:tab为空则创建
10 if ((tab = table) == null || (n = tab.length) == 0)
11 n = (tab = resize()).length;
12 // 步骤②:计算index,并对null做处理
13 if ((p = tab[i = (n - 1) & hash]) == null)
14 tab[i] = newNode(hash, key, value, null);
15 else {
16 Node<K,V> e; K k;
17 // 步骤③:节点key存在,直接覆盖value
18 if (p.hash == hash &&
19 ((k = p.key) == key || (key != null && key.equals(k))))
20 e = p;
21 // 步骤④:判断该链为红黑树
22 else if (p instanceof TreeNode)
23 e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
24 // 步骤⑤:该链为链表
25 else {
26 for (int binCount = 0; ; ++binCount) {
27 if ((e = p.next) == null) {
28 p.next = newNode(hash, key,value,null);
//链表长度大于8转换为红黑树进行处理
29 if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
30 treeifyBin(tab, hash);
31 break;
32 }
// key已经存在直接覆盖value
33 if (e.hash == hash &&
34 ((k = e.key) == key || (key != null && key.equals(k))))
35 break;
36 p = e;
37 }
38 }
39
40 if (e != null) { // existing mapping for key
41 V oldValue = e.value;
42 if (!onlyIfAbsent || oldValue == null)
43 e.value = value;
44 afterNodeAccess(e);
45 return oldValue;
46 }
47 }
48 ++modCount;
49 // 步骤⑥:超过最大容量 就扩容
50 if (++size > threshold)
51 resize();
52 afterNodeInsertion(evict);
53 return null;
54 }
9、扩容机制
扩容(resize)就是定义一个更大的数组,然后将原数组中的元素rehash,得到在新数组中的位置,并插入到新数组中。以下是JDK1.7的代码,1.8融入红黑树较为复杂。
1 void resize(int newCapacity) { //传入新的容量
2 Entry[] oldTable = table; //引用扩容前的Entry数组
3 int oldCapacity = oldTable.length;
4 if (oldCapacity == MAXIMUM_CAPACITY) { //扩容前的数组大小如果已经达到最大(2^30)了
5 threshold = Integer.MAX_VALUE; //修改阈值为int的最大值(2^31-1),这样以后就不会扩容了
6 return;
7 }
8
9 Entry[] newTable = new Entry[newCapacity]; //初始化一个新的Entry数组
10 transfer(newTable); //!!将数据转移到新的Entry数组里
11 table = newTable; //HashMap的table属性引用新的Entry数组
12 threshold = (int)(newCapacity * loadFactor);//修改阈值
13 }
transfer的作用是将原数组中的Entry拷贝到新数组中。这里使用头插法,transfer后,链表的顺序会反过来,先放入的元素会最终会被放到链表末尾,这一点与JDK1.8不同
。在旧数组中同一条Entry链上的元素,通过重新计算索引位置后,有可能被放到了新数组的不同位置上。
1 void transfer(Entry[] newTable) {
2 Entry[] src = table; //src引用了旧的Entry数组
3 int newCapacity = newTable.length;
4 for (int j = 0; j < src.length; j++) { //遍历旧的Entry数组
5 Entry<K,V> e = src[j]; //取得旧Entry数组的每个元素
6 if (e != null) {
7 src[j] = null;//释放旧Entry数组的对象引用(for循环后,旧的Entry数组不再引用任何对象)
8 do {
9 Entry<K,V> next = e.next;
10 int i = indexFor(e.hash, newCapacity); //!!重新计算每个元素在数组中的位置
11 e.next = newTable[i]; //标记[1]
12 newTable[i] = e; //将元素放在数组上
13 e = next; //访问下一个Entry链上的元素
14 } while (e != null);
15 }
16 }
17 }
JDK1.8的优化
经过观测可以发现,我们使用的是2次幂的扩展(指长度扩为原来2倍),所以,元素的位置要么是在原位置,要么是在原位置再移动2次幂的位置。
元素在重新计算hash之后,因为n变为2倍,那么n-1的mask范围在高位多1bit(红色),因此新的index就会发生这样的变化:
因此,在扩容重新计算hash的时候。只需要看hash值新增的bit是1还是0,是0的话索引不变,是1的话索引变成原索引+oldCap
。这个设计省去了重新计算索引的时间。而且同时,由于新增的1bit是0还是1可以认为是随机的,因此resize的过程,均匀的把之前的冲突的节点分散到新的bucket了。这一块就是JDK1.8新增的优化点。有一点注意区别,JDK1.7中rehash的时候,旧链表迁移新链表的时候,如果在新表的数组索引位置相同,则链表元素会倒置,但是从上图可以看出,JDK1.8不会倒置。