本文最后更新于 187 天前,其中的信息可能已经有所发展或是发生改变。
HashMap 类
基础概念
定义
Hash 表也称为散列表,也有直接译作哈希表,Hash表是一种根据关键字值(key - value)而直接进行访问的数据结构。
哈希表,它是通过把关键码值映射到表中一个位置来访问记录,以加快查找的速度。这个映射函数叫做散列函数,存放记录的数组叫做散列表,只需要 O(1) 的时间级
HashMap的实现不是同步的,这意味着它不是线程安全的。它的key、value都可以为null,但 HashMap 中的映射不是有序的。
注意:
- 散列函数可能存在冲突,解决冲突有两种方法
- 开放寻址法:从冲突的位置开始,向后查找第一个可以插入的位置
- 拉链法:在冲突的位置后面追加节点使之成为链表
由于开放寻址法可能造成二次冲突,因此大多情况下采用拉链法解决
版本对比
JDK1.8 前 HashMap 的数据结构
- JDK 8 以前 HashMap 的实现是 数组+链表,即使哈希函数取得再好,也很难达到元素百分百均匀分布。
- 当 HashMap 中有大量的元素都存放到同一个桶中时,这个桶下有一条长长的链表,极端情况HashMap 就相当于一个单链表,假如单链表有 n 个元素,遍历的时间复杂度就是 O(n),完全失去了它的优势。
JDK1.8 后 HashMap 的数据结构
- JDK 8 后 HashMap 的实现是 数组+链表+红黑树
- 桶中的结构可能是链表,也可能是红黑树,当链表长度大于阈值(或者红黑树的边界值,默认为8)并且当前数组的长度大于64时,此时此索引位置上的所有数据改为使用红黑树存储。
类构造器
| public class HashMap<K,V> extends AbstractMap<K,V> |
| implements Map<K,V>, Cloneable, Serializable { |
JDK 为我们提供了一个抽象类 AbstractMap ,该抽象类继承 Map 接口,所以如果我们不想实现所有的 Map 接口方法,就可以选择继承抽象类 AbstractMap 。
HashMap 集合实现了 Cloneable 接口以及 Serializable 接口,分别用来进行对象克隆以及将对象进行序列化。
注意:HashMap 类即继承了 AbstractMap 接口,也实现了 Map 接口,这样做难道不是多此一举?
据 java 集合框架的创始人 Josh Bloch 描述,这样的写法是一个失误。在java集合框架中,类似这样的写法很多,最开始写java集合框架的时候,他认为这样写,在某些地方可能是有价值的,直到他意识到错了。显然的,JDK 的维护者,后来不认为这个小小的失误值得去修改,所以就这样存在下来了。
字段属性
| |
| private static final long serialVersionUID = 362498820763181265L; |
| |
| static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; |
| |
| static final int MAXIMUM_CAPACITY = 1 << 30; |
| |
| static final float DEFAULT_LOAD_FACTOR = 0.75f; |
| |
| static final int TREEIFY_THRESHOLD = 8; |
| |
| static final int UNTREEIFY_THRESHOLD = 6; |
| |
| |
| |
| |
| static final int MIN_TREEIFY_CAPACITY = 64; |
| |
| |
| |
| |
| transient Node<K,V>[] table; |
| |
| |
| |
| |
| transient Set<Map.Entry<K,V>> entrySet; |
| |
| |
| |
| |
| transient int size; |
| |
| |
| |
| |
| |
| transient int modCount; |
| |
| |
| |
| |
| int threshold; |
| |
| |
| |
| |
| final float loadFactor; |
下面我们重点介绍上面几个字段:
Node<K,V>[] table
:
- 我们说 HashMap 是由数组 + 链表 + 红黑树组成,这里的数组就是 table 字段
- 初始化长度默认是 DEFAULT_INITIAL_CAPACITY= 16,且 JDK 声明数组的长度总是 2的 n 次方(一定是合数)
size
:
loadFactor
:
- 装载因子,是用来衡量 HashMap 满的程度
- 计算HashMap的实时装载因子的方法为:size/capacity,而不是占用桶的数量去除以capacity
- capacity 是桶的数量,也就是 table 的长度length
- 默认的负载因子0.75 是对空间和时间效率的一个平衡选择,建议不要修改,除非在时间和空间比较特殊的情况下,如果内存空间很多而又对时间效率要求很高,可以降低负载因子loadFactor 的值;相反,如果内存空间紧张而对时间效率要求不高,可以增加负载因子 loadFactor 的值,这个值可以大于1
threshold
:
- 计算公式:capacity * loadFactor
- 这个值是当前已占用数组长度的最大值。过这个数目就重新resize(扩容),扩容后的 HashMap 容量是之前容量的两倍
构造函数
默认无参构造函数
| |
| |
| |
| public HashMap() { |
| this.loadFactor = DEFAULT_LOAD_FACTOR; |
| } |
指定初始容量的构造函数
| |
| |
| |
| |
| |
| public HashMap(int initialCapacity, float loadFactor) { |
| |
| if (initialCapacity < 0) |
| throw new IllegalArgumentException("Illegal initial capacity: " + |
| initialCapacity); |
| |
| if (initialCapacity > MAXIMUM_CAPACITY) |
| initialCapacity = MAXIMUM_CAPACITY; |
| |
| if (loadFactor <= 0 || Float.isNaN(loadFactor)) |
| throw new IllegalArgumentException("Illegal load factor: " + |
| loadFactor); |
| this.loadFactor = loadFactor; |
| this.threshold = tableSizeFor(initialCapacity); |
| } |
| |
| |
| |
| static final int tableSizeFor(int cap) { |
| int n = cap - 1; |
| n |= n >>> 1; |
| n |= n >>> 2; |
| n |= n >>> 4; |
| n |= n >>> 8; |
| n |= n >>> 16; |
| return (n < 0) ? 1 : (n >= MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1; |
| } |
确定哈希桶数组索引位置
前面我们讲解哈希表的时候,我们知道是用散列函数来确定索引的位置。
散列函数设计的越好,使得元素分布的越均匀。
HashMap 是数组+链表+红黑树的组合,我们希望在有限个数组位置时,尽量每个位置的元素只有一个,那么当我们用散列函数求得索引位置的时候,我们能马上知道对应位置的元素是不是我们想要的,而不是要进行链表的遍历或者红黑树的遍历,这会大大优化我们的查询效率。
我们看 HashMap 中的哈希算法:
| static final int hash(Object key) { |
| int h; |
| return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16); |
| } |
| |
| i = (table.length - 1) & hash; |
主要分为三步:
- 取 hashCode 值: key.hashCode()
- 高位参与运算:h>>>16
- 取模运算:(n-1) & hash
这里获取 hashCode() 方法的值是变量,但是我们知道,对于任意给定的对象,只要它的 hashCode() 返回值相同,那么程序调用 hash(Object key) 所计算得到的 hash码 值总是相同的。
为了让数组元素分布均匀,我们首先想到的是把获得的 hash码对数组长度取模运算( hash % length),但是计算机都是二进制进行操作,取模运算相对开销还是很大的,那该如何优化呢?
HashMap 使用的方法很巧妙,它通过 hash & (table.length -1) 来得到该对象的保存位,前面说过 HashMap 底层数组的长度总是 2 的 n 次方,这是HashMap在速度上的优化:
- 当 length 总是 2 的 n 次方时,hash & (length-1) 运算等价于对 length 取模,也就是 hash % length
- 但是 & 比 % 具有更高的效率,比如 n % 32 = n & (32 -1)
在 JDK 1.8 中还有另一个优化点,高位参与运算,hashCode() 得到的是一个32位 int 类型的值,是通过hashCode()的高16位 异或 低16位实现的:
- (h = k.hashCode()) ^ (h >>> 16),主要是从速度、功效、质量来考虑的
- 这么做可以在数组table的length比较小的时候,也能保证考虑到高低Bit都参与到Hash的计算中,同时不会有太大的开销
最后一点:
- 当 length 为 2 的 n 次方时,参与计算时 length - 1 的最低一位是 0
- 因此,hashcode 和 length - 1 做 & 运算时,最后一位的结果永远为 0
- 这就导致永远缺少 1 位参与散列运算,导致散列函数只能映射到数组一半的空间
这也解释了为什么要保证数组的长度必须要求是 2 的 n 次方
添加元素
| |
| public V put(K key, V value) { |
| return putVal(hash(key), key, value, false, true); |
| } |
| |
| |
| |
| |
| |
| |
| |
| |
| |
| |
| final V putVal(int hash, K key, V value, boolean onlyIfAbsent, |
| boolean evict) { |
| Node<K,V>[] tab; Node<K,V> p; int n, i; |
| |
| |
| if ((tab = table) == null || (n = tab.length) == 0) |
| n = (tab = resize()).length; |
| |
| if ((p = tab[i = (n - 1) & hash]) == null) |
| tab[i] = newNode(hash, key, value, null); |
| else { |
| Node<K,V> e; K k; |
| if (p.hash == hash && |
| ((k = p.key) == key || (key != null && key.equals(k)))) |
| e = p; |
| |
| else if (p instanceof TreeNode) |
| e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value); |
| |
| else { |
| for (int binCount = 0; ; ++binCount) { |
| if ((e = p.next) == null) { |
| p.next = newNode(hash, key, value, null); |
| |
| if (binCount >= TREEIFY_THRESHOLD - 1) |
| treeifyBin(tab, hash); |
| break; |
| } |
| |
| if (e.hash == hash && |
| ((k = e.key) == key || (key != null && key.equals(k)))) |
| break; |
| p = e; |
| } |
| } |
| if (e != null) { |
| V oldValue = e.value; |
| if (!onlyIfAbsent || oldValue == null) |
| e.value = value; |
| afterNodeAccess(e); |
| return oldValue; |
| } |
| } |
| ++modCount; |
| if (++size > threshold) |
| resize(); |
| afterNodeInsertion(evict); |
| return null; |
| } |
①、判断键值对数组 table 是否为空或为null,否则执行resize()进行扩容;
②、根据键值key计算hash值得到插入的数组索引i,如果table[i]==null,直接新建节点添加,转向⑥,如果table[i]不为空,转向③;
③、判断table[i]的首个元素是否和key一样,如果相同直接覆盖value,否则转向④,这里的相同指的是hashCode以及equals;
④、判断table[i] 是否为treeNode,即table[i] 是否是红黑树,如果是红黑树,则直接在树中插入键值对,否则转向⑤;
⑤、遍历table[i],判断链表长度是否大于8,大于8的话把链表转换为红黑树,在红黑树中执行插入操作,否则进行链表的插入操作;遍历过程中若发现key已经存在直接覆盖value即可;
⑥、插入成功后,判断实际存在的键值对数量size是否超过了最大容量threshold,如果超过,进行扩容。
⑦、如果新插入的key不存在,则返回null,如果新插入的key存在,则返回原key对应的value值(注意新插入的value会覆盖原value值)
注意:
| if (++size > threshold) |
| resize(); |
如果在添加元素时,发生冲突,会将冲突的数放在链表上,当链表长度超过 8 时,会自动转换成红黑树
扩容机制
扩容(resize),我们知道集合是由数组+链表+红黑树构成,向 HashMap 中插入元素时,如果HashMap 集合的元素已经大于了最大承载容量threshold(capacity * loadFactor),这里的threshold不是数组的最大长度。那么必须扩大数组的长度,Java中数组是无法自动扩容的,我们采用的方法是用一个更大的数组代替这个小的数组,然后将小数组里面的元素向大数组转移。
JDK1.8融入了红黑树的机制,比较复杂,这里我们先介绍 JDK1.7的扩容源码,便于理解,然后在介绍JDK1.8的源码。
| |
| void resize(int newCapacity) { |
| Entry[] oldTable = table; |
| int oldCapacity = oldTable.length; |
| if (oldCapacity == MAXIMUM_CAPACITY) { |
| threshold = Integer.MAX_VALUE; |
| return; |
| } |
| |
| Entry[] newTable = new Entry[newCapacity]; |
| transfer(newTable, initHashSeedAsNeeded(newCapacity)); |
| table = newTable; |
| threshold = (int)Math.min(newCapacity * loadFactor, MAXIMUM_CAPACITY + 1); |
| } |
| |
| void transfer(Entry[] newTable, boolean rehash) { |
| int newCapacity = newTable.length; |
| for (Entry<K,V> e : table) { |
| while(null != e) { |
| Entry<K,V> next = e.next; |
| if (rehash) { |
| e.hash = null == e.key ? 0 : hash(e.key); |
| } |
| int i = indexFor(e.hash, newCapacity); |
| e.next = newTable[i]; |
| newTable[i] = e; |
| e = next; |
| } |
| } |
| } |
通过方法我们可以看到,JDK1.7中首先是创建一个新的大容量数组,然后依次重新计算原集合所有元素的索引,然后重新赋值。如果数组某个位置发生了hash冲突,使用的是单链表的头插入方法,同一位置的新元素总是放在链表的头部,这样与原集合链表对比,扩容之后的可能就是倒序的链表了。
下面我们在看看JDK1.8的:
| final Node<K,V>[] resize() { |
| Node<K,V>[] oldTab = table; |
| int oldCap = (oldTab == null) ? 0 : oldTab.length; |
| int oldThr = threshold; |
| int newCap, newThr = 0; |
| if (oldCap > 0) { |
| if (oldCap >= MAXIMUM_CAPACITY) { |
| threshold = Integer.MAX_VALUE; |
| return oldTab; |
| } |
| |
| else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY && |
| oldCap >= DEFAULT_INITIAL_CAPACITY) |
| newThr = oldThr << 1; |
| } |
| else if (oldThr > 0) |
| newCap = oldThr; |
| else { |
| newCap = DEFAULT_INITIAL_CAPACITY; |
| newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY); |
| } |
| |
| if (newThr == 0) { |
| float ft = (float)newCap * loadFactor; |
| newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ? |
| (int)ft : Integer.MAX_VALUE); |
| } |
| threshold = newThr; |
| @SuppressWarnings({"rawtypes","unchecked"}) |
| Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap]; |
| table = newTab; |
| if (oldTab != null) { |
| |
| for (int j = 0; j < oldCap; ++j) { |
| Node<K,V> e; |
| if ((e = oldTab[j]) != null) { |
| oldTab[j] = null; |
| if (e.next == null) |
| newTab[e.hash & (newCap - 1)] = e; |
| else if (e instanceof TreeNode) |
| ((TreeNode<K,V>)e).split(this, newTab, j, oldCap); |
| else { |
| Node<K,V> loHead = null, loTail = null; |
| Node<K,V> hiHead = null, hiTail = null; |
| Node<K,V> next; |
| do { |
| next = e.next; |
| |
| if ((e.hash & oldCap) == 0) { |
| if (loTail == null) |
| loHead = e; |
| else |
| loTail.next = e; |
| loTail = e; |
| } |
| |
| else { |
| if (hiTail == null) |
| hiHead = e; |
| else |
| hiTail.next = e; |
| hiTail = e; |
| } |
| } while ((e = next) != null); |
| |
| if (loTail != null) { |
| loTail.next = null; |
| newTab[j] = loHead; |
| } |
| |
| if (hiTail != null) { |
| hiTail.next = null; |
| newTab[j + oldCap] = hiHead; |
| } |
| } |
| } |
| } |
| } |
| return newTab; |
| } |
该方法分为两部分,首先是计算新桶数组的容量 newCap 和新阈值 newThr,然后将原集合的元素重新映射到新集合中。
相比于JDK1.7,1.8使用的是2次幂的扩展(指长度扩为原来2倍),所以,元素的位置要么是在原位置,要么是在原位置再移动 2 次幂的位置。
我们在扩充 HashMap 的时候,不需要像 JDK1.7 的实现那样重新计算 hash,只需要看看原来的 hash 值新增的那个 bit 是 1 还是 0 就好了,是 0 的话索引没变,是 1 的话索引变成“原索引+oldCap”。
删除元素
HashMap 删除元素首先是要找到 桶的位置,之后进行判断:
- 如果是链表,则进行链表遍历,找到需要删除的元素后,进行删除
- 如果是红黑树,也是进行树的遍历,找到元素删除后,进行平衡调节,注意,当红黑树的节点数小于 6 时,会转化成链表
| public V get(Object key) { |
| Node<K,V> e; |
| return (e = getNode(hash(key), key)) == null ? null : e.value; |
| } |
| |
| final Node<K,V> getNode(int hash, Object key) { |
| Node<K,V>[] tab; Node<K,V> first, e; int n; K k; |
| if ((tab = table) != null && (n = tab.length) > 0 && |
| (first = tab[(n - 1) & hash]) != null) { |
| |
| if (first.hash == hash && |
| ((k = first.key) == key || (key != null && key.equals(k)))) |
| return first; |
| |
| if ((e = first.next) != null) { |
| if (first instanceof TreeNode) |
| return ((TreeNode<K,V>)first).getTreeNode(hash, key); |
| do { |
| |
| if (e.hash == hash && |
| ((k = e.key) == key || (key != null && key.equals(k)))) |
| return e; |
| } while ((e = e.next) != null); |
| } |
| } |
| return null; |
| } |
查找元素
通过 key 查找 value:
- 首先通过 key 找到计算索引,找到桶位置
- 先检查第一个节点,如果是则返回
- 如果不是,则遍历其后面的链表或者红黑树
- 其余情况全部返回 null
| public V get(Object key) { |
| Node<K,V> e; |
| return (e = getNode(hash(key), key)) == null ? null : e.value; |
| } |
| |
| final Node<K,V> getNode(int hash, Object key) { |
| Node<K,V>[] tab; Node<K,V> first, e; int n; K k; |
| if ((tab = table) != null && (n = tab.length) > 0 && |
| (first = tab[(n - 1) & hash]) != null) { |
| |
| if (first.hash == hash && |
| ((k = first.key) == key || (key != null && key.equals(k)))) |
| return first; |
| |
| if ((e = first.next) != null) { |
| if (first instanceof TreeNode) |
| return ((TreeNode<K,V>)first).getTreeNode(hash, key); |
| do { |
| |
| if (e.hash == hash && |
| ((k = e.key) == key || (key != null && key.equals(k)))) |
| return e; |
| } while ((e = e.next) != null); |
| } |
| } |
| return null; |
| } |