HashMap 面试必问总结


原文地址 www.cnblogs.com

1.HashMap 的数据结构?

哈希表结构(链表散列:数组 + 链表)实现,结合数组和链表的优点。当链表长度超过 8 时,链表转换为红黑树。

2.HashMap 的工作原理?

HashMap 底层是 hash 数组和单向链表实现,数组中的每个元素都是链表,由 Node 内部类(实现 Map.Entry<K,V> 接口)实现,HashMap 通过 put & get 方法存储和获取。

put
  1. 调用 hash(K) 方法计算 K 的 hash 值,然后结合数组长度,计算得数组下标;

  2. 调整数组大小(当容器中的元素个数大于 capacity * loadfactor 时,容器会进行扩容 resize 为 2n);

  3. 如果 K 的 hash 值在 HashMap 中

    • 不存在,则执行插入,若存在,则发生碰撞;

    • 存在

      • 且它们两者 equals 返回 true,则更新键值对;
      • 且它们两者 equals 返回 false,则插入链表的尾部(尾插法)或者红黑树中。

注意:

  • JDK 1.7 之前使用头插法、JDK 1.8 使用尾插法
  • 当碰撞导致链表大于 TREEIFY_THRESHOLD = 8 时,就把链表转换成红黑树。链表长度低于 6,就把红黑树转回链表
get
  1. 调用 hash(K) 方法(计算 K 的 hash 值)从而获取该键值所在链表的数组下标;
  2. 顺序遍历链表,equals() 方法查找相同 Node 链表中 K 值对应的 V 值。

hashCode 是定位的,找到存储位置;equals 是定性的,比较两者是否相等。

3. 当两个对象的 hashCode 相同会发生什么?

hashCode 相同,不一定就是相等的(equals 方法比较),如果两个对象所在数组的下标相同,”碰撞” 就此发生。又因为 HashMap 使用链表存储对象,这个 Node 会存储到链表中。

4. 你知道 hash 的实现吗?为什么要这样实现?

JDK 1.8 中,是通过 hashCode() 的高 16 位异或低 16 位实现的:(h = k.hashCode()) ^ (h >>> 16),主要是从速度,功效和质量来考虑的,减少系统的开销,也不会造成因为高位没有参与下标的计算,从而引起的碰撞。

5. 为什么要用异或运算符?

保证了对象的 hashCode 的 32 位值只要有一位发生改变,整个 hash() 返回值就会改变。尽可能的减少碰撞。

6. HashMap 的 table 的容量如何确定?loadFactor 是什么? 该容量如何变化?这种变化会带来什么问题?

  1. table 数组大小是由capacity这个参数确定的,默认是 16,也可以构造时传入,最大限制是 1<<30;
  2. loadFactor 是装载因子,主要目的是用来确认 table 数组是否需要动态扩展,默认值是 0.75,比如 table 数组大小为 16,装载因子为 0.75 时,threshold 就是 12,当 table 的实际大小超过 12 时,table 就需要动态扩容;
  3. 扩容时,调用 resize() 方法,将 table 长度变为原来的两倍(注意是 table 长度,而不是 threshold)
  4. 如果数据很大的情况下,扩展时将会带来性能的损失,在性能要求很高的地方,这种损失很可能很致命。

7.HashMap 中 put 方法的过程?

调用哈希函数获取 Key 对应的 hash 值,再计算其数组下标;

  • 如果没有出现哈希冲突,则直接放入数组;如果出现哈希冲突,则以链表的方式放在链表后面;
  • 如果链表长度超过阀值 (TREEIFY THRESHOLD==8),就把链表转成红黑树,链表长度低于 6,就把红黑树转回链表;
  • 如果结点的 key 已经存在,则替换其 value 即可;
  • 如果集合中的键值对大于 12,调用 resize 方法进行数组扩容。”

8. 数组扩容的过程?

创建一个新的数组,其容量为旧数组的两倍,并重新计算旧数组中结点的存储位置。结点在新数组中的位置只有两种,原下标位置或原下标 + 旧数组的大小。

9. 拉链法导致的链表过深问题为什么不用二叉查找树代替,而选择红黑树?为什么不一直使用红黑树?

之所以选择红黑树是为了解决二叉查找树的缺陷,二叉查找树在特殊情况下会变成一条线性结构(这就跟原来使用链表结构一样了,造成很深的问题),遍历查找会非常慢。而红黑树在插入新数据后可能需要通过左旋,右旋、变色这些操作来保持平衡,引入红黑树就是为了查找数据快,解决链表查询深度的问题,我们知道红黑树属于平衡二叉树,但是为了保持 “平衡” 是需要付出代价的,但是该代价所损耗的资源要比遍历线性链表要少,所以当长度大于 8 的时候,会使用红黑树,如果链表长度很短的话,根本不需要引入红黑树,引入反而会慢。

10. 说说你对红黑树的见解?

  • 每个节点非红即黑
  • 根节点总是黑色的
  • 如果节点是红色的,则它的子节点必须是黑色的(反之不一定)
  • 每个叶子节点都是黑色的空节点(NIL 节点)
  • 从根节点到叶节点或空子节点的每条路径,必须包含相同数目的黑色节点(即相同的黑色高度)

11.jdk8 中对 HashMap 做了哪些改变?

  • 在 java 1.8 中,如果链表的长度超过了 8,那么链表将转换为红黑树。(桶的数量必须大于 64,小于 64 的时候只会扩容)
  • 发生 hash 碰撞时,java 1.7 会在链表的头部插入,而 java 1.8 会在链表的尾部插入
  • 在 java 1.8 中,Entry 被 Node 替代 (换了一个马甲)。

12.HashMap,LinkedHashMap,TreeMap 有什么区别?

  • LinkedHashMap 保存了记录的插入顺序,在用 Iterator 遍历时,先取到的记录肯定是先插入的;遍历比 HashMap 慢;
  • TreeMap 实现 SortMap 接口,能够把它保存的记录根据键排序(默认按键值升序排序,也可以指定排序的比较器)

13.HashMap & TreeMap & LinkedHashMap 使用场景?

 一般情况下,使用最多的是 HashMap。

  • HashMap:在 Map 中插入、删除和定位元素时;
  • TreeMap:在需要按自然顺序或自定义顺序遍历键的情况下;
  • LinkedHashMap:在需要输出的顺序和输入的顺序相同的情况下。

14.HashMap 和 HashTable 有什么区别?

  • HashMap 是线程不安全的,

    HashTable 是线程安全的;

  • 由于线程安全,所以 HashTable 的效率比不上 HashMap;

  • HashMap 最多只允许一条记录的键为 null,允许多条记录的值为 null;

    HashTable 不允许;

  • HashMap 默认初始化数组的大小为 16,扩容时,扩大两倍;

    HashTable 默认初始化数组的大小为 11,扩容时,扩大两倍 + 1;

  • HashMap 需要重新计算 hash 值;

    HashTable 直接使用对象的 hashCode

15.同样是线程安全,ConcurrentHashMap 与 HashTable 在线程同步上有什么不同?

ConcurrentHashMap 类(是 Java 并发包 java.util.concurrent 中提供的一个线程安全且高效的 HashMap 实现)。

HashTable 是使用 synchronize 关键字加锁的原理(就是对对象加锁);

而针对 ConcurrentHashMap,在 JDK 1.7 中采用 分段锁的方式;JDK 1.8 中直接采用了 CAS(无锁算法)+ synchronized。

16.HashMap & ConcurrentHashMap 的区别?

除了加锁,原理上无太大区别。另外,HashMap 的键值对允许有 null,但是ConCurrentHashMap都不允许。

17. 为什么 ConcurrentHashMap 比 HashTable 效率要高?

HashTable 使用一把锁(锁住整个链表结构)处理并发问题,多个线程竞争一把锁,容易阻塞;

ConcurrentHashMap

  • JDK 1.7 中使用分段锁(ReentrantLock + Segment + HashEntry),相当于把一个 HashMap 分成多个段,每段分配一把锁,这样支持多线程访问。锁粒度:基于 Segment,包含多个 HashEntry。
  • JDK 1.8 中使用 CAS + synchronized + Node + 红黑树。锁粒度:Node(首结点)(实现 Map.Entry<K,V>)。锁粒度降低了。

18. 针对 ConcurrentHashMap 锁机制具体分析(JDK 1.7 VS JDK 1.8)?

JDK 1.7 中,采用分段锁的机制,实现并发的更新操作,底层采用数组 + 链表的存储结构,包括两个核心静态内部类 Segment 和 HashEntry。

  1. Segment 继承 ReentrantLock(重入锁) 用来充当锁的角色,每个 Segment 对象守护每个散列映射表的若干个桶;
  2. HashEntry 用来封装映射表的键 - 值对;
  3. 每个桶是由若干个 HashEntry 对象链接起来的链表

JDK 1.8 中,采用 Node + CAS + Synchronized 来保证并发安全。取消类 Segment,直接用 table 数组存储键值对;当 HashEntry 对象组成的链表长度超过 TREEIFY_THRESHOLD 时,链表转换为红黑树,提升性能。底层变更为数组 + 链表 + 红黑树。

19.ConcurrentHashMap 在 JDK 1.8 中,为什么要使用内置锁 synchronized 来代替重入锁 ReentrantLock?

  1. 粒度降低了;
  2. JVM 开发团队没有放弃 synchronized,而且基于 JVM 的 synchronized 优化空间更大,更加自然。
  3. 在大量的数据操作下,对于 JVM 的内存压力,基于 API 的 ReentrantLock 会开销更多的内存。

20.ConcurrentHashMap 简单介绍?

  1. 重要的常量:
      private transient volatile int sizeCtl;

    • 当为负数时,-1 表示正在初始化,-N 表示 N - 1 个线程正在进行扩容;
    • 当为 0 时,表示 table 还没有初始化;
    • 当为其他正数时,表示初始化或者下一次进行扩容的大小。
  2. 数据结构:
      - Node 是存储结构的基本单元,继承 HashMap 中的 Entry,用于存储数据;

    • TreeNode 继承 Node,但是数据结构换成了二叉树结构,是红黑树的存储结构,用于红黑树中存储数据;
    • TreeBin 是封装 TreeNode 的容器,提供转换红黑树的一些条件和锁的控制。
  3. 存储对象时(put() 方法):

    1. 如果没有初始化,就调用 initTable() 方法来进行初始化;

    2. 如果没有 hash 冲突就直接 CAS 无锁插入;

    3. 如果需要扩容,就先进行扩容;

    4. 如果存在 hash 冲突,就加锁来保证线程安全,两种情况:一种是链表形式就直接遍历到尾端插入,一种是红黑树就按照红黑树结构插入;

    5. 如果该链表的数量大于阀值 8,就要先转换成红黑树的结构,break 再一次进入循环

    6. 如果添加成功就调用 addCount() 方法统计 size,并且检查是否需要扩容。

  4. 扩容方法 transfer():默认容量为 16,扩容时,容量变为原来的两倍。
    helpTransfer():调用多个工作线程一起帮助进行扩容,这样的效率就会更高。

  5. 获取对象时(get() 方法):

    1. 计算 hash 值,定位到该 table 索引位置,如果是首结点符合就返回;
    2. 如果遇到扩容时,会调用标记正在扩容结点 ForwardingNode.find() 方法,查找该结点,匹配就返回;
    3. 以上都不符合的话,就往下遍历结点,匹配就返回,否则最后就返回 null。

21.ConcurrentHashMap 的并发度是什么?

程序运行时能够同时更新 ConccurentHashMap 且不产生锁竞争的最大线程数。默认为 16,且可以在构造函数中设置。当用户设置并发度时,ConcurrentHashMap 会使用大于等于该值的最小 2 幂指数作为实际并发度(假如用户设置并发度为 17,实际并发度则为 32)

有时间会对 HashTable,ConcurrentHashmap 解析。

22.为什么要重写hashcode和equals方法?

用HashMap存入自定义的类时,如果不重写这个自定义类的hashcode和equals方法,得到的结果会和预期的不一样。

重写hashcode和equals方法,来覆盖Object里的同名方法。Object的固有方法是根据两个对象的内存地址来判断,两个不同的对象,内存地址一定不会相同,所以无论值是否相等,结果都一定不会相等

23. HashMap的数组长度为什么一定是2的次幂?

void resize(int newCapacity) {
        Entry[] oldTable = table;
        int oldCapacity = oldTable.length;
        if (oldCapacity == MAXIMUM_CAPACITY) {
            threshold = Integer.MAX_VALUE;
            return;
        }

        Entry[] newTable = new Entry[newCapacity];
        transfer(newTable, initHashSeedAsNeeded(newCapacity));
        table = newTable;
        threshold = (int)Math.min(newCapacity * loadFactor, MAXIMUM_CAPACITY + 1);
    }
}

如果数组进行扩容,数组长度发生变化,而存储位置 index = h&(length-1),index也可能会发生变化,需要重新计算index,我们先来看看transfer这个方法:

void transfer(Entry[] newTable, boolean rehash) {
        int newCapacity = newTable.length;
     //for循环中的代码,逐个遍历链表,重新计算索引位置,将老数组数据复制到新数组中去(数组不存储实际数据,所以仅仅是拷贝引用而已)
        for (Entry<K,V> e : table) {
            while(null != e) {
                Entry<K,V> next = e.next;
                if (rehash) {
                    e.hash = null == e.key ? 0 : hash(e.key);
                }
                int i = indexFor(e.hash, newCapacity);
                //将当前entry的next链指向新的索引位置,newTable[i]有可能为空,有可能也是个entry链,如果是entry链,直接在链表头部插入。
                e.next = newTable[i];
                newTable[i] = e;
                e = next;
            }
        }
    }
}

这个方法将老数组中的数据逐个链表地遍历,扔到新的扩容后的数组中,我们的数组索引位置的计算是通过 对key值的hashcode进行hash扰乱运算后,再通过和 length-1进行位运算得到最终数组索引位置。

HashMap的数组长度一定保持2的次幂,比如16的二进制表示为 10000,那么length-1就是15,二进制为01111,同理扩容后的数组长度为32,二进制表示为100000,length-1为31,二进制表示为011111。从下图可以我们也能看到这样会保证低位全为1,而扩容后只有一位差异,也就是多出了最左位的1,这样在通过 h&(length-1)的时候,只要h对应的最左边的那一个差异位为0,就能保证得到的新的数组索引和老数组索引一致(大大减少了之前已经散列良好的老数组的数据位置重新调换),个人理解。

还有,数组长度保持2的次幂,length-1的低位都为1,会使得获得的数组索引index更加均匀

我们看到,上面的&运算,高位是不会对结果产生影响的(hash函数采用各种位运算可能也是为了使得低位更加散列),我们只关注低位bit,如果低位全部为1,那么对于h低位部分来说,任何一位的变化都会对结果产生影响,也就是说,要得到index=21这个存储位置,h的低位只有这一种组合。这也是数组长度设计为必须为2的次幂的原因。

如果不是2的次幂,也就是低位不是全为1此时,要使得index=21,h的低位部分不再具有唯一性了,哈希冲突的几率会变的更大,同时,index对应的这个bit位无论如何不会等于1了,而对应的那些数组位置也就被白白浪费了。

24. 什么是Hash冲突?

两个元素通过 hash 函数计算出的值是一样的,是同一个存储地址。当后面的元素要插入到这个地址时,发现已经被占用了,这时候就产生了 hash 冲突,也叫哈希碰撞。

好的哈希函数会尽可能使计算简单和散列地址分布均匀。但是,数组是一块连续的固定长度的内存空间,再好的哈希函数也不能保证得到的存储地址绝对不发生冲突。

哈希冲突的解决方案有多种:

  • 开放定址法(发生冲突,继续寻找下一块未被占用的存储地址)
  • 再散列函数法
  • 链地址法。HashMap采用的即是链地址法,也就是数组+链表的方式。

开放定址法 (查询产生冲突的地址的下一个地址是否被占用,直到寻找到空的地址),再散列法,链地址法等。hashmap 采用的就是链地址法,jdk1.7 中,当冲突时,在冲突的地址上生成一个链表,将冲突的元素的 key,通过 equals 进行比较,相同即覆盖,不同则添加到链表上,此时如果链表过长,效率就会大大降低,查找和添加操作的时间复杂度都为 O(n);但是在 jdk1.8 中如果链表长度大于 8,链表就会转化为红黑树,下图就是 1.8 版本的(图片来源 https://segmentfault.com/a/1190000012926722),时间复杂度也降为了 O(logn),性能得到了很大的优化。

25. HashMap有哪些参数?

//默认初始容量为16,0000 0001 左移4位 0001 0000为16,主干数组的初始容量为16,而且这个数组
//必须是2的倍数(后面说为什么是2的倍数)
static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; // aka 16

//最大容量为int的最大值除2
static final int MAXIMUM_CAPACITY = 1 << 30;

//默认加载因子为0.75
static final float DEFAULT_LOAD_FACTOR = 0.75f;

//阈值,如果主干数组上的链表的长度大于8,链表转化为红黑树
 static final int TREEIFY_THRESHOLD = 8;

//hash表扩容后,如果发现某一个红黑树的长度小于6,则会重新退化为链表
 static final int UNTREEIFY_THRESHOLD = 6;

//当hashmap容量大于64时,链表才能转成红黑树
 static final int MIN_TREEIFY_CAPACITY = 64;

//临界值=主干数组容量*负载因子
int threshold;

参考博客:
https://www.cnblogs.com/heqiyoujing/p/11143298.html

https://www.jianshu.com/p/75adf47958a7


  TOC