ConcurrentHashMap

本文详细解析了ConcurrentHashMap的工作原理及其内部结构,包括get、put和remove等核心方法的实现细节,展示了其如何通过细分锁粒度提高并发性能。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

集合是编程中最常用的数据结构。而谈到并发,几乎总是离不开集合这类高级数据结构的支持。比如两个线程需要同时访问一个中间临界区(Queue),比如常会用缓存作为外部文件的副本(HashMap)。这篇文章主要分析jdk1.5的3种并发集合类型(concurrent,copyonright,queue)中的ConcurrentHashMap,让我们从原理上细致的了解它们,能够让我们在深度项目开发中获益非浅。
       在tiger之前,我们使用得最多的数据结构之一就是HashMap和Hashtable。大家都知道,HashMap中未进行同步考虑,而Hashtable则使用了synchronized,带来的直接影响就是可选择,我们可以在单线程时使用HashMap提高效率,而多线程时用Hashtable来保证安全。
       当我们享受着jdk带来的便利时同样承受它带来的不幸恶果。通过分析Hashtable就知道,synchronized是针对整张Hash表的,即每次锁住整张表让线程独占,安全的背后是巨大的浪费,慧眼独具的Doug Lee立马拿出了解决方案----ConcurrentHashMap。
       ConcurrentHashMap和Hashtable主要区别就是围绕着锁的粒度以及如何锁。如图
 
       左边便是Hashtable的实现方式---锁整个hash表;而右边则是ConcurrentHashMap的实现方式---锁桶(或段)。ConcurrentHashMap将hash表分为16个桶(默认值),诸如get,put,remove等常用操作只锁当前需要用到的桶。试想,原来只能一个线程进入,现在却能同时16个写线程进入(写线程才需要锁定,而读线程几乎不受限制,之后会提到),并发性的提升是显而易见的。
       更令人惊讶的是ConcurrentHashMap的读取并发,因为在读取的大多数时候都没有用到锁定,所以读取操作几乎是完全的并发操作,而写操作锁定的粒度又非常细,比起之前又更加快速(这一点在桶更多时表现得更明显些)。只有在求size等操作时才需要锁定整个表。而在迭代时,ConcurrentHashMap使用了不同于传统集合的快速失败迭代器(见之前的文章《JAVA API备忘---集合》)的另一种迭代方式,我们称为弱一致迭代器。在这种迭代方式中,当iterator被创建后集合再发生改变就不再是抛出ConcurrentModificationEx ception,取而代之的是在改变时new新的数据从而不影响原有的数据,iterator完成后再将头指针替换为新的数据,这样iterator线程可以使用原来老的数据,而写线程也可以并发的完成改变,更重要的,这保证了多个线程并发执行的连续性和扩展性,是性能提升的关键。
       接下来,让我们看看ConcurrentHashMap中的几个重要方法,心里知道了实现机制后,使用起来就更加有底气。
       ConcurrentHashMap中主要实体类就是三个:ConcurrentHashMap(整个Hash表),Segment(桶),HashEntry(节点),对应上面的图可以看出之间的关系。
       get方法(请注意,这里分析的方法都是针对桶的,因为ConcurrentHashMap的最大改进就是将粒度细化到了桶上),首先判断了当前桶的数据个数是否为0,为0自然不可能get到什么,只有返回null,这样做避免了不必要的搜索,也用最小的代价避免出错。然后得到头节点(方法将在下面涉及)之后就是根据hash和key逐个判断是否是指定的值,如果是并且值非空就说明找到了,直接返回;程序非常简单,但有一个令人困惑的地方,这句return readValueUnderLock(e)到底是用来干什么的呢?研究它的代码,在锁定之后返回一个值。但这里已经有一句V v = e.value得到了节点的值,这句return readValueUnderLock(e)是否多此一举?事实上,这里完全是为了并发考虑的,这里当v为空时,可能是一个线程正在改变节点,而之前的get操作都未进行锁定,根据bernstein条件,读后写或写后读都会引起数据的不一致,所以这里要对这个e重新上锁再读一遍,以保证得到的是正确值,这里不得不佩服Doug Lee思维的严密性。整个get操作只有很少的情况会锁定,相对于之前的Hashtable,并发是不可避免的啊!
        V get(Object key, int hash) {
            if (count != 0) { // read-volatile
                HashEntry e = getFirst(hash);
                while (e != null) {
                    if (e.hash == hash && key.equals(e.key)) {
                        V v = e.value;
                        if (v != null)
                            return v;
                        return readValueUnderLock(e); // recheck
                    }
                    e = e.next;
                }
            }
            return null;
        }

 

        V readValueUnderLock(HashEntry e) {
            lock();
            try {
                return e.value;
            } finally {
                unlock();
            }
        }

 

    put操作一上来就锁定了整个segment,这当然是为了并发的安全,修改数据是不能并发进行的,必须得有个判断是否超限的语句以确保容量不足时能够rehash,而比较难懂的是这句int index = hash & (tab.length - 1),原来segment里面才是真正的hashtable,即每个segment是一个传统意义上的hashtable,如上图,从两者的结构就可以看出区别,这里就是找出需要的entry在table的哪一个位置,之后得到的entry就是这个链的第一个节点,如果e!=null,说明找到了,这是就要替换节点的值(onlyIfAbsent == false),否则,我们需要new一个entry,它的后继是first,而让tab[index]指向它,什么意思呢?实际上就是将这个新entry插入到链头,剩下的就非常容易理解了。

        V put(K key, int hash, V value, boolean onlyIfAbsent) {
            lock();
            try {
                int c = count;
                if (c++ > threshold) // ensure capacity
                    rehash();
                HashEntry[] tab = table;
                int index = hash & (tab.length - 1);
                HashEntry first = (HashEntry) tab[index];
                HashEntry e = first;
                while (e != null && (e.hash != hash || !key.equals(e.key)))
                    e = e.next;

                V oldValue;
                if (e != null) {
                    oldValue = e.value;
                    if (!onlyIfAbsent)
                        e.value = value;
                }
                else {
                    oldValue = null;
                    ++modCount;
                    tab[index] = new HashEntry(key, hash, first, value);
                    count = c; // write-volatile
                }
                return oldValue;
            } finally {
                unlock();
            }
        }

 

    remove操作非常类似put,但要注意一点区别,中间那个for循环是做什么用的呢?(*号标记)从代码来看,就是将定位之后的所有entry克隆并拼回前面去,但有必要吗?每次删除一个元素就要将那之前的元素克隆一遍?这点其实是由entry的不变性来决定的,仔细观察entry定义,发现除了value,其他所有属性都是用final来修饰的,这意味着在第一次设置了next域之后便不能再改变它,取而代之的是将它之前的节点全都克隆一次。至于entry为什么要设置为不变性,这跟不变性的访问不需要同步从而节省时间有关,关于不变性的更多内容,请参阅之前的文章《线程高级---线程的一些编程技巧》

        V remove(Object key, int hash, Object value) {
            lock();
            try {
                int c = count - 1;
                HashEntry[] tab = table;
                int index = hash & (tab.length - 1);
                HashEntry first = (HashEntry)tab[index];
                HashEntry e = first;
                while (e != null && (e.hash != hash || !key.equals(e.key)))
                    e = e.next;

                V oldValue = null;
                if (e != null) {
                    V v = e.value;
                    if (value == null || value.equals(v)) {
                        oldValue = v;
                        // All entries following removed node can stay
                        // in list, but all preceding ones need to be
                        // cloned.
                        ++modCount;
                        HashEntry newFirst = e.next;
                       for (HashEntry p = first; p != e; p = p.next)
                           newFirst = new HashEntry(p.key, p.hash, 
                                                          newFirst, p.value);
                        tab[index] = newFirst;
                        count = c; // write-volatile
                    }
                }
                return oldValue;
            } finally {
                unlock();
            }
        }

 

    static final class HashEntry {
        final K key;
        final int hash;
        volatile V value;
        final HashEntry next;

        HashEntry(K key, int hash, HashEntry next, V value) {
            this.key = key;
            this.hash = hash;
            this.next = next;
            this.value = value;
        }
    }

 

    以上,分析了几个最简单的操作,限于篇幅,这里不再对rehash或iterator等实现进行讨论,有兴趣可以参考src。

    接下来实际上还有一个疑问,ConcurrentHashMap跟HashMap相比较性能到底如何。这在Brian Goetz的文章中已经有过评测http://www.ibm.com/developerworks/cn/java/j-jtp07233/

<think>好的,我现在需要回答用户关于JavaConcurrentHashMap的用法和最佳实践的问题。首先,我应该回顾一下ConcurrentHashMap的基本概念和它在Java中的应用场景。ConcurrentHashMapJava并发包中的一个线程安全的哈希表实现,适合多线程环境下使用,以提高并发性能。 接下来,我需要确定用户可能关心的关键点。通常,使用ConcurrentHashMap时,需要注意其线程安全机制、如何正确地进行初始化、常用方法的使用,以及与HashMap和Hashtable的区别。此外,最佳实践可能涉及如何选择并发级别、处理null值的问题,以及迭代器的弱一致性特性。 然后,我应该检查用户提供的引用内容。引用[2]提到在多线程环境中使用WeakHashMap时,同步方法intern()可能成为竞争点,并建议在真实场景中使用ConcurrentHashMap。这说明ConcurrentHashMap在解决多线程同步问题上的优势。因此,在回答中需要强调ConcurrentHashMap的线程安全实现,比如分段锁或CAS操作,以及如何减少锁竞争。 接下来,我需要组织内容结构。首先介绍ConcurrentHashMap的基本概念,然后详细说明其使用方法,包括初始化、常用方法、线程安全操作等。之后,列出最佳实践,比如避免不必要的锁竞争、合理设置并发级别、处理null值的注意事项等。最后,生成相关问题,帮助用户进一步学习。 在编写过程中,要确保符合用户提供的系统级指令,例如行内数学表达式使用$...$格式,但在这个问题中可能不太涉及数学公式,因此需要注意是否有相关部分。同时,引用标识需要自然地添加在引用的段落末尾,例如引用[2]提到使用ConcurrentHashMap代替同步的WeakHashMap,所以要在相应位置加上[^2]。 另外,用户要求回答结构清晰,逐步解决问题,所以需要分点说明,每个部分有明确的标题,如基本用法、最佳实践、常见问题等。同时,代码示例部分需要用正确的格式展示,比如Java代码块,帮助用户理解具体用法。 最后,生成的相关问题需要围绕ConcurrentHashMap展开,比如与HashMap的区别、线程安全机制、性能优化方法等,确保问题能够引导用户深入理解该主题。 在检查过程中,要确保LaTeX语法正确,但这个问题可能不需要数学表达式,所以主要检查代码块和格式是否正确。同时,使用中文回答,保持语言流畅自然,避免技术术语使用不当。</think>### JavaConcurrentHashMap的用法与最佳实践 #### 1. ConcurrentHashMap的基本概念 `ConcurrentHashMap`是Java并发包(`java.util.concurrent`)中的线程安全哈希表实现,支持高并发读写操作。它通过分段锁(Java 7)或CAS操作+节点锁(Java 8及以后)实现高效并发,避免了全局锁的性能瓶颈。 #### 2. 基本用法 ##### 初始化 ```java ConcurrentHashMap<String, Integer> map = new ConcurrentHashMap<>(); // 指定初始容量和负载因子 ConcurrentHashMap<String, Integer> map2 = new ConcurrentHashMap<>(16, 0.75f); ``` ##### 常用方法 ```java map.put("key", 100); // 线程安全的插入 int value = map.get("key"); // 线程安全的读取 map.computeIfAbsent("key", k -> 42); // 原子性操作:若不存在则计算并插入 map.forEach((k, v) -> System.out.println(k + ": " + v)); // 安全的遍历 ``` #### 3. 最佳实践 1. **减少锁竞争** - 合理设置`concurrencyLevel`(构造函数参数),默认值为16,需根据线程数调整。 - 使用`compute`、`merge`等原子方法替代“检查-写入”逻辑,避免显式同步。 2. **避免null值** `ConcurrentHashMap`不允许`null`作为键或值,需在代码中显式处理。 3. **弱一致性的迭代器** 遍历操作(如`entrySet().iterator()`)反映的是某一时刻的快照,不保证实时性。 4. **选择合适的并发版本** - Java 8+优化了锁粒度,优先使用新版本。 - 对于读多写少的场景,可结合`ReadWriteLock`或`ConcurrentHashMap`的原子操作。 5. **性能优化** ```java // 批量操作(并行阈值可调) map.search(1, (k, v) -> v > 100 ? k : null); map.reduce(1, (k, v) -> v, Integer::sum); ``` #### 4. 与HashMap、Hashtable的对比 | 特性 | ConcurrentHashMap | Hashtable | HashMap | |--------------------|-------------------|-----------------|-----------------| | 线程安全 | 是(分段锁/CAS) | 是(全局锁) | 否 | | 允许null键/值 | 否 | 否 | 是 | | 迭代器弱一致性 | 是 | 否 | 不适用 | #### 5. 常见问题 **Q: 如何保证复合操作的原子性?** 使用原子方法(如`compute`)或显式同步: ```java map.compute("counter", (k, v) -> v == null ? 1 : v + 1); ``` **Q: 多线程扩容是否会阻塞?** Java 8的`ConcurrentHashMap`通过多线程协同扩容,减少了阻塞时间。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值