A股上市公司传智教育(股票代码 003032)旗下技术交流社区北京昌平校区

© 曹老师 黑马粉丝团   /  2017-10-24 11:11  /  3878 人查看  /  0 人回复  /   0 人收藏 转载请遵从CC协议 禁止商业使用本文

为什么HashMap是线程不安全的
总说HashMap是线程不安全的,不安全的,不安全的,那么到底为什么它是线程不安全的呢?要回答这个问题就要先来简单了解一下HashMap源码中的使用的存储结构(这里引用的是Java 8的源码,与7是不一样的)和它的扩容机制
HashMap的内部存储结构
下面是HashMap使用的存储结构:
[size=12.0000pt]1
[size=12.0000pt]2
[size=12.0000pt]3
[size=12.0000pt]4
[size=12.0000pt]5
[size=12.0000pt]6
[size=12.0000pt]7
[size=12.0000pt]8
transient[size=12.0000pt] Node<K,V>[] table;
[size=12.0000pt]
static[size=12.0000pt] class[size=12.0000pt] Node<K,V> implements[size=12.0000pt] Map.Entry<K,V> {
        final[size=12.0000pt] int[size=12.0000pt] hash;
        final[size=12.0000pt] K key;
        V value;
        Node<K,V> next;
[size=12.0000pt]}
可以看到HashMap内部存储使用了一个Node数组(默认大小是16),而Node类包含一个类型为Nodenext的变量,也就是相当于一个链表,所有hash值相同(即产生了冲突)key会存储到同一个链表里,大概就是下面图的样子(顺便推荐个在线画图的网站Creately)
file:///C:\Users\PC\AppData\Local\Temp\ksohtml\wpsC1F7.tmp.pngHashMap内部存储结果
需要注意的是,在Java 8中如果hash值相同的key数量大于指定值(默认是8)时使用平衡树来代替链表,这会将get()方法的性能从O(n)提高到O(logn)。具体的可以看我的另一篇博客Java 8中HashMap和LinkedHashMap如何解决冲突
HashMap的自动扩容机制
HashMap内部的Node数组默认的大小是16,假设有100万个元素,那么最好的情况下每个hash桶里都有62500个元素,这时get(),put(),remove()等方法效率都会降低。为了解决这个问题,HashMap提供了自动扩容机制,当元素个数达到数组大小loadFactor后会扩大数组的大小,在默认情况下,数组大小为16,loadFactor为0.75,也就是说当HashMap中的元素超过16\0.75=12时,会把数组大小扩展为2*16=32,并且重新计算每个元素在新数组中的位置。如下图所示(图片来源,权侵删)
file:///C:\Users\PC\AppData\Local\Temp\ksohtml\wpsC1F8.tmp.png
自动扩容
从图中可以看到没扩容前,获取EntryE需要遍历5个元素,扩容之后只需要2次。
为什么线程不安全
个人觉得HashMap在并发时可能出现的问题主要是两方面,首先如果多个线程同时使用put方法添加元素,而且假设正好存在两个putkey发生了碰撞(hash值一样),那么根据HashMap的实现,这两个key会添加到数组的同一个位置,这样最终就会发生其中一个线程的put的数据被覆盖。第二就是如果多个线程同时检测到元素个数超过数组大小*loadFactor,这样就会发生多个线程同时对Node数组进行扩容,都在重新计算元素位置以及复制数据,但是最终只有一个线程扩容后的数组会赋给table,也就是说其他线程的都会丢失,并且各自线程put的数据也丢失。
关于HashMap线程不安全这一点,《Java并发编程的艺术》一书中是这样说的:
HashMap在并发执行put操作时会引起死循环,导致CPU利用率接近100%。因为多线程会导致HashMap的Node链表形成环形数据结构,一旦形成环形数据结构,Node的next节点永远不为空,就会在获取Node时产生死循环。
哇塞,听上去sisi好神奇,居然会产生死循环。。。。google了一下,才知道死循环并不是发生在put操作时,而是发生在扩容时。详细的解释可以看下面几篇博客:
如何线程安全的使用HashMap
了解了HashMap为什么线程不安全,那现在看看如何线程安全的使用HashMap。这个无非就是以下三种方式:
· Hashtable
· ConcurrentHashMap
· Synchronized Map
例子:
[size=12.0000pt]1
[size=12.0000pt]2
[size=12.0000pt]3
[size=12.0000pt]4
[size=12.0000pt]5
[size=12.0000pt]6
[size=12.0000pt]7
[size=12.0000pt]8
//Hashtable
Map<String, String> hashtable = new[size=12.0000pt] Hashtable<>();
[size=12.0000pt]
//synchronizedMap
Map<String, String> synchronizedHashMap = Collections.synchronizedMap(new[size=12.0000pt] HashMap<String, String>());
[size=12.0000pt]
//ConcurrentHashMap
Map<String, String> concurrentHashMap = new[size=12.0000pt] ConcurrentHashMap<>();
依次来看看。
Hashtable
先稍微吐槽一下,为啥命名不是HashTable啊,看着好难受,不管了就装作它叫HashTable吧。这货已经不常用了,就简单说说吧。HashTable源码中是使用synchronized来保证线程安全的,比如下面的get方法和put方法:
[size=12.0000pt]1
[size=12.0000pt]2
[size=12.0000pt]3
[size=12.0000pt]4
[size=12.0000pt]5
[size=12.0000pt]6
public[size=12.0000pt] synchronized[size=12.0000pt] V get(Object key) {
       // 省略实现
    }
public[size=12.0000pt] synchronized[size=12.0000pt] V put(K key, V value) {
    // 省略实现
    }
所以当一个线程访问HashTable的同步方法时,其他线程如果也要访问同步方法,会被阻塞住。举个例子,当一个线程使用put方法时,另一个线程不但不可以使用put方法,连get方法都不可以,好霸道啊!!!so~~,效率很低,现在基本不会选择它了。
ConcurrentHashMap
ConcurrentHashMap(以下简称CHM)JUC包中的一个类,Spring的源码中有很多使用CHM的地方。之前已经翻译过一篇关于ConcurrentHashMap的博客,如何在java中使用ConcurrentHashMap,里面介绍了CHMJava中的实现,CHM的一些重要特性和什么情况下应该使用CHM。需要注意的是,上面博客是基于Java 7的,和8有区别,8CHM摒弃了Segment(锁段)的概念,而是启用了一种全新的方式实现,利用CAS算法,有时间会重新总结一下。
SynchronizedMap
看了一下源码,SynchronizedMap的实现还是很简单的。
[size=12.0000pt]1
[size=12.0000pt]2
[size=12.0000pt]3
[size=12.0000pt]4
[size=12.0000pt]5
[size=12.0000pt]6
[size=12.0000pt]7
[size=12.0000pt]8
[size=12.0000pt]9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
// synchronizedMap方法
public[size=12.0000pt] static[size=12.0000pt] <K,V> Map<K,V> synchronizedMap(Map<K,V> m) {
       return[size=12.0000pt] new[size=12.0000pt] SynchronizedMap<>(m);
   }
// SynchronizedMap类
private[size=12.0000pt] static[size=12.0000pt] class[size=12.0000pt] SynchronizedMap<K,V>
       implements[size=12.0000pt] Map<K,V>, Serializable {
       private[size=12.0000pt] static[size=12.0000pt] final[size=12.0000pt] long[size=12.0000pt] serialVersionUID = 1978198479659022715L;
[size=12.0000pt]
       private[size=12.0000pt] final[size=12.0000pt] Map<K,V> m;     // Backing Map
       final[size=12.0000pt] Object      mutex;        // Object on which to synchronize
[size=12.0000pt]
       SynchronizedMap(Map<K,V> m) {
           this.m = Objects.requireNonNull(m);
           mutex = this;
       }
[size=12.0000pt]
       SynchronizedMap(Map<K,V> m, Object mutex) {
           this.m = m;
           this.mutex = mutex;
       }
[size=12.0000pt]
       public[size=12.0000pt] int[size=12.0000pt] size() {
           synchronized[size=12.0000pt] (mutex) {return[size=12.0000pt] m.size();}
       }
       public[size=12.0000pt] boolean[size=12.0000pt] isEmpty() {
           synchronized[size=12.0000pt] (mutex) {return[size=12.0000pt] m.isEmpty();}
       }
       public[size=12.0000pt] boolean[size=12.0000pt] containsKey(Object key) {
           synchronized[size=12.0000pt] (mutex) {return[size=12.0000pt] m.containsKey(key);}
       }
       public[size=12.0000pt] boolean[size=12.0000pt] containsValue(Object value) {
           synchronized[size=12.0000pt] (mutex) {return[size=12.0000pt] m.containsValue(value);}
       }
       public[size=12.0000pt] V get(Object key) {
           synchronized[size=12.0000pt] (mutex) {return[size=12.0000pt] m.get(key);}
       }
[size=12.0000pt]
       public[size=12.0000pt] V put(K key, V value) {
           synchronized[size=12.0000pt] (mutex) {return[size=12.0000pt] m.put(key, value);}
       }
       public[size=12.0000pt] V remove(Object key) {
           synchronized[size=12.0000pt] (mutex) {return[size=12.0000pt] m.remove(key);}
       }
       // 省略其他方法
   }
从源码中可以看出调用synchronizedMap()方法后会返回一个SynchronizedMap类的对象,而在SynchronizedMap类中使用了synchronized同步关键字来保证对Map的操作是线程安全的。
性能对比
这是要靠数据说话的时代,所以不能只靠嘴说CHM快,它就快了。写个测试用例,实际的比较一下这三种方式的效率(源码来源),下面的代码分别通过三种方式创建Map对象,使用ExecutorService来并发运行5个线程,每个线程添加/获取500K个元素。
[size=12.0000pt]1
[size=12.0000pt]2
[size=12.0000pt]3
[size=12.0000pt]4
[size=12.0000pt]5
[size=12.0000pt]6
[size=12.0000pt]7
[size=12.0000pt]8
[size=12.0000pt]9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
public[size=12.0000pt] class[size=12.0000pt] CrunchifyConcurrentHashMapVsSynchronizedMap {
[size=12.0000pt]
    public[size=12.0000pt] final[size=12.0000pt] static[size=12.0000pt] int[size=12.0000pt] THREAD_POOL_SIZE = 5;
[size=12.0000pt]
    public[size=12.0000pt] static[size=12.0000pt] Map<String, Integer> crunchifyHashTableObject = null;
    public[size=12.0000pt] static[size=12.0000pt] Map<String, Integer> crunchifySynchronizedMapObject = null;
    public[size=12.0000pt] static[size=12.0000pt] Map<String, Integer> crunchifyConcurrentHashMapObject = null;
[size=12.0000pt]
    public[size=12.0000pt] static[size=12.0000pt] void[size=12.0000pt] main(String[] args) throws[size=12.0000pt] InterruptedException {
[size=12.0000pt]
        // Test with Hashtable Object
        crunchifyHashTableObject = new[size=12.0000pt] Hashtable<>();
        crunchifyPerformTest(crunchifyHashTableObject);
[size=12.0000pt]
        // Test with synchronizedMap Object
        crunchifySynchronizedMapObject = Collections.synchronizedMap(new[size=12.0000pt] HashMap<String, Integer>());
        crunchifyPerformTest(crunchifySynchronizedMapObject);
[size=12.0000pt]
        // Test with ConcurrentHashMap Object
        crunchifyConcurrentHashMapObject = new[size=12.0000pt] ConcurrentHashMap<>();
        crunchifyPerformTest(crunchifyConcurrentHashMapObject);
[size=12.0000pt]
    }
[size=12.0000pt]
    public[size=12.0000pt] static[size=12.0000pt] void[size=12.0000pt] crunchifyPerformTest(final[size=12.0000pt] Map<String, Integer> crunchifyThreads) throws[size=12.0000pt] InterruptedException {
[size=12.0000pt]
        System.out.println("Test started for: "[size=12.0000pt] + crunchifyThreads.getClass());
        long[size=12.0000pt] averageTime = 0;
        for[size=12.0000pt] (int[size=12.0000pt] i = 0; i < 5; i++) {
[size=12.0000pt]
            long[size=12.0000pt] startTime = System.nanoTime();
            ExecutorService crunchifyExServer = Executors.newFixedThreadPool(THREAD_POOL_SIZE);
[size=12.0000pt]
            for[size=12.0000pt] (int[size=12.0000pt] j = 0; j < THREAD_POOL_SIZE; j++) {
                crunchifyExServer.execute(new[size=12.0000pt] Runnable() {
                    @SuppressWarnings("unused")
                    @Override
                    public[size=12.0000pt] void[size=12.0000pt] run() {
[size=12.0000pt]
                        for[size=12.0000pt] (int[size=12.0000pt] i = 0; i < 500000; i++) {
                            Integer crunchifyRandomNumber = (int) Math.ceil(Math.random() * 550000);
[size=12.0000pt]
                            // Retrieve value. We are not using it anywhere
                            Integer crunchifyValue = crunchifyThreads.get(String.valueOf(crunchifyRandomNumber));
[size=12.0000pt]
                            // Put value
                            crunchifyThreads.put(String.valueOf(crunchifyRandomNumber), crunchifyRandomNumber);
                        }
                    }
                });
            }
[size=12.0000pt]
            // Make sure executor stops
            crunchifyExServer.shutdown();
[size=12.0000pt]
            // Blocks until all tasks have completed execution after a shutdown request
            crunchifyExServer.awaitTermination(Long.MAX_VALUE, TimeUnit.DAYS);
[size=12.0000pt]
            long[size=12.0000pt] entTime = System.nanoTime();
            long[size=12.0000pt] totalTime = (entTime - startTime) / 1000000L;
            averageTime += totalTime;
            System.out.println("2500K entried added/retrieved in "[size=12.0000pt] + totalTime + " ms");
        }
        System.out.println("For "[size=12.0000pt] + crunchifyThreads.getClass() + " the average time is "[size=12.0000pt] + averageTime / 5[size=12.0000pt] + " ms\n");
    }
[size=12.0000pt]}
测试结果:
[size=12.0000pt]1
[size=12.0000pt]2
[size=12.0000pt]3
[size=12.0000pt]4
[size=12.0000pt]5
[size=12.0000pt]6
[size=12.0000pt]7
[size=12.0000pt]8
[size=12.0000pt]9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
Test started for: class[size=12.0000pt] java.util.Hashtable
2500K entried added/retrieved in 2018[size=12.0000pt] ms
2500K entried added/retrieved in 1746[size=12.0000pt] ms
2500K entried added/retrieved in 1806[size=12.0000pt] ms
2500K entried added/retrieved in 1801[size=12.0000pt] ms
2500K entried added/retrieved in 1804[size=12.0000pt] ms
For class[size=12.0000pt] java.util.Hashtable the average time is 1835[size=12.0000pt] ms
[size=12.0000pt]
Test started for: class[size=12.0000pt] java.util.Collections$SynchronizedMap
2500K entried added/retrieved in 3041[size=12.0000pt] ms
2500K entried added/retrieved in 1690[size=12.0000pt] ms
2500K entried added/retrieved in 1740[size=12.0000pt] ms
2500K entried added/retrieved in 1649[size=12.0000pt] ms
2500K entried added/retrieved in 1696[size=12.0000pt] ms
For class[size=12.0000pt] java.util.Collections$SynchronizedMap the average time is 1963[size=12.0000pt] ms
[size=12.0000pt]
Test started for: class[size=12.0000pt] java.util.concurrent.ConcurrentHashMap
2500K entried added/retrieved in 738[size=12.0000pt] ms
2500K entried added/retrieved in 696[size=12.0000pt] ms
2500K entried added/retrieved in 548[size=12.0000pt] ms
2500K entried added/retrieved in 1447[size=12.0000pt] ms
2500K entried added/retrieved in 531[size=12.0000pt] ms
For class[size=12.0000pt] java.util.concurrent.ConcurrentHashMap the average time is 792[size=12.0000pt] ms
这个就不用废话了,CHM性能是明显优于HashtableSynchronizedMap,CHM花费的时间比前两个的一半还少,哈哈,以后再有人问就可以甩数据了。

您需要登录后才可以回帖 登录 | 加入黑马