疫苗:Java HashMap的死循環
在淘寶內網里看到同事發了貼說了一個 CPU 被 100% 的線上故障,并且這個事發生了很多次,原因是在 Java 語言在并發情況下使用 HashMap 造成 Race Condition,從而導致死循環。這個事情我4、5 年前也經歷過,本來覺得沒什么好寫的,因為 Java 的 HashMap 是非線程安全的,所以在并發下必然出現問題。但是,我發現近幾年,很多人都經歷過這個事(在網上查“HashMap Infinite Loop”可以看到很多人都在說這個事)所以,覺得這個是個普遍問題,需要寫篇疫苗文章說一下這個事,并且給大家看看一個完美的“Race Condition”是怎么形成的。
問題的癥狀
從前我們的 Java 代碼因為一些原因使用了 HashMap 這個東西,但是當時的程序是單線程的,一切都沒有問題。后來,我們的程序性能有問題,所以需要變成多線程的,于是,變成多線程后到了線上,發現程序經常占 了 100% 的 CPU,查看堆棧,你會發現程序都 Hang 在了 HashMap.get ()這個方法上了,重啟程序后問題消失。但是過段時間又會來。而且,這個問題在測試環境里可能很難重現。
我們簡單的看一下我們自己的代碼,我們就知道 HashMap 被多個線程操作。而 Java 的文檔說 HashMap 是非線程安全的,應該用 ConcurrentHashMap。
但是在這里我們可以來研究一下原因。
Hash 表數據結構
我需要簡單地說一下 HashMap 這個經典的數據結構。
HashMap 通常會用一個指針數組(假設為 table[])來做分散所有的 key,當一個 key 被加入時,會通過 Hash 算法通過 key 算出這個數組的下標i,然后就把這個
我們知道,如果 table[]的尺寸很小,比如只有 2 個,如果要放進 10 個 keys 的話,那么碰撞非常頻繁,于是一個O(1) 的查找算法,就變成了鏈表遍歷,性能變成了O(n),這是 Hash 表的缺陷(可參看《Hash Collision DoS 問題》)。
所以,Hash 表的尺寸和容量非常的重要。一般來說,Hash 表這個容器當有數據要插入時,都會檢查容量有沒有超過設定的 thredhold,如果超過,需要增大 Hash 表的尺寸,但是這樣一來,整個 Hash 表里的無素都需要被重算一遍。這叫 rehash,這個成本相當的大。
相信大家對這個基礎知識已經很熟悉了。
HashMap 的 rehash 源代碼
下面,我們來看一下 Java 的 HashMap 的源代碼。
Put 一個 Key,Value 對到 Hash 表中:
public V put (K key, V value)
{
......
//算 Hash 值 int hash = hash (key.hashCode ());
int i = indexFor (hash, table.length);
//如果該 key 已被插入,則替換掉舊的 value (鏈接操作) for (Entry<K,V> e = table[i]; e != null; e = e.next) {
Object k;
if (e.hash == hash && ((k = e.key) == key || key.equals (k))) {
V oldValue = e.value;
e.value = value;
e.recordAccess (this);
return oldValue;
}
}
modCount++;
//該 key 不存在,需要增加一個結點 addEntry (hash, key, value, i);
return null;
} 檢查容量是否超標
void addEntry (int hash, K key, V value, int bucketIndex)
{
Entry<K,V> e = table[bucketIndex];
table[bucketIndex] = new Entry<K,V>(hash, key, value, e);
//查看當前的 size 是否超過了我們設定的閾值 threshold,如果超過,需要 resize if (size++ >= threshold)
resize (2 * table.length);
} 新建一個更大尺寸的 hash 表,然后把數據從老的 Hash 表中遷移到新的 Hash 表中。
void resize (int newCapacity)
{
Entry[] oldTable = table;
int oldCapacity = oldTable.length;
......
//創建一個新的 Hash Table Entry[] newTable = new Entry[newCapacity];
//將 Old Hash Table 上的數據遷移到 New Hash Table 上 transfer (newTable);
table = newTable;
threshold = (int)(newCapacity * loadFactor);
} 遷移的源代碼,注意高亮處:
void transfer (Entry[] newTable)
{
Entry[] src = table;
int newCapacity = newTable.length;
//下面這段代碼的意思是:
// 從 OldTable 里摘一個元素出來,然后放到 NewTable 中 for (int j = 0; j < src.length; j++) {
Entry<K,V> e = src[j];
if (e != null) {
src[j] = null;
do {
Entry<K,V> next = e.next;
int i = indexFor (e.hash, newCapacity);
e.next = newTable[i];
newTable[i] = e;
e = next;
} while (e != null);
}
}
} 好了,這個代碼算是比較正常的。而且沒有什么問題。
正常的 ReHash 的過程
畫了個圖做了個演示。
- 我假設了我們的 hash 算法就是簡單的用 key mod 一下表的大小(也就是數組的長度)。
- 最上面的是 old hash 表,其中的 Hash 表的 size=2, 所以 key = 3, 7, 5,在 mod 2 以后都沖突在 table[1]這里了。
- 接下來的三個步驟是 Hash 表 resize 成4,然后所有的
重新 rehash 的過程
</ul>

并發下的 Rehash
1)假設我們有兩個線程。我用紅色和淺藍色標注了一下。
我們再回頭看一下我們的 transfer 代碼中的這個細節:
do {
Entry<K,V> next = e.next; // <--假設線程一執行到這里就被調度掛起了 int i = indexFor (e.hash, newCapacity);
e.next = newTable[i];
newTable[i] = e;
e = next;
} while (e != null); 而我們的線程二執行完成了。于是我們有下面的這個樣子。

注意,因為 Thread1 的 e 指向了 key (3),而 next 指向了 key (7),其在線程二 rehash 后,指向了線程二重組后的鏈表。我們可以看到鏈表的順序被反轉后。
2)線程一被調度回來執行。
- 先是執行 newTalbe[i] = e;
- 然后是 e = next,導致了e指向了 key (7),
- 而下一次循環的 next = e.next 導致了 next 指向了 key (3) </ul>

3)一切安好。
線程一接著工作。把 key (7) 摘下來,放到 newTable[i]的第一個,然后把e和 next 往下移。

4)環形鏈接出現。
e.next = newTable[i] 導致 key (3) .next 指向了 key (7)
注意:此時的 key (7) .next 已經指向了 key (3), 環形鏈表就這樣出現了。

于是,當我們的線程一調用到,HashTable.get (11) 時,悲劇就出現了——Infinite Loop。
其它
有人把這個問題報給了 Sun,不過 Sun 不認為這個是一個問題。因為 HashMap 本來就不支持并發。要并發就用 ConcurrentHashmap
http://bugs.sun.com/bugdatabase/view_bug.do?bug_id=6423457
我在這里把這個事情記錄下來,只是為了讓大家了解并體會一下并發環境下的危險。