Google最新開源Inception-ResNet-v2,進一步提升圖像分類水準

jopen 8年前發布 | 14K 次閱讀 開源

2016年8月31日,Google團隊宣布針對TensorFlow開源了最新發布的TF-slim資料庫,它是一個可以定義、訓練和評估模型的輕量級的軟件包,也能對圖像分類領域中幾個主要有競爭力的網絡進行檢驗和定義模型。

為了進一步推進這個領域的進步,今天Google團隊宣布發布 Inception-ResNet-v2 (一種卷積神經網絡——CNN),它在ILSVRC圖像分類基準測試中實現了當下最好的成績。Inception-ResNet-v2是早期Inception V3模型變化而來,從微軟的殘差網絡(ResNet)論文中得到了一些靈感。相關論文信息可以參看我們的論文 Inception-v4, Inception-ResNet and the Impact of Residual Connections on Learning Inception-v4, Inception-ResNet以及殘差連接在學習上的影響 ):

Google最新開源Inception-ResNet-v2,進一步提升圖像分類水準

殘差連接(Residual connections )允許模型中存在shortcuts,可以讓研究學者成功地訓練更深的神經網絡(能夠獲得更好的表現),這樣也能明顯地簡化Inception塊。 將兩種模型架構對比,見下圖:

Google最新開源Inception-ResNet-v2,進一步提升圖像分類水準

Google最新開源Inception-ResNet-v2,進一步提升圖像分類水準

在第二幅Inception-ResNet-v2圖中最上部分,你能看到整個網絡擴展了。注意該網絡被認為比先前的Inception V3還要深一些。在圖中主要部分重復的殘差區塊已經被壓縮了,所以整個網絡看起來更加直觀。另外注意到圖中inception區塊被簡化了,比先前的Inception V3種要包含更少的并行塔 (parallel towers)。

如下方圖表所示,Inception-ResNet-v2架構的精確度比之前的最優模型更高,圖表中所示為基于單個圖像的ILSVRC 2012圖像分類標準得出的排行第一與排行第五的有效精確度。此外,該新模型僅僅要求兩倍于Inception v3的容量與計算能力。

Google最新開源Inception-ResNet-v2,進一步提升圖像分類水準

例如,盡管Inception v3與Inception-ResNet-v2都很擅長識別每一條狗所屬的類別,這種新模型的性能更為顯著。例如,舊模型可能會錯誤地將右邊的圖片識別為阿拉斯加雪橇犬,新模型Inception-ResNet-v2能夠準確地識別兩個圖片中狗的類別。

Google最新開源Inception-ResNet-v2,進一步提升圖像分類水準

阿拉斯加雪橇犬 (左)和 西伯利亞雪橇犬 (右)。圖片來源:維基百科。

為了使人們理解開始試驗,我們也將要發布新型Inception-ResNet-v2預訓練實例,作為TF-Slim 圖像模型庫的組成部分。

看到本研究領域關于這一經過改進的模型所取得的進展,而且人們開始采用這種新模型,并將其性能在多種任務作對比,我們為此感到非常興奮。你也想要開始使用這種新模型嗎?讓我們一起來看看附帶的操作指示,學會如何訓練,評估或微調一個網絡。

Inception-ResNet-v2具體代碼實現過程參見:

https://github.com/tensorflow/models/blob/master/slim/nets/inception_resnet_v2.py

 

來自: http://www.leiphone.com/news/201609/303vE8MIwFC7E3DB.html

 本文由用戶 jopen 自行上傳分享,僅供網友學習交流。所有權歸原作者,若您的權利被侵害,請聯系管理員。
 轉載本站原創文章,請注明出處,并保留原始鏈接、圖片水印。
 本站是一個以用戶分享為主的開源技術平臺,歡迎各類分享!