人工智能玄乎其玄,內部究竟如何?Adam Harley帶你一窺卷積神經網絡

rypq9645 8年前發布 | 33K 次閱讀 神經網絡 人工智能

來自: http://www.almosthuman.cn/2016/01/27/kabot/

Adam Harley的卷積神經網絡3D視覺化模型能夠讓你一窺人工智能的內部工作。

</div>

除了邪惡AI將會統治地球這樣的驚悚事件之外,人工智能領域讓局外人感到害怕。非死book的人工智能負責人Yann LeCun這樣比喻人工智能:人工智能就是個有百萬個結點的黑盒子,其內部工作原理對大部分人而言仍然是一個謎題,但現在,我們有機會一窺究竟。

瑞爾森大學的碩士候選人Adam Harley創建了一個交互式視覺化模型,能夠幫助解釋卷積神經網絡(一種用來分析圖片的人工智能程序)內部是如何工作的。

正如在該交互式視覺化模型中可看到的,神經網絡按順序分層進行工作。底部是輸入,即計算機試圖進行解釋的原始內容——在該情況中,就是你寫下的數字——而頂層是輸出,即計算機的最終結論。兩者中間是數學功能層,每一層都將最重要的識別信息進行壓縮,并傳導至下一層。

卷積神經網絡讀取圖片識別數字的視覺化效果

輸入端(最底部的一排)的綠色像素對應于你寫下的數字,這些黑色像素代表著背景色,而數字就需要從這些背景中識別出來。如果它試圖檢測一張臉,那么3就代表這張臉,黑色就代表著相片的背景。在每一階段,我們都將看到這些圖片在經歷每一步后會變成什么樣,而不是看到步驟本身。

在神經網絡中,前幾層主要關注邊緣和形狀之類的情況,會抽取出整體的視覺效果,找出不同的識別特征,將之提取出來以便找出能夠將圖案與周邊環境區分出來的特征。

這些層的每一層都會預先識別這些數據,也就是稱之為訓練的過程。訓練通常意味著在機器上運行不是百萬也有成百上千的樣例圖片來告訴機器不同類型的3是什么樣子。這一過程對所有類型的機器學習和人工智能都一樣,只是源材料不同。谷歌會采取使用其服務的人們的隨機聲音樣本來訓練其聲音識別軟件,而臉書會用人不同角度的圖片訓練其面部識別算法。

訓練需要在機器上運行幾百萬個樣本。

經過第一層傳輸的數據會被第二層進行簡化(稱之為縮減采樣層,因為這一層會減少數據的復雜度)。之后第三層會再次分析其形狀,這層就類似第一層的卷積層。該神經網絡有兩層卷積層,而有些更復雜的網絡會有10層以上的卷積層。

這組形狀和邊緣之后會經過處理,并與一組預定的輸出進行匹配,最終得出結論有很大的可能使用者畫的是個3(或者可能是個8)。你能看到數據通過層層處理時的顏色區別。你畫的綠色數字最終是綠色的比特信息,并(有很大希望)指出了正確的輸出。

卷積神經網絡內部

在Harley的模型中,計算機能夠簡單地識別出數字,非常像是原始的卷積神經網絡被用來在ATM機上識別支票存款。最前沿的人工智能要復雜得多,能夠以97%的正確率識別人臉。

眼見為實, 戳這里 體驗一下吧。

本文選自 POPSCI ,作者Dave Gershgorn,機器之心編譯出品,編譯:柒柒。

</div>

 本文由用戶 rypq9645 自行上傳分享,僅供網友學習交流。所有權歸原作者,若您的權利被侵害,請聯系管理員。
 轉載本站原創文章,請注明出處,并保留原始鏈接、圖片水印。
 本站是一個以用戶分享為主的開源技術平臺,歡迎各類分享!