關于深度學習,這可能是你最容易讀進去的科普貼了(一)
編者按:本文作者王川,投資人,中科大少年班校友,現居加州硅谷,個人微信號9935070, 36 氪經授權轉載自其個人微信 公眾號 investguru。
一
2016 年一月底,人工智能的研究領域,發生了兩件大事。
先是一月二十四號,MIT 的教授,人工智能研究的先驅者,Marvin Minsky 去世,享年89 歲。
三天之后,谷歌在自然雜志上正式公開發表論文,宣布其以深度學習技術為基礎的電腦程序 AlphaGo, 在 2015年 十月,連續五局擊敗歐洲冠軍、職業二段樊輝。
這是第一次機器擊敗職業圍棋選手。距離 97年IBM 電腦擊敗國際象棋世界冠軍,一晃近二十年了。
極具諷刺意義的是,Minsky 教授,一直不看好深度學習的概念。他曾在 1969年 出版了 Perceptron (感知器) 一書,指出了神經網絡技術 (就是深度學習的前身) 的局限性。這本書直接導致了神經網絡研究的將近二十年的長期低潮。
神經網絡研究的歷史,是怎樣的?
深度學習有多深?學了究竟有幾分?
二
人工智能研究的方向之一,是以所謂 "專家系統" 為代表的,用大量 "如果-就" (If - Then) 規則定義的,自上而下的思路。
人工神經網絡 ( Artifical Neural Network),標志著另外一種自下而上的思路。
神經網絡沒有一個嚴格的正式定義。它的基本特點,是試圖模仿大腦的神經元之間傳遞,處理信息的模式。
一個計算模型,要劃分為神經網絡,通常需要大量彼此連接的節點 (也稱 '神經元'),并且具備兩個特性:
- 每個神經元,通過某種特定的輸出函數 (也叫激勵函數 activation function),計算處理來自其它相鄰神經元的加權輸入值
- 神經元之間的信息傳遞的強度,用所謂加權值來定義,算法會不斷自我學習,調整這個加權值
在此基礎上,神經網絡的計算模型,依靠大量的數據來訓練,還需要:
- 成本函數 (cost function):用來定量評估根據特定輸入值, 計算出來的輸出結果,離正確值有多遠,結果有多靠譜
- 學習的算法 ( learning algorithm ):這是根據成本函數的結果, 自學, 糾錯, 最快地找到神經元之間最優化的加權值
用小明、小紅和隔壁老王們都可以聽懂的語言來解釋,神經網絡算法的核心就是:計算、連接、評估、糾錯、瘋狂培訓。
隨著神經網絡研究的不斷變遷,其計算特點和傳統的生物神經元的連接模型漸漸脫鉤。
但是它保留的精髓是:非線性、分布式、并行計算、自適應、自組織。
三
神經網絡作為一個計算模型的理論,1943年 最初由科學家 Warren McCulloch 和 Walter Pitts 提出。
康內爾大學教授 Frank Rosenblatt 1957年 提出的"感知器" (Perceptron),是第一個用算法來精確定義神經網絡,第一個具有自組織自學習能力的數學模型,是日后許多新的神經網絡模型的始祖。
Rosenblatt 樂觀地預測,感知器最終可以 “學習、做決定、翻譯語言”。感知器的技術,六十年代一度走紅,美國海軍曾出資支持這個技術的研究,期望它 “以后可以自己走、說話、看、讀、自我復制、甚至擁有自我意識”。
Rosenblatt 和 Minsky 實際上是間隔一級的高中校友。但是六十年代,兩個人在感知器的問題上展開了長時間的激辯。Rosenblatt 認為感應器將無所不能,Minsky 則認為它應用有限。
1969 年,Marvin Minsky 和 Seymour Papert 出版了新書:“感知器:計算幾何簡介”。書中論證了感知器模型的兩個關鍵問題:
第一,單層的神經網絡無法解決不可線性分割的問題,典型例子如異或門,XOR Circuit ( 通俗地說,異或門就是:兩個輸入如果是異性戀,輸出為一。兩個輸入如果是同性戀,輸出為零 )
第二,更致命的問題是,當時的電腦完全沒有能力完成神經網絡模型所需要的超大的計算量。
此后的十幾年,以神經網絡為基礎的人工智能研究進入低潮,相關項目長期無法得到政府經費支持,這段時間被稱為業界的核冬天。
Rosenblatt 自己則沒有見證日后神經網絡研究的復興。1971年 他 43 歲生日時,不幸在海上開船時因為事故而喪生。
(未完待續)
本文來自讀者投稿,不代表 36氪 立場,如若轉載,請注明出處:http://36kr.com/p/5043570.html
“看完這篇還不夠?如果你也在創業,并且希望自己的項目被報道,請戳這里告訴我們!”
來自: http://36kr.com/p/5043570.html