吳恩達:神經網絡模型將替代傳統算法,真的做到深度學習

jopen 9年前發布 | 29K 次閱讀 深度學習

原文  http://www.36kr.com/p/218927.html

吳恩達:神經網絡模型將替代傳統算法,真的做到深度學習

百度首席科學家吳恩達在未來論壇上發表了演講,會后 36氪 對他進行了簡短的【獨家采訪】。

神經網絡模型讓數據的潛力更大

我們都知道,在海量數據時代,深度學習為人工智能帶來了新的機會。這些機會集中在三個地方:文本、圖片和語音識別。

吳恩達提到,人工智能有一個正循環鏈條。有了好的產品,可以吸引更多的用戶,然后會生成海量的數據,接著數據又能帶來更為優秀的產品。但是,如果 采用傳統的人工智能算法,數據增長到一定體量,算法效果會遇到瓶頸。但如果運用新的深度學習算法,隨著數據的增長,算法的效果可以持續提升。

什么神經網絡模型呢?以下是他舉的例子:

7年前,我讓學生利用當時最好的算法完成一項簡單任務——在一張放了很多餐具的圖片中判斷哪個是杯子,結果沒有做到。基本上柱狀的工具都被識別成了杯子。

雖然在人的眼里,看到的是這些物品的外形,但是在計算機的眼里,他們得到的信息只是照片上每一個像素點上代表色彩的數字,利用數字譜與其他的圖像 對比。再舉一個語音識別的例子,過去我們將聲音分解為不同的音調、音素等等,希望通過數據解碼來識別一段對話,但得到的結果還是與自然語音本身不同。

人腦是怎么學習的呢?這里要聲明,雖然叫做神經網絡模型,但并不是真的讓算法模仿人的大腦工作,因為我們并不確定大腦到底如何工作的,只是希望接 近這種機制。以上面的杯子為例,我們只是提供大量的杯子圖片,讓計算機來發現這些樣本具有怎樣的特征,然后它就可以進行判斷了,和我們平時學習的方式很相 似。

這件事過去做不了,所以需要依賴傳統的數據解碼算法,但現在對數據的存儲和計算都達到巨量級,能夠實現海量樣本對照。

語音識別將推動手機的革命

越來越多的人正在使用語音識別,深度學習語音識別系統的準確率比傳統方式提升了很多。

在移動端應用場景下,語音交互與手指輸入相比,是一種更自然的人機交互方式。我們可能不再需要在手機上安裝那么多的Apps,你只需要跟手機進行 語言交互,告訴它你需要什么,他就能為你連接服務。我相信語音將會推動手機的革命。想象一下,未來我們將圍繞語音界面來重新設計移動產品,重新定義人與手 機的交互界面。

在這里,吳恩達說了一句模棱兩可的話: 接下來,我們會為你帶來更好的智能手機 。不知道該理解為百度手機重出江湖,還是僅僅泛指所有的手機商呢?

不用擔心機器人會占領世界

人工智能技術仍然存在挑戰。比如,有的國家使用AI技術威脅到了人的權利(腦補 疑犯追蹤 ),這是很嚴肅的道德議題。但即使不存在AI,這樣的情況也是存在的。至于說AI達到了比人更聰明的程度,甚至可能會控制我們的世界。我認為這并不是目前急需關心的問題。機器統治世界不會很快發生,或許100年后我們才需要擔心這個問題。

即使我們說深度學習算法具有自我學習的能力,但也不需要為此擔心。大量的神經網絡算法中的模型訓練,即機器學習的過程,都是 有監督的訓練 。這種訓練方式應用在語音識別、圖像識別中時,效果是非常好的。但如果站在機器可能統治人的角度,這是完全不同的事情。

[ 36氪 原創文章,作者: 廚子與劍客]

</div>

 本文由用戶 jopen 自行上傳分享,僅供網友學習交流。所有權歸原作者,若您的權利被侵害,請聯系管理員。
 轉載本站原創文章,請注明出處,并保留原始鏈接、圖片水印。
 本站是一個以用戶分享為主的開源技術平臺,歡迎各類分享!