非死book專家稱機器能像嬰兒一樣看視頻學常識

jopen 7年前發布 | 4K 次閱讀 Facebook

非死book專家稱機器能像嬰兒一樣看視頻學常識

相比識別圖片,讓人工智能系統識別視頻內容,要困難的多。因為視頻含有大量的信息,要機器理解視頻中這些豐富的內容,一直是人工智能領域里未解決的問題。

不過,在 非死book 人工智能實驗室負責人楊樂昆(Yann LeCun)看來,人類既然已經教會機器辨別圖片,甚至能做到人臉識別,那么機器也能識別視頻。而教會機器學習視頻的方法與嬰兒學習相似。即讓機器像嬰兒一樣,觀看視頻,告訴它視頻所講的內容。

當地時間 3 月 9 日,《MIT 科技評論》發布了一篇關于 非死book 人工智能實驗室負責人楊樂昆(Yann LeCun)談機器視覺技術的文章。在楊樂昆看來,現在機器視覺還有很多不足,只能理解人類教給它的知識,但這在未來會得到改變:通過訓練,你給機器展示一段視頻中的幾幀畫面,它就可以預測接下來會發生什么。

楊樂昆出生在法國,曾在多倫多大學跟隨深度學習鼻祖 Geoffrey Hinton 進行博士后的研究,現在是紐約大學終身教授,是人工智能神經網絡研究的先鋒。在加盟 非死book 之前,他在貝爾實驗室工作了超過 20 年,那里是全世界最著名的計算機研究實驗室,誕生過許多偉大的產品。楊樂昆在貝爾實驗室工作期間開發了一套能夠識別手寫數字的系統,并把它命名為 LeNet。這個系統能自動識別銀行支票。

以下是楊樂昆對人工智能機器視覺的理解:

目前機器視覺取得了哪些進展?

一張圖里面有一個主體,規則是讓機器給各類主體進行分類。只要你有足夠的數據,類似每個目錄有 1000 個主體,機器就可以對一些特定的類別產生認知,例如特定品牌的汽車,特定種類的植物或是特定品種的狗。我們還可以認識一些更為抽象的門類,例如天氣圖、地貌、日落、婚禮或生日聚會。僅僅 5 年前,我們還不太清楚機器是否已經完全解決了這個問題,但現在也不意味著機器視覺問題已經都解決了。

如今機器視覺還未 “解決”的重要問題是什么?

人們在幾年前就有一種想法——為圖片和視頻生成一種標簽或描述。從表面來看,現在已經有顯著的進展了,但事實上這些成果沒有他們看上去那么顯著。機器在特定領域的知識僅限于我們教授給它們的內容。這些系統中的大部分會出現以下情況,你給它們看一些其他類別的圖片,或給它們展示一些之前從未見過的場景,機器就會說出一堆垃圾。它們暫時還沒有常識。

機器視覺和常識之間有什么樣的聯系?

這取決于你和誰討論這個問題,即使是在 非死book 內部也有不同的答案。你可以用語言與智能系統進行互動。但問題是語言是一種低帶寬信息傳輸渠道。通過語言表達信息,是因為人類有許多背景知識能對這個信息進行理解。

有人認為,要向 AI 系統提供足夠信息的唯一方法是將視覺感知作為基礎,這要比語言作為輸入帶來的信息量高。如果你告訴機器“這是一個智能手機”;“這是一個壓路機”;“這些東西是你能推動的,其他的不能搬動”,或許機器能像寶寶學習一樣,掌握世界的一些基本知識。

因為嬰兒無須受到具體的指引就可以從這個世界中學到很多東西。其中一件我們十分想做的事情就是,讓機器通過觀察視頻或通過其他渠道來學習,向其展示真實世界中萬物的聯系。這種方法最終可以讓機器掌握常識。這也是動物和嬰兒在出生后前幾個月學習的方式——你可以僅僅通過觀察這個世界就從中學到相當多的東西。如今還有很多方式可以“愚弄”機器,因為它們對這個世界的認知非常有限。

“讓機器從觀察中學習”取得了什么進展?

有觀點認為,機器學習系統應該可以預測未來,我們對這種想法十分感興趣。你給機器展示一段視頻中的幾幀畫面,它就可以預測接下來會發生什么。如果我們可以訓練系統做到這點,我認為我們已經研發出了一種以無人監管學習系統為基礎的技術。我認為,這就是更多有趣的事情很可能會發生的地方。這種應用在機器視覺并不是必要的,但確是人工智能領域取得的進步。

來自: 澎湃新聞

 本文由用戶 jopen 自行上傳分享,僅供網友學習交流。所有權歸原作者,若您的權利被侵害,請聯系管理員。
 轉載本站原創文章,請注明出處,并保留原始鏈接、圖片水印。
 本站是一個以用戶分享為主的開源技術平臺,歡迎各類分享!