美國人工智能大牛Yann LeCun是如何煉成的
外媒 Buzzfeed 周二發文介紹了 非死book 人工智能團隊領頭人 Yann LeCun。他在上世紀 80 年代讀博期間提出“人工神經網絡”,但后來該理論一度被認為過時,他本人甚至被拒絕參加學術會議,直到他在 2013 年加入 非死book,他的理論才慢慢開始變得熱門。
現在,神經網絡已經滲入到所有的 非死book 產品中,也成為了科技企業競相研究的領域。
以下為 AI 世代編譯整理的文章全文:
在距離 非死book 門洛帕克總部約 3000 英里之外的曼哈頓中心,有一座米黃色的舊辦公樓。在這棟樓里面,一群人正在研究更像是出現在科幻小說中,而不是適用于社交網絡的項目。
這個團隊是 非死book 人工智能(AI)研究團隊(非死book Artificial Intelligence Research)。在 非死book 內部,這個團隊被稱為 FAIR。
FAIR 專注于一個目標:創造跟人類具有同等智商的計算機。盡管這個目標遠遠沒有達到,但該團隊已經取得一些當前很少人認為有可能發生的進展。
他們的人工智能程序可以畫出跟人類藝術家的畫作幾乎沒有差別的畫,還能完成一些主題限定于維基百科范圍內的小測試,甚至會玩《星際爭霸》之類的視頻游戲。
它們正在慢慢地變得越來越聰明。將來有一天,它們會把 非死book 從促進朋友間交流的平臺變成可能成為你的朋友的東西。
FAIR 不是你想象中的典型 非死book 團隊。該團隊隊員不直接研究那些非常受歡迎的 非死book 產品:Instagram、WhatsApp、Messenger 和 非死book 本身。
他們的終極目標可能需要幾十年的時間才能實現,甚至有可能永遠都無法實現。該團隊的領頭人也不是你想象中的硅谷成功人士,而是一位曾經在人生中經歷過真正失敗,然后又奮力東山再起的 56 歲科研人員。
他的關于人工智能的理論曾經被視如敝履,而現在被認為屬于世界級水平。非死book 頒發給他的獎金就是最好的證明。
“您與數字世界、手機、計算機的互動將會發生根本性的變化。”LeCun 在談到人工智能可能意味著什么的時候如此說道。
FAIR 正在提高計算機視、聽和獨立進行溝通的能力。他們的發現正在滲透到 非死book 的各個產品中。
從 News Feed 排序,到相片濾鏡,到處都有他們的研究結晶。
非死book 對人工智能進行大規模投資,不僅僅是因為人工智能很有趣,而是因為它不可或缺。在當今科技界的每一個角落,企業們都是在人工智能的基礎上進行較量。
Uber 的智能自動駕駛汽車是其業務戰略的核心。
谷歌的基于人工智能的 Google Home 智能音箱可以回答用戶口述的問題——在過去,人們遇到問題只能手動輸入搜索,或在更久遠的過去,只能打開紙質百科全書查詢。
亞馬遜正在打造只有人工智能收銀員的便利店,企圖進軍市場規模 6740 億美元的食品雜貨市場。
而在 非死book,處處都有人工智能的影子。舉個例子,它的人工智能驅動的照片濾鏡正在幫助它擊退 Snapchat 的挑戰。非死book 的人工智能能夠識別照片里的東西,還能決定向你推送哪些內容。
在人工智能的幫助下,非死book 提供了有趣的用戶體驗,吸引用戶不斷再次回頭。
同樣的技術還被用于監控騷擾、恐怖和色情內容。人工智能可以將這些內容標記下來并清除。
非死book 的應用機器學習(AML)團隊負責人 Joaquin Candela 表示:“人們使用 非死book 全系列產品的體驗主要取決于人工智能技術。在今天,如果沒有人工智能,非死book 就不可能存在。就這樣。”
隨著該領域不斷發展,非死book 需要依靠 LeCun 及其團隊來幫助它走在當前的和未來的競爭對手前面,因為這些競爭對手也有可能擁抱人工智能技術。
在經歷多年的批評和忽視之后,LeCun 終于擁有了現在的一切:80 名科研人員、非死book 的巨大財力支持和大眾對他的研究的信任。他現在要做的就是推出產品。
LeCun 在曼哈頓
視覺
LeCun 在他年輕的時候就相信,他可以讓計算機擁有視覺。在今天,面部識別和圖像檢測已經變得十分普遍。但在 20 世紀 80 年代初 LeCun 在巴黎上大學的時候,計算機實際上是瞎子。它們不能識別照片里的東西,更不知道攝像機鏡頭里有什么。
在大學期間,LeCun 偶然涉足了一種探索人工智能的途徑,而這種途徑自從 60 年代以來幾乎沒有人探索過。他認為,他的研究可以讓機器學會完成多種任務,包括感知。
這種途徑就是人工神經網絡。它研究的是,如何讓由小型傳感器互聯形成的系統把圖像等內容分解成非常細小的部分,然后識別出其中的模式,最后根據所有的輸入數據確定它們看到了什么。
在閱讀了關于神經網絡的種種反對觀點——難以訓練,性能不夠強大——之后,LeCun 決定推動這項研究。盡管遇到了質疑,但他還是在攻讀博士學位期間專注研究人工神經網絡。
在談到這些批評聲音的時候,他說:“我只是不相信他們說的。”
人工智能研究經常會遇到困難時期,而且困難難以解決。這樣的時期獲得了一個專屬稱呼:人工智能寒冬。
這些時期主要出現在研究人員取得的成果無法達到最初設想之后。
這讓人覺得該技術不可行,進一步導致人們對人工智能失去興趣,投資枯竭,技術進步趨于停滯。
LeCun 也遇到過這樣的“人工智能寒冬”。在 90 年代中期加入貝爾實驗室從事人工智能研究之后,AT&T的內部矛盾導致了他的團隊分崩離析。
當時,他們正在計劃推出能讀取支票的自動取款機——今天,這種基于神經網絡的技術仍在使用中——就在 LeCun 認為這項技術取得明顯進步的時候,他的項目被取消了。
LeCun 說:“就在將要取得真正成功的那一天,整個項目被解散了。這真的讓人感到非常沮喪。”
與此同時,其他人工智能技術獲得了主流研究人員的關注。盡管這些技術后來變得無人問津,但其崛起足以導致神經網絡被邊緣化。
在本世紀 00 年代初,其他科研人員甚至拒絕讓他在學術會議上介紹他的論文。
神經網絡先驅、谷歌的工程專家、多倫多大學教授 Geoff Hinton 表示:“計算機視覺圈子把他拒之門外。外界的看法是,他在從事在上世紀 80 年代看起來很有前景的研究,但現在他應該放棄這方面的研究。”
“現在沒有人這樣看了。”他補充說。
在那個年代,其他神經網絡研究人員也遇到了類似問題。
蒙特利爾大學教授、蒙特利爾學習算法研究所所長 Yoshua Bengio 發現,他很難找到愿意跟自己一起做研究的研究生。“我不得不強迫學生從事這方面的研究,因為他們害怕在博士畢業后找不到工作。”
2003 年,LeCun 為自己的重生打下了基礎。那一年,他成為紐約大學教師,并與 Hinton 和 Bengio 結成非正式的聯盟,共同重啟對神經網絡的研究。LeCun 面帶微笑地說道:“我們開始了我一直稱之為‘深度學習陰謀集團’的合作。”
“深度學習陰謀集團”在神經網絡研究領域扮演了至關重要的角色。他們堅持最初的信念,認為不需要為每一類檢測對象開發專門的神經網絡,你只需使用同樣的模板開發一個神經網絡,就可以檢測圖像、視頻和語音。
換而言之,你沒有必要為識別企鵝和貓分別開發一個神經網絡,你可以開發一個能夠檢測兩者并能識別其差異的神經網絡。這種新的神經網絡也可以經過修改勝任其他任務,例如檢測聲波,識別語音中的模式。
“深度學習陰謀集團”的研究受益于兩個重要的外界因素。一方面,計算機性能大幅度提升,這使得神經網絡的運行速度變得足夠快,從而可以應用于實際。
另一方面,由于互聯網的普及,可獲得的數據(包括圖片和文字)獲得了指數級的增長,讓神經網絡得到足夠的訓練,變得更加智能。神經網絡因此變得更加靈活、快速、準確,給人工智能領域帶來了全新的可能性。
得益于 LeCun 及其合作伙伴打下的基礎,計算機視覺在進入 10 年代初期出現了爆炸式增長。計算機開始學會識別圖像中的物體,接著又能識別視頻中的物體,最后又發展到能夠識別攝像頭拍攝的實時畫面中的物體。
現在,當你把攝像頭指向一個籃球時,人工智能可以知道攝像頭前方有什么。LeCun 迅速從人工智能領域的邊緣人物變為行業領導者。
他表示:“原來沒有什么人從事這方面的研究,但在不到一年的時間里,所有人都在研究人工智能。這真是瘋了,完全是瘋了。”
2013 年 12 月,LeCun 加入 非死book。對于有意將人工智能研究應用于圖像識別的科研人員來說,非死book 是一個理想的研究環境。
非死book 平臺上有數十億張圖像,這給 LeCun 及其團隊提供了用于踐行新想法的豐富資源。FAIR 團隊經常跟 AML 團隊合作,在 非死book 平臺上將研究成果付諸實踐。
這兩個團隊共同開發新的系統,讓整個 非死book 公司都能受益于技術的進步。
AML 團隊使用 FAIR 團隊的研究成果來識別用戶 News Feed 中的內容,或將 非死book 的內部內容翻譯成其他語言。他們還將這些研究成果應用于 非死book 相機,讓相機根據用戶動作生成各種特效。
FAIR 推出的計算機視覺工具 SharpMark
思維
教會計算機觀察能力是教會它們理解這個世界的運作方式的第一步。人類知道這個世界是如何運作的,原因是我們反復觀察了相同的場景,漸漸地知道這些場景將會如何展開。
舉個例子,當一輛汽車沿著道路高速地向我們站著的地方駛來時,我們預測這輛汽車可能會撞上我們,于是我們會讓開。當天黑之后,我們知道按一下電燈開關會帶來光明,于是我們會按一下開關。
FAIR 團隊正在嘗試使用類似的方式教會計算機像人類那樣預測事情的結果。LeCun 解釋說,這個團隊正在向人工智能展示許多具有相關性的視頻,隨后在某個點暫停視頻,讓機器預測接下來會發生什么。
例如,如果你反復向人工智能系統展示水瓶在人的頭頂上倒過來的視頻,那么它可以預測,這樣的動作會導致有人被弄濕身。
“在某種程度上,智能的本質就是預測。”LeCun 解釋說,“如果你可以預測你的行為將導致什么結果,那么你就可以做出計劃。你可以計劃一系列行為,從而達到特定的目標。”
目前,教會人工智能預測能力是這一領域所面臨的最棘手的挑戰。其主要原因在于,在許多情況下,多個預測結果在理論上都是正確的。
LeCun 說,想象一下,你在桌子上方垂直地拿著一支筆,然后放手。如果你問計算機,一秒鐘之后這支筆將會位于何處,你不會得到準確的回答。
機器知道這支筆會掉下來,但它無法準確預測這支筆最終會落在哪里。因此,你需要告訴系統,這個問題有多個正確的答案,事實上發生的結果只是多個可能性中的一個。這就是在具有不確定因素的情況下作出預測時存在的問題”。
幫助人工智能理解和接受不確定性是人工智能研究的一個分支。這個分支被稱為“無監督學習”(unsupervised learning),是機器學習的最前沿領域。在人工智能進行足夠多的觀察之后,它會懂得這個世界是如何運作的,并學會預測。
那時,它會開始像人類那樣思考,并獲得健全的判斷力。LeCun 認為,這是讓機器變得更智能的關鍵。
LeCun 及其團隊承認,人工智能完全掌握這種技能還需要很多年的時間。不過他們相信,他們終究會實現這個目標。
LeCun 下屬的研究經理 Larry Zitnick 表示:“這終將發生,但我會說,這需要超過 10 年的時間。”
語音
去年 12 月,扎克伯格公布了一段視頻,展示他親自動手編程打造的人工智能管家“賈維斯”(Jarvis)。
賈維斯可以給他烤面包,能夠在識別出扎克伯格父母的臉之后給他們開門。他甚至還會教他的女兒說漢語。
扎克伯格在使用智能管家賈維斯
這個智能管家看起來非常酷炫。但在 LeCun 看來,這沒什么特別的。
“它主要是用腳本寫成的,比較簡單。而且,從某個角度看來,它的智能程度很低。”LeCun 說道。
LeCun 想要開發能夠真正聽懂你的話語的智能助手。“這是一種能夠跟你進行對話的機器。”LeCun 解釋說,“它們能夠實現做好計劃,它們不會蠢到讓你生氣。”
打造這樣的機器沒有藍圖可依,不過 FAIR 團隊正在研發構建部件。讓人工智能對這個世界有初步的理解,并訓練它預測這個世界上可能會發生的事情屬于其中的一個部件。
利用神經網絡教會它閱讀和寫作是另外一個部件。對計算機來說,一個圖像是一串數字。一個口語句子也可以用一串數字來代表,文本也一樣。因此,LeCun 等人可以使用神經網絡架構來識別圖像中的物體,語音中的單詞,或者文本的主題。
人工智能當前仍然無法像理解圖像那樣理解文字,但 LeCun 已經看到未來的賈維斯會是什么樣子的。他理想中的智能助手將具有基本判斷力,并能跟其他助手溝通。
例如,如果你打算跟朋友一起去聽音樂會,你讓你的智能助手協調一下,它會根據你喜歡的音樂類型、你的日程安排和即將上演的音樂會向你提供切實可行的建議。
LeCun 在形容他面臨的挑戰時說:“機器需要考慮現實世界的情況,一個人不能同時出現在兩個地方,也不能在一定的時間之內從舊金山來到紐約,它還需要考慮出行成本。你需要了解很多事情,才能安排好一個人的生活。”
非死book 目前正在試驗一個被稱為“M”的簡單版本數字助手。這個基于 FAIR 團隊研究成果的項目由 Messenger 團隊運作。
非死book Messenger 最近推出了“M suggestions”(M的建議),讓M在認為自己可以提供幫助的情況下加入用戶的對話。
比如,當有人問“你在哪里?”的時候,M會彈出來加入對話,向你提供一個一鍵分享位置的按鈕。非死book 未來可能會將此功能擴展到更高級的用途。
M 只是 非死book 使用人工智能理解意義的其中一個例子。這家公司還在考慮把人工智能技術用于其他用途,甚至可能利用人工智能來打破外界最近指責它幫忙豎起的壁壘。
2016 年的美國大選讓外界開始關注 非死book 上的兩極分化和假新聞,然而在此之前,LeCun 團隊成員Y-Lan Boureau 就已經開始研究如何利用人工智能在 非死book 上創建更具建設性的對話。
同時研究神經學和人工智能的 Boureau 曾花一個夏天來觀察她的朋友在 非死book 上和人互撕,沒有一點興趣聽取反對意見,于是她決定從事這方面的研究。
她解釋說:“如果我們能夠更多地了解他們這種的心態背后的驅動力,理解意見如何形成,如何固化成型,了解他們不能彼此溝通的原因,這將是一件大好事。”
Boureau 想創造這樣一個世界:在人們付諸行動之前,可以看到盡可能多的不同意見。
人工智能可以幫助我們從文本中找出模式,理解哪些環節出了問題,并找出辦法讓偏離軌道的對話回到正軌。
“如果我們能夠通過數據進一步了解對學習過程以及人們的信念是如何形成的,那么我們就能夠知道怎樣才能進行更多的具有建設性的對話。”Boureau 說道。
在 2016 年美國大選之后,LeCun 公開表示,非死book 有技術能力使用人工智能過濾假新聞。有人覺得這種方式還可以用來解決美國的兩極分化問題,但 LeCun 稱這個任務最好還是留給第三方解決,而不是交給可能存在偏見的機器。
現實
對人工智能來說,炒作周期可能會引起危機。LeCun 深知這一點。而現在,我們似乎就處于這樣一個周期。
在 2013 年第一季度,只有 6 家公司在其財報電話會議上提到人工智能。根據彭博社的數據,這個數字在 2017 年第一季度增長到了 244 個。
在談到人工智能的未來時,LeCun 措辭非常謹慎。他說:“人工智能離我們的目標還非常遠,還達不到我們想要的效果”。事實上,正如 LeCun 警告的那樣,人工智能還遠遠達不到人類的智力水平,即所謂的通用人工智能。
然而,有時候 LeCun 也無法抑制自己的熱情。讓他感到尤其興奮的是對抗性訓練。這是一種相對比較新的人工智能研究領域。有助于解決當前人工智能領域面臨的預測和不確定性挑戰。
對抗性訓練讓兩個人工智能系統互相對抗,從而讓它們更了解真實世界。比如,在 FAIR 團隊的一個實驗中,研究人員讓一個人工智能系統畫畫,并騙過第二個人工智能系統讓其以為這是人類畫的,第一個人工智能系統接著利用第二個人工智能系統的反饋把畫畫得更好。
在今年早些時候的一個會議上,LeCun 展示了一些更先進的東西:第一個人工智能試圖讓第二個人工智能相信,它創造的一段視頻中幾幅畫面屬于后者已經看過的一個視頻中的一部分。LeCun 表示,對抗性訓練“是機器學習領域過去 10 年或者 20 年來最棒、最酷的想法。”
LeCun 會繼續研究對抗性訓練,再一次把人工智能研究推向新的極限。他一路走來,從 20 年前默默無聞的年輕研究員變成現在人人仰慕的大牛。
盡管 LeCun 會第一個告訴你,對人工智能的研究遠未結束,成功不屬于他一人,但他無法讓你不欣賞他。
“我不能說這種感覺很糟糕。”他說,“這種感覺棒極了。”
來自: 騰訊科技