從先鋒到批判者:圖靈獎得主Judea Pearl的世界

jopen 6年前發布 | 10K 次閱讀 程序員 Judea Pearl

Judea Pearl 于 1936 年出生,以色列裔美國人,美國著名計算機科學家和哲學家,2011 年圖靈獎得主,被稱為“貝葉斯網絡之父”。Judea Pearl 以倡導人工智能的概率方法和貝葉斯網絡的發展而聞名,他還建立了基于結構模型的因果和反事實推理的理論。

從先鋒到批判者:圖靈獎得主Judea Pearl的世界

選自 The Atlantic

作者 Kevin Hartnett

編譯網易智能(smartman163)

人工智能之所以足夠智能,很大程度上要歸功于 Judea Pearl。在 20 世紀 80 年代,他帶頭推動機器以概率的方式進行推理。但是現在,他卻成為了該領域最尖銳的批評者之一。他在自己的新書《The Book of Why:The New Science of Cause and Effect》中指出,人工智能的發展已經受到阻礙,因為它不能完全理解智能的真正含義。

30 年前,人工智能研究的一個主要挑戰是如何對機器進行編程,從而把潛在的原因與一系列可觀察到的條件聯系起來。Pearl 想出了一個辦法,使用一個叫做貝葉斯網絡的方案解決這個問題。貝葉斯網絡使機器能夠回答問題,比如給出一個從非洲歸來的、出現發燒和身體疼痛征兆的病人,那么最有可能的解釋是瘧疾。2011 年,Pearl 獲得了圖靈獎,這是計算機科學的最高榮譽。他能獲得這一榮譽在很大程度上是歸功于這項工作。

但 Pearl 認為,人工智能領域已經陷入了概率關聯的泥潭。最近,大量的頭條新聞都是關于機器學習和神經網絡的最新突破,我們能夠讀到計算機掌握古老游戲、駕駛汽車的消息。而這些對 Pearl 來說毫無吸引力。正如他所認為的,人工智能領域的最新技術只不過是上一代機器已經做過的事情的強化版:在大量數據中找到隱藏的規律。他最近表示:“深度學習所取得的所有令人印象深刻的成就都只是曲線擬合。”

在他的新書中,現年 81 歲的 Pearl 闡述了一個關于真正的智能機器如何思考的愿景。他認為,關鍵是用因果推理來代替關聯推理。這不僅僅是將發燒和瘧疾聯系起來的能力,機器需要有推斷出“瘧疾引起發燒”的能力。一旦這種因果關系框架就位,機器就有可能提出反事實的問題,也就是詢問因果關系在某些干預下會如何變化。而 Pearl 認為這正是科學思考的基礎。Pearl 還提出了一種正式的語言,使這種思維成為可能,這是一個 21 世紀版本的貝葉斯框架,能夠讓機器進行概率性思考。

Pearl 認為,因果推理可以使機器具有人類水平的智能。他解釋說,這樣它們就能夠更有效地與人類交流,甚至能夠獲得道德實體的地位,同時具備自由意志和作惡的能力。

從先鋒到批判者:圖靈獎得主Judea Pearl的世界

Quanta Magazine 雜志最近在圣地亞哥的一次會議上對 Pearl 進行了訪談,隨后又通過電話對他做了后續采訪。以下是經過編輯和精簡的采訪對話:

問:為什么您的新書起名為《The Book of Why》?

Judea Pearl:這本書代表了我在過去的 25 年里做的一份關于因果關系的總結,它在一個人的生命中意味著什么,它的應用,以及我們如何解決那些固有的因果關系的問題。奇怪的是,這些問題已經被科學拋棄了。所以我的目的是彌補科學對它們的忽視。

問:有一個戲劇性的說法是,科學已經放棄了因果關系。但這不正是科學所要研究的嗎?

Judea Pearl:當然是的,但是你不能在科學方程式中看到這種崇高的愿望。代數的語言是對稱的:如果x告訴我們關于y的信息,那么y就能夠告訴我們關于x的信息。這是確定性關系。

在數學中沒有辦法寫出一個簡單的事實。例如,即將到來的暴風雨會使氣壓計下降,而不是上升。數學還沒有發展出一種非對稱的語言,即x引起y并不意味著y會引起x。我知道,反對科學聽起來像是一件可怕的事情。但科學更寬容:鑒于我們還沒有關于不對稱關系的微積分,科學會鼓勵我們去創造一個。這就是數學的用武之地。我很高興看到,一個簡單的因果關系演算可以解決我們那個時代最偉大的統計學家認為不確定或無法解決的問題。所有這些都能在高中幾何中找到證明,這是非常輕松和有趣的。

問:幾十年前,你通過使機器實現概率推理而在人工智能領域名聲大噪。可否解釋一下當時人工智能的情況?

Judea Pearl: 20 世紀 80 年代初出現的問題具有預測性或診斷性。醫生從病人身上觀察到一系列癥狀,并希望找出病人患有瘧疾或其他疾病的概率。我們希望自動系統、專家系統能夠取代專業人員——無論是醫生,還是礦物資源的勘探者,或者其他的有償專家。基于這一點,我提出了通過概率來實現這些的想法。標準的概率計算需要指數空間和指數時間,這使問題變得非常復雜。我提出了一個叫做貝葉斯網絡的方案,它能夠多項式時間內完成,而且過程非常透明。

問:但在你的新書中,你把自己描述成當今人工智能社區的叛徒。這是為什么呢?

Judea Pearl:我們開發出能夠讓機器以不確定性推理的工具后,我就離開了 AI 社區去追求一項更具挑戰性的任務:因果推理。而我的許多人工智能領域的同事仍然在研究不確定性。有一些研究小組在繼續研究診斷問題,而不用擔心問題的因果關系。他們想要的只是更好地預測和診斷。我可以舉個例子。我們今天看到的所有機器學習工作都是在診斷模式下進行的,例如,將對象標記為“貓”或“老虎”。他們不關心干預,他們只是想要識別一個物體并預測它將如何隨時間變化。

當我為預測和診斷開發出強大的工具,并意識到這只是人類智能的一小部分時,我感覺自己像個叛徒。如果我們想讓機器來解釋干預措施(“如果我們禁止吸煙怎么辦?”)或者反省(“如果我高中畢業了怎么辦?”),我們就必須使用因果關系模型。僅僅有關聯是不夠的。這只是一個數學事實,而不是觀點。

問:人們對人工智能所帶來的的可能性感到興奮。你會有這種感覺嗎?

Judea Pearl:我在研究深度學習的過程中,我發現研究人員都被困在了關聯級別的問題上——曲線擬合(Curve fitting)。那些認為深度學習所取得的所有令人印象深刻的成就都是為了適應數據的曲線,這樣的想法聽起來是一種褻瀆。從數學層級的角度來看,無論你如何巧妙地操縱數據,以及當你操縱數據時你能獲取什么信息,它仍然是一個曲線擬合的過程,盡管是復雜且繁瑣的問題。

問:你談論曲線擬合的方式似乎表明,你對機器學習不太感興趣。

Judea Pearl:不,我對機器學習印象很深刻,因為人們通常不認為僅僅通過曲線擬合就解決那么多問題。事實證明它們可以。但我關心的是未來——接下來會怎樣呢?你能讓一個機器人科學家來計劃實驗,并為懸而未決的科學問題找到新的答案嗎?這是機器學習下一步要解決的問題。

我們還希望能與機器進行一些有意義交流。“有意義”的意思是,與我們的認知相匹配。如果機器人不具備對因果關系的認知,那么就永遠不會有意義的交流。機器人不能像你和我一樣,說出“我本應該做得更好”。因此,我們失去了一個重要的溝通渠道。

問:擁有人類的因果關系認知的機器,前景是怎樣的?

Judea Pearl:我們必須給機器配備一個環境模型。如果一臺機器沒有現實的模型,你就不能指望機器在這個現實中表現出智能。第一步就是由人類編程的現實概念模型,這可能在 10 年之內出現。下一步,機器將自己假定這些模型,并將根據實證證據對它們進行驗證和改進。這就是科學領域一直在發生的事情:我們最初認同地心說,認為一切都在圍繞地球轉動,而最終通過日食發現了日心說。機器人也將相互交流,并將把這個充滿隱喻模型的假想的世界和狂野的世界翻譯成它們的語言。

問:當你和今天在人工智能領域工作的人分享這些想法時,他們會作何反應?

Judea Pearl:人工智能目前是分裂的。首先,有一些人沉醉于機器學習、深度學習和神經網絡的成功。他們不理解我在說什么,他們想要繼續做曲線擬合。但是,當我和那些在統計學習范疇以外的人工智能領域工作的人交談時,他們會立即理解我。在過去的兩個月里,我讀了幾篇關于機器學習的局限性的文章。

問:你是在暗示有一種遠離機器學習的趨勢嗎?

Judea Pearl:不是一種趨勢,而是一種嚴肅的自我反省,包括這些問題:我們要去哪里?下一步是什么?

問:那是我最不愿意問你的問題。

Judea Pearl:我很高興你沒有問我關于自由意志的問題。

問:那么,你對自由意志有什么看法?(智能菌標注:好尷尬,提問者機智如我~)

Judea Pearl:我們絕對會開發出具有自由意志的機器人。我們必須了解如何對它們進行編程,以及從中我們能獲得什么。由于某些原因,對于進化來講,這種自由意志是可以被計算的。

問:以什么方式呢?

Judea Pearl:你具備自由意志,進化使我們有了這種感覺。顯然,它提供了一些計算功能。

問:機器人出現自由意志的時候會很明顯嗎?

Judea Pearl:我認為第一個證據是,如果機器人開始反事實地相互交流,比如它們說出“你應該做得更好”。如果一個機器人團隊開始用這種語言進行交流,那么我們就將知道他們具備了自由意志。“你應該把球傳給我——我在等你,而你沒有!”“你應該做某件事”意味著你可以控制做或者不做某件事。所以第一個跡象是交流,第二個是能夠踢更好的足球。

問:既然你已經提出了自由意志,我想我應該問你關于作惡能力的問題,我們通常認為這取決于做出選擇的能力。那么什么是邪惡呢?

Judea Pearl:邪惡就是,相信你的貪婪或不滿取代了社會的所有標準規范。例如,一個人具備一個類似于軟件模塊的東西,上面寫著:“你餓了,所以你有權采取行動來滿足你的貪婪或不滿。”但是又有其他的軟件模塊可以指導它遵循社會的標準規范。其中一種叫做同理心。當你把你的不滿提升到社會的普遍標準之上時,那就是邪惡的。

問:那么我們怎么知道人工智能有能力作惡呢?

Judea Pearl:當我們很明顯地看到機器人忽略軟件組件時,并且總是忽略它。或者是機器人只遵循某些軟件組件的建議,而不遵循其它組件的建議時。或者機器人忽略那些來自控制行為規范的組件的建議時,這些規范是被編程在其中或者根據過去的學習生成的。而機器人不再遵循這些規范。

(選自:The Atlantic 編譯:網易智能參與:李擎)

來自: 網易科技

 本文由用戶 jopen 自行上傳分享,僅供網友學習交流。所有權歸原作者,若您的權利被侵害,請聯系管理員。
 轉載本站原創文章,請注明出處,并保留原始鏈接、圖片水印。
 本站是一個以用戶分享為主的開源技術平臺,歡迎各類分享!