都說人工智能越來越近,但有 11 種謬誤還在遍地開花 | 每天還有一個 List

jopen 9年前發布 | 23K 次閱讀 人工智能

如果你對人工智能的認知來自科幻電影和科技公司 CEO 的演講,最好還是找點別的信息渠道了解一下。


我們造出了像人腦一樣的計算機


都說人工智能越來越近,但有 11 種謬誤還在遍地開花 | 每天還有一個 List


今天大小科技公司都在談人工智能,而神經網絡計算則是說明自己技術前沿的最佳例證。當它的原理被市場部們幾經簡化之后,已經變成“像人腦神經網絡一樣工作”。

但是 1980 年就已經出現的神經網絡計算和人腦只有極為模糊的聯系。一個大問題是科學家目前根本不知道人腦里那張由無數神經元突觸組成的網絡究竟是怎么“計算”的。正如伯克利大學人工智能與機器學習專家邁克爾·喬丹(Michael I. Jordan)所說的

“我們完全不知道大腦是怎樣存儲信息和運作的,這里頭的規則是什么?是什么算法?因此我們現在還不能說用大腦的理論去指導人工智能系統。”



它通過了圖靈測試,所以它有智力


都說人工智能越來越近,但有 11 種謬誤還在遍地開花 | 每天還有一個 List


你一定還有印象,2014 年出現過這樣的新聞標題:“俄羅斯團隊開發人工智能機器人,首次通過圖靈測試。”這臺名為 Eugene Goostman 的計算機被描述為“把自己偽裝成十三歲的男孩,騙過了超過 30% 的評測人員。”

計算機科學之父艾倫·圖靈在 1950 年首次提出了這個關于機器人是否可以思考的著名實驗:人類測試員在不知情的情況下面對計算機,用文字和其交談,如果計算機成功欺騙了測試人員假裝成一個真實的人類,那么該計算機便被證實“會思考”。

后來英國皇家學會將圖靈的標準具體化:在一系列時長為 5 分鐘的鍵盤對話中,只要計算機被誤認為是人類的比例超過 30%,那么這臺計算機就被認為通過了圖靈測試。

一年一度的 Loebner Prize 比賽便以此標準,這個大賽也早就出現了“通過測試”的機器人,比如 2011 年的 Cleverbot 程序達到 59% 的通過率

Eugene Goostman 的批評者認為, 這個所謂機器人就是單純地為了通過這個 5 分鐘測試而設計的,編寫者還頗有心機地把它設定成一個 13 歲的非英語母語的小孩,以便在很多問題無法回答或者出現錯誤的時候,讓裁判誤以為這是因為他年齡小而產生的語無倫次。也就是說,Goostman  既不是“第一個通過測試”的程序,也不是一臺人工智能機器人。

話說,想讓計算機蒙混過關并不復雜,這里還有 10 個伎倆,有興趣的話可以看看。

這個機器人的智力已經接近 XX 歲的兒童







都說人工智能越來越近,但有 11 種謬誤還在遍地開花 | 每天還有一個 List


“百度內部有個‘百度大腦’的項目,用技術模擬人腦思維,現在大約已經相當于 2 - 3 歲孩子的智力水平。未來十幾二十年,這樣的大腦或許比人腦還要聰明。”這話出自百度 CEO 李彥宏


給人工智能程序定義年齡的還有不少,比如伊利諾大學芝加哥分校的研究者,他們對一臺計算機做了 IQ 測試,最終的結果是機器人的“智力”已經接近 4 歲的人類兒童。而微軟小冰的營銷文案中,這個語音助理被定義為“一個 17 歲的萌妹子”。

瑞典的科學家在 2012 年開發了一個據稱智商達到 150 的人工智能程序,媒體的報道稱它“擊敗 96% 的人類”。

但如果這些科技公司能拋開營銷的廢話,誠實地談論自己的人工智能。“這個機器人的智力相當于 5 歲的智力受挑戰的兒童”可能是比較好的說法。

首先,智力測試本身就存在爭議。智力由三種能力組成:短期記憶力、推理能力和語言能力。三個變量相互作用,也許你會在推理方面天賦秉異,但記憶力并不好。一套由 11 個項目組成的考試題并不能全面反映智力的水平。

上面提到的 Jeff Hawkins 說,人類的大腦能學習幾乎所有東西,比如兩三歲的孩子已經能夠掌握至少一門的語言、能從極其復雜的環境中一眼認出父母,不管他們的站姿和表情。人工智能相距甚遠,更不用說搞清楚“智力”這種玄乎的東西了。




算法正在控制一切


都說人工智能越來越近,但有 11 種謬誤還在遍地開花 | 每天還有一個 List



“通過算法,我們可以比人做出更好的選擇”,每隔幾年,這樣的論調都會重復一次。從 2005 年創立、用機器聚合科技網站新聞的 Techmeme,到每次接受采訪都會談個性化推薦的今日頭條,都使用了算法自動抓取互聯網上的新聞內容。但事情在這幾年發生了些變化。

2008 年,Techmeme 招聘了前《連線》雜志的科技記者 Megan McCarthy,她的任務是對計算機挑選的新聞進行人工干預。Techmeme 創始人 Gabe Rivera 說,純算法推送的內容存在問題,比如質量參差不齊以及推送時機不對。理想的新聞聚合網站是采用“自動+人工”混合模式,這能夠更有效地處理新聞,彌補人或計算機的不足。

現在,Techmem 維持著一個 9 人的編輯團隊,而今日頭條也在招聘越來越多的編輯,用人工進一步挑選新聞。

另一個出現逆轉的是智能助手,以 Siri 為代表的智能助手描繪了這樣一個未來:你對著麥克風說一句話,人工智能便幫你打理好一切,不管那是訂餐、找電影票還是看球賽結果。但國內外新近出現的助手 式生活服務為了保證準確率,已經基本轉向人工處理。甚至 非死book 新推出的 非死book M 也是人工幫助處理請求,機器學習人的工作方式。

至少相當長的一段時間,算法與人工還是相互輔助的關系。





這臺機器人已經學會自我繁殖


都說人工智能越來越近,但有 11 種謬誤還在遍地開花 | 每天還有一個 List


最近劍橋大學的實驗室里就誕生了一臺被媒體冠以“會生孩子”名頭的機器人,它的“母體”是一只機械手臂,“嬰兒”則是一個個 3D 打印的藍色小立方塊,每個方塊內有一個獨立的電動馬達。

關于機器人繁殖的腦洞,現代計算機之父馮諾依曼曾指出任何能夠自我繁殖的系統應該同時具有兩個基本功能:它必須能夠構建某一個元素,并且用這些元素組裝和自己一樣的下一代;它必須能夠把對自身的描述傳遞給下一代。這么來看,這臺所謂“會生孩子”的機器人并不符合“繁殖”的定義

就算哪天會有“天網”這樣能像病毒一樣傳播的人工智能,它的影響也非常有限,因為能毀滅人類的計算機需要實體,人工智能專家、On Intelligence 一書的作者 Jeff Hawkins 就說過:“你能想象它(人工智能)自己組建一個工廠然后不停地生孩子嗎?”

終結者來臨,機器人都會殺人了


都說人工智能越來越近,但有 11 種謬誤還在遍地開花 | 每天還有一個 List


今年 7 月,德國大眾汽車的一家外包工廠里用作流水線組裝的機器人成為了眾矢之的:在作業中,這臺機器手臂突然抓住一名人類工人,后者被重重地壓在金屬板上導致胸部受重傷,繼而死亡。

接下來我們就看到了“機器人殺人”這樣的新聞標題,以及這些文章對科技名人“人工智能威脅論”的引用,比如霍金的“人工智能會導致人類滅絕。”、馬斯克的“人工智能的危險性高于核武器。”

不過具體到大眾的“終結者”,事情其實和車禍沒什么區別。大眾汽車證實,這起事故來自“人為操作失誤”,殺人的“機器人”雖然可以經過編程自主完成動作,但它和“人工智能”還差了十萬八千里。

第一起記錄在案的工廠機器人致死事件發生在 1979 年福特的美國工廠。自此這類事件平均每年發生不到一起──比起車禍來基本不值一提。

人工智能的外形,一定要像人


都說人工智能越來越近,但有 11 種謬誤還在遍地開花 | 每天還有一個 List


日本有位知名的人工智能專家石黑浩,他做的事情就是把機器人造的十分接近人類,他甚至喪心病狂地復制了一個自己

我們常常幻想著有一個和我們人類一模一樣的機器伴侶,但別指望他(她)會幫你做家務,因為在那之前你已經被嚇壞了。根據“恐怖谷”理論,機器人如果真能達到 100% 的和人類相似,人類的反應是積極而正面的,但在此之前“像又不是很像”的階段,比如石黑浩的機器人,反而會讓人感覺見到行尸走肉一樣恐怖。

是不是覺得圓滾滾的掃地機器人溫暖又可愛呢?

機器人會遵循阿西莫夫的三定律


都說人工智能越來越近,但有 11 種謬誤還在遍地開花 | 每天還有一個 List


科幻小說家阿西莫夫在 1942 提出了著名的“機器人三定律”:機器人不得傷害人類,或因不作為使人類受到傷害;除非違背第一法則,機器人必須服從人類的命令;在不違背第一及第二法則下,機器人必須保護自己。

盡管科幻小說愛好者都將它當成未來的基本規律。但事實上,讓機器決定人的生死并不是異端。在全球已經有超過 30 個國家配備了“致命性自主武器系統,未來戰爭的一些區域有可能是人工智能在一些區域自助決定是否射殺屏幕上出現的運動物體。

從軍隊角度,人工智能決定生死有諸多好處,比如它會堅決地執行任務,并且殺人的機器不會有負罪感。完全由人工智能決定生死意味著不再需要無人機操作員扣下扳機。白天在弗吉尼亞的封閉樓宇里遠程操控無人機,晚上和家人一起吃飯看到誤炸新聞并不是一份輕松的工作。

人工智能決定生死毫無疑問會引起許多爭議。2013 年 5 月,由它引發的道義、倫理、人權問題首次被提到聯合國人權理事會。但這并不是一場一邊倒的爭論,阿西莫夫的三定律不一定是我們將會面對的未來。

我的人工智能可以……因為它會深度學習




都說人工智能越來越近,但有 11 種謬誤還在遍地開花 | 每天還有一個 List


大約從 Google 收購 DeepMind 開始,深度學習就成了每個和人工智能沾邊的創業公司掛在嘴邊的神器。似乎只要有了據說“像大腦一樣學習”的“深度學習”,你的手機就一定能在嘈雜的環境下聽懂你說的每個詞并帶著語氣翻譯出來;就一定能認出眼前那位姑娘穿的衣服,并在淘寶上找到同款。


“深度學習”在創業公司的宣傳語中已經快變成半個世紀前無所不能的“社會主義”。


有超過 30 年人工智能研究經驗的學者,非死book 人工智能總監 Yann LeCun 這么解釋深度學習:創造學習機器,用同一種方法訓練它學習一切。


作為一個訓練系統,海量的訓練依然是基礎,這是許多創業公司沒能做好的。


并且即便有海量的訓練,原先的限制依然存在。當 Google 經過海量訓練,用深度學習讓機器認出貓的時候,機器只能在貓正臉朝著鏡頭的時候確保認出它。


“把人工智能比作大腦,是給它賦予了一圈神奇的光環,這種描述是危險的,將導致天花亂墜的宣傳。”


LeCun 說道:

“這樣的描述能給投資機構、公眾、潛在客戶、創業公司和投資人帶來一個預期,讓他們相信我們正處在時代的前沿,相信我們正在打造一個像大腦一樣強大的系統。實際上我們距離這個目標還非常遠。”







埋頭苦干幾個月,機器人就有自我意識了


都說人工智能越來越近,但有 11 種謬誤還在遍地開花 | 每天還有一個 List


科幻電影中的人工智能總給人一種非常樂觀的印象:開發出一個有模有樣的機器人非常簡單。


比如在《超能查派》中,主角機器人在一個類似車庫的雜物間里被改裝,從誕生起它就可以快速的自我學習,沒幾天就長成了成年人。《鋼鐵俠》系列中有著英式口音的超級人工智能管家 JARVIS 出自 Tony Stark 那間浮夸的實驗室。《超驗駭客》里,Johnny Depp 飾演的科學家能輕松地在自己家里上傳意識,繼而成為了不死的虛擬人。

別以為現實里的科學家都這么厲害。Artificial Intelligence: A Modern Approach 的作者、加州大學的 Stuart Russell 教授說,單槍匹馬、閉門造車地開發人工智能機器人實在太不現實了,這樣的工作往往需要一個科學家團隊,成果的出現也必然是長久和緩慢的過程。

關于上傳意識,Russell 教授直接說這是“無稽之談”,因為人類自己連“意識”到底是什么還說不清楚呢。

我們復制你的記憶,用人工智能技術讓你作為虛擬人永生


都說人工智能越來越近,但有 11 種謬誤還在遍地開花 | 每天還有一個 List


一家數據分析和人工智能方向的創業公司說,他們能打造一個虛擬的你,模仿你的一切元和思維,這意味著你的記憶會被永不磨滅地保留下來,你將得到永生。

先別做這么好的美夢,這家公司存下來的只是社交網絡、郵件之類的數據而已,現在沒有任何辦法移植記憶。原因挺簡單,沒人知道大腦究竟怎么存儲記憶。事實上,就連記憶存在大腦的什么地方都是未解之謎,更別提什么保存記憶了。

或者讓我們更(笨拙地)哲學一點,到底什么才算是“記憶”?你記得的那些,還是你認為你記得的那些?







題圖來自 海洛創意

來自: http://www.qdaily.com/articles/15061.html

 本文由用戶 jopen 自行上傳分享,僅供網友學習交流。所有權歸原作者,若您的權利被侵害,請聯系管理員。
 轉載本站原創文章,請注明出處,并保留原始鏈接、圖片水印。
 本站是一個以用戶分享為主的開源技術平臺,歡迎各類分享!