人工智能危險嗎——那得看情況
作者:Caleb A. Scharf 發布日期:2015-03-01
正如Hawking所表示的,AI的進化可能會很快。實際上,它可以在幾分之一秒出現、進化和吞沒互聯網生態系統。
在一長串主題中,與太空生物學相關的地方就是“智能”的問題。與人類相似的科技智能會在宇宙中普遍存在嗎?我們是否純粹是個進化的標志,而我們的智能已經走到盡頭,成為歷史?或者智能是熵驅動、復雜生產和宇宙不可避免會聚合的東西?
以上都是很好的問題。同樣有一個很好的問題:我們是否能夠復制我們自己的智能,或者類似的智能?那么這是否是個實際的好想法?
最近幾個月,這個主題再一次被推向大眾媒體。首先是Stephen Hawking,然后是Elon Musk,最近的一 個是Bill Gates。所有的這些聰明人都表示,人工智能(AI)需要仔細觀察,以免它的發展帶來潛在的生死威脅。
找出被認為是潛在威脅的任何具體內容有點困難。Hawking表示,那可能是一個會進化很多的強大AI,比生物系統更快——最終不顧我們而吞噬所有的資源。我認為這是一個公平的猜想。AI的威脅不在于它將是個施虐狂(除非我們故意或者不小心那樣設計它了),但是它也會符合自己的進化需要。
人們很容易認為,安全保障將會把同理心構建到AI中。但是我認為它的失敗體現在兩方面。首先,大多數人都有同理心,但我們仍然繼續骯臟、野蠻和殘酷地對待我們自己,以及地球上的其它生命。第二,我不是很清楚的是,我們可以純粹地一步步設計AI,也許我們會允許它做自己的主人。
這是什么意思?當前在如“深度學習”等計算領域的努力涉及到這樣一些算法,這些算法通過在大量信息中篩選數據來構建它們自己的值域。軟件并非為了提前認識規則,而是為了找到規則,或是為了經得起規則的檢驗——比如自然語言處理。這是讓人難以置信的東西,目前還尚不清楚,AI和人類(或者其它感覺器官)有著同等的思考方式。對于這個,一直以來有著激烈的討論,比如Noam Chomsky(懷疑方)和Peter Norvig(支持方)。在深層水平上,它是兩種科學的交鋒:一種是關注基礎的科學,另一種是認為自然也許完全不能以那種固化方式存在的科學。
在這里,我會假設另一種AI的替代方法(并非原創)。智能所表現出來的特性也會稱為一些通用的條件。表面看上去很可笑,就像向盒子扔一堆多余的配件,就希望出現一輛新的自行車。這當然不是一種將AI視為科學研究的方式。如果智能是一個非常復雜的系統運轉所需要的緊急(進化上的)屬性,那這個假設會發生嗎?也許會。
一個工程上的挑戰是,也許它需要一個有人類大腦那種復雜性的系統來維持智能,當然我們的大腦和我們的智能密切相關。所以,想為即將出現的新類型智能設計一個完美的環境是有點愚蠢的,因為我們都不清楚那些環境應該是怎樣的。
除非我們現在建立這些條件。機器學習只是AI行為難題的一小塊,但當它生活在互聯網的蔓延中會發生什么?大大小小的寶貴數據、應用、控制數據包傳輸的算法、傳感器——從GPS到恒溫控制器和交通監控——無數的碎片相互直接或間接地交流。
這是一個巨大的施工場所。據估計,2014年有74億移動設備在線。任何可以聯網的東西——互聯網“物品”(從廁所到工廠)——目前估計當今有150億活躍互聯網連接(通過思科的服務)。到2020年會到達500億。
如果這是一個混亂的東西,就如一個盒子里的多余配件,我認為人們不會期待任何有趣的事情發生。但它并不混亂。互聯網越來越密集,還得靠那些主要目的是在這片海洋去發現結構和關系的算法——通過使用一些技巧(部分靈感來源于生物智能,或至少我們對互聯網的印象)。代碼跟代碼交流,數據壓縮包尋找最優的路徑,軟件與軟件交流,硬件與硬件交流。疊加在這個生態系統上的是人類思想,人類的決策過程護理和培養信息的起落和流通。我們的交互也越來越具備在數據海洋中自我驅動深度變化的能力,分析工具尋求理解下一步我們(作為個人或大眾)會查看什么。
類似于一個強大AI的東西會擺脫這些嗎?我不知道,其他人也不知道。在這個星球上,40億年來都不存在,這就讓我們回到了AI威脅的問題上。
如果這就是一個強大的AI出現的方式,那么最直接的危險應該是大量的人類現在正依賴互聯網這個生態系統。這不僅僅是關系到我們如何交流和查找信息,還關系到我們的食物供應是如何組織的,我們的藥劑師如何跟蹤藥品,我們的飛機、火車、卡車和貨船是如何安排的,我們的金融系統如何工作的。一個強大AI的出現可能會帶來嚴重破壞,比如一個小孩可以重新排列你的襪子抽屜,或咀嚼貓的尾巴。
正如Hawking所表示的,AI的進化可能會很快。實際上,它可以在幾分之一秒出現、進化和吞沒互聯網生態系統。這反過來引起了一個有趣的可能性——能否有一個出現的AI被以如此快的速度進行了限制,以致不能創建它長期生存所需要的連接和結構?那就可以限制AI了,這會給我們一些安慰。
我忍不住將一個連接安置到另一個古老的問題——費米悖論。也許AI的創建是殺死文明的偉大過濾器的一部分,但它也會自我終結,那就是為何AI在過去130億年里沒有成功跨越星際的原因…