AlphaGo Zero的啟示:監督學習和無監督學習的利弊

jopen 7年前發布 | 14K 次閱讀 AlphaGo

AlphaGo Zero的啟示:監督學習和無監督學習的利弊

2016 年,作為世界上最好的圍棋選手之一,李世石在首爾的比賽中,以四比一的成績輸給了 AlphaGo。無論是在圍棋歷史上,還是在人工智能(AI)的歷史上,這都是一件大事。圍棋在中國、韓國和日本的文化中具有的地位就像西方文化中的象棋一樣重要。

在擊敗李明博后,AlphaGo 在網上的一系列匿名游戲中擊敗了數十名知名人類選手,隨后在 5 月重新出現,應對來自中國烏鎮圍棋選手的柯潔。但是柯先生的表現并不比李先生的好,最終以3-0 的比分輸給了計算機。

對于人工智能研究人員來說,圍棋同樣是被尊崇的。國際象棋在 1997 年出現在計算機上,Garry Kasparov 與 IBM 的一臺名為深藍的計算機進行對抗,最后輸掉了比賽。但是,在李明博失敗之前,圍棋的復雜性讓其很難在機器上表現。AlphaGo 的勝利十分引人,它充分展示了一種名為“機器學習”的人工智能力量,目標是讓計算機教會自己一些復雜的任務。

AlphaGo 通過研究人類專家棋手之間的數千場對抗,進而從這些游戲中學習規則和策略,然后在數百萬場比賽中不斷改進,從而學會圍棋。這足以讓它比任何人類都更強大。但是 AlphaGo 的公司,DeepMind 的研究人員相信,他們可以改進這一技術。在剛剛發表在《自然》雜志上的一篇論文中,他們公布了最新版本的“AlphaGo Zero”。它在游戲中表現得更好,學得更快,需要更少的計算硬件便可以做得好。不過,最重要的是,與原版不同的是,AlphaGo Zero 在沒有向人類專家求助的情況下,成功地自學了這款游戲。

這一技術立刻吸引了很多關注。像很多游戲一樣,學習圍棋雖然容易,卻很難玩好。兩名持黑子與白子選手輪流在一個由 19 條垂直線和 19 條水平線組成的棋盤交叉處放置棋子。目標是占領比對手更多的領土。被對手包圍的棋子將從棋盤上移除。玩家繼續前進,直到雙方都不愿繼續。然后,每個人都將他的棋子數目加到所環繞空網格的交叉點上。最后,數量多的將成為贏家。

困難來自于多種可能的走法。19x19 的棋盤上有 361 個不同的地方,黑色的一方可以最先放置棋子。隨后,白子有 360 種可能的走法。在棋盤上的走法總數有 10170 種,這個數字實在是太大了,因此無法進行任何物理類比(例如,可觀測宇宙中大約有 1080 個原子)。

而人類專家則致力于在更高的層面上去理解這個游戲。圍棋規則簡單卻會涌現出大量不同情況。玩家會談論諸如“眼睛”和“梯子”之類的棋局,以及諸如“威脅”和“生與死”之類的概念。但是,盡管人類棋手理解這些概念,但用一種超文字的方式解釋計算機程序要困難得多。相反,最初的 Alpha Go 研究了數千個人類游戲的例子,這個過程被稱為“監督學習”。由于人類的游戲反映了人類對這類概念的理解,一個接觸到棋局足夠多的計算機也能理解這些概念。一旦 AlphaGo 在人類教師的幫助下,熟練掌握了戰術和策略,便克服了重重障礙,開始參加到百萬場無人監督的訓練游戲,每一場比賽都提升了它的技巧。

受監督的學習比圍棋更有用。這是最近人工智能領域取得進步背后的基本理念,它幫助計算機學會做一些事情,比如識別照片中的人臉,可靠地識別人類語音,有效地過濾電子郵件中的垃圾郵件。但是,正如 Deepmind 老板 Demis Hassabis 所言,監督學習是有限度的。它依賴于訓練數據的可用性,以及向計算機提供數據,從而向機器顯示它應該做什么。這些數據必須經過人類專家的過濾。例如,面部識別的訓練數據由成千上萬張圖片組成,有些照片上有人臉,有些則沒有,每一張照片都需要人為的標注。這使得這類數據的成本很高,前提是它們是可以獲取到的。而且,正如論文指出的那樣,這里可能會存在一些更細微的問題。依靠人類專家的指導,可能會限制人類對計算機能力的限制。

“AlphaGo Zero”的設計初衷是為了避免所有這些問題,從而完全跳過“火車車輪”階段。這個項目的開展利用游戲規則和“獎勵功能”,即當它贏得比賽便獎勵一點,輸掉則扣除一點。然后不斷進行實驗,反復通過游戲來對抗其他版本的自己,并受限于獎勵機制,即必須盡可能多地贏得獎勵,從而使獎勵最大化。

這個項目是從隨機放置棋子開始的,機器完全不知道自己在做什么。但它取得了快速的進步。一天之后,它的棋藝便上升到了高級專家級別。兩天之后,它的表現就超過了 2016 年擊敗李明博的版本。

DeepMind 的研究人員能夠觀察到他們的自我革新,重新發現人類幾千年來積累起來的圍棋知識。有時候,它看起來像人類一樣詭異。經過大約三個小時,專注于“捕捉棋子”的訓練,這是大多數人類初學者也必須經歷的階段。在另一些人看來,這顯然是外星人。例如,“梯子”是一種棋子的排列模式,當一個玩家試圖捕獲一群對手的棋子時,他會在棋盤上的對角線上放置。它們是圍棋游戲的常見局面。因為梯子由一個簡單的重復模式組成,人類新手很快就會學會并去推斷它們,對梯子“搭建”的成功與否進行評估。但 AlphaGo Zero——它無法推斷,而是半隨機地嘗試新動作——這花了比預期時間更長的時間來掌握這個技巧。

然而,自己學習而不是依靠人類的暗示,總的來說是一個很大的進步。例如,josek 是表述棋盤邊緣附近發生的一系列動作的特殊序列。(他們的劇本自然讓他們有點像國際象棋的開場。)AlphaGo Zero 發現了 josek 教給人類棋手的準則。但它也發現了一些完全屬于自己的方法,并最終成為了自己的下棋的首選。負責 AlphaGo 項目的 David Silver 表示,這臺機器似乎具有一種明顯非人類的風格。

其結果是一個不僅是超人的項目,而且是令人難以接受的。圍棋(和國際象棋,以及其他許多游戲)都可以用一種叫做“Elo 評級”的東西來量化,它根據過去的表現給出了一個玩家可以打敗另一個玩家的概率。一個球員有 50:50 的幾率擊敗對手,但只有 25% 的幾率比對手高出 200 分。柯先生獲勝的支持率為 3661。李先生的是 3526。在經過 40 天的訓練后,AlphaGo Zero 的得分超過了5,000——這一數字遠遠領先超強選手柯潔先生,同時暗指包括柯潔在內的任何一個人類選手都沒有可能打敗它。當它與 AlphaGo 的第一個擊敗李斯基的版本對戰時,它以 100 比 0 獲勝。

當然,比起圍棋,生活中還有很多別的事情。它的創造者希望,像那些為 AlphaGo 的不同迭代提供動力的算法,理論上可以應用于相似的任務的中。(DeepMind 已經利用了 AlphaGo 背后的技術,幫助谷歌大幅削減其數據中心的能耗。)但是,一種無需他人指導就能學習的算法,意味著機器可以在人們不知道如何解決的問題上放手。Hassabis 表示,任何可以歸結為通過大量可能性進行智能搜索的事情,都可以從 AlphaGo 的方法中受益。他列舉了一些經典的棘手問題,比如研究蛋白質如何折疊成最終的功能形狀,預測哪些分子可能作為藥物,或者準確地模擬化學反應。

人工智能的進步常常引發人們對人類退化的擔憂。DeepMind 希望這類機器最終能成為生物大腦的助手,而不是取代它們,就像從搜索引擎到紙張一樣。畢竟,一臺機器發明新的解決問題的方法,能夠推動人們走上新的、高效的道路。Silver 先生表示,AlphaGo 的一個好處是,在一個充滿歷史和傳統的游戲中,它鼓勵人類棋手對古老的智慧提出質疑,并進行實驗。在輸給了 AlphaGo 之后,柯潔研究了計算機陣法,尋找靈感。之后,他又以 22 連勝的成績打敗了人類對手,這是一個令人印象深刻的壯舉,即使對于他的對手來說也是如此。畢竟,監督學習是雙向的。

(選自:economists.  翻譯:網易見外翻譯機器人  審校:秦昕)

來自: 網易科技

 本文由用戶 jopen 自行上傳分享,僅供網友學習交流。所有權歸原作者,若您的權利被侵害,請聯系管理員。
 轉載本站原創文章,請注明出處,并保留原始鏈接、圖片水印。
 本站是一個以用戶分享為主的開源技術平臺,歡迎各類分享!