波士頓動力每出一款機器人你就說它要統治人類?還早著呢!
相信前兩天大家的朋友圈都被 Boston Dynamics 的 Handle 機器人刷屏了:
估計這一幕會讓不少讀者回憶起被『終結者』所支配的恐懼:
↑ 圖片出自科幻電影《終結者》
然而,作為一個正奮斗在機器人研究第一線的博士生,我可以負責任地告訴你:完全不用擔心!
與一般的技術不同,機器人涵蓋的技術領域更廣,波士頓動力只是在控制方面做出了逆天成績。現在的機器人領域還有很多技術問題沒有解決,所以我們暫時不可能造出科幻電影中的那種通用機器人。
下面,我就從機器人研究的幾個方面來說明為什么我們不需要擔心機器人取代人類的事情發生。
(以下非本人熟悉領域的內容均為道聽途說,如有誤,歡迎在評論區指出)
一、硬件、機構:
感謝機械前輩們幾百年的積累,目前在硬件設計方面,實際機器人已經很不錯了。下面是幾個比較著名的真實機器人:
↑ (左)波士頓動力的 Atlas,(中)日本產綜研的 HPR-4C,(右)日本東京大學的 Kenshiro
不論是外貌、自由度配置、驅動方式,實際的機器人均有了很不錯的成績。
但是,在能源方面,我們離實用化還有一段很大距離。現在的移動機器人基本上都需要攜帶一個巨大的電池,續航能力也不行。以這次的 Handle 為例,它的電池約為 3.7KW/h,充滿電能行駛約 24km,所以這方面只能寄希望于新一代電池技術的發明了。
↑ 這次 Boston Dynamics 的 Handle 就背著巨大的電池
二、感知:
這個包括兩個部分:
-
傳感器
-
信號處理
傳感器:機器人需要能夠感知周圍環境和自身狀態,因此需要安裝不同的傳感器。為了對比,我們看看人體的幾個主要傳感器:聽覺傳感器(耳朵);視覺傳感器(眼睛);力矩傳感器;皮膚觸覺傳感器(可以感受到別人觸碰到自己)等。
首先是聽覺傳感器,這個似乎沒有什么特殊的,現在的機器人都可以配備,普通麥克風即可。
其次,是視覺傳感器,現在機器人的視覺傳感器應該比人眼更高級:高精度相機、紅外相機、深度相機、激光雷達等等。沒辦法,算法不夠,傳感器來湊嘛。
之后,是力矩傳感器,主要用于檢測關節力矩。有了精確的關節力矩才有可能部署一些控制算法、估計環境狀態。當然,現在這樣的傳感器也已經有了,但就是貴。
最后,也是唯一與人類有較大差距的地方,是皮膚觸覺傳感器:這個基本上還有很多路要走,不信的話看看下圖吧。這是去年 RA-Letter 上發表的一篇論文的工作: A Conformable Force/Tactile Skin for Physical Human-Robot Interaction。
信號處理算法:當然,這里的信號處理是廣義的信號處理,包括普通的濾波、傅里葉變換等,也包括物體識別、語音識別等人工智能算法。這個話題就太大了,而且實際機器人在這方面的研究距離實用的也還比較遠,我簡單列幾個:
物體識別/語音識別:當然,隨著近幾年深度學習的發展,我們在物體識別和語音處理方面的造詣已經非常厲害了,但是在實際機器人上部署的算法也還比較簡單(實際機器人不僅要識別物體、還要定位物體)。
↑ 這是 Boston Dynamics 之前發布的 atlas,依舊是采用二維碼進行識別
語義理解:前面的語音識別是指根據聲音識別出文字,這里則是理解識別的文字內容。我們現在研究的最高水平,可以參考微軟小冰聊天機器人,基本還是比較笨的。PS:不要跟我說什么機器人『嬌嬌』,那是后面有個人在遙控。
環境理解/地圖創建:這個簡單地說,就是機器人對環境建模的能力,包括地圖創建等。現在的機器人在這一塊還是比較弱的,即使配備了激光傳感器等額外的設備(人僅靠兩只眼睛),也只能在一些特定條件下完成地圖創建,而基于地圖的環境理解也只能算剛起步不久,如下面這個語義地圖。
↑ 真正的通用機器人不僅需要能『看到』環境,還應該能『理解』環境
當然,我覺得之后隨著深度學習技術在地圖創建等領域的應用,(考慮到深度學習對環境理解的能力),這個領域估計有可能在十年內出現可實用的技術。
三、規劃:
規劃是指根據任務和機器人當前狀態,計算出完成這個任務的方法。包括且不限于:
-
任務規劃(將大任務劃分為幾個小的子任務)
-
運動規劃(機械臂或者足式機器人各關節運動軌跡)
-
路徑規劃(其實跟運動規劃類似,不過傾向于為移動機器人規劃形式路徑)
Boston Dynamics 的研究重點一直都是放在控制上,在規劃等領域并無成果(至少從他們放出的視頻中看不出有這方面研究)。
任務規劃:舉個例子,我們想讓機器人送瓶雪碧,那么機器人會將這個大任務分解成幾個子任務(運動到冰箱前-->打開冰箱-->找到雪碧-->拿出雪碧-->關上冰箱-->送到人面前),當然,可以有更復雜的任務。目前,一般是采用 MDP 或 POMDP 模型來描述問題,然后用各種規劃算法求解。總體上說,現在的任務規劃強烈依賴于任務描述方式(人工指定),而且在應對大規模、不完全可觀等復雜問題時,還沒有可靠的方法。
運動規劃:舉個例子,機器人面前有一杯水,讓機器人將手運動到杯子面前,同時不能碰到桌子等障礙物。這就是運動規劃,根據目標狀態點,生成一系列關節運動狀態。是的,現在就連讓機器人拿起面前的杯子這樣的問題也還沒有完全解決。簡而言之,我們一般是采用基于隨機采樣的算法進行運動規劃的。隨機采樣的意思就是:每次規劃的結果可能不同,更無法保證規劃出的路徑是最優的。因為自己就做這一塊,所以深知其中的坑。就我個人感覺,要解決運動規劃問題,需要一個方法論上的創新,拋棄現在這套方法(因為人肯定不是這樣規劃的啊)。
路徑規劃:其實跟運動規劃是一個問題,但由于路徑規劃一般是在地面上,問題維度低,可以采用一些奇奇怪怪的規劃方法(Dijkstra,A*等)。由于問題畢竟簡單,這塊的發展也比較好,例如各種掃地機器人就已經可以在室內環境中到處跑了。
↑ 小米的掃地機器人已能利用二維地圖進行路徑規劃
當然,這一塊需要解決的問題可能是:①動態環境;②擁擠環境;③復雜地形;④地圖不全的環境等。但是估計未來 15 年左右可以徹底解決,所以到那時候,無人駕駛車應該已經可以到處跑了。
四、控制:
控制就是具體執行規劃結果的過程了,從底層的電機控制到上層的機器人全身控制都屬于這個范疇。
機械臂控制:下圖是大約十年前 Sami Haddadin 做的機械臂碰撞檢測的 demo,基本上已經非常厲害了。而且,由于機械臂控制屬于機器人自身動力學問題,所以目前看來,這一領域可以說已經是完全攻克了。
機械手操作:機械手的抓取操作問題就沒這么簡單了,因為其中涉及實際物理環境的建模問題(摩擦力、形狀等),由于模型不精確,所以完全基于模型的方法很難解決這一問題。目前實際應用基本還是采用平行夾持器的方式。只有不少研究機構在進行靈巧手抓取方面的研究。
足式機器人控制:這是更難的地方了,因為機械臂和機械手都至少有個相對固定的基座。足式機器人的 base 是會隨著接觸而發生變化的。所以,我一直覺得能做足式機器人控制的人都是很厲害的人。
↑ Boston Dynamics 的各種足式機器人
再加上這次的 Handle 機器人,可以說,Boston Dynamics 以一己之力,將人類的足式機器人控制水平拉高了一個層次。
四、學習:
這個屬于另外一大塊內容,由于可以應用到其他領域(控制、規劃、感知等),所以有時候不能單獨列為一類。
機器學習分為監督學習、無監督學習和強化學習三類。目前,深度學習主要在監督學習方面得到了很好的應用;此外,對于強化學習,也逐漸以 Deep Q Learning 等形式出現;但無監督學習才是機器學習中的最高挑戰。
我們人類能夠舉一反三(超強的監督學習能力);能夠熟能生巧(超強的強化學習能力);能夠發明新事物(超強的無監督學習能力)。
當然,機器學習的坑還有很多。因為,正是不斷學習讓我們能夠面對不斷變化的環境。這方面可挖的東西太多了。
五、交互:
這個就是機器人與人交互的問題。包括識別人、與人交流、與人協作。在這個角度看,我們現在的機器人還很不盡如人意:
識別人:雖然人體識別在機器視覺中已經有了很多成果,但是在人機交互過程中,機器人不僅要識別到人的存在,還應該要能判斷人的動作、意圖,并作出相應反饋。
與人交流:這方面,我們現在的聊天機器人雖然也已經做得不錯了,但離通過『圖靈測試』還很遠,隨便一個普通人都能輕易判斷出對面是一個機器人。
與人協作:這個就不說了,我們真實的機器人還只能這樣:
六、容錯性:
這個就是說機器人的軟硬件發生故障后,依舊可以自適應地完成部分工作。
人類就不說了,有太多『身殘志堅』的例子了:
↑四川 90 后“無臂男孩”用腳趾夾筆答題勇戰高考追逐大學夢
我們的機器人最強只能這樣:
這是 2014 年發表在 Nature 的成果,只是簡單的機構損壞、核心部件完好的情況下可以繼續完成簡單任務。
總結
綜上,要想做出能夠取代人類的通用機器人,我們還有非常非常非常遠的路要走。
當然,要想在十年內做出這樣的機器人也不是不可能,例如忽然來了一群奇怪的人說:『我看你骨骼驚奇,你跟我學做機器人吧!』
↑ 圖片出自科幻電影《降臨》
來自: 雷鋒網