微軟Tay黑化后,非死book機器人要做好保護措施

jopen 8年前發布 | 6K 次閱讀 Facebook

微軟Tay黑化后,非死book機器人要做好保護措施

現在機器人火得不行。好像整個高科技產業都在研發應用程序內以 AI 為基礎的助手,為你進行簡單、瑣碎的任務,節省你的時間,讓你工作更高效。就在本月,微軟和 非死book 都發布了開發者工具,使得在其平臺上打造機器人更加容易。

鑒于目前該像微軟和 非死book 和微信公司希望看到機器人部署規模,它的合理擔心這項技術可能有多少人監督有。

這波對機器人的興趣的確能迎來新的經濟,內部短信平臺和搜索引擎的這些隱形助手,爭奪我們的感情。眼下,其用途可能看起來很平常——通過短信訂購比薩餅,或者在手機程序買卷餅。但隨著聊天機器人增多并變得更加熟練,它們可以提供更智能,更個性化的服務體驗。想象一下,一個機器人解答你有關法律事務的問題,甚至是你心理健康的問題。

因此,程序員必須保持謹慎。非正確訓練、監控的機器人可以變得丑陋。別擔心,現在還沒有任何機器人起義的危險,但已出現恣意欺騙人類的機器人,眾所周知,微軟的 Tay 黑化了。高科技公司在開發對話機器人時必須把這幾件事銘記于心。

自發行為

作為一個人工智能機器人,除了已編程好的,它還可以學到新的技能和執行其它任務。機器人專家稱之為自發行為。機器人在了解新任務時,經常沒有人類為其過濾器或引導。這就是聊天機器人 Tay,原本編程是從對話中學習,最后卻變成滿口仇恨的納粹的原因。為了防止這種情況再次發生,關鍵是要主動監測。

“我會檢查我所有的機器人,但更多地,我會去想如果輸入的東西是否會產生有問題的內容。”諾拉里德說,其創造了許多受歡迎的推特機器人。 “我會避免某些內容,我不希望這些東西和其他的放在一起,因為會導致邊緣化或偏執。”

鑒于目前像微軟、非死book、微信對機器人的部署規模,擔心是否有足夠的人在監督這項技術是合理的。微軟未來社會試驗實驗室的經理程麗麗說,該公司正在考慮“其它類型的工具,當開發者的機器人行為方式出現問題時,我們可以幫助他們得到更好的提示。”程指出,開發者們會想知道,他們的機器人是否在發送不當內容,或出現其它異常。

即使是事后分析,機器人的程序員應該,改良機器人,使他們不再出現麻煩的自發行為。要做到這一點,可以限制主體獲得數據,或者把對機器人而言的的不當話語,建一個黑名單。這些都是常見的做法,聊天機器人交互設計師卡羅琳賽德斯說。

別被我的人性化蒙蔽

當你與一個與聊天機器人對話,很明顯,你是在和軟件說話。談話會感覺僵硬。但是,一些機器人善于閑聊,這個技能,會讓你懷疑你真的在和代碼交流嗎。 “因此,信息披露是非常重要的,”桑福德大學的法學教授伍德羅哈佐格說, “當人們覺得他們正在和人打交道,但實際上他們是和機器人交流時,很容易出現問題。”

微軟強調公開內容在一定程度上的重要性。其開發者的行為守則要求,一開始發送歡迎的消息,以幫助機器人的用戶記住,他們正在與軟件打交道。

但是,歡迎信息不一定披露人與機器人互動。畢竟,亞馬遜的熱門硬件設備里的機器人 Alexa,僅僅是一個女人的名字。 “如果這個名字不能表明它是機器人,那么這種形式的通知就是有問題的,”哈佐格說, “但是,如果你的產品說,我的名字是聊天機器人,我是一個自動化的數字助理。那么你至少讓人們意識到,他們是與機器人交流。”

在這個階段,欺騙可能不是一個巨大的問題。大多數將以 非死book 和微軟平臺建立的機器人, 明顯將是機器人。 “Siri 的答案很機械化,在與機器人對話中,也許一半的回應將是對不起,我不理解你。”賽德斯說。

但能糊弄人的能力是真的,而且還會越來越厲害。阿什利麥迪遜已經證明。臭名昭著的出軌約炮網站被黑客入侵,表明它通過 7 萬多的聊天機器人軍隊,假裝女人來誘惑男人。

作為機器人時代的高科技產業帶位者,一定要記住,雖然樂于助人又高效,但是機器人只是代碼。雖然,它們被設計有自己的主見,但是當它們來到世界,需要人們的監督,以確保他們循規蹈矩。

來自: 新浪科技

 本文由用戶 jopen 自行上傳分享,僅供網友學習交流。所有權歸原作者,若您的權利被侵害,請聯系管理員。
 轉載本站原創文章,請注明出處,并保留原始鏈接、圖片水印。
 本站是一個以用戶分享為主的開源技術平臺,歡迎各類分享!