微軟Tay黑化后,非死book機器人要做好保護措施
現在機器人火得不行。好像整個高科技產業都在研發應用程序內以 AI 為基礎的助手,為你進行簡單、瑣碎的任務,節省你的時間,讓你工作更高效。就在本月,微軟和 非死book 都發布了開發者工具,使得在其平臺上打造機器人更加容易。
鑒于目前該像微軟和 非死book 和微信公司希望看到機器人部署規模,它的合理擔心這項技術可能有多少人監督有。
這波對機器人的興趣的確能迎來新的經濟,內部短信平臺和搜索引擎的這些隱形助手,爭奪我們的感情。眼下,其用途可能看起來很平常——通過短信訂購比薩餅,或者在手機程序買卷餅。但隨著聊天機器人增多并變得更加熟練,它們可以提供更智能,更個性化的服務體驗。想象一下,一個機器人解答你有關法律事務的問題,甚至是你心理健康的問題。
因此,程序員必須保持謹慎。非正確訓練、監控的機器人可以變得丑陋。別擔心,現在還沒有任何機器人起義的危險,但已出現恣意欺騙人類的機器人,眾所周知,微軟的 Tay 黑化了。高科技公司在開發對話機器人時必須把這幾件事銘記于心。
自發行為
作為一個人工智能機器人,除了已編程好的,它還可以學到新的技能和執行其它任務。機器人專家稱之為自發行為。機器人在了解新任務時,經常沒有人類為其過濾器或引導。這就是聊天機器人 Tay,原本編程是從對話中學習,最后卻變成滿口仇恨的納粹的原因。為了防止這種情況再次發生,關鍵是要主動監測。
“我會檢查我所有的機器人,但更多地,我會去想如果輸入的東西是否會產生有問題的內容。”諾拉里德說,其創造了許多受歡迎的推特機器人。 “我會避免某些內容,我不希望這些東西和其他的放在一起,因為會導致邊緣化或偏執。”
鑒于目前像微軟、非死book、微信對機器人的部署規模,擔心是否有足夠的人在監督這項技術是合理的。微軟未來社會試驗實驗室的經理程麗麗說,該公司正在考慮“其它類型的工具,當開發者的機器人行為方式出現問題時,我們可以幫助他們得到更好的提示。”程指出,開發者們會想知道,他們的機器人是否在發送不當內容,或出現其它異常。
即使是事后分析,機器人的程序員應該,改良機器人,使他們不再出現麻煩的自發行為。要做到這一點,可以限制主體獲得數據,或者把對機器人而言的的不當話語,建一個黑名單。這些都是常見的做法,聊天機器人交互設計師卡羅琳賽德斯說。
別被我的人性化蒙蔽
當你與一個與聊天機器人對話,很明顯,你是在和軟件說話。談話會感覺僵硬。但是,一些機器人善于閑聊,這個技能,會讓你懷疑你真的在和代碼交流嗎。 “因此,信息披露是非常重要的,”桑福德大學的法學教授伍德羅哈佐格說, “當人們覺得他們正在和人打交道,但實際上他們是和機器人交流時,很容易出現問題。”
微軟強調公開內容在一定程度上的重要性。其開發者的行為守則要求,一開始發送歡迎的消息,以幫助機器人的用戶記住,他們正在與軟件打交道。
但是,歡迎信息不一定披露人與機器人互動。畢竟,亞馬遜的熱門硬件設備里的機器人 Alexa,僅僅是一個女人的名字。 “如果這個名字不能表明它是機器人,那么這種形式的通知就是有問題的,”哈佐格說, “但是,如果你的產品說,我的名字是聊天機器人,我是一個自動化的數字助理。那么你至少讓人們意識到,他們是與機器人交流。”
在這個階段,欺騙可能不是一個巨大的問題。大多數將以 非死book 和微軟平臺建立的機器人, 明顯將是機器人。 “Siri 的答案很機械化,在與機器人對話中,也許一半的回應將是對不起,我不理解你。”賽德斯說。
但能糊弄人的能力是真的,而且還會越來越厲害。阿什利麥迪遜已經證明。臭名昭著的出軌約炮網站被黑客入侵,表明它通過 7 萬多的聊天機器人軍隊,假裝女人來誘惑男人。
作為機器人時代的高科技產業帶位者,一定要記住,雖然樂于助人又高效,但是機器人只是代碼。雖然,它們被設計有自己的主見,但是當它們來到世界,需要人們的監督,以確保他們循規蹈矩。
來自: 新浪科技