研究表明谷歌AI視頻分類器極易被對抗圖像欺騙

jopen 7年前發布 | 7K 次閱讀 Google

研究表明谷歌AI視頻分類器極易被對抗圖像欺騙

近段時間,作為全球最強大的科技公司之一,谷歌的日子并不好過,包括《衛報》在內的 250 個公司及機構宣布停止在谷歌平臺投放廣告,原因是它們的廣告中出現了極端組織、種族歧視、反猶太主義等畫面。

對此,谷歌開始在視頻內容認證工作中投放越來越多的 AI 資源,但現在的問題的是,這家巨頭公司現用的算法很有可能還無法勝任這項任務。

華盛頓大學最近發表的一份研究調查就明確地指出了這一問題。研究團隊對谷歌面向客戶推出的視頻內容自動分類 Cloud Video Intelligence API 進行了測試。這套 API 由深度神經網絡驅動的系統雖然在應對常規視頻上表現非常好,但它卻非常容易被對抗圖像(adversarial images)糊弄過去。

研究表明谷歌AI視頻分類器極易被對抗圖像欺騙

華盛頓大學研究人員指出,這家公司的 API 可以給測試視頻的對象標示出諸如“動物”、“野生動物”、“公園”、“大自然”、“游客”等標簽,但當他們向視頻中插入一張汽車的圖片之后,API 此時給出的標簽則就可能變成“奧迪”。據悉,出現這種情況的幾率高達 98%。

研究人員表示,這意味著人們可以通過向某段非法視頻插入良性圖片來達到繞過視頻過濾系統的目的。

現在,像谷歌、非死book、推ter 等科技感公司都在開始利用 AI 過濾系統來幫助他們審核上傳至其平臺的內容。然而,AI 不可能完美,它們也會經常犯錯、被騙。所以這些公司還需要作出更大的努力才能避免像現在這種情況的發生。

來自: cnBeta

 本文由用戶 jopen 自行上傳分享,僅供網友學習交流。所有權歸原作者,若您的權利被侵害,請聯系管理員。
 轉載本站原創文章,請注明出處,并保留原始鏈接、圖片水印。
 本站是一個以用戶分享為主的開源技術平臺,歡迎各類分享!