懸賞1000萬美元,打假AI換臉!非死book發起Deepfakes檢測挑戰賽

五嘎子 5年前發布 | 2K 次閱讀 AI Facebook Deepfakes

  近日,非死book 宣布啟動一項“Deepfake 視頻檢測挑戰賽”,壕擲 1000 萬美元,懸賞能夠最好地檢測出利用 Deepfake 技術制造的假視頻,包括微軟、MIT、牛津大學,加州大學伯克利分校等業界學界聯合支持。

  科學家們終于要“以 AI 攻 AI”了。

  非死book 宣布了一項名為 Deepfake Detection Challenge(DFDC)的挑戰賽,壕擲 1000 萬美元,懸賞能夠最好地檢測出利用 Deepfake 技術制造的假視頻。

  該項競賽合作伙伴包括微軟、康奈爾理工,麻省理工學院,牛津大學,加州大學伯克利分校,馬里蘭大學等,非死book 還將針對挑戰賽發布一個新數據集。

  非死book 的首席技術官 Mike Schroepfer 表示,挑戰的目標是“創造出每個人都可以使用的技術,以便更好地檢測 AI 何時被用來改變視頻以誤導觀眾。”

  Deepfake 檢測挑戰賽將包括一個數據集和排行榜,以及撥款和獎勵,以刺激行業創造新的方式來檢測和防止通過 AI 操縱的媒體被用來誤導他人。

  懸賞 1000 萬美元,挑戰賽獲學界支持

  Yann LeCun 曾在 推ter 上提問:

  講真,要是當初知道卷積神經網絡 (CNN) 會催生 DeepFake,我們還要不要發表 CNN?

  他說:“假設在上世紀 80 年代那時我們能夠預見 CNN 的這些負面影響,我們該不該把 CNN 模型保密不公開呢?”

  LeCun 最后的結論是,就算自己不開源,CNN (或者類似的東西) 還是會被其他人發明出來 (實際上,有些人可以說差不多已經做到了)。

  既然已經開源,并且已經導致了負面影響,思考如何阻止和對抗這些負面影響更有價值。

  這次,非死book 投入了超過 1000 萬美元來資助這項全行業的努力。

  為了確保數據集和挑戰參數的質量,這些參數最初將在今年 10 月的國際計算機視覺會議(ICCV)上通過有針對性的技術工作會議進行測試。

  完整的數據集發布和 DFDC 發布將于今年 12 月召開的神經信息處理系統會議(NeurIPS)上發布。非死book 也將參與挑戰,但不接受任何經濟獎勵。

  非死book 的這項挑戰賽得到了學術界的支持。 

“為了從信息時代走向知識時代,我們必須更好地區分真實與虛假,獎勵可信內容而不是不受信任的內容,并教育下一代成為更好的數字公民。這需要全面投資,包括產業/大學/非政府組織的研究工作,以開發和實施能夠快速準確地確定哪些內容是真實的技術。”

-- Hany Farid 加州大學伯克利分校電氣工程與計算機科學系教授 

“自從有了攝影,人們就開始操縱圖像。但現在幾乎所有人都可以創造并將假圖片、假視頻傳遞給大眾。本次比賽的目標是建立人工智能系統,能夠檢測出篡改圖像中的細微缺陷,并揭露其對現實的欺詐性表現。”

-- Antonio TorralbaMIT 電氣工程與計算機科學教授 

  根據 DFDC 網站的說法,這項挑戰將持續到 2020 年。將使用“一種測試機制來選擇獲勝者,該機制使團隊能夠根據我們創始合作伙伴的一個或多個黑盒測試集對其模型的有效性進行評分。” 

  非死book 的合作伙伴包括微軟、康奈爾理工,麻省理工學院,牛津大學,加州大學伯克利分校,馬里蘭大學等。 Deepfake 盛行,扎克伯格、美國眾議院議長紛紛躺槍

  DFDC 并非 非死book 第一次與 Deepfake 打交道。今年 5 月,藝術家 Bill Posters 做了一個馬克·扎克伯格的 Deepfake 視頻,以回應 非死book 關于操縱圖像和數據使用的政策。 

  在這段合成視頻中,“扎克伯格”說:“試想一下:一個人完全控制著數十億人被盜的數據,掌握著他們所有的秘密、生活和未來。這都要歸咎于 Spectre 漏洞。它讓我明白,誰控制了數據,誰就控制了未來。” 

  視頻中的“扎克伯格”,無論從相貌聲音,還是穿著打扮,都跟真的扎克伯格幾乎沒有差別。他能眨眼,會做手勢,口型和畫外音高度吻合。乍看之下,幾乎找不到破綻,只是聲音有些奇怪。

  最初的真實視頻來自于扎克伯格在 2017 年 9 月發表的關于俄羅斯干預美國大選的講話。而 Deepfake 視頻是使用 CannyAI 的視頻對話替換(VDR)技術創建的。 而在此之前,非死book 決定對一則關于美國眾議院議長 Nancy Pelosi 的虛假視頻暫時擱置不處理。在這段剪輯過的視頻里,Pelosi 聽起來像醉酒后說話,視頻很快在 Instagram 平臺上瘋狂傳播。 

  按照 非死book 的官方回應,Pelosi 的視頻“沒有違反平臺的政策,因為所有人都可以自由表達自己(的想法),如果有第三方事實檢測工具認定視頻是假的,視頻就會被打上標簽,提醒用戶注意其真實性,而且還會在推送中降低權重。”

   不久之后,非死book 的公共政策主管 Neil Potts 在國會前作證說,若扎克伯格的虛假視頻出現在公司平臺上,非死book 也會遵循同樣的政策。

  隨著換臉 APP“ZAO”的火爆,人們無需技術背景便可創造假視頻,一方面帶來了娛樂,而更多的是帶來了風險。 


換臉 APP“ZAO”

  最壞的情況是,有人擔心,如果不加以控制,Deepfake 系統可能會被惡意用來欺騙政府和人民,甚至引發國際沖突

  在 DARPA 組織的一次 Deepfake 相關的討論會上,達特茅斯大學計算機科學教授 Hany Farid 表達了擔憂:“Deepfake 可能讓好萊塢級別的特效造假變得大眾化,并可能導致大量以假亂真的騙局。”

  Farid 舉了個可怕的例子:“假如有人制作了一段視頻,特朗普在視頻中說’我已經對朝鮮發射了核武器’,這段視頻迅速傳播,在有人意識到它是假的之前,我們的世界可能已將發生了全面的核毀滅。”

  他說:“我不是故意引發恐慌或夸大其詞,但我認為,目前這并非完全不可能。”我們現在處在一個真假難辨的時代,如果不用技術手段對 Deepfake 視頻進行檢測、管制,后果將不堪設想,這也是為什么我們需要像 DFDC 這樣的挑戰賽來推動技術向善、AI 向善。

  以 AI 攻 AI:DAPRA、伯克利開發反換臉刑偵工具

  有“換臉”就有“反換臉”,越來越多的研究人員在努力尋找準確識別 Deepfake 的假視頻的方法。

  最迫切希望攻破 Deepfake 的是美國國防部DAPRA,他們發起 Media Forensics 項目(簡稱 MediFor),資助研發一系列自動化工具來辨識被 ps 的圖片、Deepfake 偽造的視頻、等等。

  他們的第一個成果是一款“反換臉”AI 刑偵工具,主要由紐約州立大學奧爾巴尼分校的研究人員開發技術,通過有效地預測眼睛的狀態,準確率達到 99%。

  研究人員發現,Deepfake 假視頻里的人物極少眨眼,甚至不會眨眼,因為它們都是使用睜眼的照片進行訓練的。利用這些細微的線索,可以檢測出圖像或視頻中的臉是真實的還是 AI 生成的。


早期的 Deepfake 生成的假視頻缺陷明顯,比如人物說話時從不眨眼,現在這個缺陷已被修復

  然而,這一工具來不及實用化就被宣告無效了——早期的 Deepfake 視頻遠遠算不上完美,存在各種容易發現的缺陷,比如不眨眼。但 Deepfake 技術的發展速度非常驚人,假視頻中人物從不眨眼的缺陷很快得到了改善,生成的假視頻變得越來越逼真可信。

  最近,來自加州大學伯克利分校和南加州大學的研究人員在“以 AI 攻 AI”的這場戰斗中開發了出了新的武器,可以更加準確地識別偽造的視頻。研究人員利用前總統奧巴馬的現有視頻,使用類似的過程來創建假視頻,訓練 AI 來尋找每個人的 “軟性生物識別” 標簽。


從上到下依次是原始視頻,嘴唇同步 Deepfake 假視頻、喜劇模仿視頻、換臉 Deepfake 和木偶大師 deepfake 的 10 秒視頻剪輯的五個示例幀

  這聽起來很復雜,其實并不陌生。每當我們開口說話時,都會以微妙但獨特的方式來移動身體,我們的頭、手、眼睛甚至嘴唇都會產生這樣的運動。這一切都是在潛意識里完成的,你沒有意識到你的身體正在做這件事,大腦也沒有立刻意識到身體其他部位的運動發生在何時,但從結果上看,這是目前 Deepfake 在創造假視頻時的時候沒有考慮到的因素。

  在實驗中,這款新的 AI 準確發現偽造視頻的幾率達到了 92%,實驗對象包括使用多種技術創建的假視頻,以及由于視頻文件被過度壓縮導致圖像質量下降的視頻。

  不過,研究人員也發現,該方法的適用性容易受到人們說話的不同背景的影響(直面鏡頭正式講話,與不看鏡頭的現場采訪),解決這些局限仍需要更多的研究。

  現在,非死book、微軟、MIT、UC 伯克利等業界和學校聯合發起的這項 Deepfake 檢測挑戰賽,無疑將進一步推進“反換臉”的進步,有興趣的同學快去參與。

 

 本文由用戶 五嘎子 自行上傳分享,僅供網友學習交流。所有權歸原作者,若您的權利被侵害,請聯系管理員。
 轉載本站原創文章,請注明出處,并保留原始鏈接、圖片水印。
 本站是一個以用戶分享為主的開源技術平臺,歡迎各類分享!
  轉載自:https://mp.weixin.qq.com/s/60AAqBQxXmP84OflPiRxtQ