擔心被AI換臉技術禍害?別怕!Deepfake打假隊正在趕來
關上 Deepfake 的潘多拉魔盒,他們能做到嗎?
文:CJ,編輯:Vicky Xiao
Deepfake 自問世以來,一路向著人性陰暗面奔去。
B 站用戶讓蔡徐坤頂著六小齡童的面孔在偶像練習生C位出道。民間技術流已經能對著 AI 換臉教程玩的不亦樂乎。但每個人也更容易成為受害者:偽造綁架視頻勒索詐騙,不雅視頻毀壞名譽,或者恐怖視頻制造混亂,都因為 Deepfake 的開源技術變得空前容易。
讓一眾名人換上布什的面部動作圖 TED 在 PS 摧毀了公眾對圖片的信任后,Deepfake 正在摧毀公眾對視頻的信任。沒有人想在互聯網上看到自己的面孔說著自己沒說過的話。許多針對個人的傷害,也因為影響不夠巨大而投訴無門。
美國正在形成一支 Deepfake 打假隊伍,不僅是高校實驗室、研究中心在尋找 Deepfake 的破綻,一股創業潮流也正在興起。
但這是一場造假 AI 與鑒假 AI 之間“你有張良計,我有過墻梯”的競賽。每一篇檢測 Deepfake 的論文,仿佛都能提示造假技術修補自身漏洞,從而更上一層樓。
關上 Deepfake 的潘多拉魔盒,他們能做到嗎?
用打假 Deepfake 創業
Shiva Kintali 離開擔任講師 4 年的普林斯頓計算機系,正在硅谷創業鑒別偽造視頻。他告訴硅星人,他的合作對象有警察、記者、保險公司等,通過機器學習尋找偽造視頻的破綻,用區塊鏈記錄信息等技術來輔助鑒別。
Kintali 的網站已經可以上傳圖像、音頻、視頻,來分析檢測是否有修改痕跡。他同時在開發一個手機相機應用,用人工智能為圖像添加時間、地點水印,并將圖片原始信息印在區塊鏈上。一旦傳播圖像的信息與原始圖片不符,就容易判斷真偽。
這些產品希望幫助記者、媒體公司、政治競選團體、執法機構(例如 FBI、NSA),保險公司(面臨虛假事故照片的保險索賠問題)和大公司(例如 非死book、推ter、Redditt、PornHub),在其平臺上阻止虛假的視頻、音頻、照片傳播。
由于 Deepfake 降低了視頻造假的門檻。面對真偽難辨的影像資料,記者不知道能否發布,保險公司不知是應該理賠還是報警詐騙,警察收集證據后,也需要專業工具去鑒定圖片和視頻的真偽。
目前流傳的假視頻大多是“淺度造假”,但因為數量多,造成了無數困擾。斯坦福的研究人員向鑒別公司了解到困擾他們的三大問題:數量太多,可用鑒別時間太短,缺乏標準化的工具。
因此,研究者們在尋找能夠大規模應用的打假方法。非死book、推ter 等社交網絡上爆炸式傳播的圖片和影像,給辟謠留下的時間窗口越來越短。普通大眾也不可能雇傭專業人士進行鑒別。
搶先商用化的圖像驗證平臺 Truepic 已經上線了一款智能相機應用。用戶拍下的圖像將上傳至服務器,在創建時對照片和視頻進行身份驗證,獲得唯一編碼。相機應用捕獲設備的傳感器數據,在傳輸之前加密照片或視頻,運行 20 多個圖像取證測試,并在幾秒鐘內,將圖像的加密簽名印在公共區塊鏈上,使得信息不可被篡改。
這是一種“自證清白”的方式,適用于電子商務平臺和公民記者類用戶。如果用戶將圖片發送給接收者,Truepic 允許收件人驗證圖像的原點和元數據的完整性。任何二次傳播的多媒體材料,都可以與區塊鏈上的原始信息對比,辨別真假。
在 Deepfake 的威脅下,鑒定圖片、視頻的真實性,都成了相機應用的賣點。但這類以營利為目的的產品又引起了用戶新的隱私擔憂。畢竟,誰能確保 Truepic 不作惡呢?
算法打算法
位于硅谷的 SRI International AI 中心則“以毒攻毒”,用偽造的視頻訓練算法,讓算法能夠更好識別出偽造痕跡。在人們上傳視頻到社交網站的時候,平臺需要對視頻重新編碼。這是一個檢測虛假視頻的好時機。
但隨著 Deepfake 的漏洞日漸優化,用算法打算法的難度也日益加大。
打假 AI 原本就是訓練造假 AI 的一部分,二者剛好在生成對抗性網絡的兩端。一個生成器,一個鑒別器,道高一尺,魔高一丈。
由于 Deepfake 的技術在于篡改數據,那么鑒別方則在尋找一切篡改數據的痕跡。一種方法是基于像素的視頻檢測,視頻其實是成千上萬幀圖片連放,細致到檢測每個像素的改變痕跡,是一件頗為浩大工程。
此外,偽造的面部表情目前仍有缺陷。偽造的臉部表情往往與其他部分存在不一致,計算機算法可以檢測圖片或視頻中的這種不一致。
UC Berkeley 研究者比較真假人物的面部差異 圖 UC Berkeley
舉例而言,初代 Deepfake 視頻中的人物,眨眼的方式都有點奇怪。
紐約州立大學奧爾巴尼分校計算機科學副教授 Siwei Lyu 曾撰文表示,成年人的眨眼間隔為 2 秒到 10 秒,一次眨眼需要十分之一到十分之四秒。這是正常視頻人物應有的眨眼頻率,但很多 Deepfake 視頻的人物沒能做到這一點。
彼時由于缺乏閉眼圖像數據,算法的訓練并不完美,視頻人物面孔總有一種“哪里不對”的不和諧感。
然而,通過閉眼的面部圖像、或使用視頻序列進行訓練,可以改善眨眼間隔。虛假視頻的質量總會提高,而研究人員需要繼續尋找檢測它們漏洞的方法。
南加大的研究者 Wael Abd-Almageed 表示,社交網絡可以使用算法來大規模識別 Deepfake。為了實現這一過程的自動化,研究人員首先建立了一個神經網絡,“學習”人類在說話時如何移動的重要特征。然后,研究人員使用這些參數將偽造視頻的堆疊幀輸入 AI 模型,以檢測隨時間的不一致性。
普渡大學的研究人員也采用了類似的方法,他們認為,隨著訓練模型的 Deepfake 視頻數據量越來越大,模型也會更加精確,更容易檢測出偽造的視頻。
美國 2020 年大選在即,如何阻止 Deepfake 從低俗娛樂發展到操縱民意,是研究者們最迫切的動力之一。但愿一鍵打假的速度,能追上一鍵換臉的速度。