非死book介紹如何利用AI檢測COVID-19假新聞和仇恨言論
在本周一發布的報告中,非死book 詳細介紹了如何使用人類事實檢查員(human fact-checkers)、版主和人工智能結合的方式來更高效執行社區標準。 這份報告稱之為“社區標準執行報告”(Community Standards Enforcement Report),包含了前三個月到六個月的數據和調查結果,不過本次報告主要關注的是人工智能。
在 COVID-19 疫情期間,非死book 更多的依靠技術來幫助版主進行管理。據 The Verge 周二報道,非死book 已經與現任和前任版主達成了 5200 萬美元的集體訴訟和解,以補償他們在工作期間產生的精神健康問題,尤其是創傷后應激障礙。The Verge 曾廣泛報道過 非死book 雇傭的公司在其平臺上做版主的工作條件。
該公司的誠信副總裁 Guy Rosen 表示:“這份報告只包括截至 2020 年 3 月的數據,所以它并沒有反映出我們在大流行期間所做的改變的全部影響。我們預計,我們將在下一份報告中看到這些變化的影響,我們將對這些變化保持透明。”
鑒于目前的情況,非死book 的報告中確實包含了新的信息,即該公司如何利用其 AI 工具專門打擊與冠狀病毒相關的錯誤信息和其他形式的平臺濫用行為,比如在 非死book Marketplace 上的價格壟斷行為。
在博文中寫道:“自 3 月 1 日以來,我們已經刪除了超過 250 萬條用于銷售口罩、洗手液、表面消毒濕巾和 COVID-19 檢測試劑盒的內容。但這些都是困難的挑戰,我們的工具也遠非完美無缺。此外,這些挑戰的對抗性意味著工作永遠無法完成。”
非死book 表示,其標簽正在發揮作用:95% 的情況下,被警告的人在被警告某篇內容含有錯誤信息的情況下,都會決定不看。但事實證明,在其龐大的平臺上制作這些標簽是一個挑戰。首先,非死book 正在發現,大量的錯誤信息以及仇恨言論現在顯示在圖片和視頻中,而不僅僅是文字或文章鏈接。
在另外一篇博文中寫道:“我們發現,在全球范圍內,非死book 上的仇恨言論有相當大的比例出現在照片或視頻中。與其他內容一樣,仇恨言論也可以是多模式的:比如說,一個 meme 可能會將文字和圖片一起使用,攻擊特定人群。”
該公司承認,這對 AI 來說是一個比較棘手的挑戰。由于措辭和語言差異等復雜因素,經過 AI 訓練的模型不僅難以解析一張 Meme 圖片或視頻,而且當內容在 非死book 上傳播時,該軟件還必須經過訓練,以找到重復或僅有少量修改的內容。