Facebook宣布“仇恨模因挑戰”,以停止令人反感的模因和仇恨言論

Facebook宣布了一項新舉措,以阻止“可恨的”模因在網絡上彈出。 記者和研究人員都可以使用這種稱為“仇恨模因挑戰”的新算法進行審查,從而可以使“危險模因”在瀏覽網頁時變得“積極”,從而“保持人們的安全”。

首先,如果您想快速總結一下Facebook最新宣布的遏制仇恨模因的計劃,可以查看 Memology 101的視頻 就在這兒:

如果您沒有觀看視頻,根據 facebook.com,研究科學家Douwe Kiela,應用研究科學家Hamed Firooz和數據科學家Aravind Mohan表示,有害成分“影響整個科技行業和整個社會。”

除了上述內容之外,這是The Hateful Memes Challenge背後的眾多挑戰之一,其目標是:

“我們已經建立並正在共享一個專門設計的數據集,以幫助AI研究人員開發新系統來識別多模式仇恨言論。 該內容結合了不同的形式,例如文本和圖像,使機器難以理解。

Hateful Memes數據集包含10,000多個由Facebook AI創建的新多模式示例。 我們從Getty Images獲得圖像許可,以便研究人員可以使用數據集來支持其工作。 我們還將發布針對基線訓練模型的代碼。

我們還將發起仇恨模因挑戰賽,這是由DrivenData主辦的首場在線競賽,總獎池為100,000美元。 該挑戰已被接受為NeurIPS 2020競爭軌道的一部分。”

三位科學家和Facebook團隊表示,Facebook AI以及仇恨模因挑戰賽是目前最佳的解決方案。 但是,該團隊還在尋找防止潛在濫用的方法,這就是為什麼訪問受限的原因。

這意味著參與者(新聞工作者和研究人員)將需要就如何使用,存儲和處理所述數據達成嚴格的使用條款。

此外,我們還了解到,該團隊正在嘗試幫助AI算法將可惡的示例與潛在的誤報區分開。 為了確保分類決策可行,團隊創建了以下示例來專門定義仇恨言論:

“根據特徵,包括種族,種族,國籍,移民身份,宗教,種姓,性別,性別認同,性取向以及殘疾或疾病,對人的直接或間接攻擊。 我們將攻擊定義為暴力或非人道化(將人們與非人類事物(例如動物)進行比較)的言論,自卑的言論以及要求排斥或隔離的呼籲。 嘲諷仇恨犯罪也被視為仇恨言論。”

最後,據說該團隊在改善AI系統以檢測Facebook上的“仇恨言論”和其他“有害內容”方面正在取得進展。 但是,該團隊希望“仇恨模因挑戰賽”能夠傳播到Facebook之外,並傳播到其他平台上,以“確保人們安全”。