遊戲平台 FACEIT 與 Google Cloud、Jigsaw 合作,開發出人工智慧(AI)
Minerva,用來檢測連線遊戲中具有歧視、辱罵、惡意攻擊他人的文字,結果上線後六週就封鎖了 2 萬名《
絕對武力:全球攻勢(CS:GO)》的玩家。
Minerva 從今年 8 月下旬開始上線,會檢視《
絕對武力:全球攻勢》中的聊天訊息,結果上線一個半月內標註了有 7 百萬條訊息含有惡意言論訊息(Toxic),發出了 9 萬條警告訊息,並封鎖了 2 萬名玩家。
Minerva 運作主要是先察覺文字中是否有惡意言論,如果有的話就會發出警告,還會把惡意言論訊息標註為垃圾訊息,在一場對戰完成後,
Minerva 會依據玩家情節輕重,決定是否只是警告,或是暫時限制參加下一場對戰,甚至隨著情節嚴重者還封鎖其帳號。
-
謾罵文字示意圖(圖片來源:FACEIT)
-
警告文字
根據 FACEIT 表示,自從實施 AI 之後,惡意言論訊息從 8 月至 9 月減少了 20%,發送惡意言論的單一使用者數量下降 8%,而 FACEIT 表示這只是第一步,他們計畫給予
Minerva 更多訓練以增加新系統。
-
AI 協助後惡意言論數量明顯下降