對抗惡意言論!《CS:GO》AI 封鎖兩萬玩家

玩遊戲的時候,時常有玩家會惡言相向,嚴重時會很影響遊戲體驗,而海外電競遊戲平台 FACEIT 打造新 AI 系統,能夠偵測惡意言論,以對付那些常常口出惡言的玩家。

官方表示為了將誤判率降到最低,上線前已經測試好幾個月,而在 8 月的時候在自家電競遊戲平台 FACEIT 實裝,過程中 AI 寄出 9 萬筆警告並封鎖 2 萬位玩家,更重要的是,途中沒有人力介入。

AI 上線後惡意言論數量明顯減少

目前看來,AI 的成效不錯,而降低玩家們的惡言、謾罵現象,對於遊戲整體的生態也是有助益的,也許未來許多平台也會跟進,就讓我們繼續關注吧!

推薦電競新聞

繼續閱讀
Source 對抗惡意言論!《CS:GO》AI 封鎖兩萬玩家 https://game.nownews.com/news/20191030/3244567/