Riot Games 的《英雄联盟》是一款备受欢迎的网络游戏,在全球拥有数量庞大的玩家群体。
对于 Riot Games 来说,对抗游戏中的恶意言论是一个巨大的挑战。
多年以来,Riot Games 试验了各种各样的技术,包括人工智能技术,对玩家的言行进行监控和引导,取得了相当不错的效果。
在Technologyreview 网站的采访中,公司社交系统的首席设计师 Jeffrey Lin 说,他们的系统已经辨识出数百万的恶意言论,而且,被指认使用辱骂言辞的玩家中,92% 的人不再犯同样的错误。
他认为,Riot 的系统不仅能用于在线游戏,而且也能用于其它类型的在线社区。
数年前,公司就推出了名为 Tribunal 的管理系统。
玩家的恶意言论被确认后,编入一个“档案”中。玩家们查看“档案”,投票表决那些行为是可以接受的。
总的来说,这个系统是非常精确的。Jeffrey Lin说,玩家社区 98% 的决策与 Riot 的内部决策是一致的。
这是一件非常耗费人力的事情。很快,Jeffrey Lin 和团队发现了恶意言论的模式。为了优化流程,他们决定使用人工智能技术。
“在区分消极言论和积极言论方面,这是一种非常成功的做法。《英雄联盟》支持的官方语言有 15 种。” 他说。同时,新系统的效率更高了。
以前,在确认了恶意言论后,玩家会在一周内得到反馈,现在,这个时间缩减为 5 分钟。
公司的新系统还大大改善了玩家的“改正率”。在游戏中,如果一个玩家曾经受到某种惩罚,然后,在一段特定时间里不再受到同样惩罚,他就被认为是“改正”了。
“在惩罚的时候,当我们加入更好的反馈,给出交谈记录等证据,改正率从 50% 上升到 65%,” Jeffrey Lin 说,“当机器学习系统提供了更快的反馈,并配以证据,改正率上升到了前所未有的 92%。”
Jeffrey Lin 认为,他们的经验能够用于更广阔的领域。对此,哈佛大学波克曼中心的研究员 Justin Reich 表示了赞同。
他说,从 Riot Games 的经验中,我们可以得出一个重要结论:辱骂行为不一定来自恶人,而是来自心情糟糕的普通人。
因此,在对抗恶意言论的时候,我们不能只针对那些恶意的 troll,而且需要考虑,在互联网的匿名状态下,人类会暴露出自己最糟糕的一面。不过,恶意言论并非难以根治的痼疾。通过技术、实验和社区参与,我们能够解决这个问题。
“我们在《英雄联盟》上面对的挑战,任何的游戏、平台、社区和论坛上都可以看到,因此,我们认为,在线社区已经到了一个急需转变的时刻,”Lin 说,“因此,我们乐意把数据和经验分享给更多的业界人士。我们希望,其它的公司能够看看这些结论,并且意识到,网上恶意言论并非不可解决的问题。”