使命召唤邀请AI窃听语音聊天,并从今天开始帮助禁止有毒玩家

商业作者 / 姓名 / 2025-04-27 16:57
"
《使命召唤》是通过收听游戏内语音聊天来加入越来越多的在线游戏打击毒性,它正在使用AI来协助该过程。Activision宣布与AI服装调

《使命召唤》是通过收听游戏内语音聊天来加入越来越多的在线游戏打击毒性,它正在使用AI来协助该过程。Activision宣布与AI服装调制的合作伙伴关系,以整合其专有的语音调节工具&Mdash; Toxmod; Mdash; Mdash; Mdash; Mdash; Mdash; to to Modern Warfare 2,Warzone 2和即将到来的现代战争3。

Activision说,今天开始在北美服务器进行Beta测试的Toxmod能够“实时识别并强制反对有毒言论;包括仇恨言论,歧视性语言,骚扰等”。

调节将Toxmod描述为“为游戏专门构建的唯一主动语音聊天解决方案”。虽然官方网站列出了几个游戏Toxmod(主要是小型VR游戏,例如Rec Room),但《使命召唤》的数十万每日玩家可能会代表该工具迄今为止最大的部署。

《使命召唤》的托克斯莫德AI将没有自由裁定发布球员禁令。语音聊天审核今天发布的问答指定AI的唯一工作是观察和报告,而不是惩罚。

答案写道:“《使命召唤》的语音聊天审核系统仅提交有关有毒行为的报告,该报告按其行为类型和基于不断发展的模型的额定严重程度进行分类。”“ Activision确定它将如何执行语音聊天违规。”

因此,尽管从理论上讲,在采取任何行动之前,对您的语音聊天抱怨将由人类判断,但Toxmod在标记潜在犯罪时不仅要考虑关键字。调节说,其工具对于分析语气和语音意图的能力是独一无二的,以确定什么是有毒的和不是有毒的。如果您很好奇这是如何实现的,那么您找不到清晰的答案,但是您会发现很多令人印象深刻的主张(就像我们曾经来自AI公司的那样)。 

调节托克斯莫德

该公司表示,其语言模型已经在数小时内收听具有多种背景的人的演讲,并且可以准确区分恶意和友好的即兴演奏。有趣的是,调节的道德政策指出,托克斯莫德“未检测或确定单个说话者的种族”,但它确实“倾听对话提示,以确定对话中的其他人对使用[某些]术语的反应”。

诸如N字之类的术语:“虽然N字通常被认为是一种邪恶的诽谤,但许多识别为黑色或棕色的玩家已经回收了它,并在其社区和地狱中积极使用它;如果有人说N字并在聊天中明确冒犯了其他人,那么这将比似乎被收回自然化的用法更为严重。”

调节还提供了对孩子有害言语的例子。该网站写道:“例如,如果我们在聊天中检测到预言的扬声器,则由于孩子的风险,我们可能会更严重地对某些罪行进行评分。”

最近几个月,Toxmod的标记类别变得更加细腻。6月,调节式的“暴力激进化”类别可以标记“与白人至上主义群体,激进主义和极端主义”的术语和短语,实时实时。”

托克斯莫德声称要检测到的内容的列表包括:

  • 促进或分享意识形态
  • 招募或说服他人加入小组或运动
  • 有针对性的修饰或令人信服的弱势个人(即儿童和青少年)加入团体或运动
  • 计划暴力行动或积极计划实施身体暴力

该公司说:“利用诸如纽约大学(NYU)进行的研究,当前的思想领导力以及与游戏行业中的人们进行对话的研究,我们已经开发了该类别,以识别与极端主义运动高度相关的信号,即使该语言本身并不暴力,也可以以这种方式进行这种招募。

调节显然正在设定其目标,尽管出于《使命召唤》的目的,听起来Toxmod将只是潜在罪犯和人类节制团队之间的中间人。AIVISION表示,尽管AI决策的阴谋固有地模糊,但其执行最终将遵守《使命召唤官方的行为守则》。这与Riot和Blizzard如何处理Valort和《守望先锋2》中的语音聊天适度并没有什么不同,尽管Riot还收集了一年多以来的语音聊天数据来开发自己的AI语言模型。

Toxmod将于11月10日在现代战争3发射时在全球范围内推出,从仅英语节制开始,并在以后扩展到更多语言。

分享到
声明:本文为用户投稿或编译自英文资料,不代表本站观点和立场,转载时请务必注明文章作者和来源,不尊重原创的行为将受到本站的追责;转载稿件或作者投稿可能会经编辑修改或者补充,有异议可投诉至本站。

热文导读