Openai释放其新的DeepFake探测器
喜欢指数的未来?加入我们的Xpotential社区,通过Xpotential University的课程进行未来的证明,阅读有关指数技术和趋势,连接,观看Keynote或浏览我的博客。
正如专家警告说,人工智能(AI)生成的图像,音频和视频可能会影响秋季选举,Openai(再次)释放了一种工具,该工具旨在检测其自己流行的图像生成器Dall-E创建的内容。但是,这家著名的AI初创企业承认,该工具只是在未来几个月和几年中与所谓的深击所需的一小部分。
Openai周二表示,它将与一小群虚假信息研究人员共享其新的DeepFake探测器,以便他们可以在现实世界中测试该工具,并帮助确定可以改进的方法。
“这是为了启动新的研究,”专注于安全和政策的OpenAI研究人员Sandhini Agarwal说。“这确实需要。”
Matthew Griffin的错误信息启示录
Openai表示,其新检测器可以正确识别由DALL-E 3创建的98.8%的图像,这是其图像生成器的最新版本。但是该公司表示,该工具并非旨在检测其他受欢迎的发电机(如Midjourney和稳定性)产生的图像。
因为这种深泡探测器是由概率驱动的,所以它永远不会是完美的。因此,像许多其他公司,非营利组织和学术实验室一样,Openai正在努力以其他方式解决问题。
像科技巨头Google和meta一样,该公司也加入了有关内容出处和真实性联盟(C2PA)指导委员会的努力,以开发数字内容的证书。C2PA标准是一种用于图像,视频,音频剪辑和其他文件的“营养标签”,显示出何时以及如何生产或更改它们(包括AI)。
Openai还表示,它正在开发水印的AI生成的内容,以便在此刻很容易地确定它们,并且该公司希望使这些水印难以删除,即使到目前为止的水印已经证明很容易被证明很容易去除……
AI行业以Openai,Google和meta等公司为基础,面临着越来越多的压力来考虑其产品所制造的内容。专家呼吁该行业阻止用户产生误导性和恶意材料,并提供追踪其起源和分销的方法。
在全球大选的一年中,呼吁监视AI内容血统的方法越来越绝望。近几个月来,音频和图像已经影响了印度,印度尼西亚,斯洛伐克和台湾等地方的政治竞选和投票。
Openai的新DeepFake探测器可能有助于解决这个问题,但无法解决问题。正如Agarwal所说:在与深击的斗争中,“没有银色子弹。”