美国军方和DARPA合作开发技术以发现假新闻
我们都看到了人工智能(AI)动力算法的视频使巴拉克·奥巴马(Barack Obama)看起来像是通过将他的声音和面部动作综合成一个可信,更重要的,可信的,视频剪辑,并根据您坐在栅栏的哪一侧来发表演讲。但是,如果您认为自己是唯一一个这种感觉的人,那么您就不是那样了,因为事实证明,它也引起了美国国防部(DOD)(DOD)出血边缘研究组织DARPA的一些类似想法。
在整个夏季,DARPA宣布,他们将资助一场比赛,参与者将竞争创建最可信,假的AI生成的照片,视频和录音,共同称为“ Deepfakes”,例如下面的视频中的示例。但是,比赛还旨在进一步迈进,并试图发现和开发新的高级工具,以检测这些深层效果,这些深层烟草变得越来越便宜,更容易制作,并且更加复杂,因为从常规的研究人员到网络犯罪分子,人们都可以更好地创建AI算法,这些AI算法是在下面的视频中欺骗我们的。
我们已经超越了这种粗略的技术……
尤其是,DARPA对一个相对较新的AI类称为“生成对抗网络”(GAN's)所关注,它们是复杂的算法的类型,这些算法将两个神经网络互相影响,以最终磨练与人们制造的东西,因此可以创建某些人无法区分的东西,因此包含了词语,verversarial。在这种情况下,一个世界领导者被认为是在AI中产生的假新闻视频中的话,而不是他们在演讲中所说的话。
这就是说,检测假货的方法之一可能来自学术界,特别是麻省理工学院,几年前,他找到了一种使用AI从视频中获得某人心律的方法,如下所示。虽然使用这种技术刚开始听起来很奇怪的deefakes没有心跳,所以这种“旧”和奇怪的技术可以在短期内有助于快速weadle伪造。
从意外的来源中扎根假货的一种方法
很容易看出为什么国防部为何关心,现在美国总统在社交媒体上夸耀美国的核武库,而美国和韩国则努力进行裁员。肯定不会帮助任何人现在都会有一个可信的,假的特朗普总统或最高领导人金正恩的视频,他说他们计划发射导弹的传播。但是,制作这些视频的不仅仅是该州的互联网恶作剧或恶意敌人。
通过Facebook的图书馆进行快速扫描和Google发布的AI研究表明,两家公司都投资了如何开发可以处理,分析和改变人们的照片和视频的算法,并且如果DARPA想在芽中削弱这种潜在的威胁,也许他们应该研究技术巨头的工作。
即使其中一些研究项目相对良性,它们仍然可以用来平滑变更或假视频的故障,或者像Google的AI项目一样,旨在减少视频的噪音并使它们更现实。尽管有些项目令人毛骨悚然,例如Google的AI算法,该算法通过分析其他图片来创建一个中性的,面向人的前锋照片。
问题是AI研究人员经常服用“我们可以吗?”而不是“我们应该?”使最酷的东西成为可能的方法。这对于一个Facebook研究项目尤其重要,该项目找到了一种动画用户的个人资料照片的方法。该项目背后的研究人员说,他们在建造工作时没有考虑任何道德问题或可能滥用工作的滥用,他们只是想创造尽可能复杂的产品。
DARPA的问题在于,解决此问题需要改变对技术的发展的态度,并且不可避免地,当他们找到检测和战斗的方法时,就像任何战争一样,他们的对手,无论是主权国家还是卧室罪犯,都会继续找到一种方法。可以说这是他们不会赢的比赛。