调查显示,深层面孔的图像现在比真实的照片更真实
喜欢指数的未来?加入我们的Xpotential社区,通过Xpotential University的课程进行未来的证明,阅读有关指数技术和趋势,连接,观看Keynote或浏览我的博客。
当每个人都在谈论诸如Chatgpt和Midjourney之类的平台时,您可能会认为Deepfakes一直在坐下,但是当您一直在寻找其他地方时,它们一直在越来越好。事实上,如此出色的是,即使您认为自己擅长分析面孔研究表明,许多人无法可靠地区分真实面孔的照片和已计算机生成的图像。现在,计算机系统可以创建不存在的人的现实照片,这尤其有问题。
几年前,具有计算机生成的个人资料图片的假链路上的个人资料引起了新闻,因为它成功地与美国官员和网络平台上的其他有影响力的人建立了联系。反情报专家甚至说,间谍通常会通过社交媒体在外国目标中创建幻影概况。
主题演讲者Matthew Griffin的未来合成内容
这些深蛋糕在日常文化中变得广泛普遍,这意味着人们应该更加了解他们在营销,广告和社交媒体中的使用方式。这些图像也被用于恶意目的,例如政治宣传,抹黑人,间谍和信息战。
使它们涉及一种称为深神经网络的东西,这是一种模仿大脑学习方式的计算机系统。通过将其暴露于越来越大的真实面孔数据集中,这是“训练”的。
实际上,两个深度神经网络相互对立,竞争产生最现实的图像。结果,最终产品被称为GAN图像,GAN代表生成的对抗网络。该过程产生的新图像在统计上与训练图像没有区别。
研究人员在一项发表在Iscience上的研究中表明,未能将这些人造面孔与真实事物区分开,对我们的在线行为产生了影响。我们的研究表明,假图像可能会侵蚀我们对他人的信任,并深刻地改变我们在线沟通的方式。
他们还发现,人们认为甘脸比实际人的面孔的真实照片更具真实的外观。虽然目前尚不清楚为什么这样做,但这一发现确实突出了用于生成人造图像的技术的最新进展。
他们还发现了与吸引力的有趣链接:被评为较少吸引力的面孔也被评为更真实。吸引力较低的面孔可能被认为更典型,并且可以将典型的面孔用作评估所有面孔的参考。因此,这些甘脸看起来更真实,因为它们与人们从日常生活中构建的心理模板更相似。
但是,将这些人造面孔视为真实的面孔也可能会对一般的信任水平产生影响,我们扩展到了一个陌生的人圈子,这是一个被称为“社会信任”的概念。
我们经常在看到的面孔中读得太多,而我们形成的第一印象指导了我们的社会互动。在我们最新研究的一部分的第二个实验中,我们看到人们更有可能信任以前认为是真实的面孔传达的信息,即使他们是人为地产生的。
人们对自己认为是真实的面孔更加信任也就不足为奇了。但是他们还发现,一旦人们得知在线互动中人造面孔的潜在存在后,信任就会受到侵蚀。然后,他们表现出较低的信任水平,总体上 - 与可能具有重要的社会conseuqneces的面孔无关。
在某些方面,这种结果可以被认为是有用的,因为它使人们在虚假用户可以运行的环境中更加可疑。但是,从另一个角度来看,它可能会逐渐侵蚀我们交流方式的本质。
通常,我们倾向于以默认假设为基本的真实和值得信赖的默认假设。假概况和其他人造在线内容的增长提出了一个问题,即他们的存在和我们对它们的知识可能会改变这种“真相默认”状态,最终削弱了社会信任。
过渡到一个真实的世界与没有区别的世界也可以将文化景观从主要的真实变为主要是人为和欺骗性的世界。
如果我们定期质疑我们在网上体验的真实性,则可能需要我们重新部署我们的心理努力,从处理消息本身的处理到使者身份的处理。换句话说,高度现实但人为的在线内容的广泛使用可能要求我们以我们没有期望的方式进行不同的思考。
在心理学中,他们使用一个名为“现实监控”的术语来正确地确定某种东西是来自外部世界还是来自我们的大脑。可以产生虚假但高度现实的面孔,图像和视频调用的技术的进步意味着现实监视必须基于我们自己的判断以外的其他信息。它还要求更广泛的讨论人类是否仍然可以负担得起默认为真理。
在评估数字面孔时,人们至关重要。这可以包括使用反向图像搜索来检查照片是否是真实的,对几乎没有个人信息或大量关注者的社交媒体资料警惕,并意识到将Deepfake Technology用于邪恶目的的潜力。
该区域的下一个边界应改进算法,以检测伪造的数字面孔。然后可以将这些嵌入到社交媒体平台中,以帮助我们将真实的面孔与假货的面孔区分开。