研究人员创建嘈杂的神经网络来挫败AI对抗攻击

科技作者 / 姓名 / 2025-06-29 02:59
"
研究人员创建嘈杂的神经网络来挫败AI对抗攻击  喜欢指数的未来?加入我们的Xpotential社区,通过Xpotential University的课程

研究人员创建嘈杂的神经网络来挫败AI对抗攻击

  喜欢指数的未来?加入我们的Xpotential社区,通过Xpotential University的课程进行未来的证明,阅读有关指数技术和趋势,连接,观看Keynote或浏览我的博客。

  人工神经网络设计的进步导致了计算机视觉,音频识别,医学诊断等许多应用的突破。这些神经网络在图像分类,语音识别和疾病检测等任务中取得了巨大的成功,这些任务常常达到甚至超过人类水平的表现。他们改变了行业,使自动驾驶汽车的开发,增强了语音助手的准确性,并协助医生更有效地诊断疾病。

  但是,尽管具有令人印象深刻的功能,但神经网络并非没有脆弱性。深度学习领域中最令人关注的挑战之一是他们对受到对抗攻击的愚弄。

  这意味着,即使对输入数据的微小,不可察觉的更改(例如更改像素)也会导致神经网络做出严重错误的预测,通常具有很高的信心。例如,如果几个像素被巧妙地更改,则训练有素的分类器识别日常对象的分类器可能会错误分类为速度限制符号。这种现象引起了人们对神经网络在安全关键应用中的可靠性(例如自动驾驶汽车和医疗诊断)的关注。

  为了解决这一脆弱性,研究人员探索了各种策略,其中一种涉及将噪声引入神经网络的前几层。通过这样做,他们旨在使网络对输入数据的略有变化更加强大。噪声注入可以帮助防止神经网络过于依赖输入中的小细节,从而迫使他们学习更多的一般性和弹性特征。这种方法表明,有望减轻神经网络对对抗性攻击和意外意外变化的敏感性,从而使它们在现实世界中更可靠和值得信赖。

  但是,猫和鼠标的游戏仍在继续,攻击者将注意力转移到了神经网络的内部层次上。这些攻击并没有巧妙地改变输入,而是利用网络内部运作的知识来欺骗它,通过提供远非预期的输入,但随着特定的伪像的引入,获得了理想的结果。

  这些情况更难以保护,因为人们认为将随机噪声引入内层会对网络在正常条件下的性能产生负面影响。但是,东京大学的一对研究人员最近发表了一篇论文,驳斥了这种普遍的信念。

  该团队首先设计了针对针对内部隐藏层的神经网络的对抗性攻击,以导致其错误分类输入图像。发现这种攻击对网络取得了成功,他们可以使用它来测试其下一个技术的实用性 - 将随机噪声插入网络的内层。发现对神经网络的这种简单修改使其对攻击进行了强大的影响,表明可以利用这种方法来提高未来神经网络的适应性和防御能力。

  尽管发现该方法非常有用,但工作尚未完成。

  就目前而言,该方法仅被证明可以与一种特定类型的攻击作用。此外,一名团队成员指出:“未来的攻击者可能会试图考虑可以逃避我们在这项研究中考虑的功能空间噪音的攻击。的确,攻击和防御是同一枚硬币的两个方面;这是一场双方竞赛,双方都不会退缩,因此我们需要不断迭代,改进,改进,创新新的想法,以保护我们每天使用的系统。”

  随着我们越来越依赖人工智能(AI)来进行关键应用,神经网络对意外数据和故意攻击的鲁棒性只会在重要性上增长。我们可以希望在未来几个月和几年内在这一领域进行更多创新。

分享到
声明:本文为用户投稿或编译自英文资料,不代表本站观点和立场,转载时请务必注明文章作者和来源,不尊重原创的行为将受到本站的追责;转载稿件或作者投稿可能会经编辑修改或者补充,有异议可投诉至本站。

热文导读