盖世汽车讯 据外媒报道,来自谷歌(Google)、卡内基梅隆大学(Carnegie Mellon University)和博世人工智能中心(Bosch Center for AI)的研究人员提出一种增强深度学习模型的对抗鲁棒性的开创性方法,是一项重大进步并具有实际意义。
这项研究的主要结论可以围绕以下几点:
通过预训练模型轻松实现鲁棒性:该研究展示了一种简化的方法,可以实现针对2范数有界扰动的顶级对抗鲁棒性,仅使用现成的预训练模型。这项创新极大地简化了针对对抗性威胁强化模型的过程。
去噪平滑方面的突破:将预训练的去噪扩散概率模型与高精度分类器相结合,团队在ImageNet上实现了对抗性扰动的突破性71%准确率。这一结果比之前的认证方法显著提高了14个百分点。
实用性和可访问性:无需复杂微调或再训练即可获得结果,使得该方法非常实用且可用于各种应用,特别是那些需要防御对抗性攻击的应用。
去噪平滑技术解释:该技术涉及两个步骤:首先应用降噪器模型来消除添加的噪声,然后使用分类器来确定已处理输入的标签。此过程使得将随机平滑应用于预训练分类器变得可行。
利用去噪扩散模型:该研究强调了在图像生成中广受好评的去噪扩散概率模型对于防御机制中去噪步骤的适用性。这些模型有效地从噪声数据分布中恢复高质量的去噪输入。
在主要数据集上经过验证的有效性:该方法在ImageNet和CIFAR-10上显示出令人印象深刻的结果,即使在严格的扰动规范下,其性能也优于之前训练的自定义降噪器。
开放获取和可重复性:为了强调透明度和进一步研究,研究人员链接到一个GitHub存储库,其中包含实验复制所需的所有代码。
由于深度学习模型中的对抗鲁棒性是一个新兴领域,因此确保人工智能系统针对欺骗性输入的可靠性至关重要。人工智能研究的这一方面在从自动驾驶汽车到数据安全等各个领域都具有重要意义,其中人工智能解释的完整性至关重要。
一个紧迫的挑战是深度学习模型对对抗性攻击的敏感性。这些对输入数据的微妙操作通常是人类观察者无法察觉的,可能会导致模型输出不正确。此类漏洞会带来严重威胁,尤其是在安全性和准确性至关重要的情况下。此次研究的目标是开发出即使面对扰动也能保持准确性和可靠性的模型。
*特别声明:本文为技术类文章,禁止转载或大篇幅摘录!违规转载,法律必究。
本文地址:https://auto.gasgoo.com/news/202402/6I70382288C409.shtml
好文章,需要你的鼓励
联系邮箱:info@gasgoo.com
求职应聘:021-39197800-8035
简历投递:zhaopin@gasgoo.com
客服微信:gasgoo12 (豆豆)
新闻热线:021-39586122
商务合作:021-39586681
市场合作:021-39197800-8032
研究院项目咨询:021-39197921