盖世汽车讯 据外媒报道,麻省理工学院(MIT)的研究人员开发出一种全新深度学习算法,可对所接收的测量数据和输入建立健全的“怀疑”机制,帮助机器在真实、不完美的世界中导航。
文章首席作者及麻省理工学院航空与航天系博士后Michael Everett表示:“尽管目前基于深度神经网络的系统在许多机器人任务中都算很前沿,但在安全关键领域中,由于深度神经网络系统的网络鲁棒性没有正式的保障,所以仍然很危险。一旦传感器输入受到小扰动(如噪声或对抗性实例)通常会改变基于网络的决策,如自动驾驶汽车会因此变换车道。
鉴于上述危险,研究人员已根据这些对抗性输入开发出很多算法建立防御机制。部分对抗性输入还可提供正式的鲁棒性保证或证明。此项工作利用了经验证的对抗鲁棒性,进而为深度强化学习算法开发可靠的在线鲁棒算法。
(图像来源:MIT)
由于存在潜在对抗和噪音,输入空间可能会出现最糟糕的偏差,因此提出的防御措施会在识别和选择鲁棒操作执行期,需要计算状态操作值的保证下限。而且,即使验证者可能因干扰不了解真实状态和最佳操作,最终策略仍可具备解决方案品质保证。”
*特别声明:本文为技术类文章,禁止转载或大篇幅摘录!违规转载,法律必究。
本文地址:https://auto.gasgoo.com/news/202103/17I70246165C409.shtml
联系邮箱:info@gasgoo.com
客服QQ:531068497
求职应聘:021-39197800-8035
新闻热线:021-39586122
商务合作:021-39586681
市场合作:021-39197800-8032
研究院项目咨询:021-39197921
版权所有2011|未经授权禁止复制或建立镜像,否则将追究法律责任。
增值电信业务经营许可证 沪B2-2007118 沪ICP备07023350号