$VideoContentTcplayer$
  • 采购项目
  • 配套企业库
  • 销量查询
  • 盖世汽车社区
  • 盖世大学堂
  • 盖亚系统
  • 盖世汽车APP
  • 盖世汽车产业大数据
  • 2025第八届智能辅助驾驶大会
  • 第八届上海-斯图加特汽车及动力系统国际研讨会
  • 2025第四届中国车联网安全大会
  • 2025汽车智能玻璃创新技术及应用大会
当前位置:首页 > 智能网联 > 正文

美国研发新工具 可重构被网络攻击的模型并定位漏洞

盖世汽车 Fairy 2024-11-12 08:20:32

盖世汽车讯 想象一下,一辆自动驾驶汽车突然开始偏离道路,而此种危险情况并不因传感器故障导致,而是源于一起网络攻击。黑客们可以访问车辆计算机系统核心的深度学习(DL)神经网络,从而危及乘客以及其他驾驶员和行人的安全。

美国研发新工具 可重构被网络攻击的模型并定位漏洞

深度学习(图片来源:佐治亚理工学院)

要阻止此类网络攻击,首先需要对其有所了解,不过,这一任务往往极具挑战性。精确识别计算系统中的深度神经网络会面临多重障碍,因为此类神经网络通常受到专利保护,因此除非进行法律干预,否则调查人员也无法访问。另一个常见的问题在于,此类神经网络会经常更新,调查研究人员难以获取此类网络的最新迭代版本。

对此,据外媒报道,美国佐治亚理工学院(Georgia Tech)基于人工智能技术开发出事后网络安全取证工具AI Psychiatry(AiP),能够使用人工智能在遭受网络攻击的设备上恢复特定的运行模型,并发现致命漏洞发生的位置,从而解锁各种神经网络(从自动驾驶汽车到IMDB娱乐数据库)中的恶意软件。

AiP可以在本地网络内存和训练该神经网络的图形处理器上恢复原始的DL模型,而且无需了解该模型的框架、平台或版本。相反,其采用“线索”来重构模型,或重构所有神经网络中常见的组件。

其中包括模型的内存图像中的权重、偏好、形状和层数,这是模型正常运行时,一组已被冻结的比特和字节操作信息。该款内存图像至关重要,因为其可以让AiP将该模型与被攻击后的模型作比较。

电气与计算机工程系博士生David Oygenblik表示:“此类模型通常会根据当前环境不断调整信息,因此攻击者可能会破坏特定模型正在学习的信息,从而导致攻击发生。我们发现,内存图像可以捕捉运行时间内发生的所有变化。”

一旦该模型被恢复,AiP 就可以在另一台设备上运行,让调查人员对其进行彻底的测试,以确定漏洞的具体位置。目前,AiP已经在不同的机器学习框架(TensorFlow和PyTorch)以及数据集(CIFAR-10、LISA和IMDB)上进行了测试,其成功恢复并重新部署了30个模型,准确率达100%。

类似AiP的工具可以让网络调查人员立即查看整个事件经过。解决网络犯罪问题不仅有助于保护用户数据安全,还能确保车辆在道路上安全行驶,从而预防未来可能发生的犯罪行为。

2024年全球前瞻技术情报

*特别声明:本文为技术类文章,禁止转载或大篇幅摘录!违规转载,法律必究。

本文地址:https://auto.gasgoo.com/news/202411/12I70410213C601.shtml

文章标签: 美国
 
0

好文章,需要你的鼓励

微信扫一扫分享该文章