$VideoContentTcplayer$
  • 采购项目
  • 配套企业库
  • 销量查询
  • 盖世汽车社区
  • 盖世大学堂
  • 盖亚系统
  • 盖世汽车APP
  • 2025第六届软件定义汽车论坛暨AUTOSAR中国日
  • 2025第五届中国汽车人机交互与体验设计创新大会
  • 2025第五届汽车计算大会
  • 2025第三届AI定义汽车论坛
  • 2025第三届中国汽车及零部件出海高峰论坛
  • 第八届上海-斯图加特汽车及动力系统国际研讨会
  • 2025第四届中国车联网安全大会
当前位置:首页 > 智能网联 > 正文

清华大学类脑计算研究中心开发尖端视觉芯片 有望赋予自动驾驶系统类似人眼的感知能力

盖世汽车 Elisha 2024-06-12 09:38:33
核心提示:芯片可以实现每秒10,000帧、10-bit精度和130 dB的高动态范围的高速视觉信息采集,同时将带宽减少90%并保持低功耗。

盖世汽车讯 随着人工智能的快速发展,自动驾驶、具身智能等无人系统不断在现实场景中得到推广和应用。作为获取信息的核心手段,视觉感知在这些智能系统中发挥着十分重要的作用。然而,如何在动态、多样化和不可预测的环境中实现高效、精准和稳健的视觉感知,仍是有待解决的难题。

清华大学类脑计算研究中心开发尖端视觉芯片 有望赋予自动驾驶系统类似人眼的感知能力

(图片来源:清华大学)

在开放世界场景中,智能系统不仅要处理大量数据,还要应对各种极端事件,如突发危险、隧道入口处剧烈的灯光变化,以及夜间驾驶场景中强烈的闪光干扰等。传统的视觉感知芯片受到“功耗墙”和“带宽墙”的限制,在处理这些场景时经常面临失真、故障或高延迟的问题,严重影响了系统的稳定性和安全性。

据外媒报道,为了应对这些挑战,清华大学类脑计算研究中心(CBICR)专注于类脑视觉感知技术,并提出创新互补感知范式,其中包括基于视觉原语的信息表示和两条互补的视觉通路。相关研究论文发表在期刊《自然(Nature)》上。

受人类视觉系统基本原理的启发,该方法将视觉信息分解为基于视觉原语的信息表示。通过结合这些原语,它模仿人类视觉系统特征,形成两条互补、信息完备的视觉感知通路。

基于这一新范式,CBICR首次开发出类脑互补视觉芯片——天眸芯(Tianmouc)。该芯片可以实现每秒10,000帧、10-bit精度和130 dB的高动态范围的高速视觉信息采集,同时将带宽减少90%并保持低功耗。这不仅克服了传统视觉感知范式的性能瓶颈,而且能够有效地处理各种极端场景,确保系统的稳定性和安全性。

利用天眸芯,该团队开发出高性能软件和算法,并在开放环境下运行的车载感知平台上验证了它们的性能。在多种极端情况下,该系统展现出低延迟、高性能的实时感知能力,展示了其在智能无人系统领域的巨大应用潜力。

作为视觉感知芯片领域的重大突破,天眸芯研制成功不仅为推进智能化变革提供了强有力的技术支撑,也为自动驾驶、具身智能等关键应用开辟了新途径。

结合CBICR在类脑计算芯片“天机芯(Tianjic)”、工具链、类脑机器人等方面的技术基础,“天眸芯”的加入将进一步完美类脑智能生态系统,有力地推动人工通用智能的发展。

智能网联汽车产业分析月刊

*特别声明:本文为技术类文章,禁止转载或大篇幅摘录!违规转载,法律必究。

本文地址:https://auto.gasgoo.com/news/202406/12I70395482C601.shtml

文章标签: 自动驾驶 芯片
 
0

好文章,需要你的鼓励

微信扫一扫分享该文章