9月25日至28日,2021世界智能网联汽车大会在北京召开。本届大会围绕产业再造、融合应用、和合共生三个篇章展开,设有开幕式、主论坛,以及7场主题峰会、6个特色专场和2场闭门会,共邀请包括1位图灵奖国际专家、7位国内外院士、近150位国际国内智能网联汽车及ICT领域专家、企业家参与演讲探讨。以下是清华大学国强教授、清华大学(智能产业研究院)-百度阿波罗智能交通联合研究中心管委会委员聂再清的演讲实录,供参考。
演讲内容:
大家好,各位领导、各位嘉宾,我今天跟大家探讨的话题是数据驱动的车路协同。首先我要给大家介绍一下车路协同自动驾驶的背景、挑战和机遇。
现在大家都知道自动驾驶还面临着巨大的安全挑战,我们经常会看到各种新闻,长尾的情况下会发生不可预知的情况。红绿灯的遮拦、盲区、前车突然变道插入,都会导致自动驾驶系统带来一些不可预知的意外。我们认为车路协同自动驾驶会是我们未来的必由之路,我们认为未来一定会有一个聪明的车,同时还有一个智慧的路,智慧的路让我们能够拿到路边的辅助信息,同时车跟车之间如何共同的决策与控制,这里面就能做很多的基于城市智慧交通方面的工作。我们认为自动驾驶可能会第一段会有智慧的路,加上低等级的自动驾驶,第二阶段是智慧的路加上高等级的自动驾驶。
我们说数据驱动的车路协同自动驾驶是什么意思?我们主要是觉得现有的自动驾驶方案以单车智能为主,我们深信未来一定会走向车路协同,当每辆车都用自动驾驶在路上开的时候,我们的路一定是自动驾驶的车的路,车路协同大家可能都有很多共识,但是到底如何实现车路协同,有不同的方案。打比方说一种方案以车端感知为主,以路端感知为辅,这种方案有一个好处就是车有很强的自主可控性,同时它也能拿到路辅助的决策信号,能帮我们很快的自己决策,但是同时能够有一个全局视角,能很大程度解决盲区问题。
另外一种方式,以路端感知为主,车端感知为辅。车端感知为主比较浪费,每辆车都装上了激光雷达,都装上了各种感知器件,都在做同样能量的消耗。如果在碳中和的情况下,如果有一条路能感知信号,车的传感器变少也是非常好的。还有一个好处,可以做全局的优化,可以对路上所有的车,在城市级别进行路径的规划,减少大家时间的等待和堵车,同时对能耗,如果堵在路上会有很多能耗的消耗,这样的情况有非常大的帮助。
未来很有可能车和路都是动态的决策,谁来做主控,有的时候车不稳定,有的时候路不稳定,给一个冗余的双方都能在一起,在困难的情况下互相帮助,我觉得也是很有可能的,这种情况下我们就想知道在未来到底用多少车的信号,用多少路的信号,装多少车的传感器,装多少路的传感器。所有的这些方案我们都需要有数据来做支撑,来做理论基础。
因为现在我们没有一个,大家说了很多车路协同,其实还没有一个数据级能让大家真正做数据驱动的车路协同,这是在全球范围内都没有的,大家能做的还是基于仿真的情况来做,解决方案更多的可能是工程性的解决方案。我们其实要在算法上做创新,到底用多少车,多少路上的激光雷达,我们其实都需要一个很好的数据级来解决学界和业界的痛点,研究和产业落地架起桥梁,真正让政府能知道我们到底在路上的设备要建多少传感器,政府也会跟我们讨论路到底是不是那么重要,路上的车要建多少设备,多少设备是全的,这个都需要很多数据驱动,让产业界的人员、学界的人员,能把这样一个问题用数据驱动的方式来解决。
我们有跟北京市高级别自动驾驶示范区,还有北京车网科技发展有限公司,同时也跟百度阿波罗有合作,清华大学智能产业研究院跟大家一起发布首个车路协同自动驾驶公开数据级,我们叫做DAIR-V2X,我们也有网站,大家可以在网站了解更多关于这个数据级的信息,这个数据级有车的信息,有路的信息,我们是非常慎重的,大家对数据的安全,包括数据级的准确性,我们需要做特别多的准备,所以我们也是在特别谨慎的做了这些发布的动作。第一步邀请研究团队来试用我们的数据级,如果大家都觉得很好以后,我们会在全国让所有的公开下载使用,未来我们可能还会在国际上、全球都能使用。
现在我来介绍一DAIR-V2X数据级的总体设计,主要是通过车和道路感知系统和设备能够获取传感器的感知数据,包括图像、激光雷达的点云等等。同时,我们对数据已经做了大量的标注,我们也花了很多力量或者资金在标注上,这也是非常不容易,要把车和路都进行标注、脱敏,还要安全加密处理。最后我们希望能够给国内的高校,科研院所、产业界慢慢开始使用。
DAIR-V2X车路协同数据级是属于首个用车路协同智能驾驶研究的大规模、多模态、多视角的数据级,全部的数据都采自于真实场景,同时包含了2D和3D的标注。这个数据级有72890帧的点云数据,这里包含了车路协同的数据,包含了路端的数据,包含了车端的数据,这个数据级是第一次实现了车路协同空间同步标注,时间、空间同步的标注,这个也有很大的挑战,如何把车上和路上的信号一起来标注,我们必须解决车路协同时空同步的标注。传感器的类型非常丰富,包含了车端的相机,车端的激光雷达,路端的相机,路端的激光雷达,同时对障碍物等3D目标标注的属性特别全面,路端的第一次把相机的信号也做了3D的标注,激光雷达也是3D标注,这是采自于北京市高级别自动驾驶示范区的10公里的城市道路,10公里的高速公路以及28个路口,覆盖了晴天、雨天、雾天、白天和晚上,城市道路和高速公路等丰富的场景。
现在介绍一下DAIR-V2X数据级的典型任务,我们可以支持3D目标检测,点云3D目标检测,同时支持多模态的3D目标检测,支持车路协同的3D目标检测。车路协同的3D目标检测我稍微做一个更加详细的介绍,因为这个毕竟大家没有做过这么一件基于算法的事,三维信息就是真实的三维世界中,我们的目标是三维的形状,有长宽高,3D的检测就是在自动驾驶的场景,从图像和点云中提供物体三维大小等指标,用于自动驾驶场景中的路径规划和控制。车路协同的3D目标检测包含多模态的工作,包含多模态的特征,多视角的特征,同时还需要做时间和空间的同步。中间还需要做路和车的通信,因为路的信号要传到车上来,如果以路为主,要把车的信号传到路上去,还是比较复杂的情况。
现在车路协同3D目标检测的框架是这样的,希望能把路上的信号可以广播到车上去,路上的信号可能会有图像、激光雷达,也可能是中间层的信号,也可能只有结果。我们要做3D问题的检测,主要要有三个优化目标,第一个目标要提升检测性能,要把3D目标检测的性能提升。同时去研究探索到底少用路端的信号,那么多信号,是不是可以少用路端的信号,把路端的信号减少就减少通信的时延,多少合适还能保持好的精度,这是一个目标。还有一个目标可以减少传感器的使用量,可以减少车上传感器的使用量,可以减少路上传感器的使用量,可以做各种组合,车上就用相机,路上用激光雷达,各种组合都是可以的,这种情况下我们如何能做到减少成本,降低能耗,同时还能保持精度,做到统一的规划。
融合有几种情况,一种是前融合,把传感器的信号在前端进行融合,还有特种级别的融合,中间做了某种形式的融合,最后一种是把结果,每个都做了结果,结果层面进行融合。因为考虑工程方便,当前的车路协同主要是基于后融合,为了让大家比较,用前融合、中融合和后融合有多大的好处,首先会把车端的3D的目标检测结果和路端的3D目标检测结果都对应在虚拟坐标系上,在虚拟的世界坐标系上进行结果的融合。
DAIR-V2X数据级对学术界和对产业界都会有非常大的影响,我们是第一个车路协同基于真实场景的数据级,填补了一项行业的空白,同时从真实场景出发,基于数据驱动,我们能引导很多的科研人员在这里面去工作,工作的结果能很好的给产业落地做指导。谢谢大家,非常感谢。
更多会议内容,欢迎点击以下链接进入观看:
本文地址:https://auto.gasgoo.com/news/202109/29I70275142C601.shtml
 
联系邮箱:info@gasgoo.com
客服QQ:531068497
求职应聘:021-39197800-8035
新闻热线:021-39586122
商务合作:021-39586681
市场合作:021-39197800-8032
研究院项目咨询:021-39197921
版权所有2011|未经授权禁止复制或建立镜像,否则将追究法律责任。
增值电信业务经营许可证 沪B2-2007118 沪ICP备07023350号