• 盖世汽车产业大数据
  • 采购项目
  • 配套企业库
  • 销量查询
  • 盖世汽车社区
  • 盖世大学堂
  • 盖亚系统
  • 盖世汽车APP
当前位置:首页 > 国内新闻 > 正文

【盖世直播】朱西产:人机共驾面对的难题及测试评价方法的研究

盖世汽车 2016-12-02 15:04:06
核心提示:“2016第四届汽车与环境创新论坛”现场直播!


朱西产.jpg

同济大学汽车安全技术研究所所长 朱西产

我在同济大学汽车学院工作,同济大学已经申请建立了教育部的智能新能源汽车创新中心,我们团队在创新中心从事智能汽车测试评价的工作。今天涉及到人机共驾的话题,对于智能的理解,第一个需求是安全,一个实现零排放,这两个“零”愿景是推动汽车产业后续发展的主要推动力。从安全角度来说,我们从一个正常驾驶发展到交通事故,从偏离正常驾驶开始进入到危险,有可能要紧急避撞甚至发生碰撞,要想实现“零”愿景两条路线,从发生碰撞到进入危害状态,让车辆自动处理危险过程这样一个渠道发展过来。从自动驾驶的角度来说,用户更关注自动驾驶,很多让驾驶员更安全的配置其实驾驶员更不喜欢,我们的ABS系统里AEB也好,这些系统对用户来说没有驾驶体验。LCW和LBW我们可以预见,用户也会非常讨厌,只要设计的时候可以关掉我相信有大部分的用户会关掉,大家对智能的需求更多是自动驾驶。

自动驾驶需要从正常驾驶偏离的时候要马上纠正,自动驾驶和ABS在两个安全领域是两种不同的思考方式,我们从被动安全更多关注主动安全技术的驾驶辅助,尤其是AEB系统已经证明它对提升安全的重要性。对用户感受来说,大家对自动驾驶的需求会更大,由于时间关系,ABS这一块我不详细介绍了,加一个雷达和摄象头可以起到帮助驾驶的作用,但是雷达和摄象头没有透视功能,经过分析发现,有很多危险形成的原因,有一半的危险是驾驶员疏忽造成的,还有一部分原因是遮挡。

现在提到V2X,V2X现在美国正在出台标准强制安装,要想使这个车有透视能力发现隐藏着的风险,现在一个技术解决方案是用通讯的方式把自己车辆的参数,尤其是定位参数自己的位置信息发布出来,这里面两个难题,一个是定位的精度,一个是通讯的时延,现在非常热门的技术是美国有DSRC,中国在这个领域可能有更多的创新机会,我们有高精度的北斗定位和V2X还有2020年以后第五代通讯解决时延问题,这在安全领域已经有很多运用并且已经达成共识,对提升汽车安全是非常重要的。

其实我们现在开车过程中引发事故的原因已经不再是饮酒驾车和超速,第一原因已经上升到使用手机,我们的生活被智能手机绑架,在任何时候都离不开手机,开车的时候离不开手机这已经变成第一的问题。我们说汽车安全分两种,现在一个传统汽车没有任何智能环境感知设备,两秒钟内就会发生众多的事故,看一眼微信这个过程都有可能导致交通事故。

在现在生活里,其实坐在车里的时间越来越长,我们希望怎么在两三个小时的驾车过程中不再被驾驶任务约束着,能不能解放我们的双手双脚双眼,甚至能不能解放脑子去做别的事情,这个车队行驶的概念是通过前面一个车的引导降低这个道路环境的复杂度以后,通过车与车通讯缩短距离来实现这样一个自动驾驶方式是可以达到完全的自动驾驶。我们可以看到在编队里的这些车这个司机可以干别的事情,这是用户最希望有的一种功能。同时编队以后在高速上面这样编队,由于车距比较近现在可以到达80公里每小时10米的间距,油耗下到16%,这是很值得期待的一个技术。

沃尔沃的几位老总都坐在这里,沃尔沃明年要上路的Drive Me,这样的功能也是非常炫的,我们开车的时候不仅可以看手机还可以做别的事情,脑子都已经解放了,这是用户最喜欢的。

我们如果继续加强被动安全技术,加上现在推行的ADAS,如果再用V2X消除隐藏在暗中的威胁,如果驾驶员想干点别的事情,可以把驾驶权交给汽车,甚至车辆可以自动驾驶任务这样一个技术的构成,甚至现在提出来的道路零愿景的技术分解,现在我们已经不再以降低多少交通事故死亡人数作为目标了在今后的四五十年中我们希望做零愿景。

前面我们看到自动驾驶是零愿景中最后一个环节,ADAS和V2X已经把70%的交通事故消除,但是如果不能自动驾驶还是有一些问题,自动驾驶是最后实现“零”愿景必备的技术要求,但是现在的自动驾驶技术,由于传感器环境感知能力的缺失或者不足,恰恰是自动驾驶又引发了安全的事故,现在的自动驾驶还是不充分的。L1中ACC把脚解放了,这个用户不太关心,驾驶者最想解放的是手。到L2手也解放了,但是一些事故出来以后,现在又要把用户的手抓回到方向盘上,理论上到L3车的传感器可以完成道路交通状态的观测,把眼解放了,到L4脑子也解放了,你可以干驾驶任务之外的其他事情。用户最希望的是L4。但是很可惜现阶段L4还不具备量产的条件。现在的雷达和摄象头可能只能支持到L2,也许加一个激光雷达和双摄象头支持L3、L4和L5,等会儿我们看看沃尔沃的Drive Me有什么技术让我们在开车的时候可以做别的事情,放心的把手放开,把眼睛离开,甚至脑子不再想驾驶这件事,沉浸到他的创作工作中,这里面到L4、L5这一块主要是技术难题。

汽车工业一直是一个很传统的产业,我们要有新产品上市才能支持我们的研发,跟IT业不一样他们可以讲个故事到股市上拿钱,做20年甚至50年后的事情,我们从市场上获得资金做最多五六年的事情,现在的L2、L3可能是切实的能够支持汽车行业进行自动驾驶开发的一个层级,那么这个层级的自动驾驶存在的最大问题是传感器还不能充分的了解交通状态,那么车辆会陷入到什么样的危险中他还不知道,现在的L2其实就是两个L,一个ACC,他只认识车道线里的车。从特斯拉的事故里看到,现在的传感器对道路维修看不到,所以在浦东这里维修路段把拦在路上的混凝土墩子撞了他也看不到压线走的危险车在邯郸把一个靠边走的扫地车毫不犹豫的撞了,这些都是传感器的不足。但是这些传感器已经可以支持我们做L2级的自动驾驶的开发。传感器已经可以支持了,但是传感器的能力不足以完成完全的自动驾驶,L3也许我们说加一个双路摄象头加一个激光雷达,他也可以发现这些障碍物。所以我们现在面临的难题,ADAS的开发传感器零部件企业已经准备好了环境感知系统,但是这个雷达这个摄像机也许能发现80%或者90%的风险对驾驶员也是一个很好的帮助,因为在L0/L1的时候驾驶员的身份是开车,但是到L2驾驶员已经发生了变化,驾驶权在自动驾驶车身上,所以L2是很矛盾的,驾驶权在车身上,但是驾驶员不能有乘客的心理,ADAS非常成熟,但是ADAS上升到L2自动驾驶以后有问题了,怎么证明它是安全的。特斯拉的用户之所以敢这么大胆的使用它,我想他在日常中的使用都是许问题的,极大部分时候,第一起死亡事故也是发在自动驾驶1.3亿英里的情况下,这个情况下看L2还是靠谱的,但是死亡事故还是发生的,这样非常小的概率事件我们怎么办,要消除这个阴影我们还是要有相应的办法去解决,用实证测试,我这个车在路上跑了三百万公里了没用,三百万公里不出事故不等于一亿公里会不会发生死亡事故,在这样一个小概率事件我们在自然驾驶里很难发现,所以在测试方面和开发方面,可能要有一些创新的方法。

假设这些场景是可以重组的,ADAS开发的时候就是按场景,现在的AEB就是前车引发后刹车的危险,AEB对行人的保护就是行人过街遇到的危险,对驾驶辅助是没问题的,能帮上多少是多少,但是到自动驾驶如果用工况的方法,他的场景类型比ADAS开发的场景要丰富的多,这块工作,在国内沃尔沃牵头已经在开展驾驶的采集和数据库的建立,现在已经有累积13万公里左右,接近3970个小时驾驶的数据,这个数据量不够大,数据还在继续采集,可以把自然驾驶的数据拿来作为获得数据库重要的来源。

这是现在国际上提出的如何建立自动驾驶这套系统的开发过程,他基于一个能够重组的数据库,如果这个场景在这个数据库里是重组的以它为基础我们可以做开发,一个工况一个工况的找传感器方案,每个场景进行用户安全测评。又用仿真测试等一系列的辅助方法减少实验次数,就是我们要强化,这次正在开发和研究的一个方式,是我们现在在尝试的如何获取数据,对无人驾驶要延续的进行片段的分解,每一个片段定一个名称,我们分成了三个类型,一个是长时间的过程,车辆在道路上行驶极大部分时间是正常的巡航状态,这个比例是最大的;第二是在过路口变换车道线进出铡道等等这些中间过渡过程,我们最关注的是这个车会不会违反交通,还有一个避撞的过程。现在在人工处理机器处理的一些情况,现在有13万公里的数据供我们做这块的分析。

这些数据统计,现在人工来处理的话在处理了140多公里的数据里,有将近99公里,占68%左右,近70%的历程都是在高速封闭道路上,所以封闭道路的自动嘉实还是非常有用的。现在我们的产业化能支持的传感器在两个低的情况下可能进行自动驾驶开发,一个是低速或者高速公路的低复杂度,在这种情形下进行自动驾驶开发,非常有意义的自动驾驶,一个是封闭到了的自动驾驶,因为这个驾驶历程最多,并且高速行驶,在这种情况下跟着车道线,计算机比驾驶员更好,第二,在城市高度拥堵道路,这部分历程占的不多,但是时间占的最多,这两个自动嘉实还是非常有用的,并且L2、L3在能力不足的传感器的支持下完全有可能来实现,这是SAE 2016新更改的L2、L3级的定义,我这里不展开了。人机共驾存在的难点主要在这两个方面,一个是驾驶员和智能车之间如何沟通,如果车认为这个时候应该是由车来驾驶,驾驶员也认为这个时候应该由车辆自动驾驶,这个非常好,和谐共驾,智能车认为该人开,驾驶员也认为这种情况下智能车搞不定,也该他来开,也可以和谐的交接,这两个我们都是不担心的。这个智能车认为该他开,人认为自己开,这会出现一个冲突我们用合理的方式解决这个冲突,到现在为止解决这个驾驶权的争夺一般是偏人,因为驾驶员的感知能力认知能力都比L2、L3自动驾驶车的能力强很多,最担心的是这种,其实特斯拉的事故都是发生在这个事情,智能车认为该人开,人认为开智能车开,放任不管,见什么不管,那个东西人认为车会认得,车认为还有一个驾驶员,结果谁都不管,我们最担心这一块。

第二个难题是短时间内完成交接权,从现在的文献来看一个驾驶员如果手撒开方向盘或者眼睛没有盯着路面,得到提示以后五到八秒钟可以完成驾驶任务的交接,最重要的一个场景是道路上维修,现在我们的雷达和摄象头无法识别这样的状态,L2/L3级的自动驾驶车也无法自动驾驶通过这个道路维修,这是斯坦福大学做的测试,在维修区里做的测试,发现5秒到8秒的时间内所有参与测试的驾驶员都能顺利的接管驾驶权,并且安全通过施工区,并且驾驶行为和驾驶员始终关注的情况是正常的。第二是在复杂路口上得到提示以后看到接管驾驶员的情况,6秒或者4秒也都顺利完成交接,这是我们跟同济大学传播学院做的人机交互团队做的分析,高速功率自动驾驶遇到维修区怎么办,这是从自然驾驶里找到两例高速公路上出现维修情况,人类驾驶员如何通过道路维修区的这样两个案例分析我们通过自然驾驶里找到相应的场景,获取到场景来分析驾驶行为,这个研究结果一个可以用于L3环境传感器的开发,一个可以用于L2/L3人机交互的设计,同时这些场景也可以积累起来进行统计,通过提炼以后做出一个测试评价的方法,这块工作正在做,有可能在这个月12号的人机交互会议上由传播学员的人机交互做出一个充分的结果。

谢谢! 


敬请关注盖世汽车“2016汽车与环境创新论坛”直播专题:

网站专题链接:http://auto.gasgoo.com/topic/qcyhj/

手机WAP站专题链接:http://m.gasgoo.com/topic/qcyhj/

提示:本文为现场速记,未经专家审核,请勿转载!

版权声明:本文版权为盖世汽车所有,欢迎转载!

文章标签: 汽车与环境

盖世行业工具