• 采购项目
  • 配套企业库
  • 销量查询
  • 盖世汽车社区
  • 盖世大学堂
  • 盖亚系统
  • 盖世汽车APP
  • “求新、破界” 2024盖世汽车研究院季度沙龙
  • 2024第七届智能驾驶与人机共驾论坛
  • 2024第六届智能驾驶地图与定位大会
  • 2024中国汽车低碳与可持续发展论坛
  • 2024智能座舱车载声学大会
  • 舱驾、行泊一体及BEV视觉感知培训
当前位置:首页 > 智能网联 > 正文

自动驾驶中的道德难题,MIT想通过线上模拟

车云网 2016-12-06 06:45:30

近年来宝马、谷歌、福特以及其它一众企业的自动驾驶汽车有大行其道之势,而围绕乘员和行人的问题也甚嚣尘上。比如,当自动驾驶汽车面对即将不可避免造成人员伤亡的碰撞时,它该如何处理?

由麻省理工学院(MIT)研究人员搭建的名为“道德机器”的网站推出了一项很“病态”的测试:参与者可以在众多预设的“死局”场景中选择让谁死。

自动驾驶中的道德难题,MIT想通过线上模拟

这个所谓的“道德机器”(Moral Machine)会一次设置一个“生存或死亡”的场景,场景中一定会有一个或多个活物(人或动物)处于致命的危险中,这种道德困境被交到测试者手中,于是你将不得不决定牺牲及挽救哪个,完成非此即彼的抉择。

大多数场景的设置最终会指向两个选择:是让自动驾驶汽车内的乘客死亡,还是让行人遭遇某个“突然的刹车失灵”。而每个场景仅提供少量的潜在受害者细节。

比如,在某个场景中,潜在受害者是分别在马路两边的一名年轻女孩和一位年长女性,正打算从两个方向过马路。前者违反交规,红灯时横穿马路;而后者遵守交规,等着红灯。年龄还是法纪?这个时候到底撞向谁,就取决于自动驾驶汽车里的你了。

根据网站的设想,“道德机器”被设计成一个平台,针对自动驾驶汽车遇到的道德困境,一方面“建立人类的群体观点”;另一方面“探讨这类场景的道德后果”。

从自动驾驶汽车驶上公路,到自导航可回收的火箭降落到自动航行帆船上,人工智能正在支持甚至是完全接管越来越多、越来越复杂的人工活动

而MIT的研究人员表示,“更伟大的自动驾驶能让机器在迫不得已的时候,做出牺牲人生命还是牺牲肢体的抉择。这不仅需要更深刻地理解人类如何做这类抉择,更需要获知人工智能如何做这类抉择”。

汽车制造商对道德选择和自动驾驶汽车有不同的看法,这是个有争议、需要长期研究的领域。五月份,沃尔沃防碰撞领域的高级技术负责人Trent Victor表示,有驾驶辅助的汽车绝不会让自己处于某种道德困境,他们应该“主动保持驾驶情况的可控”。


本文地址:https://auto.gasgoo.com/News/2016/12/0606480948970002415241.shtml

 
0

好文章,需要你的鼓励