订阅
纠错
加入自媒体

自动驾驶汽车究竟如何才算安全?

2019-05-22 11:17
来源: 猎云网

随着互联网科技巨头、大型传统车企、技术型创业公司纷纷抓住产业升级机会,切入自动驾驶领域,全球自动驾驶汽车行业发展一直迅猛,市场的估值已经达到540亿美元,据估计仍将不断增长。然而,自动驾驶汽车在发展过程中也面临很多问题与挑战。现在,最引人注目的当属自动驾驶汽车的安全性问题。本文将带你了解自动驾驶汽车行业对于安全性问题的探讨。

围绕自动驾驶汽车的最大问题之一不是关于技术方面的问题,而是一个哲学问题:何种程度的安全才算足够安全?

这个问题的答案可没那么简单就能得到。

自2004年自动驾驶汽车推广的挑战启动以来,人们对自动驾驶汽车在路上驰骋的前景越来越感到兴奋。多家公司纷纷选择主动加入了这场竞赛,其中就包括包括科技巨头谷歌(子公司Waymo)、Uber和特斯拉等;不仅于此,通用汽车、福特和沃尔沃等相对更传统一些的汽车制造商也加入了竞争。目前,全球自动驾驶汽车市场的估值已经达到540亿美元,预计在未来7年内将增长10倍。

与任何行业、任何领域的创新一样,自动驾驶汽车也遇到了很多技术问题,但也有道德问题。也就是说,对于要让无人驾驶汽车上路这件事来说,怎样才算足够安全,目前还没有一个明确的参数来说明。在美国的联邦一级,现行的指导方针是自愿的,而且各州的法律不尽相同。即使定义了参数,也没有固定的标准来衡量它们是否满足要求。

如今,由人类控制的驾驶已经是一项非常安全的活动——在美国,大约每1亿英里的驾驶里程中仅有一人死亡。相比之下,毫无疑问,自动驾驶汽车有很大的提升空间,需要做得更好,而这正是它们背后的公司承诺将会努力做到的。但究竟要比现在好多少?这个问题并不容易回答。他们需要使安全性再提高10%吗?还是要达到100%安全?如果等待自动驾驶汽车达到超高的安全标准意味着在此期间会有更多的人因此死亡,这样可以接受吗?

测试安全性是行业面临的另一个挑战。收集足够的数据来证明自动驾驶汽车的安全性,将需要基于数亿甚至数十亿英里的行驶里程。这项工作可能需要花费巨额成本,非常昂贵,这也是为什么研究人员正试图找出其他方法来验证无人驾驶汽车的安全性,比如计算机模拟和测试轨道。

空间内不同的主体对数据采集安全性检测的案例有不同的理论。正如外媒指出的那样,特斯拉正在利用其已经上路的汽车的自动驾驶功能生成数据,而Waymo则将计算机模拟与现实世界的车队结合起来采集数据。

美国研究智库兰德公司(RAND Corporation)的高级政策研究员马乔里布卢门撒尔(Marjory Blumenthal)说,“大多数人说,自动驾驶汽车至少应该和人类驾驶的传统汽车一样好,他们说得很轻松。但实际情况是,我们在将他们的期许用具体的术语表达出来,以及在实现这一点上都遇到了困难。”

实现自动驾驶汽车完全独自上路可能还有很长的路要走

为了奠定一些基础工作,自动驾驶汽车的自动程度分为了六个级别,从零级到五级不等。一辆自动程度为零级的车完全没有自动驾驶的能力,只是由人类司机来驾驶汽车。四级车几乎可以独自完成所有的驾驶任务,但是仅限在特定的条件下——例如,在特定的区域,或者在天气状况良好的时候。自动程度达到五级的车在任何情况下都能实现自动驾驶,而且根本不需要人参与其中。

目前,特斯拉、奔驰、通用汽车和沃尔沃等公司正在路上运行的汽车的自动化系统处于二级水平,这意味着他们的汽车可以在标记良好的高速公路上自主控制方向盘和行驶速度,但仍必须由司机进行监督。相比之下,一辆配备了“传感”技术套件(包括自适应巡航控制、车道保持辅助和紧急刹车检测)的本田汽车则属于一级。

所以当我们在谈论完全无人驾驶汽车时,我们指的是四级或五级。丹尼尔·斯珀林(Daniel Sperling)是加州大学戴维斯分校交通研究所的创始所长。他向科技媒体Recode透露,完全无人驾驶汽车指的是完全不需要任何人参与,而且可以去任何地方。这样的车在未来几十年都不会出现,甚至也许永远都不会出现。但是,在预设的“地理定位”区域,无人驾驶汽车的出现在几年内是可能实现的,一些地方已经在非常有限的区域拥有缓慢移动的无人驾驶往返公车了。

可以肯定的是,一些业内人士坚持认为,一个完全无人驾驶汽车遍布道路的时代即将到来。特斯拉发布了几段视频,视频中虽然现场有一名人类司机,但汽车从一个目的地自动行驶到另一个目的地,并在无人帮助的情况下自动泊车。特斯拉首席执行官埃隆·马斯克曾承诺,到明年将有100万辆完全自动驾驶的出租车投入使用。或许我们不要把他的承诺太当真。

安全性是一个很难回答的社会问题

在今天的美国,由人类控制的驾驶已经是一项相对安全的活动,尽管显然还有很大的改进空间——2017年有3.7万人死于机动车碰撞,道路事故仍然是死亡的主要原因。因此,如果我们要让自动驾驶汽车车队上路,我们希望它们更安全。这并不仅仅意味着自动驾驶技术提高了,其安全性方面也取得了进步,因为汽车更重了,有了安全气囊和其他安全设备,刹车更好了,翻车的频率也更低了。不过,当谈到我们究竟希望无人驾驶汽车达到何种安全程度的问题时,这仍然是一个悬而未决的问题。

“在我们确信一台机器至少和人类一样安全之前,我们应该行驶多少英里呢?”密歇根大学MCity自动驾驶汽车测试实验室主任格雷格·麦圭尔(Greg McGuire)在最近的一次采访中表示。“还是自动驾驶汽车需要比人类更安全?它需要达到人类10倍的安全性吗?我们的阈值是什么?”

兰德公司2017年的一项研究发现,越早部署高度自动化的汽车,最终拯救的生命就越多,即使这些汽车只比人类驾驶的汽车安全一点点。研究人员发现,从长远来看,部署比普通人类驾驶员安全性高出10%的自动驾驶汽车,比等到安全系数提高75%或90%后再部署,可以挽救更多的生命。

换句话说,在我们等待自动驾驶汽车变得完美时,可能会有更多的人丧生。

自动驾驶汽车除了安全性之外,还有一个难题,那就是当出现问题时该由谁负责。当一名人类驾驶员造成事故或死亡时,人们往往毫不怀疑谁应该对此负责。但如果一辆自动驾驶汽车发生事故,事情就没那么简单了。

斯珀林将这一情景与另一种交通方式——飞机进行了比较。“如果飞机上没有正确的软件和技术,那么谁来负责呢?是软件编码吗?是硬件吗?还是拥有这架飞机的公司?”他说。

2018年,在一辆Uber测试车撞死一名女子后,我们已经看到了无人驾驶汽车的责任界定问题。这起事件引起了媒体的一片哗然,最终Uber与受害者家属达成了和解。2018年,一名男子在驾驶特斯拉时死亡,他的家人今年早些时候起诉了这家汽车制造商,称其自动驾驶功能有问题。美国国家运输安全委员会(National Transportation Safety Board)在一份初步报告中表示,特斯拉的自动驾驶系统在今年3月佛罗里达州的一起致命撞车事故中处于活跃状态。然而,在2016年特斯拉撞车事故中丧生的一名男子的家人表示,事故并不怪他,也不应该由特斯拉负责。

还有一个关于自动驾驶汽车的争论引发关注,焦点在于如果自动驾驶汽车面对一个艰难的情况,车辆应该做出怎样的选择呢?例如,如果事故是不可避免的,自动驾驶汽车应该转向行人密集的人行道上,还是撞上一根杆子,这种情况会对车上的乘客造成更大的危险。

麻省理工学院媒体实验室(MIT Media Lab)发起了一个名为“道德机器”(Moral Machine)的项目,试图利用数据来弄清人们是如何看待这些类型的权衡的。该实验室去年发表了一份关于其研究结果的研究报告。“在伤害已经降到最低,但可以在不同人群之间转移的情况下,我们希望汽车如何做到这一点呢?”研究人员之一埃德蒙德·阿瓦德(Edmond Awad)说。

但正如Vox网站的凯尔西·派珀(Kelsey Piper)当时所解释的那样,这些道德权衡问题虽然有趣,但并没有真正触及自动驾驶汽车安全性辩论的核心:

整个自动驾驶汽车的设置基本上只是一种新颖的方式,目的是将人们的注意力吸引到一系列老问题上。麻省理工学院媒体实验室让受访者回答的只是一系列经典电车问题的变体。经典电车问题是道德哲学中构建的一个假设,目的是让人们思考如何权衡道德。经典电车问题问的是,你是否会拉动一根杠杆,让电车驶向偏离轨道的五个人,避免撞死另外一人。问题的变体探索了在什么样的情况下,我们愿意牺牲一些人来换取拯救其他人。

当人们被迫在糟糕的情况下做出两难选择时,这是一种了解他们如何思考的有趣方式。有趣的是文化差异的存在。但是,尽管收集到的数据描述了我们如何做出道德选择,却没有回答我们应该如何做的问题。目前还不清楚,这与自动驾驶汽车的关系,是否比我们每天考虑的其他政策更密切——所有这些政策都涉及可能导致生命损失的权衡。

这项研究发表在《自然》杂志上时,奥迪公开表示,研究结果可能有助于围绕自动驾驶汽车的决策展开讨论,但包括Waymo、Uber和丰田在内的其他公司则保持沉默。

1  2  下一页>  
声明: 本文系OFweek根据授权转载自其它媒体或授权刊载,目的在于信息传递,并不代表本站赞同其观点和对其真实性负责,如有新闻稿件和图片作品的内容、版权以及其它问题的,请联系我们。

发表评论

0条评论,0人参与

请输入评论内容...

请输入评论/评论长度6~500个字

您提交的评论过于频繁,请输入验证码继续

暂无评论

暂无评论

人工智能 猎头职位 更多
扫码关注公众号
OFweek人工智能网
获取更多精彩内容
文章纠错
x
*文字标题:
*纠错内容:
联系邮箱:
*验 证 码:

粤公网安备 44030502002758号