当前位置:

OFweek人工智能网

其他

正文

自动驾驶撞死一个人被判无罪,未来的AI世界会好吗?

导读: 2018年3月18日,美国亚利桑那州,一辆配备了安全驾驶员的Uber自动驾驶汽车,撞倒了一位违规横穿马路的行人,后者被送往医院,最终不治身亡。

2018年3月18日,美国亚利桑那州,一辆配备了安全驾驶员的Uber自动驾驶汽车,撞倒了一位违规横穿马路的行人,后者被送往医院,最终不治身亡。

一年后,就在大众舆论快要忘却这桩悲剧的时候,它有了最新判决结果,当地检察官在一封信中称,Uber在事故中负有刑事责任的指控“没有依据”,事故视频可能并未准确地描述车祸过程,当时车上的安全驾驶员则需进一步调查。

你可以理解为:这起全球首例无人车致死事故,无人车,无罪。

自动驾驶撞死一个人被判无罪,未来的AI世界会好吗?

在post-truth时代,任何公共事件都能成为划分敌我的分野工具。这次也不例外,判决一出,围拢在不同利益集团和观念阵地的旗帜下,人们迅速开始站队。

有人欣喜于“技术的胜利”。毕竟,是“愚蠢”的人类违规横穿马路在先,技术又有什么错呢?另外,“愚蠢”的还有安全驾驶员,警方表示,Uber的自动驾驶系统在出事前就发现了受害者,但因计算机系统的设置问题,计算机控制模式下车辆无法自动启用紧急刹车,刹车的责任交给了安全驾驶员,但安全驾驶员在事故当晚看了大约42分钟的“美国好声音”,她反复低头,无心关注路面,就在她一次抬头的半秒钟后,事故发生。

自动驾驶撞死一个人被判无罪,未来的AI世界会好吗?

不过,尽管看起来无人车是“无辜”的,但对于判决结果,也有人感到“不舒服”。毕竟,是人类对机器的信赖,造成了这桩悲剧。这也是为什么,尽管检方目前判Uber无罪,但美国国家运输安全委员会仍在对事故进行调查,Uber也仍有可能遭到挑战。

面临挑战的不只是Uber一家公司,事实上,这桩事故也犹如一记闷棍,再次逼迫所有人思考:人类信任机器的边界在哪里?

L5可能是个梦

截至目前,全球几乎没有太多完善的保险条例和法律权限来规定无人车的责任,美国40多个州在无人车法规的制定上莫衷一是,已经足以折射出自动驾驶的现实痛点。

首先是技术,最近大众商用车负责人在接受媒体采访时表示,实现L5自动驾驶,堪比火星探测。

我觉得他仍然低估了L5的难度。关于自动驾驶的未来,业内一种最极端的说法是:L5或许是一个梦。为什么?因为AI处理不了意外。

数十年前,AI概念诞生初期,当时的研究者心高气傲,并不满足于将机器仅用于计算,他们试图让AI完整拷贝人脑的思考过程,让机器“知其然,也知其所以然”。

但众所周知,多年以来,人类意识之谜没有任何实质进展,研究者开始收缩野心,重回对“计算”的追寻。如今的机器学习就是一条试图弯道超车的捷径,将现实世界以数据作为颗粒度呈现,再通过神经网络消化数据,更好地认清这个世界。

以自动驾驶为例,它最基础的原理就是将人类司机目力所及的一切物体,路人,建筑,其他车……都构建成三维模型,关心它们之间的移动趋势,估算速度,预测路线,有冲突就刹车或绕路。

自动驾驶撞死一个人被判无罪,未来的AI世界会好吗?

但从逻辑上,这也几乎意味着,无人车做不到所谓“绝对”的准确性,因为真实的交通是一个复杂生态系统,随机分布着各种意外。

据说谷歌自动驾驶就遇到过一些意外:比如,几个小孩在高速路上玩青蛙;一个残疾人坐着电动轮椅,在路上追一只鸭子,鸭子绕圈跑,他也绕圈追……面对如此荒诞场景,你很难苛求机器能百分百预测这些人的轨迹。要知道近些年人工智能领域的一切进步,都可归为相似的框架:“输入数据,生成回应”——换句话说,由过去推导未来,机器没法预测完全不在它经验范围内的意外。

当然,像小孩玩青蛙,残疾人追鸭,这种意外想必大多数人也没见过,但与机器的“没见过”不同,因为人类“理解”他们在干嘛,就足以导向正确决策。

这也是现阶段安全驾驶员的作用,可惜这次人类自己也失职了。

1  2  下一页>  
声明: 本文由入驻维科号的作者撰写,观点仅代表作者本人,不代表OFweek立场。如有侵权或其他问题,请联系举报。

我来说两句

(共0条评论,0人参与)

请输入评论内容...

请输入评论/评论长度6~500个字

您提交的评论过于频繁,请输入验证码继续

暂无评论

暂无评论

文章纠错
x
*文字标题:
*纠错内容:
联系邮箱:
*验 证 码:

粤公网安备 44030502002758号