您的位置:首页 >焦点新闻 >

当无人车被容易出错的人类司机包围时,怎么做才是对的?

一辆无人车和一辆货车在拉斯维加斯相撞。这起没有人受伤也没有财产受到严重破坏的事故引起了媒体和公众的注意,只是因为这是一辆无人车,上路行驶了还不到一个小时。

但在几乎所有的情况下,都是人为的错误,而不是无人车出了问题。

这也不是无人车第一次撞车,Uber,Tesla 和加州其他几家公司都出现过相似情况。

在拉斯维加斯,无人机注意到前方有一辆卡车倒车,停下来准备等卡车从无人车原本规划的那条路上开出来。但是卡车司机没有看到这辆无人车,一直后退,无人车停在那里就没有动过,最后还是被卡车擦挂了前保险杠。

为什么无人车没有发出鸣叫,或者是躲避不停后退的卡车?停车原地等待难道不是最安全的程序吗?

作为一名在过去十年里研究自主系统的研究人员, Texas A&M University 机械工程系助理教授 Srikanth Saripalli 提出了许多问题:如果自动驾驶汽车是为了让道路更安全,那么更大的问题是:这些车辆应该采取什么措施来减少事故。我们想要解决根本的安全挑战,即使自动驾驶的汽车正在做他们应该做的事情,周围的司机仍然是有缺陷的,容易出错的人类。

发生事故

有两个主要原因导致无人车撞车,一是传感器没有检测到车辆周围发生的情况。

每个传感器都有它的怪癖:GPS 只在天空视野清晰的时候有效,相机工作时需要光线充足,激光雷达不能在雾中工作,雷达并没有特别准确。目前还不清楚无人车的理想传感器是什么,而且成本和计算能力都是限制因素,解决方案不能只是不停地往上堆加,这会导致成本过高。

第二个主要问题是车辆会遇到没有被编程写入计划的情况

,比如让卡车司机没有看到无人车这种主动权在人类手上的情况。自动驾驶系统每秒钟都要做数百个决定,调整从环境中获取的新信息。当一辆无人车经历了一些不需要处理的事情时,它通常会停下来或停在路边,等待情况发生变化。在拉斯维加斯发生事故的无人车大概是等着卡车开出它的计划道路之外,但卡车一直在靠近。在这样的情况下,无人车可能没有按喇叭或后退的程序,也可能没有后退的空间。

致命的特斯拉碰撞的主要原因是,无人车的传感器不能分辨出明亮的天空与汽车前面的大型白色卡车之间的区别。

设计师和程序员的挑战是将来自所有传感器的信息结合起来,以创建精确的车辆周围空间的计算机模型。那么软件可以解释表示来帮助车辆导航并与附近可能发生的任何事情进行交互。如果系统的感知不够好,则车辆不能做出良好的决策。

如果无人车要满足人类的「减少车祸的期望」,那就足以让他们安全驾驶。他们也必须是最终的防御性驾驶司机,准备在附近驾驶无人时做出反应。今年 3 月在亚利桑那州坦佩发生的 Uber 碰撞就是其中的一个例子。

据媒体报道,在那次事件中,本田 CRV 的司机在特佩中心附近的一条主要道路上行驶。她想穿过三车道左转,她能看到这三个车道中的两个被交通堵塞而没有移动,但看不到最远那条车道,这条车道上,Uber 正在以 38 英里的时速自主驾驶。本田司机在进入十字路口时左转,然后撞上了 Uber 。

在靠近交叉路口的 Uber 汽车中的一名司机可能会预计汽车在其车道上转弯,人的话可能已经注意到她无法看到这是否正在发生和减速,也许完全可以避免碰撞。

改善测试

以上发生过碰撞的这些车辆遵循了它们所得到的规则,但并没有确保他们的决定就是最安全的,这主要是因为大多数自动驾驶汽车都是经过测试的。

当然,最基本的标准是无人车是否能遵守道路规则,遵守交通信号灯和标志,了解当地有关信号车道变化的法律,以及像守法司机那样行事,但这仅仅是个开始。

在无人车真正上路之前,需要用指令来说明当其他车辆做一些普通的事情时如何表现。测试人员需要考虑其他车辆作为对手,并为极端情况制定计划。例如,如果一辆卡车行驶在错误的方向,汽车该怎么办?目前无人车可能试图改变车道,但最终会致死。没有司机会这样做,一个人会采取规避行动,即使这意味着要打破一条道路的规则,比如在没有信号的情况下切换车道,或者甚至加速以避免碰撞。

无人车必须被教导,不仅要理解周围环境是什么,而且还能理解从前方驶来的汽车如果在另一条车道上是危险的。汽车设计师应该根据他们执行困难任务的情况来测试车辆,比如在拥挤的停车场停车,或者在工作区域换车道。这听起来很像给人类驾驶测试,如果自动驾驶汽车和人们在公路上安全共存的话,那它们就是应该通过这样的测试。

最新动态
相关文章
当无人车被容易出错的人类司机包围时,...
在自动化的未来,你应该成为像达芬奇那...
在智能音箱的时代,你的家里还有隐私可...
中国科学家宣布,已发现暗物质的 “蛛...
火星表面“大量液态水在流动”?可能是沙子
腾讯COO任宇昕:AI将来能创作天才艺术作...