三起Robotaxi过失事故对未来有什么启示?
来源:汽车商业评论  (朱琳)    21年12月27日 23:09


2021年年底发生的三起与机器人出租车有关的不同事故引发了一些有趣的问题,即它们对未来的意义。

这三起事故包括:在多伦多附近发生的Olli摆渡车冲出道路造成的严重伤害事故,小马智行在加州的无驾驶员测试许可因道路偏离而丢失,以及在旧金山一辆手动驾驶的Waymo撞上了一名据称意外走到街上的行人。

完美从来都不是、也不应该是这些车辆的目标,所以事故总会发生,而且事故发生的频率会随着行驶里程的增加而增加。

与此同时,过早部署导致的车祸值得进行额外的审查。对事故的过度反应也可能发生,从而推迟了事故预防技术的部署。

Olli

Olli摆渡车是一辆低速班车,用于运送乘客往返于安大略省惠特比的一个通勤火车站。与大多数自动驾驶测试车一样,这辆车在运行时有一名监督员,他可以让它停下来。不幸的是,当摆渡车在没有明确原因的情况下偏离道路撞到一棵树上时,那位监督员受了重伤。

这名监督员的情况有所改善——正常情况下,在时速仅为20公里的车辆上不应该发生致命伤害,但在人们没有系安全带、没有安全气囊和其他被动安全措施的情况下,这种情况总是可能发生的。

事故发生后,多伦多的一辆类似的Olli摆渡车也被暂停。

这不是第一起关于此类摆渡车的事件。在俄亥俄州哥伦布市,一辆EasyMile摆渡车在无故急停时将人抛到地上,导致该服务停运。当时,我考虑了此类车辆中的安全带问题,这仍然是一个争论点。

公共交通很少使用安全带。交通工具的事故率比私家车要低,但它被给予了一点“通行证”,因为在某种程度上,安全带会使交通服务严重降级。

想象一下,如果公共汽车或火车上不允许站着的乘客,如果人们必须等待车完全停下来,才能松开安全带并下车,然后公共汽车必须等待新乘客坐下并系上安全带,才能再次启动。

这样行不通。但是,如果一辆汽车有很大的可能出现不明原因的突然停车或离开道路,安全带是一个好主意。

因此,相当重要的是,在这种情况下,要么不进行测试,要么如果设置了安全带,特别是强制要求,则明确规定是临时性的,在达到某种目标后结束。

一旦你要求使用安全带,那么在政治上几乎不可能决定取消它们。虽然你确实需要它们,但很难制造出有竞争力的巴士或班车,除非它停靠的站点很少。

停靠次数少的行程实际上就是答案——机器人运输不需要使用数量有限的大车,因为我们只有这么多司机。有了机器人交通,你就可以使用更多、更小的车辆,并保持它们相当满载的状态,而不是经常低负荷运行的大型、不频繁的车辆。

更小的实际上是更节能的,并提供更好的服务。这意味着你也要安排更少的停靠站,理想情况下,除了第一和最后一英里之外,你要让每一趟行程都不间断,试图与门到门的私家车的优点相匹配。然后你就可以毫无问题地用安全带了。

小马智行

小马智行是少数几家拥有并正在使用加利福尼亚州的许可证来测试完全没有安全驾驶员的车辆的公司之一。EasyMile和Olli车辆有一个安全司机,但发生了安全司机只有一个停止按钮无法处理的事件。

细节尚不清楚,但在10月,一匹小马智行的测试车也偏离了道路。没有人受伤(正如你所希望的那样,车上没有人)。当他们按要求向加州车管所报告此事时,车管所决定吊销他们的许可证。

这是一个相当合适的行动。实际上,除了在安全驾驶员工资上节省一点钱之外,我们尚不清楚没有安全驾驶员和乘客的测试有什么价值。所有这些车队都能很容易雇得起司机。

虽然每个人最终都必须在没有安全驾驶员的情况下进行操作,以获得真正的服务,而且对任何新事物进行一些基本的测试是很好的,但这种形式的广泛测试似乎很奇怪。

当涉及到乘客时,情况略有不同。如果你把安全司机去掉,你就能了解到乘客与车辆的互动情况。也消除了传播新冠的风险。你是在测试整个系统,但在这一点上,你并不是在以以前的方式测试自动驾驶系统。

直到你的测试表明乘客在车里面是安全的之前,你不会让乘客单独待在车里。这并不意味着它不会发生事故,而是说它已经达到了某种低风险水平,使它足以进行有限的部署。小马和Olli的车辆都比该级别的车辆预期的更早发生了道路偏离事故。

Waymo

Waymo的撞车事故几乎算不上是一个自动驾驶的故事。据Waymo介绍,这款车不仅处于手动模式,而且还在执行全手动任务。如果一辆车刚刚进入手动模式,那么有时会出现这样的问题:它是在手动模式下运行的,而自动化可能仍然在整个过程中发挥了作用。

有关细节还不清楚,但一些细节表明,这名行人可能有过错,但警方将对此做出裁决。关于自动驾驶的一个问题是,Waymo汽车可以利用其令人印象深刻的传感和计算引擎,即使在手动模式下也能防止事故发生,但它没有。

许多汽车都有前向防撞系统,如果司机不刹车,系统就会自动刹车。如果Waymo努力做到这一点,他们的汽车可以拥有最好的此类系统,尽管这不是一项微不足道的努力,而且对于一个只会看到少量使用的系统来说,还包括责任风险。与其他团队不同,Waymo已经在亚利桑那州运营了多年的服务,车上没有安全司机。

还有更多的事故吗?

所有由robocar造成的事故都可能涉及某种类型的错误。人类可能会说“我只是没看见他”,但robocar不像人类,它总是朝各个方向看,我们可以观察它的大脑,通常知道是什么导致了错误,但如果神经网络在决策中发挥了重要作用,这一点可能就不透明了。

在每次事故发生后,团队将很快确保这种类型的事故不会再次发生,并且每次新的修订都将在模拟器中反复测试。

这意味着我们必须调整我们的反应。如果一个错误造成的事故导致包括监管机构或公众的人们说,“我们不能让这样的车辆上路”,我们永远也不会让它们上路。

我们只是学习研究错误的类型,以及它是否表明车辆被过早地、鲁莽地部署在路上,或者它是任何学习阶段的一部分的碰撞类型。

毕竟,我们让刚出道的青少年司机上路,知道他们比其他人更危险,会发生车祸,但如果他们鲁莽行事或酒后驾车,可能会被吊销驾照。这是使他们成为更好的成熟司机的唯一途径。

做出这样的判断并不容易,因为所有的车祸都会有一个错误的根源,如果我们能够观察到大脑内部,那么这个错误就会遵循过失的模式。

但是,除非你不相信驾驶风险远低于人类驾驶员的最终目标能够实现,否则车辆越早部署,我们就能越早达到这个目标。

数学计算给出了一个明确的原因:风险较大的早期车辆将只部署在小型车队中,总风险相对较低。后来减少风险和防止事故的车辆将被大规模部署,与人类司机相比,以及与它们在数量较少时带来的早期风险相比,风险大大减少。我们不希望错过这个机会。

编辑推荐
AUDI,打造豪华反攻样本
AUDI,打造豪华反攻样本
争抢“专用车之都”
争抢“专用车之都”
博世软件和技术创新勾勒未来汽车架构,共塑智能出行新图景
博世软件和技术创新勾勒未来汽车架构,共塑智能出行新图景
郑州日产Frontier Pro PHEV全球首发,皮卡电混时代来临
郑州日产Frontier Pro PHEV全球首发,皮卡电混时代来临
车展“反骨仔”:4.0T的大发动机,惊喜,不意外
车展“反骨仔”:4.0T的大发动机,惊喜,不意外