原文连结:
https://reurl.cc/Qp00xp
原文内容:
作者 雷锋网 | 发布日期 2020 年 02 月 20 日 8:15
2018 年 3 月 23 日,苹果工程师 Walter Huang(黄伟伦)开着自己的特斯拉 Model X
上班时发生事故,撞上高速公路匝道口的隔离墩。当时,特斯拉 Autopilot 处于开启状
态,但却未能辨识路上的障碍。更可怕的是,车辆接近隔离墩时,还控制车辆加速。最终
,被动安全能力超强的 Model X 也没能保住 Walter Huang 的性命。事故发生后,美国
国家运输安全委员会(NTSB)深入调查,最近公布调查报告,2 月 25 日还会举行针对
NTSB 完整报告的听证会。
这场事故确实让人心有余悸,简言之,这是每个硅谷人都躲不过的一段高速公路,且出事
地方离特斯拉帕罗奥图总部也就几英里远,因此特斯拉的工程师也是这段高速公路的常客
。
分析整篇报告会发现,NTSB 只是加一些新数据而已,且增加部分大家几乎都猜到了。显
然,Walter Huang 犯了大错,因此也需要承担大部分责任,毕竟特斯拉 Autopilot 只是
驾驶辅助系统,依然需要驾驶监督。尽管如此,特斯拉和自动驾驶社群还是对
Autopilot 的性能及如何才能做得更好感兴趣。
除了承担主责的 Walter Huang,负责公路养护的 Caltrans 公司也有责任。因为
Walter Huang 出事前几天,也有一辆车撞到相同隔离墩,不过那位司机幸运活下来了。
可惜,Caltrans 没有更换隔离墩,否则 Walter Huang 生还的机会就高多了。从相关资
料来看,这个高速公路匝道口发生的碰撞事故可真不少,不知道现在 Autopilot 有没有
进化出分辨隔离墩是否损坏的能力。
要注意的是,NTSB 的报告可能不会定责 Autopilot。虽然没有像广告表现神乎其神,但
Walter Huang 很清楚 Autopilot 并不能完美处理高速下匝道口,因为在这个位置,他
至少碰到 2 次问题。
除此之外,报告还猜测了 Walter Huang 最后一段时间在做什么,不排除当时他正在用
iPhone 玩游戏的可能性;至于他的手有没有照要求放在方向盘上,报告也有争议。
那天到底发生什么事?
当时 Walter Huang 像往常一样开启 Autopilot 上路,不过车道线却因风吹日晒有些模
糊,尤其左侧车道线,而它可是 V 型分道线与主路线之间的重要分隔线。用 Google 搜
寻就会发现,车道线 2016 年就开始模糊了,显然当时 Autopilot“看走眼了”,甚至有
可能将 V 型分道线左侧的线看成左侧车道线,真正的左侧车道线当成了右侧车道线,沿
著这条路走下去,等着他的就是车毁人亡。
更不幸的是,当时 Walter Huang 设定的巡航速度为 75 英里,由于前方车辆阻挡,
Autopilot 减速处理。不过当 Model X 走错路后,前方就没有其他车辆阻碍了,
Autopilot 开始引导车辆重回 75 英里,但前方不是路,而是水泥隔离墩。
美国高速公路水泥隔离墩前本该放置一个金属碰撞缓冲器,一旦碰撞可吸能帮车主保命。
可惜,碰撞缓冲器已经变形,发挥不了吸能作用。除此之外,缓冲器变形也造成
Autopilot 辨识失误。
有人会说,镜头废了,Autopilot 不是还有雷达吗?确实,但雷达辨识静止的物体表现更
差,要不然特斯拉也不会多次撞上路边的消防车。
到底有没有放开方向盘?
想让 Autopilot 正常工作,司机就必须时不时给方向盘施加“压力”,告诉它你还在。
如果太长时间不触碰方向盘,就会有警告出现。如果司机继续置之不理,会有语音警告,
车辆会慢慢停止。一般来说,第一阶段的视觉警告后驾驶注意力就会转回来了。
碰撞发生前 19 分钟,Autopilot 都一直在线上,不过中间给了 Walter Huang 二次视觉
警告。碰撞发生前 2~3 分钟,Walter Huang 松开方向盘约有 30 秒。视觉提醒后他又握
了下方向盘,但碰撞前 6 秒时车辆还是处于离开方向盘的状态。
开车玩游戏?
有证据显示,Walter Huang 开车时在玩《三国》,因为他的 iPhone 碰撞发生前 1 分钟
传回数据给游戏服务器,而这款游戏需要双手操作。
当然,NTSB 报告并未明说游戏会不会在后台自动传输数据。不过 Walter Huang 开车玩
游戏为真,那么这次事故他就肯定要负全责了。
为何走错路?
众所周知,以现在的技术水准,模糊不清的车道线很容易造成 ADAS 系统失误,Walter
Huang 的悲剧也与此密切相关。特斯拉的系统本来更聪明,但马斯克却明确拒绝高精地图
的技术路线。
如果有高精地图,至少水泥隔离墩和碰撞缓冲器的位置会标出来。此外,即使道路标线会
变,桥也很少发生变化。也就是说,这场事故本可避免。
一头撞向隔离墩?
除了走错路,车辆的感知系统当时处于完全失效状态,传感镜头居然没抓到一张隔离墩的
清晰照片,雷达也没有收到回波。显然,Autopilot 的安全冗余并不够,镜头发挥失常后
,雷达对静止物体就束手无策了。除了不擅长探测静止物体,雷达的分辨率还很差,纵轴
上下视场几乎没有分辨率,而水平视场最多只有 5 度。
如果车上配置高分辨率地图,至少能给电脑雷达回波的预计值与物体方位资讯。即使如此
,雷达的低分辨率在关键时刻还是扯了后腿。
传感镜头倒是没有分辨率问题,但一个变形的缓冲器不是它能 Hold 住的,特斯拉的神经
网络可没见过这“阵仗”。更重要的是,正常的缓冲器都有黄黑条纹的警告标记,但变形
的这个恰好没有。
事故发生后,特斯拉也升级了系统,以增强探测未知障碍物的能力。虽然透过运动视差等
技术计算视觉能注意到各种物体,但神经网络辨识从未见过的事物还是有点吃力。鉴于马
斯克对 LiDAR 嗤之以鼻,特斯拉这套镜头系统的能力想涵盖全场景,还有很长的路要走
。
总而言之,不管经过谁的调教,镜头+雷达的组合现在还只归属 ADAS,算不上全自动驾
驶。
谁该负责?
毫无疑问,Walter Huang 要为自己的意外买单,因为他心里很清楚 Autopilot 在这个匝
道口力有不逮(之前 2 次遇过类似问题),此外,开车玩游戏也是他的不对,现在
Autopilot 只是一套 ADAS 系统,驾驶不能指望它“全知全能”。
负责公路管理的 Caltrans 公司也有要改善的地方,比如尽快修复受损设施并更新道路标
线。可惜,现实中这两点很难做到,因此未来自动驾驶和 ADAS 系统必须接受教训,学习
应付这类特殊的“日常”状况。当然,现在这个 V 型分道线已重新涂刷,但谁知道别的
地方是否潜藏类似危险?
NTSB 事故调查时并没有找特斯拉帮忙,因为马斯克不服 NTSB 的管理,甚至直接挂
NTSB 主席的电话,这样其实对双方都没好处。
从调查报告来看,此次事故特斯拉不用负责任,但经验教训可不少,且在通往全自动驾驶
的路上都能用到。事故之后,特斯拉升级了车辆读取模糊标线的能力,同时探测静态物体
也有进步。不过,镜头+雷达的组合还是无法 100% 避免追尾静止物体事故。
Walter Huang 事故一年后,又有一辆特斯拉追撞路边卡车,且当时卡车并不是完全静止
,正在慢慢过马路呢。对这起事故,NTSB 只发表了初步报告,并未包含特斯拉
Autopilot 当时到底在做什么及相关分析。
心得/说明:(30字以上)
我觉得Autopilot的隐忧应该是无法解决的,
因为驾驶不像端茶倒水的AI机器人这样,
水洒了死不了人,但自动驾驶一个判断错误却会死人,
而连人都常判断错误导致死亡车祸,
你要如何让AI可以判断出世间万物的各种情况?
不是说未来写不出这样的AI,而是这种AI的诞生最先应用的也不会是用在自动驾驶上...
也就是真正完善的自动驾驶,我认为短期不会诞生在汽车上...