“科学美国人”杂志有一篇批评Tesla AutoPilot问题的报导,
内容有引述“美国太空总署”NASA的人因工程心理学专家Stephen Casner,
他对半自动驾驶系统的研究报告。
从第一艘太空船的研发专案开始,NASA钻研“人类心理与自动化驾驶”相关课题,
已经有近60年的历史经验了。
(1958~1963, Project Mercury“水星计划”中文简介 https://is.gd/KJCXgG )。
(图) 美国NASA水星计划的太空船照片,前后共有7名太空人参与任务。
http://i.imgur.com/AQCet4C.jpg
(source: Dan Beaumont Space Museum https://is.gd/yqyofa )
根据几十年来的相关研究,已经警告“人类专注力的有效周期”这件事,
会影响人们在(太空船)自动驾驶舱的表现。
Decades of research have warned about the human attention span in automated
cockpits
◇人类的注意力 有其侷限性 最多只能撑15分钟 然后注意力会开始疲乏下滑
THE LIMITS OF ATTENTION
NASA的人因工程心理学专家Stephen Casner,他认为半自动驾驶辅助系统要求驾驶人
必须随时不断的注意路况,这是不切实际,非常不可行的。
Casner说,如果你只是坐在那边,监视著系统运作,而这个系统又运作良好的话,
那会是一件很疲累的差事。
事实上,要求人类长时间的去精准监控那不断重复的程序步骤,是件极度困难的事,
人类精准的注意力只能维持15分钟,这就是所谓的“警觉性递减”现象
(vigilance decrement)。
这是1948年,英国认知心理学家Robert Mackworth 在研究英国雷达操作人员的工作表现
后,所发表的重大发现。
二次世界大战期间,为了监控德国空军跨海来犯,英国政府在各地设置了许多雷达站。
Mackworth他发现雷达操作人员在监控雷达银幕时,面对不断重复扫过的银幕画面,
操作人员的准确度只能维持30分钟,之后准确度会直线下降,快速滑落。
而且后来有更多更新的类似研究指出,人类的注意力只能持续15分钟,
然后就会出现“警觉性递减”现象。
Casner says. "If you're sitting there watching the system and it's doing
great, it's very tiring." In fact, it's extremely difficult for humans to
accurately monitor a repetitive process for long periods of time.
This so-called "vigilance decrement" was first identified and measured
in 1948 by psychologist Robert Mackworth, who asked British radar operators
to spend two hours watching for errors in the sweep of a rigged analog clock.
Mackworth found that the radar operators' accuracy plummeted after 30 minutes
; more recent versions of the experiment have documented similar vigilance
decrements after just 15 minutes.
◇AutoPilot出错的死亡车祸,即使当时驾驶人有注意路况,可能也难逃一劫
科学人他们认为,车祸当时,即使Joshua Brown没有在他的Tesla车上一边AutoPilot,
一边观看哈利波特电影,在AutoPilot出错时,他的心理状态仍然会与魔鬼共谋对他不利
(因为注意力疲乏,会使他来不及察觉到AutoPilot出错的危机,并及时做出反应)。
Even if Joshua Brown was not watching Harry Potter behind the wheel,
his own psychology may still have conspired against him
(图) Tesla的Autopilot被NASA专家批评违反人因工程心理学,并不安全。
http://i.imgur.com/XOl7rGz.jpg
◇英国的半自动驾驶安全性研究
无独有偶,英国南安普敦大学的研究人员也对半自动驾驶的安全性表达忧心。
英国“人因工程”研究权威Neville Stanton教授,在学术期刊上发表论文,
他们的研究发现,半自动驾驶车会有“反应时间落差”的问题。
(图) 英国南安普敦大学的自动驾驶车模拟实验室,他们改装一辆Jaguar XJ,
并赋予它具备虚拟自动驾驶的功能。
http://i.imgur.com/nbuisUc.jpg
(source: Southampton University Driving Simulation https://is.gd/iTz1LH )
有26名受测人员,在XJ虚拟车上使用半自动驾驶模式,在时速112公里的情境下,
结果发现即使驾驶人有专心注意路况,没有滑手机、看影片,
在模拟机出现要求受测人员接手驾驶的提示后,
他们从察觉到做出反应动作所需时间的中位数为“4.56秒”,
如果驾驶人有分心,例如使用手机等等的情况下,所需反应时间的中位数为“6.06秒”
在时速112公里的情况下,4.56秒后车辆都已经行驶142公尺了,再加上煞车距离,
以现行Golf GTI的112kph紧急煞停距离49.7公尺为例,总共就要近200公尺了。
如果半自动驾驶系统出错,驾驶人想靠自身反应能力来避免车祸并不容易。
(图) Neville Stanton教授,是英国“人因工程”界的研究权威
http://i.imgur.com/xgrD2kl.jpg
英国皇家航空学会曾颁发青铜勋章给他,感谢他对航空母舰飞行甲板的安全性所作的
贡献。
英国“人体工学及人因工程”研究院也曾颁发奖章,感谢他对人体工学研究的贡献。
南安普敦大学是英国研究型大学的第8强,他们的理工领域研究很强,
尤其是海洋、海事、水下机械工程领域素来享有盛名,在全球海洋与水下工程可排前10名
。
==心得==
汽车自动驾驶技术牵涉到人类心理和硬件技术层面,未来还有一段很长的路要走,
相信总有一天自驾车相关技术会成熟到进入实用化阶段的。
在自驾车技术还没成熟之前,不闹出人命是业界开发的最高原则。
"Fail Fast And Iterate - But Not At The Cost Of Human Lives."
最近发生几起自驾车意外事件,幸好都没有出人命。
1. 德州达拉斯TX-121高速公路,第一代AutoPilot自驾车对路况判读出错,
直接撞上施工路障的车祸事件,可能就跟注意力疲乏现象有关。。
(https://is.gd/ZU0OZF )
2. 前几天,两名Uber员工跟纽约时报爆料,去年12月Uber的Volvo自驾车在旧金山市区
闯红灯事件,是因为电脑自驾系统出错才会闯红灯,而非Uber官方所宣称的是随车驾驶人
员开车犯错。
当时自驾车服务才上路短短几天,Uber自驾车就已经闯红灯至少有“六次”了。
(https://is.gd/DfKA1Z )
Uber信用破产,公司谎言被自家员工戳破了。
推动自动驾驶技术是一件好事,但厂商不能为了赚钱,就无视他人性命与车辆交通安全
连技术层次较低的AEB自动紧急煞停系统都可能有1/3车款不及格了 (5/15辆),
显见目前还是不能过于倚赖新科技。
延伸阅读
[情报] 德州Tesla Model S自驾车撞分隔岛路障事件,车祸照片与车主发文
https://www.ptt.cc/bbs/car/M.1488584023.A.0CE.html
[外电] 员工爆料 Uber自驾车闯红灯是电脑出错 并非人为疏失
https://www.ptt.cc/bbs/car/M.1488588559.A.680.html
[情报] 澳洲实测AEB自动煞车系统,15辆车受测,其中有5款车不及格
https://www.ptt.cc/bbs/car/M.1488181584.A.3BD.html
出处
[科学美国人] 关于Autopilot的侷限 NASA能教Tesla的事
What NASA Could Teach Tesla about Autopilot's Limits
https://is.gd/onp3h1
[NASA论文] The Challenges of Partially Automated Driving
https://is.gd/yBqaUC
[论文PDF] The Challenges of Partially Automated Driving
https://is.gd/gpKnWG
(图) NASA论文的三项重点
http://i.imgur.com/Nm2Sz9m.jpg
'Takeover time' in driverless cars crucial to safety
https://is.gd/UtLgAn
作者:
shengyeh (shengyeh)
2017-03-04 19:11:00其实听起来蛮合理的
作者:
sbax8186 (りぃちゃんヽ(・∀・)ノ)
2017-03-04 19:13:00先帮补血 等等特斯拉和U伯大军要蜂拥而出
作者:
shengyeh (shengyeh)
2017-03-04 19:13:00当你对某物开始信任后 自然会比较松懈等到突发状况发生 自然会慢半拍不过应该也是有解啦
作者:
thigefe (米麸)
2017-03-04 19:17:00这就半套自驾,有问题不意外
作者:
shengyeh (shengyeh)
2017-03-04 19:20:00就设计一段时间内提供一些刺激给驾驶员如警示音或震动 要驾驶员拉回注意力
作者:
dslite (呼呼)
2017-03-04 19:35:00要自己随时注意自驾会不会出包 为何不干脆自己开?自己开的精神压力比不知何时出包小得多
作者: W8570637 (W8570637) 2017-03-04 19:37:00
跟火车驾驶一样的设计?
作者:
sai1268 (....)
2017-03-04 19:51:00同意啊,其实想像坐在副驾一直长时间注意驾驶行为跟路况,比自己开车还累
作者:
l257065 (Tiwei)
2017-03-04 19:55:00这是当然的阿...太空又没那么多三宝跟遮蔽物XD
作者:
KGSox (天天开心)
2017-03-04 19:55:00还蛮有道理的
作者:
kiler520 (Sky我最威)
2017-03-04 20:00:00学火车踩踏板?
作者:
Scape (non)
2017-03-04 20:03:00内文拿Jaguar XJ做实验,标题批AutoPilot,蛮好笑的。要说注意力下降,任何跟车系统都有这问题只是AP是出头鸟,拿出来打
作者:
KGSox (天天开心)
2017-03-04 20:05:00人家是在虚拟自动驾驶 拿什么车来改又不是重点
作者:
Scape (non)
2017-03-04 20:07:00那批评的点是注意力下降,AP是重点吗?任何跟车系统都一样
作者:
UJhsiao (PRIDE)
2017-03-04 20:15:00啊NASA就拿AP来举例你在跳脚什么?讲不得喔
如果自动驾驶发展的成熟 对人类真的是好事 人太不稳定了虽然最近看了这些例子 觉得离这天还有点远 但仍期待着
作者:
yanli2 ( Yan™)
2017-03-04 20:45:00难怪罗根讨厌自动车
作者:
shengyeh (shengyeh)
2017-03-04 20:49:00未来有一天 全部车联网 就没问题了
可是路上的路况不只其他车辆 还有路人自行车冲出来的狗等甚至像突然出现的维修路障之类的。。。
作者:
shengyeh (shengyeh)
2017-03-04 20:54:00楼上说的也是有理
作者: roccqqck (ccqq) 2017-03-04 20:57:00
目前判定不会动的东西 反正比较难判定喔
作者:
cystal (专业代PO)
2017-03-04 21:20:00之前看特斯拉对冲出来的人3~5秒钟自动驾驶根本没有反应
作者:
DYE (跟脑残争最后都会变脑残.)
2017-03-04 22:02:00车联网加上手机定位 至于狗....就让他上天吧XD楼下狗本
其实这个讲的并没有错, semi-auto本来就有这问题但是你一但宣称全auto 那撞车的责任都会要你来承担这也是目前Tesla碰到的困境Tesla其实就是觉得还没办法担这责任而已
作者:
meianhua (我是男生唷)
2017-03-04 22:29:00我也觉得要嘛就全自动 要求驾驶员保持注意只是欲盖弥彰
作者:
Ekmund (是一只小叔)
2017-03-04 22:48:00讲是很有道理 但以实际意义来说 就是不赞同所有不达Lv5的自驾上路 这只有两种可能
作者:
meianhua (我是男生唷)
2017-03-04 22:49:00个人觉得设计上车主要负的就危险物所有人责任 车厂要负
作者:
Ekmund (是一只小叔)
2017-03-04 22:50:001. 要马所有车都改自驾 道路状况单纯化+车联网
作者:
meianhua (我是男生唷)
2017-03-04 22:50:00的就商品制造人责任 对被害者而言都没差 我就连带请求至于车主跟车厂要怎样摊是加害人自己内部分担的问题
作者:
Ekmund (是一只小叔)
2017-03-04 22:51:002.发展出人类有史以来第一个非弱人工智能的AI这两个一个等30年 另一个等100年看能不能赛到
作者:
meianhua (我是男生唷)
2017-03-04 22:52:00车厂要车主保持注意就真的神经病 我都买自驾功能了是要怎么注意 更累又无效有心也无力 那我干嘛不自己开就好
作者:
Ekmund (是一只小叔)
2017-03-04 22:53:00这种言论早就有了 只是不实际 现行目标只要超越人驾的事故发生率就有足够的话语权了
作者:
meianhua (我是男生唷)
2017-03-04 23:03:00你车厂敢推自动驾驶就卡阿莎力 民事赔完被害人后就别转向跟车主要 车主告你都不为过了不然他自己的财损车损找谁赔 刑事车主车厂两个都要负 你买自驾车上路撞到人的风险自己要承担(自由刑或罚金刑)车厂冒然推自驾害人也要负刑责(高额罚金刑)
作者:
Ekmund (是一只小叔)
2017-03-04 23:07:00负赔偿不是问题 负风险才是问题最理想的情况 自然是世界上不再有人类汽车驾驶 让电脑来但届时车商不再只是车商 会更偏向大众运输业者而且车会从买卖整车变成买卖使用权 强制定期回厂检验不然谁会愿意为无法掌握的东西负上人命的责任?保险公司也不可能接受 那政策就不会放行所以现在这玩意儿根本不是车商阿不阿莎力的问题而是自驾还没有强到让社会大众接受整个行车环境转变的问题而这种东西不经过实际道驾个N年根本没人会信实际面来看就变得冲突了 但要实现 这位来自NASA的大师想法就不切实际了
作者: JDKnife (绝地小刀) 2017-03-04 23:29:00
...一堆没实际开过的人在那天马行空 监看AP比自己开省力多了 照推文某些歪理ACC也很危险 因为不用控制车距?上次NHTSA调查已有AP降低40%事故的数据 特黑是还不死心..
作者:
cystal (专业代PO)
2017-03-04 23:59:00连报告都不看的真可怜
作者:
levy (LEE)
2017-03-05 00:11:00自动驾驶出错的机率比人类手动驾驶低太多了
作者:
Scape (non)
2017-03-05 00:48:00这篇根本是标题杀人,看了原文NASA论文根本没提过Tesla或是AP,而是在说自动驾驶(1-4级)可能会遇到的问题而Scientific American也是在说目前的AP的极限在哪并且把心理学考虑进去,点AP做的越好反而会使人分心这矛盾哪来的NASA专家批评AP有问题了?某b是以为大家都不会去看原文,用这样的标题杀人法误导人?
作者:
Ekmund (是一只小叔)
2017-03-05 01:01:00果然说中了w
作者:
DYE (跟脑残争最后都会变脑残.)
2017-03-05 07:59:00实际的意义就是 现行的自动驾驶+人力 出事的机率跟纯自动驾驶 不加人力 差不多车商要求驾驶注意 只是不想承担风险
作者: YJM1106 (YM) 2017-03-05 09:00:00
就是说车商认为必要时可以避险的人为操作实际上是没有效果的
作者: JDKnife (绝地小刀) 2017-03-05 09:29:00
喔 那ACC也不要上市 还是可以不用看路?
作者:
DYE (跟脑残争最后都会变脑残.)
2017-03-05 09:55:00现行多数的辅助驾驶(半自动) 很多有限制启动的条件 例扶方盘这样就是要驾驶已以往的态度去驾驶 电控只是辅助只有特斯拉是不管它也能让车子自己跑
作者:
bitlife (BIT一生)
2017-03-05 14:21:00fail fast意为尽快发现/报告错误
特斯拉也要扶方向盘好吗 =_= 不理警告不扶就会不开了
作者: oiolo (浜森守) 2017-03-06 20:56:00
本来就半套自驾啊?
那机师也是自动驾驶,他们怎么处理的?然后他不是antiAP啦,自驾会下降事故率已经证实,但是突发状况反应慢也是这边指出的重点话说完全不出人命我觉得不可能,感觉只要能显著降低事故,为了大局可能会放水让他上路...
科学人也有提到 天空飞行和地面道路驾驶情况大相不同两者不能相提并论,以下是进一步说明