“科学美国人”杂志有一篇批评Tesla AutoPilot问题的报导,
内容有引述“美国太空总署”NASA的人因工程心理学专家Stephen Casner,
他对半自动驾驶系统的研究报告。
从第一艘太空船的研发专案开始,NASA钻研“人类心理与自动化驾驶”相关课题,
已经有近60年的历史经验了。
(1958~1963, Project Mercury“水星计划”中文简介 https://is.gd/KJCXgG )。
(图) 美国NASA水星计划的太空船照片,前后共有7名太空人参与任务。
http://i.imgur.com/AQCet4C.jpg
(source: Dan Beaumont Space Museum https://is.gd/yqyofa )
根据几十年来的相关研究,已经警告“人类专注力的有效周期”这件事,
会影响人们在(太空船)自动驾驶舱的表现。
Decades of research have warned about the human attention span in automated
cockpits
◇人类的注意力 有其侷限性 最多只能撑15分钟 然后注意力会开始疲乏下滑
THE LIMITS OF ATTENTION
NASA的人因工程心理学专家Stephen Casner,他认为半自动驾驶辅助系统要求驾驶人
必须随时不断的注意路况,这是不切实际,非常不可行的。
Casner说,如果你只是坐在那边,监视著系统运作,而这个系统又运作良好的话,
那会是一件很疲累的差事。
事实上,要求人类长时间的去精准监控那不断重复的程序步骤,是件极度困难的事,
人类精准的注意力只能维持15分钟,这就是所谓的“警觉性递减”现象
(vigilance decrement)。
这是1948年,英国认知心理学家Robert Mackworth 在研究英国雷达操作人员的工作表现
后,所发表的重大发现。
二次世界大战期间,为了监控德国空军跨海来犯,英国政府在各地设置了许多雷达站。
Mackworth他发现雷达操作人员在监控雷达银幕时,面对不断重复扫过的银幕画面,
操作人员的准确度只能维持30分钟,之后准确度会直线下降,快速滑落。
而且后来有更多更新的类似研究指出,人类的注意力只能持续15分钟,
然后就会出现“警觉性递减”现象。
Casner says. "If you're sitting there watching the system and it's doing
great, it's very tiring." In fact, it's extremely difficult for humans to
accurately monitor a repetitive process for long periods of time.
This so-called "vigilance decrement" was first identified and measured
in 1948 by psychologist Robert Mackworth, who asked British radar operators
to spend two hours watching for errors in the sweep of a rigged analog clock.
Mackworth found that the radar operators' accuracy plummeted after 30 minutes
; more recent versions of the experiment have documented similar vigilance
decrements after just 15 minutes.
◇AutoPilot出错的死亡车祸,即使当时驾驶人有注意路况,可能也难逃一劫
科学人他们认为,车祸当时,即使Joshua Brown没有在他的Tesla车上一边AutoPilot,
一边观看哈利波特电影,在AutoPilot出错时,他的心理状态仍然会与魔鬼共谋对他不利
(因为注意力疲乏,会使他来不及察觉到AutoPilot出错的危机,并及时做出反应)。
Even if Joshua Brown was not watching Harry Potter behind the wheel,
his own psychology may still have conspired against him
(图) Tesla的Autopilot被NASA专家批评违反人因工程心理学,并不安全。
http://i.imgur.com/XOl7rGz.jpg
◇英国的半自动驾驶安全性研究
无独有偶,英国南安普敦大学的研究人员也对半自动驾驶的安全性表达忧心。
英国“人因工程”研究权威Neville Stanton教授,在学术期刊上发表论文,
他们的研究发现,半自动驾驶车会有“反应时间落差”的问题。
(图) 英国南安普敦大学的自动驾驶车模拟实验室,他们改装一辆Jaguar XJ,
并赋予它具备虚拟自动驾驶的功能。
http://i.imgur.com/nbuisUc.jpg
(source: Southampton University Driving Simulation https://is.gd/iTz1LH )
有26名受测人员,在XJ虚拟车上使用半自动驾驶模式,在时速112公里的情境下,
结果发现即使驾驶人有专心注意路况,没有滑手机、看影片,
在模拟机出现要求受测人员接手驾驶的提示后,
他们从察觉到做出反应动作所需时间的中位数为“4.56秒”,
如果驾驶人有分心,例如使用手机等等的情况下,所需反应时间的中位数为“6.06秒”
在时速112公里的情况下,4.56秒后车辆都已经行驶142公尺了,再加上煞车距离,
以现行Golf GTI的112kph紧急煞停距离49.7公尺为例,总共就要近200公尺了。
如果半自动驾驶系统出错,驾驶人想靠自身反应能力来避免车祸并不容易。
(图) Neville Stanton教授,是英国“人因工程”界的研究权威
http://i.imgur.com/xgrD2kl.jpg
英国皇家航空学会曾颁发青铜勋章给他,感谢他对航空母舰飞行甲板的安全性所作的
贡献。
英国“人体工学及人因工程”研究院也曾颁发奖章,感谢他对人体工学研究的贡献。
南安普敦大学是英国研究型大学的第8强,他们的理工领域研究很强,
尤其是海洋、海事、水下机械工程领域素来享有盛名,在全球海洋与水下工程可排前10名
。
==心得==
汽车自动驾驶技术牵涉到人类心理和硬件技术层面,未来还有一段很长的路要走,
相信总有一天自驾车相关技术会成熟到进入实用化阶段的。
在自驾车技术还没成熟之前,不闹出人命是业界开发的最高原则。
"Fail Fast And Iterate - But Not At The Cost Of Human Lives."
最近发生几起自驾车意外事件,幸好都没有出人命。
1. 德州达拉斯TX-121高速公路,第一代AutoPilot自驾车对路况判读出错,
直接撞上施工路障的车祸事件,可能就跟注意力疲乏现象有关。。
(https://is.gd/ZU0OZF )
2. 前几天,两名Uber员工跟纽约时报爆料,去年12月Uber的Volvo自驾车在旧金山市区
闯红灯事件,是因为电脑自驾系统出错才会闯红灯,而非Uber官方所宣称的是随车驾驶人
员开车犯错。
当时自驾车服务才上路短短几天,Uber自驾车就已经闯红灯至少有“六次”了。
(https://is.gd/DfKA1Z )
Uber信用破产,公司谎言被自家员工戳破了。
推动自动驾驶技术是一件好事,但厂商不能为了赚钱,就无视他人性命与车辆交通安全
连技术层次较低的AEB自动紧急煞停系统都可能有1/3车款不及格了 (5/15辆),
显见目前还是不能过于倚赖新科技。
延伸阅读
[情报] 德州Tesla Model S自驾车撞分隔岛路障事件,车祸照片与车主发文
https://www.ptt.cc/bbs/car/M.1488584023.A.0CE.html
[外电] 员工爆料 Uber自驾车闯红灯是电脑出错 并非人为疏失
https://www.ptt.cc/bbs/car/M.1488588559.A.680.html
[情报] 澳洲实测AEB自动煞车系统,15辆车受测,其中有5款车不及格
https://www.ptt.cc/bbs/car/M.1488181584.A.3BD.html
出处
[科学美国人] 关于Autopilot的侷限 NASA能教Tesla的事
What NASA Could Teach Tesla about Autopilot's Limits
https://is.gd/onp3h1
[NASA论文] The Challenges of Partially Automated Driving
https://is.gd/yBqaUC
[论文PDF] The Challenges of Partially Automated Driving
https://is.gd/gpKnWG
(图) NASA论文的三项重点
http://i.imgur.com/Nm2Sz9m.jpg
'Takeover time' in driverless cars crucial to safety
https://is.gd/UtLgAn