Re: [新闻] 自驾车发生首宗撞死人事故 芯片股大

楼主: iamala (it depends)   2018-03-23 07:13:46
※ 引述《xmiracle (旋律碎片)》之铭言:
: 拿一个失败例子说AI是骗局也太武断了
: 你现在能跟Siri讲话 Email信箱会自动挡垃圾信
: 手机相机会自动找人脸 都不是骗局啊
: "如果是人的话 多多少少会受到惊吓而减速"
: 但人在这么短短一秒内 能不能在撞上去之前踩煞车也有争议
: "若test pattern没打到这个快撞到鬼corner case 早就撞上去了"
: 但现实生活中很多机器学习应用 都没把你个人行为特别训练进去
: 另外深度强化学习只是机器学习的一个分支
: 说深度强化学习不成功也不代表机器学习不成功
: 科技发展的过程本来就会有牺牲者
: 当然谁都不愿意被牺牲 能尽量避免牺牲最好
: 但如果这科技最终能给大家好处
: (例如因为路上全部都是自动驾驶 减少车祸率与交通时间)
: 长远来说继续发展还是比较好
: ※ 引述《sunsamy ()》之铭言:
: : 影/Uber自驾车撞死人画面曝光 当下完全没减速
: : https://goo.gl/URDpTu
: : 新闻的影片如上
: : 如果是人的话
: : 多多少少会受到惊吓而减速
: : 快撞到人的反应
: : https://www.youtube.com/watch?v=WGFeOliT6xw#t=23s
: : 快撞到鬼的反应
: : https://www.youtube.com/watch?v=GdCXoAo3tUQ#t=28s
: : 所以目前人工智能仍是curve fitting的产物
: : 不curve fitting的话泛化能力也不够
: : 所以当然做不出会思考的强人工智能
: : 人要撞到人与鬼之前都会受惊吓而减速或转弯
: : 是人工智能,若test pattern没打到这个快撞到鬼corner case
: : 早就撞上去了
: : 所以我才说是骗局
: : 各位看倌们,自已判断吧
: : 至于其它人怎么说呢?如下
: : ==========================================
: : 深度强化学习被成堆的炒作包围着
: : 当别人问我强化学习能否解决他们的问题时,至少有70%
: : 的时候我的回答是:不能。
: : 深度强化学习是最接近于通用人工智能(AGI)的范式之一
: : 不幸的是,它目前还不能真正地奏效。
: : 人们认为波士顿动力的机器人使用了强化学习,
: : 但是实际上并没有
: : 换言之,他们绝大多数情况使用的是经典的机器人技术。
: : 如果你仅仅关心最终的性能
: : 那么很多问题都能够通过其他方法更好地解决
: : 即使当深度强化学习成功的时候,它也有可能仅仅是
: : 过拟合了环境中的某些奇怪的模式
: : 即使忽略了泛化问题,
: : 最终的结果也可能是不稳定的和难以复现的
: : 次有人问我强化学习能否解决他们的问题,
: : 我还是要告诉他们,不行,不行。
: : https://goo.gl/LCGfQt
AI自驾车和人类比安全?
自驾车会有bug, 会有设计不良,遇到紧急状况处理不如人类。但别忘了,是和“典范”
人类比。
住测试区的人活该承受风险?
人类会疲劳,会酒驾,会超速,会闯红灯,开车会滑手机,甚至看电视。遇到紧急状况,
尖叫踩油门不是开玩笑的。撞到人还“不小心”倒车压死也不是没有。
除非有数据自驾车的事故率,发生事故的伤亡率大于人类,否则我用膝盖想都宁愿路上的
自驾车越多越好。
更别说这次事故车上还有人呢...
作者: syterol (小贼)   2018-03-23 07:24:00
人类可以负刑责被关 AI自驾车也有负责被关的人我就接受科技发展有所牺牲可以接受,但前提是撞与被撞双方都要牺牲空难大部分驾驶一起死,也大部分是已知风险自愿坐上去的人
作者: Kobelephants (黑曼象)   2018-03-23 07:37:00
自驾车出车祸乘客要负责,是你你会买单吗?
作者: syterol (小贼)   2018-03-23 07:37:00
AI自驾车死人可想而知会是一般路人又没要乘客负责,负责人或工程师出来扛阿不然就直接宣布自驾车撞死人不负刑责,看哪国立委会给上路
作者: robert53 (自由)   2018-03-23 07:47:00
AI过度发展对人类一点好处也没有
作者: xmiracle (旋律碎片)   2018-03-23 07:53:00
如何定义过度发展?而且这次就是发展还不够所以才出事
作者: steve1012 (steve)   2018-03-23 07:53:00
早就有测试区啦 肇事率超低好吗
作者: robert53 (自由)   2018-03-23 07:55:00
https://goo.gl/d4s4tz是啦,你们比霍金还科技人囉。真是棒。
作者: steve1012 (steve)   2018-03-23 08:00:00
霍金值得敬佩啦 但不是他讲的都对啦 这么简单的道理要人教?
作者: sorryla (Mr.东)   2018-03-23 08:05:00
霍金是宇宙物理学大师,不是AI大师
作者: ken29228468 (阿威)   2018-03-23 08:07:00
自驾车不会酒驾
作者: docker (船坞工人)   2018-03-23 08:24:00
只是对车祸死掉的方式还不习惯罢了,影片里换做是人来驾驶不见得不会撞死,大白天任意过马路被撞死的三宝比比皆是
作者: michaelgodtw (可爱书生宝宝)   2018-03-23 08:28:00
是人工智能比较强?那程式一定都不会出错?
作者: xmiracle (旋律碎片)   2018-03-23 08:31:00
只要程式比人类出错机率小,就有发展价值,不是说做不到100分就不要做吧
作者: syterol (小贼)   2018-03-23 08:33:00
若比照空难模式,那就是不分贫富都一口价吧,和现在依据所得余命求偿又不同了
作者: shter (飞梭之影)   2018-03-23 08:35:00
自驾车的情况就比照铁路啊,因为铁路就是高度自动化系统出事那就是看外人车侵犯铁路正常运行或是铁路本身问题火烧车、爆冲、出轨、号志故障影响就营运单位赔偿走保险自驾车也一样,如果出意外是程式bug那就车公司要赔偿
作者: balius (爱喝鲜奶茶)   2018-03-23 09:06:00
电脑AI有bug会出错,但人类就算没bug也可以常常出错...
作者: Wishmaster ( )   2018-03-23 09:37:00
光那两个影片光线差那么多,最好第一个人眼就看的到...
作者: Ekmund (是一只小叔)   2018-03-23 09:42:00
霍金讲的是对强人工智能的约束能力,嘴霍金也扯太远
作者: soliboy (刚)   2018-03-23 11:02:00
BUG可以修 酒驾惯犯你告诉我怎么修?
作者: Horatio1105 (丸子123)   2018-03-23 11:06:00
上学期修了一门ai课 花了三四节课讨论责任问题 最后没有定论 真的很难去定制造商?工程师?还是购买人?
作者: love95023 (Phinex)   2018-03-23 12:01:00
人类出错机率>AI人类犯错…一错再错,AI犯错…bug修了就好
作者: steve1012 (steve)   2018-03-23 12:45:00
酒驾容易出车祸 又有刑责 但还是...
作者: b258963147 (火龙果)   2018-03-23 12:48:00
科技的发展是必然,适者生存
作者: uvxy (大仔)   2018-03-24 02:08:00
人类开车从来就没有安全过,自驾是必然的趋势

Links booklink

Contact Us: admin [ a t ] ucptt.com