Re: [闲聊] 人机大战观后杂感

楼主: hdjj (hdjj)   2017-05-28 12:34:35
: → devidevi: AI选择投子之后,已经认为没有赢的希望.... 05/27 23:18
: 推 HeterCompute: 说句实话,AlphaGo想要投子的时候古力是真的完全没 05/27 23:19
: → devidevi: 对AI而言怎么下都是输,这样不算是BUG吧 05/27 23:19
: → HeterCompute: 机会了,古力只是想要整理一下心情,毕竟从大优变成 05/27 23:19
: → HeterCompute: 输棋,那时差距已经二十目了,不可能逆转的 05/27 23:20
不是有意抬摃,但这里是有盲点的。
这局棋就是个很明显的例子。在人机配对赛里,人就是最大的变量。暂且不论时力
故意自紧一气自填一眼的极端例子,以人加机器这样的组合,只要是人,就有可能
出错,或是下出缓著。
今天配对的是两位高手,所以这样的情况并不明显,换成两位业余棋手上去,可以
预期出现意外翻转的可能性更高。
这在现实应用上的意义更深远。以自动驾驶为例,AI在判定时也许总是可以做出
最佳决策,但总是有突然冲出的老人,油门当煞车踩的新手,硬闯红灯的死小孩。
在类似这种情况下,防御性的应对,柔软性的妥协忍耐,都是极为重要的。
AI在逆境劣势里的反应,是一个很重要的课题。应该没有人愿意看到,输给李世
石的AI发神经的样子。因为这和AI“求胜”的原始指令是有所冲突的。
只是这讨论下去没完没了。这种事,还是留给黄博士这种专业人士伤脑筋吧。XD
作者: HeterCompute (异质运算)   2017-05-28 12:44:00
我一直很想嘘自动驾驶的例子,围棋是输赢,自动驾驶考虑安全,目标不一样混为一谈就是错的,而且我完全不同意换成两位业余棋手上去意外翻转更高所以要继续那你到底希望怎么样的翻盘形式,请具体说出来,不要说稳稳收然后对方会自己紧气到只剩一气给你吃这种
作者: q6261901 (皮笑了那肉呢)   2017-05-28 12:51:00
AI最大的障碍不是输赢,而是哲学...效益与道德的冲突...
作者: DendiQ (貔貅)   2017-05-28 12:56:00
训练时没加入人类干扰而已…目标不同要重新训练
作者: lionheart60 (宅熊冗厚)   2017-05-28 13:11:00
阿斯拉vs皇呀
作者: bxxl (bool)   2017-05-28 13:18:00
我觉得很好笑的的一点就是对AI苛求完美,对人类缺点理所当然人类遇到意外状况就不会出包? 机器出包率有人类高吗?
作者: KAOKAOKAO (鬼斗)   2017-05-28 13:47:00
一楼ID取异质计算想必也是此道中人 但是可以查查自驾肇事率 你就会发现人类肇事率海放纯效益主义考量 至少在驾车 也应该全面取代人类
作者: gundam778 (幸村)   2017-05-28 13:48:00
因为心理上接受不了,所以会拒绝认同和理解。这是正常人类的行为模式驾车事故有九成是人为所致
作者: Uizmporm   2017-05-28 13:57:00
路人的比喻不对 要对比也是突然想自行操控的驾驶AI可以学习如何闪避乱入的路人 但没办法接受失去控制权
作者: q6261901 (皮笑了那肉呢)   2017-05-28 14:19:00
自动驾驶可能还是无法解决道德问题左打方向盘撞死老人,直走撞死小孩,右弯撞电线杆自亡ai如何判断,难道要自我毁灭XD这是很典型的哲学问题,人类卡在这关已经很久了~
作者: Maybetrue (已婚)   2017-05-28 14:27:00
你说的没错,我也跟你有一样的观点
作者: HeterCompute (异质运算)   2017-05-28 14:29:00
我认同自动驾驶的价值,只是两种不同目标的AI类比不伦不类
作者: KAOKAOKAO (鬼斗)   2017-05-28 14:32:00
to q大:人类在面临一样困境时就没有道德问题吗?
作者: ykes60513 (いちご)   2017-05-28 14:33:00
那种极端情况让人去驾驶也没法处理更好吧...有种角度是
作者: KAOKAOKAO (鬼斗)   2017-05-28 14:33:00
h大: alphago标志的是一种汎用性 延伸出去的话题涉及
作者: ykes60513 (いちご)   2017-05-28 14:35:00
尽可能让伤害最小化 这点AI应该还是办的到的q大的例子 大概就选自撞吧 铁包肉活命机会比较大(?而且AI应该不至于会滑坡到那样极端的情况
作者: NoManInCar (NMIC)   2017-05-28 14:38:00
人也是会遇到这个问题 有人可以负责 AI出事谁负责?
作者: KAOKAOKAO (鬼斗)   2017-05-28 14:41:00
责任归属问题只要契约定好就没问题了 一定有人负责
作者: bxxl (bool)   2017-05-28 14:42:00
AI出事就卖AI装置的厂商负责吧,但他应付的责任不高于
作者: KAOKAOKAO (鬼斗)   2017-05-28 14:42:00
契约没定好又会自己动的东西有人敢买吗?
作者: q6261901 (皮笑了那肉呢)   2017-05-28 15:00:00
现行法律的责任归属,到底有没有符合公平,都很难下这个定论,加上AI的搅局,势必更为混乱。不过AI应用势在必行,我是蛮乐观其成AI在没触及道德层面中的贡献,但如果跨入道德层面,个人觉得人类距离灭亡感觉也不远了
作者: oklaohya   2017-05-28 15:39:00
Ai会避开任何危险,人类想的到的风险它都能避开
作者: lyricslee (奕)   2017-05-28 15:54:00
说自撞不会死的是有事吗
作者: chaohsiung (熊)   2017-05-28 17:40:00
MIT在开发道德模拟器,讨论自驾车该选择撞死什么人例如在前方有小孩,闪避却会撞到路旁老人的情况。一定会撞到人时,AI该选择撞哪一边
作者: bxxl (bool)   2017-05-28 17:51:00
这不是一个AI问题,而是人类要做的选择题你选好之后,让AI学习你想要的行为即可
作者: q6261901 (皮笑了那肉呢)   2017-05-28 18:03:00
楼上完全懂得我要说的话,也许有人会说就让ai自己决定但如果人类没办法有自己的意识,势必最后会走向灭亡
作者: ykes60513 (いちご)   2017-05-28 18:20:00
我什么时候说自撞不会死了= =
作者: theophilus (EJLi)   2017-05-28 21:10:00
这几天,AI就告诉你他的决策比人好

Links booklink

Contact Us: admin [ a t ] ucptt.com