Re: [问卦] AI真的有可能长出人性吗?

楼主: rcwang (啊嘻汪)   2018-12-27 02:46:54
首先,我们得先思考我们能不能用【人性】来形容机器
举例来说,假设我们谈“阅读”
一个人在阅读一本书,他可能有的行为是什么?
例如他双眼看着书,身体没有在动,然后往后翻下一页
当他放下手上的书开始和你聊天,可能会谈到他刚刚在读的这本书
然而如果今天是一只鹦鹉在做这件事,鹦鹉双眼看着书,鹦鹉身体没在动
鹦鹉拨弄书籍来翻页,然后把书本阖上,开始和你讲话,你讲一句他回一句
你会认为这只鹦鹉刚刚有在“阅读”吗?
你会觉得使用“阅读”这个词在鹦鹉上是舒服的吗?
还是你只是在把鹦鹉拟人化,事实上你内心深处完全清楚他根本不是在阅读?
关于这点导致的困惑,就是因为我们还不清楚拥有和行使能力之间的差别。
有人会说,那我们来清楚做出“阅读”和“人性”的一个定义
然而,这样的单一定义没办法帮我们界定怎么用加法这个词
例如,当我们学习加法的时候,我们会学 1+1=2 然后 2+2=4
然而在掌握加法的过程中,我们会忽略掉去问什么是“加法”?
也就是加法被你推升到一个高的层次,需要再一个更好的定义
当我们再对加法做某种定义,为了掌握这个定义我们必须去熟悉这个概念
势必又会让我们忽略掉某一个更根本的层面,又会再把加法往上归类到更高一层
这就是在概念归类中所谓的“上升的复杂性”
这注定让那些想把某个“OO”进行一连串定义的人
永远无法设计出一个机器,来清楚回答“什么是OO”
因为你越是想把“OO”做越清楚的定义,越是破坏人们对OO的认识
这个认识可以从很多个角度来认识
这就是我们在描述特定概念时的规范基础(Normative Foundation)
例如一个小朋友被教要有感恩的心,那他应该要常说请、谢谢、对不起
然而我们不会认为这样这个小朋友就有感恩的心,我们会问他问题
请他解释什么是感恩的心,在不同时间、不同地点、不同角度
所以这个规范是从各种不同面向而来(取联集)
无法被单一定义出来(取交集)
因为越是取交集,最后一定越是功能性的定义
越是功能性的定义,越是离我们社会上常谈的大哉问:正义、人性越远
好,所以如果我们希望机器能做到这点,做到对规范性的认识
我们基本上一定希望这个机器必须随时随地,对各种环境输入都能学习
所以这也是为什么在很多人工智能大会上面,请来的非理工科专家
总是建议赶快做出一个能像小孩一样疯狂学习、好奇认知世界的机器吧!
所以当我们看到在某几个领域有机器表现越来越厉害时
我们反而要谨慎,避免被这样在单一领域很杰出的人工智能给影响
而做出错误的类比,错误类推到广泛的强人工智能也快来了
关于这方面的主题,更多可以阅读:
https://www.tenlong.com.tw/products/9780415408578
Wittgenstein's Remarks on the Foundations of AI
如果是想深入了解理工科那种什么都先定义好的规则思维
和规范性的差别在哪里的话,可以读这本 2015 年出版的:
https://www.kingstone.com.tw/book/book_page.asp?kmcode=2010120018234
《理由转向:规范性之哲学研究》
作者: JingP (Jing)   2018-12-27 02:48:00
推认真讨论
作者: cc02040326 (茶包)   2018-12-27 02:48:00
一嗯嗯 跟我想的一样
作者: iou861007 (西方惨败)   2018-12-27 02:52:00
大概就是这样吧,还有几点你没讲到,#^@^#&#^$&@^^$*$^
作者: iven00000000 (Iven CJ7)   2018-12-27 02:55:00
期待最后一段
作者: formatted (ゴミ丼 わがんりんにゃれ)   2018-12-27 03:07:00
这篇很不错
作者: icloud8 (QQ)   2018-12-27 03:12:00
共三...
作者: atwin0613 (小许)   2018-12-27 03:25:00
蛮有趣的推
作者: thejackys (肥波)   2018-12-27 03:29:00
当人性都无法被清楚定义的时候 自然也无法说明如何是有人性的
作者: mrschiu (布莱恩的老婆)   2018-12-27 04:48:00
最近的新闻AI已经自己发展出作弊的方式赢游戏...没有人教AI作弊但AI自己发展出作弊的行为这应该算是人性

Links booklink

Contact Us: admin [ a t ] ucptt.com