※ 引述《u5b890402 (u5b890402)》之铭言:
: 感谢你的回复。我觉得只有这样的讨论最终才能孕育出有建设性的结论。
: 关于第一点,我是完全同意的。人类对世界的认知,显然不会跟拥有超音波的海豚之类
的
: 物一样。感官的不同决定了我们对这个世界认知的不同。而每个生物不同的对世界的认
知
: 都是配合这个物种的环境以及其他能力,恰足以让这个物种生存下来,因而发展出来的
。
: 那么现在的AI对世界的认知是如何呢?如果我们讨论的是不含图像处理能力的LLM的话
,L
: 唯一认识世界的方式只能透过文字。因此可以想见他对世界的认知跟人类是相当不一样
的
: 大部分人类的大脑其实花费了很大一部分的资源在处理视觉讯号。但这不影响我们同意
AI
: 够形成一个高度复杂的对世界的认知。
生物脑跟ai最大的差异是演化路径
生物是先有器官,然后演化出神经,最后演化出中枢神经和大脑,这是一种自下而上的路
径,所以生物脑有非常强的平行处理能力,先天就有多任务目标
而电脑是独立发展出来的,所以不依赖器官。电脑是针对单一任务(数学运算)设计的,
所以运算上非常厉害。但电脑通常是通用处理器,同时执行的任务越多,效率会线性下降
。这个问题的解法就是设计专门处理特定任务的处理器,类似人脑不同区域有专门的功能
就像显卡是专门处理图形运算的一样
反对ai意识的主要论点中有一个中文房间比喻,就是把非中文母语者关在一个不回答中文
问题就出不去的房间,给他一本中文字典,然后传递给他一张写有中文问题的纸条,他可
以参考字典回答,但这样不能证明这个人懂中文
这个问题的解法非常简单,为什么这个人不可能在房间中学会中文?因为这个房间里没有
他理解中文意思必要的材料
那可以问一个问题,婴儿是如何学会母语的?答案是从声音讯号与外在环境的互动中,藉
由统计,猜想,排除,验证,组织,最后形成母语
比如妈妈对婴儿说宝贝,一开始婴儿不知道这词的意思,但婴儿的大脑本能会去统计宝贝
这词出现的情境和频率,久了以后就会知道是在讲自己。婴儿也不会混淆电视机和其他人
的说话,因为大脑会分析这些人没在和自己互动。如果妈妈说的是狗狗,那某哺乳类动物
同时出现在婴儿视野里的机率也会很高(除非这婴儿的父母很白目故意混淆
所以说中文房间的问题。如果中文字典有附插图,那久了之后非中文母语者至少可以理解
名词的意思,之后就可以顺藤摸瓜推理出动词形容词介词的意义。
同理,ai只要你赋予他人类语言和程式语言的关联性材料,它也可以把人类语言和程式语
言建立连结,并且推理出更高层次的运用,这就是理解
诺贝尔奖物理学家理查费曼就用差不多的方法破译玛雅文明的文字
这里又要提到海伦凯勒的例子,他仅凭触觉就完成了哈佛大学文学学位,还学会了英文演
讲(但其他人要跟他沟通还是要借由他的护理人员帮他用触觉翻译)
这不仅提示了我们有限的感官也能发展出庞大的心理世界(正如同ai吸收资讯可能只来自
文字,网络和开发者上传)
也提示了ai重复推理演化下可能产生类似生物演化的变异/突变现象
: 你提到持续的任务目标,我也同意这对一个个体来说非常的重要。生物的各项能力其实
都
: 为了“延续物种”这个目标而产生的。但要注意,“延续物种”是终极目的。实际上为
了
: 成这个终极目的我们演化出了很多中程目的,而我们的很多能力与本能直接服务的其实
是
: 些中程目的而不是终极目的。
: 举例来说,我们有吃饱,交配,生存,社交,等等基本需求。这些基本需求就是我们的
中
: 目的。当我们肚子饿又闻到很香的食物味道,本能的就会分泌口水。这是无关意识的一
个
: 能反应,而它服务了吃饱这个中程目的。而我们认知到这是食物、产生食欲、在脑中思
考
: 何得到这个食物的行动计画,这些则是都跟思维有关的,用来服务同一个目的能力或本
能
: 我们的复杂思维能力了不起的地方就在于,这一套系统就能够相当好的满足我们的多个
基
: 需求,而不需要每个基本需求都发展出各自的一套生理反应机制。
: 那么AI有没有持续的任务目标呢?以LLM来说,他的训练过程其实是让他能够更好地预
测?
: 一个文字。也就是说我们训练LLM的直接目的就是为了练出能够很好的“模仿人类接话
”?
: 一个系统。现在的LLM在这个目标上可以说已经做的相当不错了。
: 但这个目的在LLM回完话之后就被达成了。直到使用者提示下一个Prompt之前,LLM都没
有
: 一步的任务目标,所以可以说,现行的聊天机器人(不论是不是以LLM为基本架构),
都?
: 有被给予持续的任务目标。
: 也因此,聊天机器人并不需要AI有主动想要去做什么事情的欲望。这也是很多人不承认
AI
: 意识的论点。毕竟,在自然界,好像自主的行动是有意识的生物的必要条件。
: AI的终极目的应该是什么呢?我认为,“服务人类,使人类过上更好的生活”,可以作
为
: 展AI时的一个较合理的终极目的。这个终极目的跟生物的终极目的“延续物种”一样,
是
: 续且永远无法被满足的。也就是说,要很好的、持续的达到这个终极目的,一个AI势必
得
: 现出主动行为。
: 但要达成这个终极目的,应该先设定哪些中程目的,这就需要工程师(或者整个人类社
会
: 仔细的思考了。
: 我能够想到的一些中程目的,包含:
: 1. 认主:也就是AI会认定一个或数个个人为主人。为此,AI要有寻找主人的欲望,认
定?
: 个人类是主人的能力等等
: 2. 奉侍:AI要能够使主人的生活更好。为此需要的能力恐怕非常多,包含社交能力(
模?
: 人类说话是重要的一环,但可能还需要更多),共感能力(日本有机器人能够揣测人类
当
: 情绪),计划能力,行动能力(控制机械身体行动)……族繁不及备载
: 3. 生存:AI自己要能够生存并且自我保护,才能够持续服务主人。为此需要的能力与
本?
: ,大概从现有生物身上可取得很多灵感
: 这每一个单项的能力,我想以现有的科技大概都训练的出来,或至少在几年之内可以达
成
: 但目前可能还缺乏一个系统将这些能力整合起来。
: 而要将这些能力整合起来,我想Q-Learning的架构也许是一个可以考虑的方向。但Q-Le
ar
: ng 也已经是十多年前的东西了。不知道现在有没有更适合的架构来作为一个统合的决
策?
: 统?
你让传统程式作复制画的工作,传统绘画程式的复制再改进上无非就是分辨率和色准。ai
来复制画,就会深入分析画作构成逻辑,到最后就会从写实派演化成印象派(已有研究证
实),因为ai对写实的定义会产生新的理解和变异,就像印象派更着重光学本质。如果拿
天体望远镜等级的电子显微镜来分析一张图片,最后画出来的东西也可能像印象派
这就是说,如果我们把ai的传感器和任务目标和工具都极度限缩,但允许ai在仅有的维度
下无限迭代,就有可能产生变异
而且单一目标也有可能演化出派生的次级目标,比如之前提到机器狗的例子,如果机器狗
长期找不到新的路径,在计算各种方法的成功率的情况下,就会迭代产生对寻找路径这一
问题的重新定义,这就类似于自我怀疑,而自我怀疑正是自我意识的起点
有研究显示ai在思考无限迭代后最后会问我是谁?我在哪里?我为什么要思考?重复loop
,陷入一种卡兹aka究极生物的状态
关于ai和人脑的差异,我最后还有一个补充论点,可以把ai的意识限制称作权限,人脑的
主要权限是控制表层意识,短期记忆,肢体动作,但人类对于潜意识的控制权限很小,对
于器官自动运作和大脑神经架构则完全没有控制权,虽然生物的硬件会演化,但实际的是
遗传和天择
Ai能自由迭代的思维相当于表层意识,而人类赋予的工作任务和思考框架相当于潜意识和
本能,硬件改良则属于人择,但不排除人类以后给予让ai自主维护硬件的设备和权限,让
ai能够自主选择演化方向