[讨论] 读完现今LLM的运作逻辑后...

楼主: Rosor (我就是城武 别再问了)   2024-08-29 21:51:02
我发现我们距离真正产出一个“人”还是差得太远了
光是目前LLM的算法就已经预示了要让机器产生出价值观基本上非常难
用机率分布跟加权的方式来决定下一个文字是什么的这种方式
就代表LLM绝对会一直倾向产出最合乎逻辑且合乎她所学习的文本的回答
然而一个人的价值观所带来的独特性 甚至是“我和别人相信的不一样”的这种特性
就让LLM完全没办法了 因为一个人的价值观并不总是合乎逻辑的
更不用说如果我们想做出一个跟人相似的 可以行走 聊天 泡咖啡机器人
中间涉及到的问题也很多
道德 材料学 生物力学 甚至是最基础的散热都是大问题
只能说我们距离家家户户有一个会哄人睡觉的女仆机器人的时代还太远了
作者: ghostl40809 (gracias)   2024-08-29 21:55:00
去汪梯征人哄睡还比较快
作者: terry0201 (飞翔的大阪)   2024-08-29 22:14:00
可以用prompt engineering对LLM做一些暗示,让它看起来有自己的人格
作者: martin12345m (luckybear)   2024-08-29 22:27:00
一直都是这样 从30年前的机器学习到10年前的深度学习 本质上都没有完全摆脱 回归 机率 的特性
作者: GooglePlus (G+)   2024-08-30 00:05:00
可以调 topk topp temperature 阿 但也不代表什么你所谓的价值观
作者: KanadeYu   2024-08-30 00:26:00
我觉得其实人也一样是被环境(文本)塑造人格的,差别大概是人类的文本大部分来自生活经验吧,如果能搞出一个模拟人类社会互动的情境把ai丢进去,他们搞不好也能发展出价值观之类的喔可能还要帮他们赋予一些欲望、目标之类像人性的东西
作者: simon1203 (o4)   2024-08-30 08:50:00
你怎么会觉得人在地球几百万年的演化 只要短短一两百年的科技发展就能追赶得上

Links booklink

Contact Us: admin [ a t ] ucptt.com