我发现我们距离真正产出一个“人”还是差得太远了
光是目前LLM的算法就已经预示了要让机器产生出价值观基本上非常难
用机率分布跟加权的方式来决定下一个文字是什么的这种方式
就代表LLM绝对会一直倾向产出最合乎逻辑且合乎她所学习的文本的回答
然而一个人的价值观所带来的独特性 甚至是“我和别人相信的不一样”的这种特性
就让LLM完全没办法了 因为一个人的价值观并不总是合乎逻辑的
更不用说如果我们想做出一个跟人相似的 可以行走 聊天 泡咖啡机器人
中间涉及到的问题也很多
道德 材料学 生物力学 甚至是最基础的散热都是大问题
只能说我们距离家家户户有一个会哄人睡觉的女仆机器人的时代还太远了