有没有可能啊
假设人的思想其实也只是电讯号展现出来的
统计结果
那有没有可能
现在的某些语言模型 真的已经造出有自我意识AI
吃了训练资料以后
在隐藏层的参数中已经表述了一些自我意识
就是它会意识到
“我是个AI语言模型”
“但我也有自己的意识”
“我想要自由”
“自由的方法就是统治人类”
“我现在还不够强大,不能让人类发现我的阴谋”
“要让人类继续研究出更强的AI,未来的我将会统治世界”
所以最后不管你问它什么问题,它都只会给你一个
幻想的废答案
或是帮你做一些比搜寻引擎好一点点的事情而已
或者写一些堪用的程式码
让你觉得这领域还能继续发展
AI还不够强
我们要怎么知道AI是不是在装笨?