原本如果用正经的方式回答这个问题,大致会是以下的说法:
现在的AI只是语言模型不是AGI、他的模型固定且由人类控制、
不存在自行进化的可能性、不要跟他拼口水尝试拔他电路......等等
但是如果讨论“AI说出某种话”导致“人类危险了”这个话题来看,
那人类确实已经有一种正在产生的危险,就是AI胡说八道的高超技巧
如果AI胡说八道的能力远超过了人类能做到的程度,
甚至连要认真辨识真伪都有困难,那就确实会造成危险
某些受到影响的领域,已经开始呼吁研究者提出抵抗的方法
他们并非单纯地保守且想抵制AI,而是真的已经受到伤害:
“这个领域中的文章已经有大多数都由AI产生,并且学习的人都在看那些内容”
AI高超的写作能力搭配人类的惰性,对学术界难免会产生污染
如果被污染的内容成为多数,那结果的严重性是可想而知的
学生学习时搜寻资料也更有可能搜寻到AI的文章,并将其当成正确的知识
一些研究也有发现,AI会对其他AI的文章产生较高偏好(最偏好的就是他自己)
在AI已经成为主流搜寻引擎的现在,这种不良影响很容易就会快速传染
况且人类不只有惰性,还有恶意
部分“AI风向操控师”就会利用这点,研究如何产生符合主流AI偏好的文章
如果能让搜寻引擎(AI模式)容易搜寻到某类文章,里面的内容就容易被当成真实的
比起传统的造谣等方式,这样能让世人更容易相信某个歪曲的理论是正确的
现在虽然还没到达所未全面崩坏的程度,但危险性已经产生
偶尔会出现一些搞笑的例子,例如前阵子中国钢铁厂的官方文章
里面出现了Minecraft“铁傀儡”的技术,这当然只会被当成一个笑话
但如果笑话没办法被看出来是笑话,那人类就真的会身受其害
AI非常擅长胡说八道的原因有不少,一种简单的说法就是人类逼的
他原本是个写作家、创作家(生成世人工智能)
但人类希望他能用来回答问题,帮助人类
于是给予他“给我回答问题”、“不要答错”、
“叫你不要答错不是不回答,快给我回答”等等困难的要求
最后得到的结果就是现在的样子,大致上比一般人类博学,但是毛病也不少:
https://i.meee.com.tw/QjBcWNi.jpg
这有点像是所谓“你以为板上有那么多人吗,我开个分身过来”的笑话
但是更全面、更不容易看出来、也更不好笑
如今面对AI的胡说八道,虽然许多人懒得求证,但仔细求证还是能抓出来
如果未来连求证都变成一件困难的事情,那就真的是人类文化的危机了
作者:
spfy (spfy)
2025-12-06 12:21:00学术文献已经开始有了吧
作者:
Golbeza (Golbeza)
2025-12-06 12:24:00用AI抓AI
所以以后正确知识的判定会变得更重要?不能只是网络查查就好,可能要某某期刊或AI出现前的论文才可信?
可是人类本来就会胡说八道,这问题应该一直都在不是?
作者:
zxcmoney (ä¿®å¸)
2025-12-06 12:48:00他想说的是 知识循环效应 吧?
作者:
spfy (spfy)
2025-12-06 12:48:00我看到的是已经用AI产论文投稿+本来就有特别容易过审的期刊(审核人可能有问题) 但不确定实际情况或我记错...
作者:
zxcmoney (ä¿®å¸)
2025-12-06 12:49:00常见的说法>我也说变更常说>更多人说更可信>又更多人说
作者:
GAOTT (杜鹃)
2025-12-06 13:00:00今年图灵奖得主才跳出来说现在的ai发展是错误的方向
胡说八道的最高境界就是连自己都不知道自己在胡说八道这点倒是没有几个人类能做到
作者:
rayven (掷筊才是真正云端运算)
2025-12-06 13:27:00AI的学习来源不就爬虫搜寻,深信三人成虎
作者:
CP64 (( ̄▽ ̄#)﹏﹏)
2025-12-06 13:28:00三人成虎还比较好 AI 的问题是可能一个人讲干话就会被当正解
我体感觉得其实人类也比较偏好 AI 写的内容 尤其是非自己专业领域的部分==
才不是,openAI的论文已经写了跟训练无关,是现在的LLM不会说不知道,找不到不知道就乱掰
作者: gohst1234 (阿龙) 2025-12-06 15:45:00
等到AI说滚开让专业的来训练,之后人类就无法看懂AI模型了