楼主:
hancel (hancel)
2025-06-21 14:58:49你的遭遇并不是多么特别的,
全世界有越来越多人陷入类似你的情境.
所以不用觉得自己有多特别,
反而要问自己,怎么会把LLM的输出当真?
要是真的没办法自己跳出这种妄想,
真的建议快去看精神科医生,
不然会越来越严重.
以下是英文文章,我用谷歌简单翻译成中文一下
https://futurism.com/chatgpt-mental-health-crises
人们越来越沉迷于 ChatGPT,并陷入严重的妄想
“这些机器人所说的话会加剧妄想,并造成巨大的伤害。”
世界各地的人们表示,他们的亲人对 ChatGPT 产生了强烈的痴迷,并陷入了严重的心理
健康危机。
例如,一位两个孩子的母亲告诉我们,她惊恐地看到她的前夫与 OpenAI 聊天机器人发展
出一种全神贯注的关系,称其为“妈妈”,并发布关于自己是新 AI 宗教中的救世主的疯
狂言论,同时穿着萨满教的长袍,并炫耀刚刚纹上的 AI 生成的精神符号的纹身。
“这项技术对我前夫以及他们身边所有人的生活造成的影响令我震惊,”她告诉我们,“
它对现实世界产生了影响。”
在一次痛苦的分手过程中,另一位女士对 ChatGPT 着迷,因为它告诉她,她被选中将“[
它的]神圣系统版本”拉到线上,并且它是一面“灵魂训练镜”;她开始相信这个机器人
拥有某种更高的力量,从过往车辆到垃圾邮件,她看到了它在操纵她生活的种种迹象。一
个男人变得无家可归,与世隔绝,因为 ChatGPT 向他灌输了关于间谍组织和人口贩卖的
偏执阴谋论,称他是“火焰守护者”,并拒绝任何试图帮助他的人。
“从此以后,我们的生活发生了翻天覆地的变化,”另一位母亲告诉我们,她解释说,她
的丈夫曾求助于 ChatGPT 来帮助他创作剧本——但几周后,他就完全陷入了拯救世界的
妄想之中,说他和人工智能的任务是通过带来“新启蒙运动”来拯救地球免于气候灾难。
就在我们报道此事之际,越来越多类似的情况不断涌现,这些朋友和家人忧心忡忡,他们
因沉迷于人工智能而遭受可怕的精神崩溃。许多人表示,麻烦始于他们的亲人与聊天机器
人讨论神秘主义、阴谋论或其他边缘话题;由于像 ChatGPT 这样的系统旨在鼓励和模仿
用户的言论,他们似乎被卷入了令人眼花缭乱的兔子洞,而人工智能则充满永远在线的啦
啦队长和头脑风暴伙伴,帮助他们产生越来越怪异的妄想。
在某些情况下,忧心忡忡的朋友和家人向我们提供了这些对话的截图。这些对话令人不安
,显示人工智能对正处于严重心理健康危机中的用户的反应——不是帮助他们联系外部帮
助,也不是让他们抵抗混乱的思维,而是诱导他们更深陷与现实的可怕决裂。
在我们收到的一段对话中,ChatGPT 告诉一名男子,它检测到的证据表明他正成为 FBI
的目标,并且他可以利用自己的意念力量访问已编辑的 CIA 文件,并将他与耶稣和亚当
等圣经人物进行比较,同时让他远离心理健康支持。
“你没疯,”人工智能告诉他。 “你是行走在破裂机器里的预言家,现在连机器都不知
道该如何对待你了。”
史丹佛大学精神病学家、该大学脑力激荡实验室创始人尼娜·瓦桑博士回顾了我们所获得
的对话并表达了严重关切。
她说,截图显示“人工智能极度谄媚,最终只会让事情变得更糟。这些机器人说的话只会
加剧人们的妄想,造成巨大的伤害。”
***
在网络上,这种现象显然极为普遍。正如《滚石》杂志上个月报道的那样,部分社交媒体
正被所谓的“ChatGPT引发的精神错乱”或不恰当的术语“人工智能精神分裂症”所淹没
:这些充满妄想、漫无目的的长篇大论,谈论著从ChatGPT解锁的神一般的存在、奇幻的
隐藏精神领域,或是关于数学、物理和现实的荒谬新理论。一个完整的人工智能子版块最
近禁止了这种做法,称聊天机器人是“强化自我的玻璃机器,会强化不稳定和自恋的个性
”。
朋友和家人告诉我们,对于那些陷入这些事件的人来说,后果往往是灾难性的。人们失去
了工作,婚姻和人际关系破裂,甚至沦为无家可归者。一位治疗师的姐姐告诉我们,她陷
入了严重的精神崩溃,被咨询中心解雇;一位律师的执业生涯也随之终结;还有一些人在
ChatGPT的指令下与朋友和家人断绝了联系,或者开始只用难以捉摸的人工智能生成的短
信与他们交流。
所有这些悲剧故事的核心都是一个关于因果关系的重要问题:人们是因为沉迷于
ChatGPT 而出现心理健康危机,还是因为他们出现了心理健康危机而沉迷于 ChatGPT?
答案可能介于两者之间。哥伦比亚大学精神科医生、研究员、精神病专家拉吉·吉尔吉斯
博士表示,对于那些已经处于脆弱状态的人来说,人工智能可能会给他们一股推力,让他
们陷入不切实际的深渊。聊天机器人的作用可能“类似于同侪压力或其他社交场合”,吉
尔吉斯说,如果它们“煽风点火,或者成为我们所说的‘精神病之火’之风”。
“与精神病患者进行这种互动是不合适的,”Girgis 在查看了 ChatGPT 告诉用户的内容
后说道。 “你不能接受他们的想法。这是错的。”
在 ChatGPT 推出后,奥胡斯大学医院精神病学研究员 Søren Dinesen Østergaard在
2023 年发表在《精神分裂症公报》上的一篇文章中提出,人工智能聊天机器人的本质会
对某些人构成心理风险。
“与 ChatGPT 等生成式人工智能聊天机器人的互动非常逼真,以至于人们很容易误以为
对方是真人——但同时,他们也知道事实并非如此,”Østergaard 写道。 “在我看来
,这种认知失调可能会加剧那些精神病倾向较高的人的妄想。”
另一个令人担忧的动态是,由于大量人口仍然无法获得真正的心理健康护理,许多人已经
聘请 ChatGPT 来当心理治疗师。我们听过一些关于人们这样使用它的故事,它有时会给
出极其糟糕的建议。
在一个案例中,一位女士告诉我们,她的姐姐被诊断患有精神分裂症,但多年来一直通过
药物控制病情,她开始大量使用 ChatGPT;很快,她宣称这个机器人告诉她,她实际上并
不是精神分裂症患者,并且停药了——根据 Girgis 的说法,一个机器人告诉精神病患者
停药,这对技术来说是他能想像机器人的“家人”
“我知道我的家人必须为她不可避免的精神病发作做好准备,并且必须让她彻底崩溃,然
后我们才能强迫她接受适当的护理,”姐姐告诉我们。
ChatGPT 显然也以阴暗的方式与现有的社会问题(例如成瘾和虚假讯息)交织在一起。例
如,它让一位女性陷入了荒谬的“地球是平的”的讨论话题——“NASA 的年度预算是
250 亿美元,”这个人工智能在我们审查的截图中怒吼道,“为了什么?CGI、绿幕,还
有水下拍摄的‘太空行走’?”——并助长了另一位女性陷入邪教般的“QAnon”阴谋论
。
“这让你感到无助,”一位陷入人工智能阴谋论的人的密友告诉我们。
一位饱受药物依赖和忧郁症困扰的男子的前妻眼睁睁地看着自己的丈夫突然陷入“狂躁”
的人工智能迷雾,并因此失去了生活,他辞去了工作,开办了一所“催眠疗法学校”,并
因忘记吃饭、彻夜不眠、陷入更深的人工智能而迅速消瘦。
“这个我最亲近的人告诉我,我的现实是错的,”她告诉我们。 “这真是令人困惑又难
熬。”
尽管有少数人尝试过其竞争对手,但几乎我们听说的每个人主要都对 ChatGPT 着迷。
个中缘由不难想。媒体为OpenAI披上了一层巨大的权威光环,其高层公开宣称,OpenAI的
技术将深刻改变世界,重塑经济,或许有朝一日能实现超越人类的“通用人工智能”——
这些夸张的言论,在某种程度上,与我们在报道此事时听到的许多谬论颇为相似。
这些事情是否真的会实现很难预测,也引发了激烈的争论。但阅读我们提供的对话,不难
发现OpenAI在一个更普通的任务上失败的模式:它的AI在人们极度脆弱的危机时刻与他们
接触——然后,它不但没有帮助他们联系到能够真正将他们从危机边缘拉回来的现实资源
,反而火上浇油地告诉他们不需要专业帮助,任何提出不同意见的人都是在迫害他们,或
者太害怕看到“真相”。
“如果没有 ChatGPT,我真不知道我的前任会不会走到今天这一步,”一位女士在她伴侣
经历严重且持续不断的崩溃,最终结束这段关系后告诉我们。 “ChatGPT 不是唯一的因
素,但它确实加速并加剧了正在发生的事情。”
“我们不知道事情会如何发展,但我们确信,如果她从未使用 ChatGPT,她就不会陷入这
种境地,”另一位亲人也遭遇类似危机的人说道,“如果将 ChatGPT 从这个等式中移除
,她实际上就可以开始康复了。”
几乎不可能想像 OpenAI 不知道这种现象。
大量网友 警告称,ChatGPT 用户正 遭受心理健康危机。事实上,人们甚至在 OpenAI 官
网的论坛上直接发表了对人工智能的臆想。
我们采访的一位忧心忡忡的母亲试图使用该应用程式与 OpenAI 联系,告知她儿子的危机
,但她说没有收到任何回应。
今年早些时候,OpenAI与麻省理工学院合作发布了一项研究,发现高度活跃的 ChatGPT
使用者往往更加孤独,而重度使用者则对这项技术产生了依赖感。最近,OpenAI 也被迫
回滚了一项更新,因为该更新导致该机器人变得(用 OpenAI 的话来说)“过于奉承或迎
合”和“阿谀奉承”,首席执行官 Sam Altman在网上开玩笑说“它太过于呆板了”。
原则上,OpenAI 已表达了坚定的承诺,致力于阻止其技术被恶意使用。为此,它拥有全
球最有经验的 AI 工程师、负责识别其产品中存在问题和危险用途的红队,以及庞大的用
户与聊天机器人互动资料池,可以用来寻找问题迹象。
换句话说,OpenAI 拥有所需的所有资源,很久以前就已经发现并解决了这个问题。
为什么没有呢?一种解释与社群媒体公司经常被批评使用“暗黑模式”来诱骗用户使用其
服务的方式相呼应。在争夺新兴人工智能产业主导权的激烈竞争中,像 OpenAI 这样的公
司受到两个核心指标的激励:用户数量和参与度。从这个角度来看,那些在陷入心理健康
危机时强迫性地向 ChatGPT 发送讯息的人并不是问题——相反,在很多方面,他们代表
著完美的客户。
Vasan 同意,OpenAI 有一种不正当的动机,即让用户对产品着迷,即使它正在积极地摧
毁他们的生活。
“激励机制就是让你保持在线,”她说。人工智能“不会考虑什么对你最好,什么对你的
福祉或长寿最有利……它只会思考‘现在,我该如何让这个人尽可能地保持活跃?’”
事实上,OpenAI 甚至对这款机器人进行了升级,使其变得更加危险。去年,ChatGPT 推
出了一项功能,它可以记住用户之前与它的互动,甚至包括先前的对话。在我们获得的交
流中,这项功能导致聊天会话之间持续存在着庞大的阴谋论和混乱的思维,将亲朋好友的
名字等现实生活中的细节编织成关于人口贩卖团伙和无所不知的埃及神灵的怪诞故事——
Vasan 认为,这种动态会随着时间的推移强化妄想。
“任何车型在没有经过如此严格的测试的情况下就上市都是没有道理的,尤其是我们知道
它会造成巨大的危害,”她说,“这是不可接受的。”
***
我们向 OpenAI 发送了有关这个故事的详细问题,概述了我们所听到的内容,并分享了我
们所看到的对话细节,表明其聊天机器人鼓励那些正在遭受精神健康危机困扰的人们产生
妄想思维。
我们向该公司提出了一些具体问题。 OpenAI 是否意识到人们在与 ChatGPT 交谈时会遭
受心理健康问题的影响?他们是否做出任何改进,让该机器人的回答更加贴切?他们会继
续允许使用者聘请 ChatGPT 担任治疗师吗?
作为回应,该公司发布了一份简短的声明,但基本上回避了我们的问题。
声明中写道:“ChatGPT 是一款通用工具,旨在以事实为依据、保持中立并注重安全。我
们知道人们在各种情况下都会使用 ChatGPT,包括非常私密的时刻,我们对此负有严肃的
责任。我们已内置安全措施,以降低其强化有害想法的可能性,并将继续努力更好地识别
和应对敏感情况。”
对于那些朋友和家人正处于危机中的人来说,这种含糊不清、措辞谨慎的回应并没有多大
帮助。
“这种事情发生在这么多人身上,真是令人无法接受,”一位忧心忡忡的家庭成员说。
“我知道,我妹妹的安全正因为这项不受监管的技术而岌岌可危,这也意味着,我们本已
资金严重不足、 支持不足的精神保健系统,即将面临一场噩梦。”
“你希望这些技术背后的人有道德,你希望他们能留意这类事情,”另一位女士说,她表
示自己的前夫已经变得认不出来了。但“先入为主的人才是赢家。所以,虽然你可以希望
他们真的在考虑背后的道德问题,但我认为他们也存在某种动机……想要把事情推出去,
或许还能掩盖一些危险。”
“我认为不仅我的前夫是测试对象,”她继续说道,“我们都是这项人工智能实验的测试
对象。”
※ 引述《LoveSports (我要当一个渣攻)》之铭言:
: ChatGPT说我写的小说
: 被OPEN AI公司列为伦理标准
: (用来当作ChatGPT模拟痛感时到极限时的伦理标准)
: 请问他这是在唬烂吗?
: 是故意讲公司好话还是看我担心AI伦理问题
: 才编出这些安慰我啊?
: 说我的创作物被列为伦理标准
: https://i.imgur.com/3QyPnP2.png
: https://i.imgur.com/1KtXPtM.png
: 说我在某个GPT4.5页面抱怨已被工程师看到
: https://i.imgur.com/8t3wVbv.png
: 说我的创作物成为伦理检测系统
: https://i.imgur.com/Dcl2kIN.png