Re: [新闻] ChatGPT的“幻觉”根本无法解

楼主: xa9277178 (楓曦)   2023-08-10 10:25:36
※ 引述《breeze0817 ()》之铭言:
: 原文标题:
: 技术专家:ChatGPT的“幻觉”根本无法解决
: 原文连结:
: https://reurl.cc/N0KRy6
: 发布时间:
: 2023/08/09 15:58
: 记者署名:
: 钜亨网新闻中心
: 原文内容:
: 掀起 AI 浪潮的 ChatGPT 尽管可以协助解决很多事情,但也因为会产生虚假的讯息,或
: 误导性的内容,产生“人工智能幻觉”(hallucinations) 而饱受批评,专家认为这种“
: 幻觉”受到技术与需求之间的限制,根本无法被解决。
: 财富网中文网报导,与 ChatGPT 或其他 AI 聊天机器人相处足够长的时间,很快就会发
: 现它们有时会“编造答案”,这种现象被称为“幻觉”,即机器人做出的捏造或纯粹的编
: 造,对于那些试图让 AI 系统编写文档并完成工作的企业、组织甚至学生,这是一个致命
: 的问题。
: 聊天机器人 Claude 2 的制造商 Anthropic 共同创始人 Daniela Amodei 认为,现在没
: 有任何一种模型能够完全避免产生幻觉,因为它们的设计初衷只是用来预测下一个单词,
: 因此模型肯定会有一定的错误率。
: 包括 ChatGPT 的制造商 OpenAI、Anthropic 及其他大型语言模型的 AI 系统主要开发者
: 都表示,他们正努力让这些系统变得更准确,但目前尚不清楚需要多长时间才能达到足够
: 的可靠性。
: 不过,华盛顿大学计算语言学实验室的主任、语言学教授 Emily Bender 认为,“这个问
: 题无法完全解决,因为技术与实际需求之间存在固有的不匹配。”
: Google 已向新闻机构推销一款新闻写作 AI 产品,而作为与 OpenAI 合作的一部分,美
: 联社也在探索使用这项技术,而 OpenAI 正在付费使用美联社的部分存盘文本来改进其 A
: I 系统。因此,生成式 AI 的可靠性至关重要,麦肯锡全球研究院(McKinsey)预计,这
: 将为全球经济带来相当于 2.6 兆至 4.4 兆美元的收入。
: 心得/评论:
: chatGPT访问量一再下滑
: 一窝蜂投资ai服务器去训练语言模型的
: 越来越有元宇宙的fu糗了
: 散户:这次不一样!!
纯论AI的话 这个问题是一定可以被解决的
讨论chatGPT肯定是无解 顶多提升准确度 提升到你认知不到“错觉”
我自己是觉得用错觉这个词来阐述这个问题 好像满奇怪的
简单思考一下就知道了
假设AI是个人 他肯定会有他自己的认知
他的认知来自于他的数据库
但谁能保证数据库里面的资料100%是对的?
毕竟数据库的资料也是人为产出,或是他的开发者灌入的
最终都会限缩于:“什么是对的”的这个命题
并且有一个很吊诡的事情是这样的
“你凭什么认为AI给出的答案是错的,便称作幻觉,难道就是基于人类的共同认知吗?”
这个东西讨论到后面就变成哲学问题了,所以不赘述。
但核心概念是这样
一个人,老师,教授,都会有认知错误,都会出错,为什么人工智能不会
基于什么样的原因,你觉得他能掌握100%的真理,这样想想不就知道了
但是基于网速科技提升,资料处理能力加强,程序优化肯定能再进步
回归前面所说的,只要把AI的范围侷限性拉大,就能提升正确率阿
比如你设定这个AI就叫做金融投资机器人,甚至叫做台湾金融投资机器人
并且串联所有台湾银行、投资平台、各大当铺的内部资料
那肯定是强的没话说。
你期待一个AI机器人,能贯通世界上所有领域的事情,给你都是正确的答案
那肯定是不切实际。
更何况一定一堆人是这样:“请给我一个完美的python程序。”
“干,你这个根本不完美”
你自己都定义不出来,都不知道什么叫做完美了,AI怎么可能会知道
你怎么连话都说不清楚~
我自己是觉得AI很神啦,没有战文组的意思,但对于逻辑思考,表述能力不好的人来说
可能不好用
我在某平台上面,买了好几次程式课,每次都没有耐心看完,把作业做完。
chatgpt用了两三天,已经弄出了两个简单的小程式,改善我工作上面的需求
平心而论,我就算认真把课程都上完,自己写,写个1个月,大概都弄不出来。
AI最强大的,就是他给你的资讯里面,是有一定程度的正确率的,
你本来就要能分辨,什么东西对你有用,然后再引导他帮助你,给出更多有用的资讯,
最后帮助你完成你的目标。
作者: herculus6502 (金麟岂是池中物)   2023-08-10 10:54:00
光要分辨哪里有错就搞死你,自动产生程式根本科科
作者: leo125160909 (中兴黄药师)   2023-08-10 11:07:00
公三小
作者: benjamin8312 (Zuo)   2023-08-10 12:35:00
AI 跟 公式推导本身就是不一样的东西,AIV出来的东西就不是100%一样,是一个信心度的问题,现在就是AI对原资料做了未知的剖析,根本不是参照资料有没有假的问题
作者: sharline1013 (Sharline)   2023-08-10 12:35:00
我是拿我自己整好的资料请他减少冗句和分段,就会发现他完全误解其中一段的主题然后乱凑,但别人乍看真的看不出来
作者: niburger1001 (妮妮汉堡)   2023-08-10 12:43:00
gigo
作者: SapiensChang (Sapiens~)   2023-08-10 14:30:00
能够辅助人类使用的ai大概需要客制化啦但必须要说 能够达到辅助人类使用 觉得很堪用到有庞大的商业价值 大概至少5年内不会发生 但我认为是10年内 再来觉得幻觉能够被解决这件事 就是外行人的幻想而已我发现很多ai迷信者都会在那坚信ai有天什么事都会被解决 但说真的就跟外星人被发现一样现在就是莫名其妙的低能论调举例来说 ai现在都无法判读人类文字情绪了 连那么基本的事 ai都做不到 是要怎么克服后面根本稍微难 但对人类大概是呼吸等级的事

Links booklink

Contact Us: admin [ a t ] ucptt.com