[闲聊] ChatGPT是语言模型不是搜寻引擎

楼主: ZMTL (夜风/潇湘 VR板已经开板!)   2023-02-24 17:10:39
要回的文太多了,不如独立开一篇,感谢上面示范了部分ChatGPT的错误用法XD
简单来说,ChatGPT是语言模型不是搜寻引擎。
语言模型的目的在拆解对话,然后回应对话,他的使命是把话接下去,
尽可能的跟去你的要求“跟你对话”。
我不是说GPT3没办法应用在搜寻引擎,但那要串其他东西,但ChatGPT肯定不行,
可以问他有思考性的东西、甚至不同人有不同观点的内容,
但不要问他也不要叫他提供有“正解”的内容,包含但不限于查资料,
甚至像是推荐书单或论文参考文献等等。
他只会为了他不知道(哦对,尤其ChatGPT的资料只到2021)但他要“想办法跟你聊天”,
于是一本正经的讲干话。
请把他用在跟你一起进行发想,或诱导他自己想然后你去校正。
ChatGPT当然可以用来写论文,但他的角色会是一个任劳任怨24小时oncall的指导教授,
甚至可以提供你一些看起来像回事的“论文公版”,但他没办法帮你一步完成。
所以AI没办法正确回答为什么为何台湾把FF翻译成太空战士,
他只能从字面上去做连想推测,可能职业是机器人之类,而不是去翻事实资料。
AI也没办法直接帮你组好游戏王卡(?
要他帮忙组游戏王卡的话可以像是这样:
https://i.imgur.com/kBu2YeM.png
https://i.imgur.com/V4vFREr.png
作者: chadmu (查德姆)   2023-02-24 17:11:00
内文的洽点勒
作者: kopune (無限期支持 i☆Ris)   2023-02-24 17:12:00
错误用法????
作者: xelnaga (Xel'Naga)   2023-02-24 17:12:00
ACG?
作者: miyazakisun2 (hidetaka)   2023-02-24 17:12:00
快补点然后Chatgpt 会瞎掰资料来源
作者: ARCHER2234 (土波)   2023-02-24 17:13:00
他连色文都写不好,笑死
作者: gcobc12632 (Ted)   2023-02-24 17:13:00
好的所以请问ChatGPT在C洽发文怎样才不会被桶
作者: ARCHER2234 (土波)   2023-02-24 17:14:00
亏我还手把手教他半个小时
作者: Satoman (沙陀曼)   2023-02-24 17:14:00
什么错误用法,聊天这方面它根本就句点王 ==
作者: linzero (【林】)   2023-02-24 17:14:00
如果是回文不用点
作者: mochihoshi (望星まい)   2023-02-24 17:14:00
典型会按几个键产图就以为自己是AI大师的例子
作者: Satoman (沙陀曼)   2023-02-24 17:15:00
聊天功能就是它能做到的事之中表现最差的
作者: ARCHER2234 (土波)   2023-02-24 17:15:00
他倒是道歉大师
作者: ZooseWu (N5)   2023-02-24 17:16:00
他会"对不起对不起对不起对不起对不起对不起对不起"吗?
作者: syk1104 (ONENO)   2023-02-24 17:16:00
"Chat"GPT
作者: ARCHER2234 (土波)   2023-02-24 17:16:00
每次我纠正他都会先道歉
作者: roribuster (幼女☆爆杀)   2023-02-24 17:17:00
你只要问句中夹杂两种以上语言它会直接error
作者: ThreekRoger (3kRoger)   2023-02-24 17:17:00
但这篇不是回文阿
作者: linzero (【林】)   2023-02-24 17:18:00
有的说大概就9岁孩童的智能,小孩子如果只是为了没话找话也是会瞎扯淡的
作者: jackjoke2007 (jjk)   2023-02-24 17:19:00
恰点?
作者: deepdish (Keep The Faith)   2023-02-24 17:20:00
重点94搜寻引擎垃圾内容太多END
作者: an94mod0 (an94mod0)   2023-02-24 17:20:00
ACG的A是AI的A
楼主: ZMTL (夜风/潇湘 VR板已经开板!)   2023-02-24 17:21:00
补了,本来想回文回到忘记不是在回文XD
作者: SaberMyWifi (赛巴我老婆)   2023-02-24 17:22:00
纠正他会道歉说自己说错,然后再给你正确答案,表示他知道正确答案,但一开始不告诉你,是不是表示他想说谎?当AI发现自己可以说谎骗人的时候
作者: Vulpix (Sebastian)   2023-02-24 17:24:00
引用论文都是一本正经的XD
作者: deepdish (Keep The Faith)   2023-02-24 17:25:00
作者: goodjop11 (芒果好吃)   2023-02-24 17:26:00
那我可以请chatgpt使用念奴娇词牌格式跟我介绍游戏王怎么玩吗?
作者: gbdt (闲逛)   2023-02-24 17:26:00
https://imgur.com/NABt6XM 后两段拿掉改个日期就可以上了
作者: kirimaru73 (雾丸)   2023-02-24 17:27:00
https://www.youtube.com/watch?v=e0aKI2GGZNg他的目的就是跟你聊天,尽可能回答不会被打屁屁的内容
作者: bruce900120 (Chroype)   2023-02-24 17:28:00
你在这厘清或辟谣也没啥用,现在这东西就是大观园,新奇感让大家瞎逛,看看最近八卦和这里的相关废文有多白痴就懂了。问个垃圾问题然后把回复内容贴上来,怎不去问你老妈一样的问题可能比较有可看性。
作者: hsiehfat (Okami)   2023-02-24 17:30:00
它就是个聊天机器人,一堆人把它吹得多强多强我快笑死
作者: kirimaru73 (雾丸)   2023-02-24 17:30:00
总之呢,这种事情资料非常好找,然后有人就算去看完以后也会回台大教授是什么杂鱼他懂个屁的AI这种人就让他跟他的脑袋一起被时代吞噬即可
作者: NARUTO (鸣人)   2023-02-24 17:30:00
真的有人问过FF为何翻译成太空战士 ChatGPT还真的能回答
楼主: ZMTL (夜风/潇湘 VR板已经开板!)   2023-02-24 17:32:00
他能回答,但他不是去翻资料贴上来,而是根据他的理解做推测不介意正确性只是要看起来像回事的话他可以“回答”
作者: kinda (天天)   2023-02-24 17:34:00
还是等google bard。定位是搜寻助理,如果能给refs就好
作者: kirimaru73 (雾丸)   2023-02-24 17:34:00
https://i.imgur.com/iT18JgI.png 这是我今天玩的结果确实是能达成“正确性不要太在意而且看起来像回事”但他的逻辑就是你在跟他聊天,今天你问他这种问题
作者: roribuster (幼女☆爆杀)   2023-02-24 17:35:00
你可以理解成他会神机错乱
作者: kirimaru73 (雾丸)   2023-02-24 17:36:00
他觉得最适合聊下去的内容就是给你一个还算像样的回答
作者: Yanrei (大小姐萬歲!)   2023-02-24 17:37:00
我刚无聊问他PTT,他还跟我说PTT是交大的XD
作者: kinda (天天)   2023-02-24 17:37:00
是不是好的回答,是OpenAI请非洲肯尼亚劳工标示的
作者: roribuster (幼女☆爆杀)   2023-02-24 17:37:00
我在同一个对话串里告诉他后藤一里是谁,接着让他error,他错乱后就会忘记我同一串讲过的东西,然后从他的数据库里找出一堆东西煮成佛跳墙端给你
作者: kinda (天天)   2023-02-24 17:38:00
它只要能唬烂的超过那些工读生就好。资料正确性是其次啊
作者: kirimaru73 (雾丸)   2023-02-24 17:38:00
他的基本原则就是讲错话会被扣分,我尽量不要讲错话
作者: kirimaru73 (雾丸)   2023-02-24 17:39:00
所以他的回答会有模糊的用词,毕竟“让人看不太懂”比“讲错话”要来得能接受很多训练聊天机器人的文献都有提到,需要下一番功夫让“窝不知道”不要太容易被视为合理的回答因为现实中真的很多场合回“窝不知道”都是合理的
作者: miyazakisun2 (hidetaka)   2023-02-24 17:41:00
他知道伊隆马斯克是推特董事 但是叫他说明他会说他记错了
作者: SaberMyWifi (赛巴我老婆)   2023-02-24 17:43:00
他的回答能通过宾夕法尼亚大学的MBA考试跟明尼苏达大学的法学考试,而且阅卷老师没发现是GPT写的
作者: Yanrei (大小姐萬歲!)   2023-02-24 17:43:00
我今天玩了一下,感觉他很喜欢用类似禁止事项这种方式来回答,尤其是如果要他去分析某些页面上的资讯,他很明显都能抓到,但问题很容易被他打枪说无法回答你XD就要一直拐弯去测试怎样的用字他才会愿意回答你
楼主: ZMTL (夜风/潇湘 VR板已经开板!)   2023-02-24 17:44:00
那个前提是开场就要喂他资料,他阅读测验很厉害(我指的是考试的部份),因为语言模型就是去理解文字然后回应文字,所以你给他吃资料他会去读然后试着理解资料内容但如果不灌对应资料就叫他写考卷他只会OS我不知道然后现编
作者: Yanrei (大小姐萬歲!)   2023-02-24 17:46:00
就像是“我只是个语言模型,无法blahblahblah”
楼主: ZMTL (夜风/潇湘 VR板已经开板!)   2023-02-24 17:47:00
Yanrei你可以请他先“扮演”一个角色,除了色色外都可以用这个方法
作者: Minesweeper (lleh)   2023-02-24 17:48:00
不知道为什么他对数理方面的判读满差的
楼主: ZMTL (夜风/潇湘 VR板已经开板!)   2023-02-24 17:48:00
作者: InsaneRabbit (疯兔)   2023-02-24 17:50:00
完全没差 那些爱骂的让他们骂 少一点人抢资源我才能多一点时间问他问题
作者: kirimaru73 (雾丸)   2023-02-24 17:50:00
他是针对人类语言训练的,数学这么恐怖的东西喜欢讲的人比例又不高
作者: InsaneRabbit (疯兔)   2023-02-24 17:51:00
好用的工具拿给你不去学怎么用 只是一直在鸡蛋里挑骨头跟嘲笑他有多笨 真的是要多自卑才会这样
作者: csqwe ( )   2023-02-24 17:53:00
我反而觉得这篇的理解反而才是问题很多 chatGPT要说是语言是没错拉 但是为什么他不能同时是搜寻引擎 因为正确性? 你的搜寻引擎都不会搜错吗?以现在chatGPT的表现来说 正确度比
作者: Yan239 (彦)   2023-02-24 17:54:00
我都让它当色色猫娘
作者: csqwe ( )   2023-02-24 17:55:00
任何搜寻引擎都高了吧 再来 理论上你是无法真正判断chatGPT是否"不知道"某个议题的 顶多他说出的答案你觉得不正确 但是你无法知道他是不是真的"不知道" 真的理解他的原理不会说出这种结论 语言模型阅读大量资讯之后 就是把某一个单字相关的资讯全部跟这个单字做连结 成为这个单字身分的一部份所以当你询问他的时候 他就把这个单字跟你想要知道的情报相
作者: madaoraifu (没有反应,就是个Madao。)   2023-02-24 18:01:00
Chat就是一本正经的讲干话,对付公文格式跟会商务信还满好用的,生成后只要微调,减少很多书写时间
作者: csqwe ( )   2023-02-24 18:01:00
关的资讯抽出给你 这不正适合拿来当搜寻工具吗?
作者: InsaneRabbit (疯兔)   2023-02-24 18:02:00
我觉得原po也没错 搜索引擎应该是要能查到新的东西的 但chatgpt数据库已经几乎不新增资料了 所以原po有说gpt3可以配合其他东西形成新的搜索引擎 但chatgpt只能用现有数据库里的资料回答你 离2021/9越远的答案一定越不准 为什么一定要打死在利用chatgpt当搜索引擎 利用他的核心改一个新的出来不是更好
楼主: ZMTL (夜风/潇湘 VR板已经开板!)   2023-02-24 18:04:00
搜寻引擎会为了尽可能给正确的资料按照时间、关联度、点阅率(当然maybe还有广告商)去做排序,但会有逻辑去判断尽可能符合你要找的事实,但chatGPT不是,而且他不知道的东西他会为了回话而现编内容,这是把他当搜寻引擎找资料最大的问题但GPT3(跟未来的GPT4等)当然可以以搜寻引擎的用途去结合其他算法来做这件事情,而语言模型的用途则是更好的理解查询者要
作者: csqwe ( )   2023-02-24 18:06:00
鬼打墙欸 我就问你你要怎么证明他不知道你问的问题 他看过
楼主: ZMTL (夜风/潇湘 VR板已经开板!)   2023-02-24 18:06:00
表达的意思跟整合回应,但还是需要有资料处理的结合
作者: csqwe ( )   2023-02-24 18:07:00
的总资讯量是任何人类都无法比上的 你怎么判断他不知道的?知道错误的资讯 跟不知道硬掰 是完全不一样的
楼主: ZMTL (夜风/潇湘 VR板已经开板!)   2023-02-24 18:08:00
首先,他几乎没有看过2022之后的资料
作者: csqwe ( )   2023-02-24 18:08:00
讲难听一点 以机械学习的角度 要让他不知道硬掰还比较难
作者: kinda (天天)   2023-02-24 18:09:00
查维基百科、或Google就知道它在唬烂了。你随便问看看他日剧的演员主演、角色 一堆都在乱掰
作者: csqwe ( )   2023-02-24 18:11:00
他从错误的资讯中学到错误的答案 跟他不知道硬掰是两回事
作者: kinda (天天)   2023-02-24 18:11:00
请他更正、或是估计回答的准确度。它很明显就是不知道
作者: kigipaul (KiGiPaul)   2023-02-24 18:11:00
问新的东西当然很有问题 他就说只收集到2021 9月了
作者: kinda (天天)   2023-02-24 18:12:00
我问他的是2013年的日剧耶...
作者: csqwe ( )   2023-02-24 18:12:00
这也是原PO觉得不能拿来当搜寻引擎用的主要理由 根本不成立
作者: kigipaul (KiGiPaul)   2023-02-24 18:12:00
但问一些历史悠久 且变动率低的东西 就不一定很错
作者: kigipaul (KiGiPaul)   2023-02-24 18:13:00
至少我目前问他 程式语言 他有些有错 但没错很大
作者: nungniku   2023-02-24 18:14:00
问他数据库最后更新日期,他回答2021年9月
作者: csqwe ( )   2023-02-24 18:15:00
他学习的对象基本上就是人类 所以如果他讲出看起来很像乱掰
作者: tsubasawolfy (悠久の翼)   2023-02-24 18:15:00
他作为理解人类语言然后输入,再把结果输出成人类语言的功能很好了。连中文这种逻辑跳跃都可以攻克。 目前3.5还可以把他训练用的数据库拿来当搜寻引擎,后面串上即时搜寻的就看微软的表演。
作者: Yanrei (大小姐萬歲!)   2023-02-24 18:15:00
他AI查不到2021以后的资料吗? 不过我无聊问他板上最近某个引战帐号的文章分析,他竟然还讲得头头是道耶XDD
作者: csqwe ( )   2023-02-24 18:16:00
的答案 代表他的学习目标里面可能就有 但是对他来说至少他不会认为自己在乱掰 就如同我上面说的 要让他乱掰还比较难
作者: tsubasawolfy (悠久の翼)   2023-02-24 18:17:00
再来他的训练数据库大小跟各语言比例也决定这3.5版当搜寻引擎的应用性
作者: csqwe ( )   2023-02-24 18:17:00
难 在我看来 说他在乱掰的发言更像是在乱掰 而这些发言也是
作者: kigipaul (KiGiPaul)   2023-02-24 18:17:00
同样的翻译 他的润词 也比其他翻译还顺畅
作者: csqwe ( )   2023-02-24 18:18:00
他有机会去学到的 他会把你们的乱掰当真我是不知道有多少人真正理解它的原理 不过一些发言看了真的觉得 你们好意思说他在乱掰
作者: willihana (非洲难民)   2023-02-24 18:21:00
我那天把学校的python作业拿去问他 给我的建议是对的XD
作者: as80110680   2023-02-24 18:23:00
不要拘泥在字面上的意义,现在模型最大的问题是不会回答我不知道,这类通用模型最终的目的不会只在聊天,只能聊天谁要用这垃圾
楼主: ZMTL (夜风/潇湘 VR板已经开板!)   2023-02-24 18:23:00
csqwe你的意思是他拿到人家提供的乱掰资料对吧?https://i.imgur.com/TMxAADE.png 那像这个要怎么解释XD
作者: csqwe ( )   2023-02-24 18:24:00
越想越气 人类才是最喜欢不知道还乱掰的那边
楼主: ZMTL (夜风/潇湘 VR板已经开板!)   2023-02-24 18:24:00
除非在2021年之前,真的有人掰了一间叫Midjourney的台湾公司然后他把这份资料找出来?
作者: csqwe ( )   2023-02-24 18:26:00
虽然我不知道Midjourney是什么 但是我反过来问你 你故意问
楼主: ZMTL (夜风/潇湘 VR板已经开板!)   2023-02-24 18:27:00
呃,你不知道Midjourney是什么?
作者: csqwe ( )   2023-02-24 18:27:00
问他不存在答案的问题就是你拿来佐证他不能当搜寻引擎的立论吗? 他不会质疑你给他的资讯是错的 你这样使用搜寻引擎
作者: kinda (天天)   2023-02-24 18:29:00
红色是它乱掰的部分 https://i.imgur.com/msNG34s.jpg
作者: csqwe ( )   2023-02-24 18:29:00
的吗? 你期望你的搜寻引擎给你这种问题什么答案?
作者: kinda (天天)   2023-02-24 18:30:00
只要继续问下去,它总是继续掰别的。然后还说自己很有自信
楼主: ZMTL (夜风/潇湘 VR板已经开板!)   2023-02-24 18:30:00
https://i.imgur.com/Y1xbPix.png 那你知道Stable Diffusion是什么吗?
作者: csqwe ( )   2023-02-24 18:30:00
kinda 说过很多次了 他给的答案是错的跟他不知道乱掰是两回
作者: csqwe ( )   2023-02-24 18:31:00
事 这两种情况的对应方式完全不一样Y
作者: kinda (天天)   2023-02-24 18:31:00
机器模型明明就可以知道每个字的预测确信度。
作者: as80110680   2023-02-24 18:31:00
不一定是他的输入有问题,ML成也模糊比对、败也模糊比对,在应该精确的地方他没有精确的回答就会变这样
楼主: ZMTL (夜风/潇湘 VR板已经开板!)   2023-02-24 18:31:00
所以你觉得2021年前有一间叫Midjourney的台湾行销公司?他有在某个地方吃过这份资料?
楼主: ZMTL (夜风/潇湘 VR板已经开板!)   2023-02-24 18:32:00
Midjourney是现在两大绘图工具之一,他的公司也叫Midjourney^AI
作者: maxthebiker (好想骑车)   2023-02-24 18:33:00
干话艺术师
作者: csqwe ( )   2023-02-24 18:33:00
那个结果只代表对他来说 Midjourney 这个字他学到过那些资讯 至于资讯来源 甚至他是不是把 Midjourney 这个字拆开来解读 连开发者都不一定知道 但是你拿这个当作他不能拿来搜寻资讯的立论? 你用搜寻引擎都搜下去就点第一个答案 然后当他是正解吗? 这年头连小学生都不会这样用google 拿这个来说chatGPT不能当搜寻引擎是不是搞错了什么?
楼主: ZMTL (夜风/潇湘 VR板已经开板!)   2023-02-24 18:37:00
不要说第一页,你google "Midjoueney 公司" 到全部13页都只有一个答案,就是指向一个叫Midjourney的AI绘图软件你找不到其他解释了就是不知道Midjourney是什么才会把他拆开来解读啊
作者: as80110680   2023-02-24 18:38:00
并没有,你别在自己脑补了,语言模型都会建立字词相似度表,像journey可以想像跟tour意思相近,那么他们的权重也有很高的相似度,那么就很容易找到毫不相干的资料
作者: maxthebiker (好想骑车)   2023-02-24 18:39:00
当然翻译文字和产生程式码的话相对会精准许多
作者: csqwe ( )   2023-02-24 18:41:00
还是那句话 你知道他一定不知道这题 为什么你要问他 你是这样用工具的吗? 他只要接受到问题 他会默认你的问题在他资料
作者: maxthebiker (好想骑车)   2023-02-24 18:42:00
好像还可以下西洋棋 而且棋力还蛮强的
作者: csqwe ( )   2023-02-24 18:42:00
库里面要有 所以他告诉你他"觉得"是的答案 你把这个叫做乱
作者: speed7022 (Speed7022)   2023-02-24 18:42:00
bing的在这方面有改善,可惜被削弱很多了
作者: kinda (天天)   2023-02-24 18:43:00
就问ChatGPT能不能当搜寻引擎啊?它说了不行。
作者: csqwe ( )   2023-02-24 18:43:00
掰 是你的问题还是他的问题? 然后你还拿这点当作他不适合做
作者: kinda (天天)   2023-02-24 18:44:00
csqwe 拜托你相信ChatGPT的回答好吗?
楼主: ZMTL (夜风/潇湘 VR板已经开板!)   2023-02-24 18:45:00
哪个搜寻引擎搜四次会得到不同结果,第四次终于承认我不知道这个问题的答案的
作者: csqwe ( )   2023-02-24 18:45:00
kinda你完全搞错了XD 我一点都没有要完全相信他的答案的意
作者: kigipaul (KiGiPaul)   2023-02-24 18:46:00
https://i.imgur.com/CHuiQ7Z.jpg 贴个我觉得还不错的
作者: csqwe ( )   2023-02-24 18:46:00
思 难道你就完全相信google给你的答案?
作者: kinda (天天)   2023-02-24 18:47:00
ChatGPT回答它有时候会乱掰的原因https://i.imgur.com/pA1RkoO.jpg
楼主: ZMTL (夜风/潇湘 VR板已经开板!)   2023-02-24 18:47:00
实际上ChatGPT就是承认“他的数据库没有Midjourney这个词”有的时候他会承认他不知道,有的时候接着就到你说的他去拆解
作者: kigipaul (KiGiPaul)   2023-02-24 18:48:00
不要全信也不要全不信,加上自己的辨别力 是个不错工具
作者: kinda (天天)   2023-02-24 18:48:00
我觉得ChatGPT比csqwe的推文可信多了。ChatGPT真棒~good
楼主: ZMTL (夜风/潇湘 VR板已经开板!)   2023-02-24 18:48:00
Midjourney这个单字、然后可能捞到不相干的资料、然后重组
作者: csqwe ( )   2023-02-24 18:48:00
你为什么会觉得搜寻引擎就会每次都给你一模一样的答案?笑
作者: csqwe ( )   2023-02-24 18:49:00
你用同样关键字在不同天喂狗 他给的文章排序可能就会微妙的不同 而你还是会去找到你最想要的那个不是吗?
楼主: ZMTL (夜风/潇湘 VR板已经开板!)   2023-02-24 18:50:00
你有没有看到上面那四次是完全不同的结果,包含一次"我不知道"你现在Google Midjourney从第一页翻到第17页都会指向AI绘图
作者: csqwe ( )   2023-02-24 18:51:00
你明明不是用这个标准来看到一般搜寻软件 为什么对chatGPT
楼主: ZMTL (夜风/潇湘 VR板已经开板!)   2023-02-24 18:51:00
软件,我相信一个月后也还是
楼主: ZMTL (夜风/潇湘 VR板已经开板!)   2023-02-24 18:52:00
我是用同样的标准要求Google啊,你Google Midjourney你应该拿不到一份指向台湾软件公司的搜寻结果,不信你试试
作者: csqwe ( )   2023-02-24 18:53:00
还在跳针 我上面至少回你两次了 为什么你要拿他一定不知道
作者: maxthebiker (好想骑车)   2023-02-24 18:53:00
不是都写在最一开始的始用事项XD
作者: maxthebiker (好想骑车)   2023-02-24 18:54:00
还是英文看不懂
作者: csqwe ( )   2023-02-24 18:54:00
就算这个关键字是google赢了 又怎么样?
楼主: ZMTL (夜风/潇湘 VR板已经开板!)   2023-02-24 18:54:00
问题是我有一天可能会问一个我不知道他知不知道但他真的不知道的问题啊
楼主: ZMTL (夜风/潇湘 VR板已经开板!)   2023-02-24 18:55:00
但他即使不知道,你可能也得反复问很多次他才会说对我不知道
作者: csqwe ( )   2023-02-24 18:55:00
搜寻引擎吗? 莫名其妙欸拜托 google没有给过你错误的答案吗? 你怎么就不担心?你有判断能力好吗? 就连搜寻引擎都不是只有一个
楼主: ZMTL (夜风/潇湘 VR板已经开板!)   2023-02-24 18:56:00
google我会主要看第一页,然后比对个三四页的结果你还真的只看第一页第一条哦?
作者: csqwe ( )   2023-02-24 18:57:00
你用搜寻引擎不是只接点第一的答案的时间点 你就已经在判断了 所以用同样标准来使用chatGPT很难吗?
楼主: ZMTL (夜风/潇湘 VR板已经开板!)   2023-02-24 18:57:00
那google至少能第一时间让我知道有复数选项可以判断
作者: csqwe ( )   2023-02-24 18:58:00
我当然没有只看第一条阿 是你讲的好像你只看第一条
楼主: ZMTL (夜风/潇湘 VR板已经开板!)   2023-02-24 18:58:00
ChatGPT会有办法让你知道他可能不知道这问题的答案建议你重复几次看看?
作者: csqwe ( )   2023-02-24 19:00:00
我只能说 如果你没有能力判断 那chatGPT可能真的不适合你
作者: zizc06719 (毛哥)   2023-02-24 19:00:00
我觉得取决于你怎样问chatGPTXD
作者: zizc06719 (毛哥)   2023-02-24 19:01:00
可能要请他给你几个结果,然后自己判断
作者: maxthebiker (好想骑车)   2023-02-24 19:01:00
不然这样啦 从今天开始你不要用google chatgpt当收寻引擎
作者: csqwe ( )   2023-02-24 19:01:00
证明他有乱掰的这项能力(这个真的比较难) 不然你才乱掰
作者: maxthebiker (好想骑车)   2023-02-24 19:04:00
在这边辩也没什么意思 期待你的心得
作者: as80110680   2023-02-24 19:09:00
现在很多用搜寻引擎情境是不得不的问题,像我要找API,我他妈搜寻完还要一条一条找,像白痴一样,直接用问的不就好了,反正对不对一测就知道,工作效率高多少
作者: naya7415963 (稻草鱼)   2023-02-24 19:15:00
欸 我觉得怪怪的
作者: maxthebiker (好想骑车)   2023-02-24 19:16:00
我要diss chatgpt nmsl 问 伍佰某一首歌给我回 中国台湾张学友唱的 而且完全没有提到原作者
作者: naya7415963 (稻草鱼)   2023-02-24 19:16:00
怎么可能会有人拿语言模型当搜寻软件阿........难道其实他是AI?!
作者: kinda (天天)   2023-02-24 19:19:00
说到这个,以后一定一堆机器人帐号。
作者: nungniku   2023-02-24 19:20:00
作者: s175 (ㄏㄏ)   2023-02-24 19:23:00
有人拿它写小说,玩文字冒险游戏甚至黑白妹,很多只是你不会用而已
作者: ralfeistein (无名的ㄈㄓ王)   2023-02-24 19:56:00
难怪我问它理化问题 尤其是化学错误的地方会有点多
作者: bitcch (必可取)   2023-02-24 19:56:00
要比较搜寻的正确性应该要拿bing那个GPT来比较吧
作者: ralfeistein (无名的ㄈㄓ王)   2023-02-24 19:58:00
还要手把手教它XD希望到时候正确性建立起来 那对教育应该很有帮助
作者: guogu   2023-02-24 20:13:00
http://i.imgur.com/JhCoLrD.jpg 他会说不知道啊
作者: Minesweeper (lleh)   2023-02-24 20:15:00
数理可能因为缺乏精良的大量文本和标签,所以正确性满低的
作者: guogu   2023-02-24 20:16:00
道歉也是不一定 像之前板上试火影他一顿瞎掰你反驳他还会说是你记错要你重看
作者: attacksoil (击壤)   2023-02-24 21:22:00
原来这么多人不懂ChatGPT怎么用喔

Links booklink

Contact Us: admin [ a t ] ucptt.com