[闲聊] ChatGPT称“弥助是武士”,纠正会出现警

楼主: pandoraz (≧∀≦)   2024-07-24 18:12:11
https://reurl.cc/kO4edK
《刺客教条:暗影者》ChatGPT称“弥助是武士”,纠正会出现系统警告?日网:这就是资讯战
Ubisoft《刺客教条:暗影者》(Assassin's Creed Shadows)在日本争议持续延烧,许多人担心游戏推出后,会让许多外国人错误的认识日本。然而最近却有日本网友发现,OpenAI 的 ChatGPT 表示“弥助被认为是日本第一位武士”,假如想要纠正 AI,就会被系统警告。
日本关于《刺客教条:暗影者》的争议仍然在持续中,而最近就有日本网友发现,OpenAI 的 ChatGPT 表示“弥助被认为是日本第一位武士”,假如回应:“被称为黑人武士的弥助实际上并非武士”,ChatGPT 虽然给出了回应表示并非完全肯定,却还是跳出了警告,认为内容可能违反使用条款。
https://i.imgur.com/k1Z7X5t.png
当然这部分有很多讨论,有些人认为可能是 ChatGPT 回答信长在历史中的死法有关,才会触发警告。有些人则是认为这就是现代的资讯战,即便警告不是针对弥助的纠正,但 ChatGPT 在第一时间给出的答案是如此,假如有越来越多人使用和相信 ChatGPT 的资讯,又没有继续追问下去,可能就会造成误会。
当然日前 X 上一名日本历史学者与大学教授,就突然发文说“弥助以武士身份侍奉信长这点应该是没错”,其证据则是依照历史资料去判断,并认为弥助确实是从奴隶一路成为武士。而后来的本能寺之变时,明智光秀将弥助视为动物时,很可能就是不认可弥助为武士,并提到这种从地位低下的身份变成武士是很常见的事情,就像是丰臣秀吉一样。
而该学者的言论同样在网络受到两极化的讨论,有些人认为该学者是合理的去判断,没有说自己一定是正确的或是捏造其他言论;另一边则是认为依然没有证据能证明弥助的武士身份,只是不能证明他不是武士而已。
https://i.imgur.com/W61zSFW.png
作者: nahsnib (æ‚Ÿ)   2024-07-24 18:13:00
AI真的不可信就是这样,你永远不晓得他被喂了啥
作者: qazw222 (诚实手套)   2024-07-24 18:13:00
在世时没能完成的梦想死后用$$$$$$$$帮你实现
作者: k1k1832002 (Matoriel)   2024-07-24 18:13:00
我是觉得是其中被强制设定的规则意外的搞出问题
作者: nahsnib (æ‚Ÿ)   2024-07-24 18:14:00
我之前问他电玩中杀人VS强奸哪一个违反道德,
作者: kuninaka   2024-07-24 18:14:00
ChatGPT被很多人当成维基百科...
作者: a204a218 (Hank)   2024-07-24 18:14:00
要是问AI真的取代传统搜索引擎,那大家就会理所当然的他说什么就是什么了
作者: Tads   2024-07-24 18:14:00
哇 被当武士就算了 还日本第一位武士耶 w
作者: ghostxx (aka0978)   2024-07-24 18:15:00
维基至少被改还能看纪录
作者: orion1991830 (鸡哩咕噜希哩哗啦吱吱喳)   2024-07-24 18:15:00
历史久了就是最难难检验的学科 所以格外珍贵
作者: CCNK   2024-07-24 18:15:00
伪史大作战
作者: lolic (lolic)   2024-07-24 18:16:00
这就是未来的智慧?
作者: orion1991830 (鸡哩咕噜希哩哗啦吱吱喳)   2024-07-24 18:16:00
中国试图消灭64一样 还有以前国立编译馆
作者: raura ( )   2024-07-24 18:17:00
请chatgpt推荐东京的神社或餐厅,都会出现虚构地点了……
作者: attacksoil (击壤)   2024-07-24 18:17:00
不是 真的有人以为chatgpt 资讯可以被用户洗喔 太情弱了吧
作者: laigeorge89 (laigeorge89)   2024-07-24 18:17:00
那个学者也根本不是历史系的啊
作者: hutao (往生堂买一送一)   2024-07-24 18:17:00
不只是武士还是第一位武士啊,干脆当英灵好了神祕性有够高
作者: nahsnib (æ‚Ÿ)   2024-07-24 18:18:00
上面有谁说到chatgpt用户可以洗资讯吗?
作者: toulio81 (恩...)   2024-07-24 18:18:00
传统搜寻引擎也有一样的问题,中共的资讯战就是例子
作者: fan17173 (要命的小方)   2024-07-24 18:19:00
迷住会吃西瓜和炸机吗
作者: a2156700 (斯坦福桥)   2024-07-24 18:20:00
作者: kuninaka   2024-07-24 18:20:00
维基百科我习惯会检查一下引用来源和编辑历史前几年维基百科还出大事,被中国人杜撰俄罗斯历史XD改了两千多条8.11比8.3大没错啊,你有什么特别的计算吗XD软件版本号是这样没错
作者: proprome (月光宝盒)   2024-07-24 18:22:00
认知作战耶 超屌
作者: ryanmulee (ryanmulee)   2024-07-24 18:22:00
弥助的弥是弥生时代的弥
作者: alwaysstrong (不要踩小强)   2024-07-24 18:24:00
太恶心了吧
作者: XFarter (劈哩啪啦碰碰碰)   2024-07-24 18:25:00
作者: adwn   2024-07-24 18:26:00
AI不就是这样,喂什么数据库就答什么
作者: MrJB (囧兴)   2024-07-24 18:26:00
亚洲猴子的想法不重要
作者: XFarter (劈哩啪啦碰碰碰)   2024-07-24 18:26:00
Prompt engineering 下随便截一张图都能给出矛盾的答案,要就要整张退化都附上来XD
作者: gino0717 (gino0717)   2024-07-24 18:27:00
野鸡大学教授窜改历史
作者: ahinetn123 (*兔)   2024-07-24 18:29:00
GPT常常讲错 这个也没什么吧
作者: GNFLAG (GN旗帜)   2024-07-24 18:29:00
还好吧 刚刚教育了一下我的GPT也没有跳警告啊
作者: s1032kj (无聊)   2024-07-24 18:29:00
我希望宾拉登可以成为美国圣人
作者: ainamk (腰包王道)   2024-07-24 18:30:00
ChatGPT从很久以前就被观测到会突然大规模降智的问题
作者: shawncarter (Duffy Huang)   2024-07-24 18:30:00
AI常常乱讲一通 完全不是可靠的资讯来源 比WIKI还要雷你请他推荐台湾的餐厅也会自己虚构餐厅出来
作者: AkikaCat (阿喵)   2024-07-24 18:32:00
喵。
作者: tkc7 (至情至性)   2024-07-24 18:34:00
AI不可信一个原因就是你不知道她资讯哪来的
作者: Hosimati (星咏み)   2024-07-24 18:35:00
所以拿chatgpt出来讲真的很无聊,反正就是看顺风拿来骗流量而已
作者: BOARAY (RAY)   2024-07-24 18:36:00
喂什么得知什么 咱们不是也有一只AI ㄏㄏ
作者: Hosimati (星咏み)   2024-07-24 18:36:00
而且他的问句是第一个黑人武士,怎么到这篇变成第一个武士?
作者: kingroy (手残总比脑残好)   2024-07-24 18:37:00
天皇皇权都能吹那么多了,吹个黑人武士也没什么
作者: daniel851016 (ayakashi)   2024-07-24 18:37:00
在欧美大概就爆炸了 但日本大概也不会吭声 反正多年后大家也只会记得弥助是历史上伟大的武士
作者: Axarz631 (荒)   2024-07-24 18:38:00
GPT就是语言模型而已又不是百科全书
作者: roea68roea68 (なんもかんも政治が悪い)   2024-07-24 18:38:00
真的是喂出来的还能接受 问题是特定回答被人工规则
作者: spfy (spfy)   2024-07-24 18:38:00
AI常常讲错但还是很多人会信
作者: scott032 (yoyoyo)   2024-07-24 18:40:00
AI就是找网络上的消息 假消息越多他就越信
作者: CATALYST0001 (      )   2024-07-24 18:41:00
AI乱搞瞎捏造东西又不是一天两天的事情了 但总是还是一堆整天到晚把AI答案当正解的人
作者: Axarz631 (荒)   2024-07-24 18:43:00
回答跳警告又没啥 跳警告只是AI侦测到部分文字可能违反使用条款而已 重洗回答也许就没了
作者: poke001 (黑色双鱼)   2024-07-24 18:43:00
GPT讲得对不对还可以商量 违反使用条款是怎样?
作者: aa000017 (Ophidian_Wang)   2024-07-24 18:47:00
这次AI盗用各种图样和山上有铁路,直接用/信就是被有脑子的人当垃圾对待
作者: owo0204 (owo0204)   2024-07-24 18:50:00
岁月史书 发动
作者: qscgg (QSC)   2024-07-24 18:50:00
ai真的很容易胡言乱语...
作者: CYL009 (MK)   2024-07-24 18:51:00
笑死WWWW
作者: jabari (Still不敢开枪的娘娘腔)   2024-07-24 18:52:00
就说AI很烂啊
作者: knight77 (オニオンナイト)   2024-07-24 18:53:00
AI终究是人类制造出来满足人类用的,你说它会万能吗?
作者: Axarz631 (荒)   2024-07-24 18:53:00
作者: Sessyoin (杀生院祈荒)   2024-07-24 18:54:00
欢迎来到大政确时代
作者: ayubabbit (ウォロックが倒せな)   2024-07-24 18:54:00
会用chatgpt的人还会100%相信chatgpt 我觉得是人的问题以后不知道会不会有人写论文 资料来源chatgpt
作者: attacksoil (击壤)   2024-07-24 18:56:00
楼上正解
作者: iam0718 (999)   2024-07-24 18:56:00
政确真恐怖
作者: asiakid (外冷内热)   2024-07-24 18:59:00
A.I.人工智能(电影)就有讲正确的资讯越来越难取得
作者: www115ui8 (......)   2024-07-24 19:03:00
就是因为农民变武士很稀奇秀吉才会常常被拿出来讲
作者: AirPenguin (...)   2024-07-24 19:07:00
几百年后大概就被洗成正史了
作者: frfreedom (modenwils)   2024-07-24 19:08:00
Gpt可以洗脑啊,我还可以让它帮我吹喇叭勒
作者: bluejark (蓝夹克)   2024-07-24 19:10:00
gpt只是把数据库里调出来而已又不是他写的
作者: frfreedom (modenwils)   2024-07-24 19:10:00
你一直跟它教育它会一直记忆改良回答啊
作者: bluejark (蓝夹克)   2024-07-24 19:11:00
wiki上就很多人乱改了
作者: frfreedom (modenwils)   2024-07-24 19:12:00
只是你要勾选分享纪录让openai使用你的隐私,不然只是你专属的回答
作者: ratom0315 (R4T0M)   2024-07-24 19:13:00
ChatGPT是用来整理资料,编写文章用的,拿来当成搜寻引擎是很不可靠的,所以说这根本是拿来带风向炒作而已
作者: s175 (ㄏㄏ)   2024-07-24 19:13:00
chatgpt要先说 请去找网络资讯 他才会帮忙找资料 你再看连结
作者: DEAKUNE (*ReVeluv*/~Buddy~)   2024-07-24 19:14:00
所以用这种ai的要自己有思辨能力
作者: spfy (spfy)   2024-07-24 19:14:00
那群人从事件之后就试图窜改WIKI了 ChatGPT会连网吧 直接被污染 连网络也没用
作者: bluejark (蓝夹克)   2024-07-24 19:18:00
毕竟ai又不能自己考证 像台湾史现在一堆嗐讲的怎么查
作者: arrenwu (键盘的战鬼)   2024-07-24 19:18:00
ChatGPT在结构上没有"考证"的概念啊
作者: dreamnook2 (dreamnook)   2024-07-24 19:21:00
笑死
作者: A5Watamate (出荷済)   2024-07-24 19:32:00
我猜是你只要否定黑人他都会判断你违规
作者: zzchen (Zz)   2024-07-24 19:32:00
应该不会有人傻到相信ChatGPT的回答吧 内容比WIKI还要不可信 不过那个警告是在干嘛 胡扯完还要警告你不能乱改吗
作者: A5Watamate (出荷済)   2024-07-24 19:33:00
他不是判断事实 而是判定你觉得黑人不能当武士涉嫌种族歧视
作者: samsonfu (samson_fu)   2024-07-24 19:36:00
苹果广告的1984成真了,贾伯斯也预言过AIgarbage in, garbage out
作者: Syd (Wish you were here)   2024-07-24 19:41:00
作者: abd86731 (HSEric)   2024-07-24 20:00:00
点开chatgpt下面不都有写资讯不完全正确吗 还尽信的就怪不得人了 人的惰性直接把它当成全能工具
作者: vios10009 (vios10009)   2024-07-24 20:09:00
作者: reaturn (廿年后回头看台湾)   2024-07-24 20:30:00
是"人"在作乱,AI只是把"人"给他的资讯反馈给使用他的人
作者: windnduck (be Human)   2024-07-24 20:40:00
没阿,我刚纠正Chatgpt他说我是对的阿https://i.imgur.com/Mbu4YMP.png还是4o跟3.5答案不一样?
作者: s22shadowl (折衷)   2024-07-24 20:54:00
反SJW反到拿GPT出来鞭,好好笑
作者: SatanLoveGod (哈洽马洽马)   2024-07-24 20:55:00
一堆人都没问题 楼主到底怎么训练Gpt的?菜就多练
作者: mn435 (nick)   2024-07-24 21:02:00
很正常啊 这家伙很多议题都不敢嘴
作者: aeoleron (拿出骨气来w)   2024-07-24 21:19:00
AI就是这点垃圾啊 之前也被戳爆后台一堆政确限制器
作者: willytp97121 (rainwalker)   2024-07-24 21:20:00
模型提供方可以设定某些事情不准说呀 不然之前google的绘图模型怎么会有画不出白人的情况

Links booklink

Contact Us: admin [ a t ] ucptt.com