[请问] 对大型语言模型神经网络的理解这样对吗

楼主: zzedm (edm)   2025-06-24 14:05:41
https://reurl.cc/o8lgn5
https://reurl.cc/4LEaZD
哪个解释较正确
有人知道吗?
谢谢
作者: bajiqa (多尔)   2025-06-24 15:16:00
请google,除非你期望ask版有这样专业的人才能回答
作者: StellaNe (冻结的大地)   2025-06-24 15:40:00
都对 但前者只说明了资源来源 后者比较接近运作的本质
作者: s0914714 (YA)   2025-06-24 22:25:00
LLM不能爬网络资料 LLM单纯就是预测下一个token
作者: yeeouo (林翔)   2025-06-25 12:01:00
可以把它们的回答拿去问对方让他们互相解释和讨论另外可以问的深入一点例如可以问transformer架构和多头注意力可以帮助了解主流大语言模型的本质
作者: yunf   2025-06-26 00:52:00
参考参考就好 他这个就是一个很不自然的答案就像一张扭曲的照片

Links booklink

Contact Us: admin [ a t ] ucptt.com