Re: [闲聊] 文心一言AI绘图(慎入)

楼主: Reze (Bomb)   2023-03-23 23:55:22
文心一言实力不如ChatGPT是理所当然的,微软投资几百亿美元并且用微软的云端训练整个网
路资料两年了,到了去年底才终于开花结果
目前这种LLM模型,最重要的就是 资料 算力 和算法,其中基础的资料是非常重要的,Chat
GPT在建立模型的过程跟一般的Ai一样要机器学习建立模型,而ChatGPT的基础原理就是由上
一个字生成下一个字,周而复始,其中在训练的过程还会经过人工挑选优质回答和一些和添
加一些限制来引导训练方向,但总体而言跟其他Ai模型一样训练出来的模型基本上是黑盒子
,是无法直接改动的,所以基础语料的重要性不言而喻
而中文跟英文在目前网络的资料量91%左右,而中文只有0.11%,甚至还没有日文0.12%多,文
心一言基本上就是专攻中文的,所以在先天条件下其实就不如ChatGPT(GPT的中文回答很多
时候也是经由英文生成答案再转成中文的
第二个就是算力差距也很大,之前微软的训练场所都是5万张A100在24小时跑模型的,美国之
前已经要求NV禁售高阶运算卡很久了,目前百度能用的卡就是一些消费级的和以前囤积的卡
,听说他们之后要用他们的国产摩尔线程的显卡,不过那个效能和NV差距非常大,在算力这
方面上几年内也是追不上OpenAi团队的
不够就算如此,我也觉得百度这次算厉害了,为什么?因为隔壁Google 开始公测的Bard实际
表现还不如文心一言,甚至可以说惨多了,全靠同行衬托啊。而且百度这次不像很多中国公
司一样拿外国产品套个皮就说自研,而是真的在做产品,这点就挺厉害了,不过他们会下去
做主要也是想继续霸占中国浏览器市场的龙头地位就是了
作者: dos01 (朵斯01)   2023-03-23 23:58:00
这没办法解释为什么爱国的定义 出来是美国捏
作者: Justisaac (灰色的天空)   2023-03-23 23:58:00
算力不足的状况下我觉得这模型出得太快了~
楼主: Reze (Bomb)   2023-03-24 00:01:00
因为实际上那张图的标签加了美国的,只是被P掉了https://i.imgur.com/ST90nzy.jpg
作者: dos01 (朵斯01)   2023-03-24 00:02:00
所以我说那个国呢?
楼主: Reze (Bomb)   2023-03-24 00:03:00
我觉得那不是重点,生成图片和影片就是百度的噱头,实际上看文字生成的部分比较有意义
作者: weltschmerz (威尔特斯克˙闷死)   2023-03-24 00:07:00
这篇也太lag早就被踢爆这个垃圾是把用户打的字机翻然后放到国外的sd跑出来的你只要用一些中英歧异的字 就能测试出来
作者: Justisaac (灰色的天空)   2023-03-24 00:09:00
机翻也可能是核心抄袭所以没办法直接用中文啊
作者: weltschmerz (威尔特斯克˙闷死)   2023-03-24 00:09:00
http://i.imgur.com/iCm5Oqz.jpghttp://i.imgur.com/mEprPwG.jpghttp://i.imgur.com/4OZ8e3f.jpg不多说了自己去查 反正这又是国外开源我就原创
作者: dos01 (朵斯01)   2023-03-24 00:11:00
所以我说那个标签呢?
楼主: Reze (Bomb)   2023-03-24 00:11:00
文字对话和图片生成是分开的啊,图片生成是用开源的工具生成的这个第一天内测的时候不就知道了,但文心一言最重要的是跟ChatGPT一样的语言对话模型啊,为何都在讨论图片生成的部分,我看不太懂
作者: weltschmerz (威尔特斯克˙闷死)   2023-03-24 00:12:00
你要不要看看标题在说什么
作者: dos01 (朵斯01)   2023-03-24 00:12:00
那你上面说的那个标签跟P掉是怎么一回事 要不要解释一下
楼主: Reze (Bomb)   2023-03-24 00:14:00
那你要不要看内文在写什么?我只是想讨论一下目前的几个大型LLM模型而已,Ai绘图早就已经玩烂了,技术难度也远低于对话模型就那张图把标签P掉了啊,你实际打爱国的猫没有美国国旗,很难懂吗?
作者: dos01 (朵斯01)   2023-03-24 00:16:00
作者: weltschmerz (威尔特斯克˙闷死)   2023-03-24 00:16:00
连人家自家人都怀疑文心一言了 你居然能信誓旦旦他只是训练不够 你难道是内部员工?而且你拿bard比较更好笑 你要不要去查一下bard的作用
楼主: Reze (Bomb)   2023-03-24 00:21:00
你真的没有基础概念吗?难道你觉得对话模型可以生成图片吗?百度只是把生成图片跟影片这个部分当成噱头加进去文心一言,但这个功能跟语言模型的部分是独立的你了解吗?这种语言模型重要的是训练模型,训练出来的模型都在OpenAi的云端,想抄还抄不到,所以我才说百度是真的有训练语言模型,理解吗?至于Bard Google就定义为聊天语言模型了,在ChatGPT推出后急忙上线公测版,不是对标是要做什么?好对不起我不该在C洽讨论技术的,对不起对不起对不起
作者: dos01 (朵斯01)   2023-03-24 00:22:00
在瞎掰了! 大家来看阿! 这家伙在瞎掰了!
楼主: Reze (Bomb)   2023-03-24 00:23:00
你觉得不对你可以针对你觉得不对的点反驳,而不是说空话,虽然我理解你肯定都看不懂,也无从反驳。
作者: lbowlbow (沉睡的小猫)   2023-03-24 00:23:00
这样也能吹,了不起
作者: guogu   2023-03-24 00:23:00
你慢了 看讨论图出来不久后有人想试那时爱国变成禁字了现在应该是改完了
作者: GiantGG (ΠΛΑΝΗΤΕΣ)   2023-03-24 00:25:00
中国挡一堆关键字,好奇用中文资料训练出来的AI能多强?
作者: lazarus1121 (...)   2023-03-24 00:26:00
都被踢爆还能吹,也是满厉害的
楼主: Reze (Bomb)   2023-03-24 00:27:00
就跟英文有三个数量级差距,而且资料的含金量也远低于英语,上限就在那边了,追不上OpenAi的生成图片的和语言模型是两个东西,只是百度把它都丢到文心一言里面,这很难理解吗?被踢爆的从来都不是语言模型的部分
作者: lazarus1121 (...)   2023-03-24 00:29:00
现在他们拼命hotfix加词库,有些东西已经玩不出来了
楼主: Reze (Bomb)   2023-03-24 00:30:00
我的文章都是想讨论LLM模型训练出来的语言模型,这是未来十年最重要的技术之一,而不是这个绘图Ai,绘图Ai没人在乎,OpenAi也不在乎
作者: longQQQ   2023-03-24 00:36:00
推文怎么有人像三岁小孩一样发颠==
楼主: Reze (Bomb)   2023-03-24 00:41:00
我看了很头痛,Ai这个东西训练过后是黑箱子,这代表什么?这代表这并不像那些固定的程式码,比如操作系统或者软件包可以直接复制一份偷过来的,且所谓的LLM模型就是超大规模模型,也不是随便什么硬盘就能装下的GPT3.0时代光是模型就有3000多TB了,且都存在OpenAi的服务器上,跟绘图Ai这种用本地NPU就能跑的东西是完全不一样的,他们只是都叫Ai而已,别混为一谈啊
作者: raincole (冷鱼)   2023-03-24 01:04:00
我觉得很神奇 整串推文好像只有原PO一个人知道自己在讲什么 失智到有点夸张... 生图跟聊天是两个 AI一直贴生图的那个用机翻被抓包跟原PO讲的有一丁点关系吗
作者: kevin870325 (darkage3461)   2023-03-24 01:05:00
有些人跳针到有点好笑
楼主: Reze (Bomb)   2023-03-24 01:07:00
所以我觉得百度把图片生成的Ai加进去很愚蠢。实际上原本文心一言的重点是和ChatGPT一样训练方式的对话模型,结果被这个图片生成器抢走了目光,一般人也分不清楚两者的差别
作者: raincole (冷鱼)   2023-03-24 01:09:00
应该也不是分不清楚啦 而是 _____ 嗯
作者: guogu   2023-03-24 01:13:00
重点是语言模型那原PO回什么P图的就多啦
楼主: Reze (Bomb)   2023-03-24 01:19:00
我本来不想讨论绘图方面的,只是刚好有看到那个猫的讨论,那个猫热度很高的,只是下面留言很多人自己测试并非是美国外型的猫实际上图片生成的部分百度用开源的这个是明显的事实,但用逻辑思考就知道一般的绘图Ai在画这个主题时也不会特别去画美国国旗,在生成图片的风格选择那边可以选美式风格,就单纯选了那个选项但把标签移到下面
作者: ohmylove347 (米特巴爾)   2023-03-24 01:43:00
查证推,为反而反真的太反智了
作者: winniekuma (Kuma)   2023-03-24 01:54:00
你不该浪费时间试图在这个版理性讨论
作者: SuM0m0 (Part Time Player)   2023-03-24 02:14:00
就不要结果是google自己的东西 vs openai开源的gpt 2走了捷径然后就没有了
楼主: Reze (Bomb)   2023-03-24 02:50:00
实际上大家现在用的都是Google 2017年提出的transformer模型,原理并不难,难的是需要海量语料和算力来建立LLM模型,我不认为百度会烂到连基本原理都搞不懂,因为实际上这些东西一般大学的资工系都能轻松理解原理但如前面所说的,其实难的是工程问题,chatGPT2.0以前,语言模型的逻辑推理能力还非常弱,直到3.0版本资料量提高了1000倍以后,ChatGPT才表现的更像人类,这也是为什么以前搜索引擎时代,Google可以以小公司白手起家,但是现在LLM模型却没有新兴小公司能做的原因,原理不难,难的是钱啊,微软两年前投资100亿美元,让open Ai用微软云端的5万张A100训练才有的成果,一般公司或者大学研究团队根本搞不出来这么大规模的算力而且我发现前面很多人的嘘文好像以为我是想吹百度,其实我真正想吹的是有了多模块能力的GPT4.0啊,数学能力飞速成长和拥有了图片识别能力,实际上我认为百度根本没有追上OpenAi的机会倒是Transformer模型的提出者Google推出的Bard令人失望,也体现到了最近的股价,就不多谈了
作者: RLH (我们很近也很远)   2023-03-24 03:33:00
你好有耐心
作者: romber (tako)   2023-03-24 03:40:00
推原po,你讨论的是技术,很激动嘘文那几个讨论的是政治,永远取不到共识
作者: chiayu81 (一蓝燄一)   2023-03-24 04:14:00
就数据库来说 中文这块还真的要靠对岸发展 他们的资料量大封闭性又高 就怕又是另一个内宣噱头而已
作者: wtsf (牡羊犬)   2023-03-24 04:42:00
我是觉得不用跟前面几楼解释这么久啦...他们就不在乎真相只在乎能不能嘲笑中国而已
作者: uohZemllac (甘草精华雄没醉)   2023-03-24 09:23:00
认真文给推
作者: UnifiedField (小光)   2023-03-24 09:23:00
但百度的语言模型和近年看到的各种 transformer 差不多。然后绘图也是他自称的多模态,既然他刻意混淆也别说别人误解了。
楼主: Reze (Bomb)   2023-03-24 10:15:00
ChatGPT和Brad也都是transformer模型啊,只是在GPT3.0之前没有预料到LLM会让基于transformer模型建立的语言模型产生类似逻辑链的概念,至于百度说他活该我也没意见的,自己要搞噱头的,不过要强调的是百度的文心一言跟多模块差很多的,文心一言并不能以文字输入以外的方式来和模型对话
作者: Dreampen (workerlevel)   2023-03-24 10:36:00

Links booklink

Contact Us: admin [ a t ] ucptt.com