1. 标的:Meta
2. 分类:多
3. 分析/正文:
vgod又开示了 上次vgod吹Nvidia马上股价飘涨 这次吹Meta 我要来all in
"
今天这篇从Google内部流出的文章“We Have No Moat, And Neither Does OpenAI”很值得一看。
(连结放留言中)
这篇文章是Google的一个研究员写的,他提到了过去这两个月从LLaMA释出后造成的LLM大爆发,
让open source的LLM发展速度远超过大家的想像。
Google一直以来都跟OpenAI用一样的策略,很小心翼翼地保护自己的发明,因为怕强大的AI被滥用。
但Meta释出的LLaMA改变了一切。
LLaMA比GPT-3小很多,还不断被大众改进和缩小到可以跑在家用GPU甚至是手机上。
Stanford后来释出Alpaca,透过instruction fine tuning让小型LLM的能力快速升级,接近ChatGPT的水准。
同时LoRA (可以大量减少训练模型需要的内存空间的一种技术)也被用在LLM fine tuning上,让人人都可以花几百美元就调教出更厉害的LLM。
这个趋势到现在没有要停下来的样子,再用不了几个月,人人家里的电脑和手机都可以跑一个跟ChatGPT一样好的LLM,而且还是免费的。
这个Google的研究员意识到,如果Google再不改变这种小心翼翼保护自家技术的做法,
很快就会被外界光速般的进展超过,也不会有人需要用Google的LLM了。
这篇文章中还提了一个很多人没意识到的事:“谁是这场AI战争中的最大赢家?”不是OpenAI,也不是Google,
而是Meta。
主要原因是Meta在释出的LLaMA时,加上了一个只供“研究”使用的条款。
现在一堆在外流传的LLaMA其实都没有合法授权,但open source界的人没在管这个,而Meta也不会没事去找这些人的麻烦。但企业就不一样了,公司如果拿了LLaMA去做商业用途是有很大的风险会被Meta告上法院的。于是,所有公司都没办法用LLaMA、Alpaca、Vicuna或是其他一大堆从LLaMA衍伸出来的生态系统。
但是!
Meta却可以自由地把所有这些open source的成果囊括到内部的产品或研究当中。
这个“研究专用”的条款给Meta带来了极大的优势,如果Meta可以好好利用,
说不定可以在这场AI大战中弯道超车变成最后的赢家。"