楼主:
sxy67230 (charlesgg)
2025-01-28 08:39:08※ 引述 《LinuxKernel》 之铭言:
: 这几天被DeepSeek洗板,美股盘前也被炸到血流成河
: 但不禁好奇,为什么台湾做不出DeepSeek这种等级的东西
: 早前机器学习时代,台湾学术界还有LIBSVM可以说嘴
: 但到了GenAI/LLM时代,好像就没印象有什么厉害的产出了?
: 几年前AI Labs横空出世,似乎也没听到什么太大的impact?
: 问路人可能只对什么协同帐号分析有印象...
: 究竟是什么原因,让台湾在这波GenAI/LLM热潮显得落后?
LibSVM早就是上古以前的东西了,现在做分类大家也都说拿好的backbone基础大模型再接一
层硬train一个baseline了,像Meta、谷歌这些基础模型再预训练的时候就想尽办法拿到一
堆没看过的数据语料图片设法先让模型从复杂数据中学会抽基础特征,这样后续你做分类根
本不需要做什么kernel function 就有能力拟合任意函数。如果你发只是纯SVM的东西到现
在ICCV等应用类的顶会只是刷分大概会被直接reject到爆,没跟这些基础大模型比根本没插
入点。
然后我印象中前几年好像国科会有说要搭数据中心但现在也没下文,但中国早在2012年人家
就几亿人民币再投入这块的大专院校,然后扶持巨头软件企业就不止几亿人民币了,所以能
取得国际之间AI竞赛的T1等级也是不意外就是了。
不然LLM出现几年其实多半台湾还是只能拿Meta的llama来调,人家chatGPT刚问世其实就自
研了chatGLM,后续还有千问、IntermLM跟相关多模态模型,后续还自己弄出MiniCPM这类多
模态小钢炮还被印度仔偷抄不承认闹上国际。
不过值得关注的是号称封闭的中国这几波LLM他们的科技巨头都是选择开源,相比开放的美
国中自称Open的OpenAI却是close的,到最近o1 OpenAI根本连技术报告里面都不敢提方法,
而DeepSeek R1确实从模型到报告都完整揭露训练细节。