Re: [爆卦] 杜奕瑾:我们Ailab用的资源更少!

楼主: laptic (无明)   2025-01-28 08:03:42
以现实的情况而言,多是关注人工智能是否能商业化
而从此前提来看,要说能成为超美赶陆(中国)的机体,似乎有些许的不切实际,也太过
于“梦幻”...
下来就大略辨析:
※ 引述《renna038766 (微积分好难过)》之铭言:
: 台湾Ai教父杜奕瑾FB发文了
: 回应DeepSeek的热潮
: 简单来说就是Ailabs也有自己开发的gpt
: 而且用的资源更少
: DeepSeek很大一部分靠的是行销成功
: 以下全文:
: 我们在1/21台湾AI产业年会发布了Taiwan AI Labs训练的小专家模型FedGPT。
: 几个重点:
: 1. 算力很重要但不是全部,资料、算法也是。前面是硬件功夫,后面是软件功夫。
: 2. MoE 不是新观念、是趋势,未来是专用落地小模型的世界。在我们跟台大陈蕴侬老师
: 开源TAME时就提及。
: 3. 通用跑分就像研究所毕业成绩只是一个开始。通用跑分在过去的经验,中国一般能调
: 得超英赶美。
以上三点没有意见
: 4. 成功者不是只看毕业成绩、而是应用的快速落地、实际领域的衡量与主动学习。这部
: 分就会牵涉到新兴法规。开源闭源都无法回答这题。所以有联邦式开放架构。
这术语有点专业,先简单查了资料,已知:
一、联邦学习是“分布式学习”的分支,方法是“透过将资料分配到更多的运算单元,有
了更高的平行运算能力”
二、整体机制源头:个别运算单元中收集到的资料,不允许离开该单元
而从当下的情形中,这种主动学习的模式要发挥成效,需要能掌握全网的知识,不能因为
太新颖而支支吾吾、答不出话来
(就像一月廿七日晚间时,“当机”时的麻烦一样)
: 5. 综合以上几点,台湾人工思维形式提供全球第一个可信任负责任的联邦式FedGPT架构
: 。让企业也可以基于最优秀的毕业生,落地训练成为自己的员工、自己的GPT。
: 6. 这不代表算力没有优势、而是云端的优势会转换到地端结合。NVIDIA 其实有看到这一
: 块所以有Project Digits。
: 7. 这一转变台湾其实更有优势、因为AI云端垄断的局面打破、会有更多不同的混合运用
: 。台湾软硬可信任的科技会是重要的提供者。会有更多的买家。
: 8. 开源模型有的成果都是受惠于众多开源的结果,不管是资料集、算法、平台美国在这
: 个赛道仍是主要的贡献者。
: 1/27DeepSeek的发布、只是告诉大家AI的霸权不是只有在算力的掌握、要多投资软件跟应
: 用的基本功。技术部分有值得学习,以及敬佩。趋势跟Taiwan AI Labs 1/21发布的所见
: 略同。其他中国超越美国什么的就当作行销术语就好了。行销成功所以今天相关股票也受
: 到影响。
: 我们用到的资源更少唷!希望未来在我们的成果也帮忙多宣传,然后我们也在征人。
“资源”的运用,不是越少越好,应重在精简度
在现阶段尚未上路的时候,这样的言辞恐怕会给人自吹自擂的感觉,不是说人家对机体没
有信心,但还没实践就说类似的话,初步印象难免会不好
因此还不如先做好“十年磨一剑”的工夫,然后再来谈此门新兴市场吧...
行销虽然要打好,但至少先酝酿了再提
这种“一鸣惊人”的表现,长远来说要能持续运营才行,不只是看当下的近利。

Links booklink

Contact Us: admin [ a t ] ucptt.com