※ 引述《madeinheaven ()》之铭言:
: 三星早就看到低成本推理芯片的未来了
: 三星明年推 AI 芯片 Mach 1,采 LPDDR 而非 HBM 内存
: https://technews.tw/2024/03/21/samsung-to-launch-ai-chips-mach-1/
: 节录:
: 三星 Mach-1 设计专注于提供专用于推理的加速功能,特别适合于边缘计算应用。Mach-1
: 是基于专用积体电路(ASIC)设计,配备 LPDDR 内存,适合边缘计算应用,能在推理
: 过程中大幅降低所需的内存频宽。
: 与现有设计相比,Mach-1 能将推理所需内存频宽大幅降低约 0.125 倍
: 另外下一代Mach-2正在开发
: Deepseek再发新模型 辉达急了:未来需要更多AI芯片
: https://www.ctee.com.tw/news/20250128700047-430704
: 节录:未来推理需要大量辉达 GPU 和高效能网络
: NVIDA都说了未来推理需要大量GPU
: 所以未来低成本的推理芯片才是王道~!!!
NVIDA说的确实是对的
跟他急不急没什么关联
transform模型的趋势是
只要模型越大,效果就越好
这已经是铁打的事实
无数paper都已经证明过这样的结果
所以这年头推出的模型一个比一个大
模型的大小是没有极限的
极限在于钱不够,没钱买算力做更大的模型
先不论DS有没有造假
假设DS说的都是真的好了
他也开源了
那接下来就很简单啦
做一个更大的模型
表现一定更好
这是无庸置疑的
未来算力绝对不会太少
只有不够的问题