AI裁掉4,000人后急踩煞车 Salesforce高层坦言:当初太乐观
记者吴立言/综合报导
在大举裁撤约 4,000 名员工、并以 AI 代理人取代部分人力后,企业软件大厂
Salesforce 近期罕见对外松口,坦言对大型语言模型(LLM)的信心已不如一年前。
公司内部正重新调整 AI 发展方向,从高度倚赖生成式模型,转向更可预测、
可控的自动化设计。
原文网址:https://ai.ettoday.net/news/3089740#ettoday
高层认了:当时太有信心
根据《The Information》报导,Salesforce 产品行销资深副总裁 Sanjna Parulekar 表
示,过去一年公司对大型语言模型的态度明显转趋保守。
她直言,一年前无论是产业或内部团队,对 LLM 的能力都更有信心,
但随着实际导入企业流程,模型稳定性与可靠性问题逐渐浮现。
这番说法,也等同为 Salesforce 近来的 AI 策略转向定调:不再一味强调生成能力,
而是更重视能否在商业场景中“准确执行”。
AI 上线,人力同步大缩水
这项转变,发生在 Salesforce 大规模导入 AI 代理人之后。
执行长 Marc Benioff 先前在 Podcast 中透露,
公司支援人力已从约 9,000 人缩减至 5,000 人,等同裁撤约 4,000 个职位。
Benioff 也向 CNBC 表示,AI 导入后,公司“需要的人力变少”,
组织结构因此出现明显调整。这番言论一度被视为 AI 取代人力的代表案例,
但如今看来,技术现实并未完全跟上当初的乐观预期。
模型开始漏指令、流程失控
Salesforce 内部指出,问题并非单一案例。Agentforce 技术长 Muralidhar
Krishnaprasad 表示,当大型语言模型接收超过一定数量的指令时,
容易开始遗漏部分要求,对高度仰赖流程精准度的企业应用而言,风险明显。
相关状况也出现在客户端。使用 Agentforce 处理客服业务的居家安全公司 Vivint,
服务超过 250 万名用户。报导指出,即便已清楚设定在每次客服互动后寄送满意度调查,
系统仍不时漏发,最终必须额外加入“确定性触发条件”,才能确保流程稳定运作。
除了漏指令,Salesforce 也观察到 AI 代理人出现“漂移”现象。
当使用者提出与原任务无关的问题时,模型容易偏离既定目标,影响整体流程效率。
这类状况,让公司逐步降低对生成式 AI 自主判断的依赖。
从 AI 模型 转向资料优先
这样的策略修正,与 Benioff 近期的公开说法相互呼应。
他向 Business Insider 表示,正在将公司年度策略的优先级,从 AI 模型本身,
转向资料基础建设,并直言若缺乏清楚的资料脉络,生成式 AI 容易产生“幻觉”。
随着企业实际导入经验累积,Salesforce 的调整,
也反映大型企业正重新校准 AI 在营运中的实际角色。
=====
毫不意外的结果。
如果要解决的是高层次但已熟稔的例行事务,
为什么不用那些可预测又不随便漂移的传统自动化程序就好?
那还比较易控制、节能、减碳又便宜。
有 AI 供咨询后,开发自动化程序的速度还会显著加快。
如果要解决的是陌生且特殊的事务,
为什么依靠 AI AgentS + MCP + LLM 这种不时改版,
不稳定又不保证行为能重现的工具,而不是把 AI 当顾问,
一步一步探索、学习,然后再确认要怎么做并执行就好?
人就是最好的 AI Agent
作者:
gino0717 (gino0717)
2025-12-25 12:41:00只是要找个理由裁员而已
作者:
zyxx (321)
2025-12-25 13:40:00裁掉4000再找回来这成本很可怕
作者: Brioni 2025-12-25 13:43:00
很多公司都裁高开低,还是赚
作者:
Lhmstu (lhmstu)
2025-12-25 14:46:00不意外
作者:
AxelGod (Axel)
2025-12-25 14:55:00策略错误,请招募真正的AI - All Indians
作者: ctrlbreak 2025-12-25 16:39:00
AI还是要资深又懂的人来用才是助力
本来就是这样~AI又不用担责任,他给你乱作你也不能怎样
作者:
Romulus (Säubern Mode)
2025-12-25 17:56:00原文好像是付费内容
作者:
jobintan (Robin Artemstein)
2025-12-26 07:06:00人是一定要,但不一定得高贵的欧美人,亚洲人更好用。
作者:
Mewgler (谷猫)
2025-12-26 07:36:00员工表示:CEO别他X整天吹AI了,再造假下去要爆炸
作者:
kiv9137 (AgN)
2025-12-26 09:20:00不喜欢可以改用Asian Intelligence
作者:
ck237 (白色小鸡)
2025-12-26 10:59:00只是裁老人的借口罢了
作者:
pacino (carry me)
2025-12-26 11:55:00LLM在CI/CD中只能帮忙某个node的运算过程,节省90%人力就够了,10%要人工review和修改。要100%依靠它,就会让产出的结果不稳定。
作者:
acgotaku (otaku)
2025-12-26 11:59:00太乐观 (X) 发现人力柱比 token 便宜 (O)不要相信大 IT 公司重视技术型员工, 要是这么重视硅谷的外包跟派遣就不会占比这么高 一切都是成本
作者: littlehost (嘿嘿嘿) 2025-12-26 13:44:00
工人智慧好用多了
作者:
molopo (mmm)
2025-12-26 15:29:00人工更便宜
作者: justptt978 (ptt978) 2025-12-28 22:21:00
再骗 砍人的理由而已
为啥看完之后感觉那些文体都是要导入LLM前就应该知道的系统性风险*问题