AI泡沫:从Salesforce减少大模型使用说起
2025-12-31 08:17

AI泡沫:从Salesforce减少大模型使用说起

本文来自微信公众号: ToB老人家 ,作者:王戴明


看到一则《information》的消息,Salesforce的高级副总裁表示:过去一年,我们对大模型的信任度已经降低了。


原因在于大模型的“随机性”,正如Agentforce的CTO所说:当收到八项以上指令时,大模型就开始遗漏关键指令——这对于要求准确性的企业场景而言,是一个严重缺陷。


Salesforce的解决方案是减少大模型的使用:大模型主要用于对话,对于关键的业务处理,则更多使用工作流、传统程序、API来处理。


这种被称之为“混合推理”的策略,毫无疑问,将成为企业AI的主流模式。


最近有一种声音:AI时代,PaaS(低代码)要完蛋了。


我和一些PaaS负责人交流过,他们也普遍面临资源被削减的情况。


核心原因在于:Agent目前是研发的第一优先级,PaaS这种“过气”技术,当然要为Agent让路。


但是,Salesforce遭遇的挫折可能给我们提了一个醒:企业AI落地最关键的一步,其实不是大模型,而是“上下文”,即Salesforce“混合推理”中的工作流、传统程序和API,而他们恰恰是PaaS的主要构建目标。


如果“品味”一下Salesforce的策略:大模型主要用于对话,对于关键的业务处理,则更多使用工作流、传统程序、API来处理——你会发现,这个策略简直就是Palantir的Foundry翻版。


大家如果对Foundry还不太了解,可以看一下我的这篇文章:3万亿AI公司:Palantir的反常识真相


其实,Palantir成功的秘诀就一点:90%的上下文+10%的大模型。


所谓上下文,可以简单划分为3类:


1、信息和规则


2、记忆


3、工作流和程序(API)


举个例子,一家制造企业,突然接到了一笔紧急销售订单,如果让Agent来处理,最可靠的处理过程应该是怎样的呢?


首先,Agent要去获取准确的成品库存信息,判断库存(信息)能否满足订单数量。


如果不能满足,它需要根据供应来源(规则),来判断应该采购还是生产(规则)?


如果只能自己生产,那么应该向哪一家工厂下达生产指令(规则),并且根据生产周期(信息)判断能否满足交付时间要求。


在综合以上信息后,Agent还需要查询历史方案情况(记忆),从而分析出:上一次该产品的紧急订单,由于A零件的质量问题,导致交付日期出现了延期,因此这一次建议更换A零件的供应商。


然后,Agent就需要把以上建议,通过UI页面推送给人类,包括他推理用到的数据、规则和推理过程,让人类进行决策。


在人类确认了以上信息以后,Agent又应该给如何生成ERP工单呢?


最可靠的办法,是把关键信息包括产品、数量、交付日期等,通过API的方式传送给ERP,让ERP来完成工单的创建。


你看,要做到100%可靠,核心在于2点:


1、人类要维护和管理好上下文


比如供应链来源、生产周期,也包括执行系统的传统软件程序(包括API)


2、人类要检查AI的执行依据和过程,并为之承担责任


而以上2点决定了,看起来即将“过时”的UI、流程、规则、软件程序仍然非常重要——实际上——他们将会构成Agent 90%的“身体”。


而我们为什么会有“PaaS将死”的错觉?


因为我们还处于AI的泡沫期,大家对AI的认识还停留在“想象”阶段,真正落地且对核心业务产生价值的Agent,还非常少见。


这就是为什么Salesforce轰轰烈烈搞了一年Agent,才发现真正可靠的,还得是“工作流、传统程序、API”。


过去一年,我经常被批评“观点不一致”,比如:我一方面认为AI存在泡沫,另一方面看好AI的前景。


其实Salesforce的这个案例很好的解释了我的观点——AI泡沫的存在,是因为我们普遍低估了企业AI落地的难度(就像Salesforce一样);


但是,这些困难并不是无法克服的障碍,实际上,我们已经有非常明确的解决方案,AI的未来仍然可期。

AI原生产品日报频道: 前沿科技
本内容来源于网络 原文链接,观点仅代表作者本人,不代表虎嗅立场。
如涉及版权问题请联系 hezuo@huxiu.com,我们将及时核实并处理。
正在改变与想要改变世界的人,都在 虎嗅APP