本文来自微信公众号: ToB老人家 ,作者:王戴明
看到一则《information》的消息,Salesforce的高级副总裁表示:过去一年,我们对大模型的信任度已经降低了。
原因在于大模型的“随机性”,正如Agentforce的CTO所说:当收到八项以上指令时,大模型就开始遗漏关键指令——这对于要求准确性的企业场景而言,是一个严重缺陷。
Salesforce的解决方案是减少大模型的使用:大模型主要用于对话,对于关键的业务处理,则更多使用工作流、传统程序、API来处理。
这种被称之为“混合推理”的策略,毫无疑问,将成为企业AI的主流模式。
最近有一种声音:AI时代,PaaS(低代码)要完蛋了。
我和一些PaaS负责人交流过,他们也普遍面临资源被削减的情况。
核心原因在于:Agent目前是研发的第一优先级,PaaS这种“过气”技术,当然要为Agent让路。
但是,Salesforce遭遇的挫折可能给我们提了一个醒:企业AI落地最关键的一步,其实不是大模型,而是“上下文”,即Salesforce“混合推理”中的工作流、传统程序和API,而他们恰恰是PaaS的主要构建目标。
如果“品味”一下Salesforce的策略:大模型主要用于对话,对于关键的业务处理,则更多使用工作流、传统程序、API来处理——你会发现,这个策略简直就是Palantir的Foundry翻版。
大家如果对Foundry还不太了解,可以看一下我的这篇文章:3万亿AI公司:Palantir的反常识真相
其实,Palantir成功的秘诀就一点:90%的上下文+10%的大模型。
所谓上下文,可以简单划分为3类:
1、信息和规则
2、记忆
3、工作流和程序(API)
举个例子,一家制造企业,突然接到了一笔紧急销售订单,如果让Agent来处理,最可靠的处理过程应该是怎样的呢?
首先,Agent要去获取准确的成品库存信息,判断库存(信息)能否满足订单数量。
如果不能满足,它需要根据供应来源(规则),来判断应该采购还是生产(规则)?
如果只能自己生产,那么应该向哪一家工厂下达生产指令(规则),并且根据生产周期(信息)判断能否满足交付时间要求。
在综合以上信息后,Agent还需要查询历史方案情况(记忆),从而分析出:上一次该产品的紧急订单,由于A零件的质量问题,导致交付日期出现了延期,因此这一次建议更换A零件的供应商。
然后,Agent就需要把以上建议,通过UI页面推送给人类,包括他推理用到的数据、规则和推理过程,让人类进行决策。
在人类确认了以上信息以后,Agent又应该给如何生成ERP工单呢?
最可靠的办法,是把关键信息包括产品、数量、交付日期等,通过API的方式传送给ERP,让ERP来完成工单的创建。
你看,要做到100%可靠,核心在于2点:
1、人类要维护和管理好上下文
比如供应链来源、生产周期,也包括执行系统的传统软件程序(包括API)
2、人类要检查AI的执行依据和过程,并为之承担责任
而以上2点决定了,看起来即将“过时”的UI、流程、规则、软件程序仍然非常重要——实际上——他们将会构成Agent 90%的“身体”。
而我们为什么会有“PaaS将死”的错觉?
因为我们还处于AI的泡沫期,大家对AI的认识还停留在“想象”阶段,真正落地且对核心业务产生价值的Agent,还非常少见。
这就是为什么Salesforce轰轰烈烈搞了一年Agent,才发现真正可靠的,还得是“工作流、传统程序、API”。
过去一年,我经常被批评“观点不一致”,比如:我一方面认为AI存在泡沫,另一方面看好AI的前景。
其实Salesforce的这个案例很好的解释了我的观点——AI泡沫的存在,是因为我们普遍低估了企业AI落地的难度(就像Salesforce一样);
但是,这些困难并不是无法克服的障碍,实际上,我们已经有非常明确的解决方案,AI的未来仍然可期。
