与70位企业高层交流后,我们整理出AI ToB领域大趋势
2024-04-09 15:51

与70位企业高层交流后,我们整理出AI ToB领域大趋势

题图来自:视觉中国

文章摘要
本文总结了与70位企业高层的交流后,关于AI ToB领域的大趋势。文章指出在过去一年中,GenAI在ToC领域取得了巨大成功,但在ToB领域仍处于初始阶段。然而,这篇文章预测到2024年,B端企业市场的AI规模将呈现指数级增长。

• 💰 B端企业对GenAI的资源投入和态度发生了显著变化,将购买GenAI服务的预算增加2~5倍,并倾向于采购多个模型落地不同应用场景。

• 🔓 企业越来越倾向于采用开源模型,因为它们可以提供更好的控制和定制能力,而不仅仅是成本因素。

• 🚀 企业更加关注将GenAI应用到内部应用场景,以提升内部效率和构建AI Copilot等工具,但对于涉及敏感消费者领域的外部应用场景持谨慎态度。

一、引言


过去一年,我们看到了GenAI(生成式AI)在ToC领域大放异彩,创造了超10亿美元的消费规模。相较之下,ToB领域还停留在由FOMO推动的1.0阶段,应用场景稀少,主要用例体现在ChatGPT的“套壳”产品们。 


如今C端渐凉,盈利堪忧。如果说Anthropic、OpenAI的低毛利是浇了盆凉水,那么Inflection被微软“生吞活剥”基本宣告C端重磅产品“聊天机器人”暂别初创企业。而且C端的数据基本握在巨头手中,小型初创企业就算解决了“钱荒”,还要经历新一轮“数据荒”,挑战巨头难如登天。 


而B端既是“生路”也是“胜路”。首先,尽管庞大的数据由大企业掌管,但不是每个企业都有能力搭建AI团队。其次,出于竞争关系,大企业不太可能将私密数据分享给巨头,而会倾向于找小企业做“中间商”。基于此,小型初创企业“数据飞轮”可以转起来——在垂直领域积累优质数据,逐渐构建技术壁垒。 


著名风投机构a16z花了几个月时间,与财富500强企业和顶尖企业的领导者进行深入交流,调查了超过70位企业决策者,以探究他们对GenAI的使用、采购和预算安排。 


结果非常惊人——在过去六个月中,这些企业对GenAI的资源投入和态度发生了显著变化。 


  • 企业将购买GenAI服务的预算增加2~5倍,推进更多生产级应用;


  • 企业倾向采购多个模型落地不同应用场景,并且愈加青睐开源模型;


  • 企业将优先落地内部应用,并对涉及敏感数据的外部应用持谨慎态度。


a16z的结论:尽管有人质疑GenAI在B端的普及性和盈利能力,但进入2024年,我们预见B端企业市场的AI规模将呈现指数级增长。


如果AI 初创公司能够深入了解客户的预算、关注点和路线图,为企业制定以 AI 为中心的战略计划,预见企业的痛点,同时从“服务至上”转向“构建可扩展产品”,就能成为新浪潮中的“弄潮儿”。 


基于以上观察,a16z将关键信息汇总为一份报告《16 Changes to the Way Enterprises Are Building and Buying Generative AI》(企业构建与购买生成式AI的16项变革)。适道对报告内容进行了编译,请安心食用。

 

一、资源配置:预算暴涨且势头持续


1. 企业对GenAI的预算正在飞速增长


2023年,我们调研的数十家公司,在基础模型API、自托管和微调模型上平均每年支出达到了700万美元。而且,几乎所有企业都对GenAI测试的初步成效表示乐观,并计划在 2024 年将预算增加2~5 倍,以推动更多工作负载转向生产环境。



2. 企业将AI投资“划进”经常性支出


2023年,企业对GenAI的支出主要出自“创新”预算和一次性买卖。然而,在2024年,许多领导者正考虑“长期付费”。仅不到25%的受访企业表示,2024年的GenAI支出还是出自“创新”预算。


我们还注意到,一些领导者开始将GenAI预算用于节省人力成本,尤其是在客服领域。如果这一势头持续,预计未来对GenAI的投资将会大幅增加。例如,有企业表示,AI客服每打一个电话能省6美元,总计可节省约90%开支。因此,企业要将GenAI投资增加8倍。



3. 衡量ROI是艺术,也是科学


目前,企业领导者主要通过由AI提高的生产力,来衡量投资回报率(ROI)。 


尽管他们主要依赖NPS(净推荐值)和客户满意度作为代理指标。但他们也在寻找更具体的衡量方法,比如:用例创收、节省成本、提升效率、提高准确性。至少在未来2~3年,提升ROI会越来越重要。 



4. 企业渴求轻量化AI部署


仅仅接入API显然不够用,但实施、维护和扩展需要高度专业化的人才,甚至仅“实施”一项就占据了2023年企业AI支出大头。


为了帮助企业快速启动、运行模型,基础模型提供商提供的专业服务通常涉及定制模型开发。同时,又因为企业内部很难找到合适的AI人才,那些能够简化企业内部GenAI开发流程的初创企业会更快地迎来巨大机遇。 

 

二、模型趋势:多元化和开源模型


1. 企业青睐多模型(Multi-model)方案


六个月前,大多数企业还在使用一种模型(通常是OpenAI),最多是两种模型。


现在,他们正在测试——甚至已经在生产环境中使用——多模型(Multi-model)


多模型方案的优点:


(1)根据不同性能、规模和成本来定制用例;


(2)避免过度依赖单一供应商;


(3)快速利用该领域快速发展的成果。由于模型排名不停变化,高管们希望整合当前最先进的闭源模型和开源模型,以获得最佳效果。



预计未来会有更多模型涌现。虽然在生产用例中,OpenAI 仍然占据主导市场份额,但从测试来看,多模型并存的局面正在形成。



2. 企业青睐开源模型(Open source) 


过去六个月中,开源模型的兴起让人惊讶。 


我们估计,在2023年的市场中,80%~90%由闭源模型(如OpenAI)占据。然而进入2024年,46%的受访企业偏好或强烈站队开源。 


另外,60%的受访企业提到,如果能够通过微调开源模型,以实现与闭源模型相当的效果,他们将会倾向使用开源模型。其中一些企业明确表示,希望开源和闭源模型的占比能达到5:5(2023年为2:8)。 



3. 企业选择开源模型的主因:控制/定制>成本 


我们惊讶的是,成本问题不是企业首要考虑因素,但却反映了领导层目前的信念,即GenAI创造的超额价值,将会远远超过其价格。一位高管表示:“获得准确的答案是值得的。” 


因此,控制(专有数据安全性、了解模型产生特定输出的原因)和定制(针对特定用例进行有效微调的能力)远比成本更重要。




4. 控制:企业担心敏感用例和数据安全


出于对监管、数据安全的顾虑,企业不愿意与闭源模型提供商共享自己的专有数据,尤其是那些将知识产权作为核心护城河的公司。一些高管通过自托管开源模型来解决问题,而其他人则优先考虑具有虚拟私有云(VPC)集成的模型。 


5. 定制:企业倾向微调开源模型,而非从0到1 


随着高质量开源模型的兴起,大多数企业不是从0开始训练自家LLM,而是使用检索增强生成(RAG)或为特定需求来微调开源模型。 



6. 云服务商依然极大影响AI 模型采购决策


2023年,许多企业出于安全考虑通过现有的云服务提供商(CSP)购买模型,2024年的情况依然如此。


这意味着CSP和首选AI模型间的关联性相当高:Azure用户更喜欢OpenAI,而Amazon用户更喜欢 Anthropic或Cohere。


如图所示,在使用API访问模型的72%企业中,超过50%的企业选择其CSP所托管的模型。(请注意,超过25%受访企业选择了自托管,可能是为了运行开源模型。)



7. 企业关注模型的差异化和创新性


即便企业将“推理能力、可靠性、易访问性”作为采用特定模型的首要因素,但他们也更加倾向于采用具有其他差异化功能的模型。


例如,多家企业将“200K上下文窗口功能”,作为此前采用Anthropic的关键原因;一些企业采用Cohere是出于其在上市之初,主打微调功能的易用性。


8. 大多数企业认为模型性能正在趋同


不可否认,AI模型正在变成“瓶装水”——尽管闭源模型在外部基准测试中表现更好,但企业领导者仍然为开源模型打出了较高的NPS,因为它们更容易针对特定用例进行微调。


一家公司发现“经过微调,Mistral和Llama的性能几乎与OpenAI一样好,但成本要低得多。”按照这些标准,模型性能的趋同甚至比我们预期的更快,这为企业提供了更多选择。



9. 企业倾向于“模型花园”


大多数企业都希望,在设计AI应用时,只需更改API,就能在不同模型之间进行切换。一些企业甚至预测试提示,以便切换在按下开关时立即发生,而其他企业则构建了“模型花园”,以便他们可以根据需要将模型部署到不同的应用程序中。


一部分原因出于云时代的惨痛教训,减少对供应商的依赖;另一部分原因是,行业发展太快,将鸡蛋放在单一的AI模型中不可取。 

 

三、实际用例:转向更多生产场景


1. 企业更倾向于自主开发而非直接从第三方购买


有了基础模型提供的API,企业更容易构建自己的AI应用。一些基于熟悉应用场景,例如客服或内部的AI Copilot。同时,企业也在尝试创新,例如编写消费品配方、缩小分子发现范围、提出销售建议等等。


总之,“套壳”GPT又会面临挑战。我们认为,那些能够超越“LLM + UI”公式、重新思考企业基本工作流程、帮助企业更好地利用自身专有数据的AI产品,将市场上大放异彩。


2. 企业对内部应用场景兴奋,但对外部应用场景谨慎


2023年最流行的应用场景,要么是专注于内部效率提升,要么是构建AI Copilot作为客服/销售辅助。这些情况,在2024年可能不会发生太大变化,依然占据主导地位。


这是因为企业对GenAI仍持有两大担忧:(1)幻觉和安全问题;(2)将GenAI部署到敏感消费者领域(如医疗保健和金融服务)的公共关系问题。


类似担忧实在太多,谁能提供控制幻觉与安全问题的AI工具,谁将广受欢迎。



四、结语


a16z预测:到2024年底,模型API(包括微调)市场将增长到50亿美元以上(2023年预估是15亿~20亿美金),而企业支出将是其中的重要部分。 


基于企业高层已经发出了“寻找、部署GenAI解决方案”的号令。我们可以预见,过去一年多时间才能完成的交易,现在可能只需2 、3 个月就能完成,且交易规模比以往更大。 


虽然这篇文章重点关注基础模型层,但我们相信AI ToB的机会将延伸到技术栈其他模块——辅助微调的工具、模型部署/运维服务、AI应用程序构建、垂直场景的AI应用建构等等。 


近期,a16z连发三篇AI ToB调查报告,这足以说明,AI炒作之后,B端市场愈加关键。

本内容为作者独立观点,不代表虎嗅立场。未经允许不得转载,授权事宜请联系hezuo@huxiu.com
如对本稿件有异议或投诉,请联系tougao@huxiu.com
正在改变与想要改变世界的人,都在 虎嗅APP
赞赏
关闭赞赏 开启赞赏

支持一下   修改

确定