2023年,生成式人工智能席卷了消费者领域,在创纪录的时间内达到了超过10亿美元的消费者支出。到2024年,我们相信企业的收入机会将成倍增加。

去年,虽然消费者花费数小时与新的AI伴侣聊天或使用扩散模型制作图像和视频,但大多数企业与生成式AI的互动似乎仅限于少数明显的用例,并将“GPT包装”产品作为新的SKU提供。一些反对者怀疑生成式AI能否扩展到企业中。我们不是被同样的3个用例所困扰吗?这些初创公司真的能赚到钱吗?这不都是炒作吗?

在过去的几个月里,我们与数十位财富500强和顶级企业领导者2进行了交谈,并对另外70位人士进行了调查,以了解他们如何使用、购买生成式人工智能并为其制定预算。我们对过去6个月内资源配置和对生成式AI的态度发生的显着变化感到震惊。尽管这些领导者对部署生成式人工智能仍持保留态度,但他们也将预算增加了近两倍,扩大了部署在较小开源模型上的用例数量,并将更多工作负载从早期实验转变为生产。

这对创始人来说是一个巨大的机会。我们相信,人工智能初创公司如果能够1)为企业制定以人工智能为中心的战略计划,同时预测企业的痛点,2)从以服务为主的方法转向构建可扩展的产品,他们将抓住这一新的投资浪潮,并开拓重要的市场份额。

与往常一样,为企业构建和销售任何产品都需要深入了解客户的预算、关注点和路线图。为了让创始人了解企业领导者如何做出部署生成式人工智能的决策,并让人工智能高管了解该领域的其他领导者如何解决他们遇到的相同问题,我们概述了16个有关资源配置的首要考虑因素、模型和用例来自我们最近与下面这些领导者的对话。

资源配置:预算急剧增长并将持续下去

1.生成式人工智能的预算正在飙升。

2023年,我们采访的数十家公司在基础模型API、自托管和微调模型方面的平均支出为700万美元。此外,我们采访的几乎每一家企业都看到了生成式AI实验的有希望的早期结果,并计划在2024年将支出增加2倍到5倍,以支持将更多工作负载部署到生产中。

averageenterprisespendonllms

2.领导者开始将人工智能投资重新分配到经常性软件预算项目上。

去年,企业生成式AI的大部分支出不出所料地来自“创新”预算和其他典型的一次性资金池。然而,到2024年,许多领导者将把这些支出重新分配到更永久的软件产品上;不到四分之一的人表示今年的生成式AI支出将来自创新预算。在小得多的规模上,我们也开始看到一些领导者将他们的生成式AI预算用于节省员工人数,特别是在客户服务方面。我们认为,如果这种趋势持续下去,未来生成式AI的支出将大幅增加。一家公司表示,由LLM支持的客户服务提供的每个电话可节省约6美元(总计节省约90%的成本),以此作为将生成式AI投资增加八倍的理由。

以下是组织如何分配其LLM支出的总体细分:

llmenterprisebudgetallocation

3.衡量投资回报率仍然是一门艺术和一门科学。

企业领导者目前主要通过人工智能带来的生产力提高来衡量投资回报率。虽然他们依靠NPS和客户满意度作为良好的代理指标,但他们也在寻找更切实的方法来衡量回报,例如创收、节省、效率和准确性增益,具体取决于他们的用例。短期内,领导者仍在推出这项技术并找出用于量化回报的最佳指标,但在未来2到3年里,投资回报率将变得越来越重要。虽然领导者正在寻找这个问题的答案,但当员工说他们更好地利用了自己的时间时,许多人都相信这一点。

enterprisesmeasuringROIonspend

4.实施和扩展生成式人工智能需要合适的技术人才,而目前许多企业内部并不具备这些人才。

仅仅拥有模型提供商的API不足以大规模构建和部署生成式AI解决方案。需要高度专业化的人才来实施、维护和扩展必要的计算基础设施。仅实施一项就成为2023年人工智能支出最大的领域之一,在某些情况下甚至是最大的。一位高管提到,“LLMs可能是构建用例成本的四分之一”,其中开发成本占预算的大部分。

为了帮助企业启动并运行他们的模型,基础模型提供商提供并且仍在提供专业服务,通常与定制模型开发相关。我们估计,这在这些公司2023年的收入中占据了相当大的比例,除了业绩之外,这也是企业选择某些模型提供商的关键原因之一。由于在企业中找到合适的生成式AI人才非常困难,因此提供工具以更轻松地在内部进行生成式AI开发的初创公司可能会得到更快的采用。

模式:企业正趋向于多模式、开源世界

5.多模式的未来。

就在6个多月前,绝大多数企业都在尝试1种模型(通常是OpenAI的)或最多2种。当我们今天与企业领导者交谈时,他们都在测试(在某些情况下,甚至在生产中使用)多个模型,这使他们能够1)根据性能、规模和成本定制用例,2)避免锁定,3)快速利用快速发展领域的进步。第三点对于领导者来说尤其重要,因为模型排行榜是动态的,公司很高兴能够结合当前最先进的模型和开源模型以获得最佳结果。

llmmodelproviderspushedtousecases

我们可能会看到更多的模型激增。在根据调查数据得出的下表中,企业领导者报告了一些正在测试的模型,这是将用于将工作负载推向生产的模型的领先指标。对于生产用例,正如预期的那样,OpenAI仍然占据主导市场份额。

llmprovidersenterprise

6.开源正在蓬勃发展。

这是过去6个月来最令人惊讶的变化之一。我们估计2023年的市场份额为80%–90%闭源,其中大部分份额为OpenAI。然而,46%的受访者提到,他们更喜欢或强烈喜欢进入2024年的开源模型。在采访中,近60%的人工智能领导者表示,他们有兴趣在对开源模型进行粗略微调时增加开源使用或进行切换闭源模型的匹配性能。那么,到2024年及以后,企业预计使用情况将显着转向开源,其中一些企业明确目标是50/50的比例——高于2023年80%封闭/20%开放的比例。

enterpriseexpectationsforopensourceusagein2024

7.虽然成本是开源吸引力的一个因素,但作为关键选择标准,它的排名低于控制和定制。

控制(专有数据的安全性以及理解模型产生某些输出的原因)和定制(针对给定用例进行有效微调的能力)远远超过了成本,成为采用开源的主要原因。令我们惊讶的是,成本并不是最重要的,但这反映了领导层目前的信念,即生成式人工智能创造的超额价值可能远远超过其价格。正如一位高管所解释的:“获得准确的答案是物有所值的。”

whydoenterprisescareaboutopensource

8.对控制的渴望源于敏感的用例和企业数据安全问题。

出于监管或数据安全方面的考虑,企业仍然不愿意与闭源模型提供商共享其专有数据——毫不奇怪,知识产权对其业务模型至关重要的公司尤其保守。虽然一些领导者通过自行托管开源模型来解决这一问题,但其他领导者指出,他们正在优先考虑与虚拟私有云(VPC)集成的模型。

9.领导者通常通过微调来定制模型,而不是从头开始构建模型。

2023年,围绕构建BloombergGPT等自定义模型进行了很多讨论。2024年,企业仍然对定制模型感兴趣,但随着高质量开源模型的兴起,大多数企业选择不从头开始训练自己的LLM,而是使用检索增强生成(RAG)或者根据他们的特定需求微调开源模型。

howareenterprisescustomizingllms

10.云在模型购买决策中仍然具有很大影响力。

2023年,许多企业出于安全原因通过现有的云服务提供商(CSP)购买模型(领导者更担心闭源模型比CSP处理不当),并避免冗长的采购流程。到2024年仍然如此,这意味着CSP和首选模型之间的相关性相当高:Azure用户普遍更喜欢OpenAI,而Amazon用户更喜欢Anthropic或Cohere。如下图所示,在使用API访问其模型的72%的企业中,超过一半使用其CSP托管的模型。(请注意,超过四分之一的受访者进行了自我托管,可能是为了运行开源模型。)

wheredoenterprisesaccessllms

11.客户仍然关心早期上市的功能。

虽然领导者将推理能力、可靠性和易于访问(例如,在其CSP上)视为采用给定模型的首要原因,但领导者也倾向于具有其他差异化功能的模型。例如,多名领导者将之前的200K上下文窗口视为采用Anthropic的关键原因,而其他领导者则采用Cohere是因为其早上市、易于使用的微调产品。

12.尽管如此,大多数企业认为模型性能正在趋同。

虽然科技界的大部分人都专注于将模型性能与公共基准进行比较,但企业领导者更专注于将微调的开源模型和微调的闭源模型的性能与他们自己的内部基准集进行比较。有趣的是,尽管闭源模型通常在外部基准测试中表现更好,但企业领导者仍然给予开源模型相对较高的NPS(在某些情况下更高),因为它们更容易针对特定用例进行微调。一家公司发现,“经过微调后,Mistral和Llama的性能几乎与OpenAI一样好,但成本却低得多。”根据这些标准,模型性能的收敛速度比我们预期的还要快,这为领导者提供了更广泛的功能强大的模型可供选择。

howenterpriseleadersevaluatemodelperformance

averagellmnpsenterprise

13.优化可选性。

大多数企业正在设计他们的应用程序,以便模型之间的切换只需要更改API即可。一些公司甚至预先测试提示,因此只需轻轻一按开关,变化就会发生,而其他公司则建立了“模型花园”,他们可以根据需要将模型部署到不同的应用程序。公司之所以采取这种方法,部分原因是他们从云时代吸取了一些关于需要减少对提供商的依赖的惨痛教训,部分原因是市场发展如此之快,以至于承诺单一服务是不明智的。小贩。

使用案例:更多地迁移到生产环境

14.目前,企业正在构建应用程序,而不是购买应用程序。

企业绝大多数都专注于内部构建应用程序,原因之一是缺乏经过实战检验、具有杀伤力的企业人工智能应用程序。毕竟,像这样的应用程序还没有魔力象限(还没有!)。基础模型还使企业比以往任何时候都更容易通过提供API来构建自己的人工智能应用程序。企业现在正在构建自己版本的熟悉用例(例如客户支持和内部聊天机器人),同时也尝试更多新颖的用例,例如编写CPG配方、缩小分子发现领域以及提出销售建议。关于“GPT包装器”的有限差异,或者初创公司为LLM的众所周知的输出(例如,总结文档)构建熟悉的界面(例如,聊天机器人),已经写了很多文章;我们相信这些将陷入困境的原因之一是人工智能进一步减少了内部构建类似应用程序的障碍。

然而,当更多以企业为中心的人工智能应用程序进入市场时,这种情况是否会发生变化,目前尚无定论。一位领导者指出,尽管他们正在内部构建许多用例,但他们对“将会出现新工具”持乐观态度,并且更愿意“使用现有最好的工具”。其他人则认为生成式AI是一种日益“战略工具”,它允许公司在内部引入某些功能,而不是像传统上那样依赖外部供应商。鉴于这些动态,我们相信那些超越“LLM+UI”公式进行创新并显着重新思考企业底层工作流程或帮助企业更好地使用自己的专有数据的应用程序将在这个市场上表现得特别好。

15.企业对内部用例感到兴奋,但对外部用例仍然更加谨慎。

这是因为对生成式AI的两个主要担忧在企业中仍然很突出:1)幻觉和安全的潜在问题,2)部署生成式AI的公共关系问题,特别是在敏感的消费领域(例如医疗保健和金融服务)。去年最流行的用例要么关注内部生产力,要么在接触客户之前通过人工进行传递,例如副驾驶编码、客户支持和营销。如下图所示,到2024年,这些用例在企业中仍然占主导地位,企业将文本摘要和知识管理(例如内部聊天机器人)等完全内部的用例推向生产,其速度远远高于敏感的人力。循环用例(例如合同审查)或面向客户的用例(例如外部聊天机器人或推荐算法)。公司渴望避免生成式人工智能事故的影响,例如加拿大航空客户服务崩溃。由于这些问题对于大多数企业来说仍然很严重,因此构建可以帮助控制这些问题的工具的初创公司可能会得到广泛采用。

howwillingareenterprisestousellmsfordifferentusecases

总机会规模:巨大且增长迅速

16.我们相信,到2024年底,模型API和微调的总支出将增长到超过50亿美元的运行率,而企业支出将构成该机会的重要组成部分。

根据我们的计算,我们估计模型API(包括微调)市场到2023年结束时的运行收入约为1.5-2B美元,其中包括通过Azure在OpenAI模型上的支出。考虑到整体市场的预期增长和企业的具体迹象,到年底,仅此领域的支出就将增长至至少50亿美元,具有巨大的上升潜力。正如我们所讨论的,企业已优先考虑生成式AI部署、增加预算并将其重新分配到标准软件系列、优化不同模型的用例,并计划在2024年将更多工作负载投入生产,这意味着他们可能会推动显着的增长这一增长的一大部分。

在过去的6个月里,企业发布了自上而下的指令来寻找和部署生成式AI解决方案。过去需要一年多才能完成的交易现在只需两三个月就能完成,而且这些交易的规模比过去大得多。虽然这篇文章重点关注基础模型层,但我们也相信企业中的这个机会可以扩展到堆栈的其他部分——从有助于微调的工具到模型服务,到应用程序构建,再到专门构建的AI原生应用程序。我们正处于企业生成式AI的拐点,我们很高兴与下一代公司合作,服务于这个充满活力且不断增长的市场。