人工智能大模型“价格战”的原因及影响分析.pdfVIP

人工智能大模型“价格战”的原因及影响分析.pdf

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

人工智能大模型“价格战”的原因及影响分析

2024年,寻找商业化落地出口成国内外人工智能大模型企

业的共同目标。近期,以互联网“老兵”主的人工智能大模型企

业连番掀起“价格战”,希望复刻互联网时代的成功商业路径,

引发产业界普遍关注。赛迪研究院认,在降价背后,成本回落、

获取数据、争夺用户是主要动因,同时“价格战”也将带来创业企

业生存空间受挤压、应用生态加快繁荣、云计算业务快速增长等

影响。推动人工智能大模型良性发展,建议加快提升大模型核心

能力,支持大模型落地应用,强化市场规范化引导。

一、人工智能大模型“价格战”正酣

当前,大模型商业化定价有多种模式,包括通过文本最小语

义单元(tokens)使用量计费、订阅制会员费、模型微调服务和

开发者应用程序接口(API)调用服务、模型定制化服务和赋能

用户业务等。加快大模型应用落地,国内外企业纷纷加快降价

步伐,以期通过“价格战”换取大模型应用市场。

从降价力度看-从轻量模型到主力模型均有不同程度降价。

轻量级模型由于参数少、训练与推理成本、终端易部署等特性,

成为当前大模型的主要免费类型。如,百度文心大模型系列中轻

量化ERNIE-Speed.ERNIE-Lite、ERNIE-Tiny系列模型可直接

免费、长期开放使用,无需训练与维护。科大讯飞宣布讯飞星火

Lite版轻量化大模型API永久免费开放。参数较多、训练与推理

成本较高、多部署在云端的主力模型中・通用类大模型价格显著下

降至近于免费,高性能、垂直类多模态大模型价格并未调整。

如,字节跳动豆包通用模型pro-32k版较行业价格低99.3%;阿

里云通义千问GPT4级通用模型wen-Long的API输入价格直

降97%,约GPT-4价格的1/400。而智谱AI的入门级产品GLM-3

Turbo模型降价,但企业级产品GLM-4/GLM-4V价格保持0.1元/

千tokens未变。此轮降价仅涉及tokens使用量计费、订阅制会

员费及API调用,而模型的精调、训练、部署价格并未调整。

从降价主体看,本轮降价主要集中在国外部分头部AI企业

以及国内互联网大厂和初创公司。在国外,人工智能巨头OpenAI

基于庞大的ChatGPT用户数量以及技术成本优势已进行4次降

价,并于5月30口宣布所有用户全面免费、有限次开放GPT-4o

模型。在国内,阿里、百度、腾讯、字节跳动等互联网大厂基于

云业务“造血”能力支撑大模型“低价探路”,降价力度更大。以百

度云千帆大模型平台为,模型部署、精调、评估、数据管理、

插件调用等云服务均按量付费,但大模型可以免费调用。智谱、

深度求索等人工智能初创企业依托资本实力也纷纷卷入“价格

战”。微软、谷歌、Meta、亚马逊等国际科技公司,以及国内华

为公司暂未降价。

二、原因分析

成本驱动:模型和芯片成本双向降是本轮降价的重要前

提。一方面,模型优化和算法革新带动模型消耗成本降。在

2023年GPT-4性能提升了6倍,但成本降低到了之前的1/12,

对应性能/成本提升了70倍。比如百度文心大模型的推理性能提

升了105倍,推理成本则降到了原来的1%。火山引擎可以通过

混合专家模型(MOE)、分布式推理等技术手段,优化豆包大模

型的推理成本。另一方面,用于大模型训练和推理的芯片成本不

断降。如英伟达开发的基于Blackwell的AI芯片其成本和能耗

比上一代的Hopper架构芯片降低25倍。

性能驱动:烧钱换取高价值数据、提升大模型服务能力是本

轮降价的内在驱动。一方面,通过

文档评论(0)

专注于电脑软件的下载与安装,各种疑难问题的解决,office办公软件的咨询,文档格式转换,音视频下载等等,欢迎各位咨询!

1亿VIP精品文档

相关文档