导读:2024全国两会期间,“人工智能+”首次被写入《政府工作报告》,人工智能的重要性正在逐步提升。其中,AI大模型是推动人工智能技术进步的关键力量之一。近年来,文心一言(通用大模型)、快手可灵(视频大模型)、阅文秒笔(网文大模型)等各类AI大模型层出不穷,深刻改变着各行各业。现阶段,大模型的商业化进程如何?一级市场表现如何?未来将会如何发展?本文尝试做探讨。
AI大模型是指参数规模巨大(数十亿甚至数千亿)、网络结构复杂的机器学习模型。AI大模型具有泛化性(知识迁移到新领域)、通用性(不局限于特定领域)、涌现性(产生预料之外的新能力)等特点。按部署方式分,AI大模型可分为云侧大模型和端侧大模型。云侧大模型(包括通用大模型和行业大模型)部署在云端,拥有更大的参数规模、更多的算力资源和海量的数据储存需求等特点;而端侧大模型(包括手机大模型、PC大模型等)主要部署在手机、PC等终端,具有参数规模小、本地化运行、隐私保护强等特点。
自2022年11月OpenAI基于GPT-3.5模型推出ChatGPT以来,AI大模型便备受关注。近2年,AI大模型层出不穷,每日经济新闻显示,截至2024年5月,国内发布大模型305个,其中已有约140个大模型通过网信办备案,包括百度的文心一言大模型、阿里巴巴的通义千问大模型、科大讯飞的星火大模型等。在AI大模型行业快速发展的同时,北京、上海、深圳、杭州等多地出台AI大模型相关政策支持行业的持续发展。例如,2023年11月《广东省人民政府关于加快建设通用人工智能产业创新引领地的实施意见》发布,提出研发千亿级参数的人工智能通用大模型,以及具有多模态数据、知识深度融合的垂直领域大模型。此外,中国信通院发布的《全球数字经济白皮书(2024年)》显示,截至2024年一季度,全球AI大模型为1,328个,AI大模型面临较激烈的竞争。
按终端用户类型,AI大模型的商业模式可分为to C、to B。(1)to C:即面向个人消费者,包括免费和付费订阅模式。免费模式如腾讯元宝、百度的文心一言(3.5版本),用户可免费使用这些模型。部分AI大模型采用付费订阅模式,如百度的文心一言(4.0版本)、OpenAI的ChatGPT(4.0版本);(2)to B:即面向企业,包括API调用授权、SaaS模式。API调用授权模式中,企业客户可在自己的应用程序或服务中集成AI功能,通常基于调用次数或数据量来计费,如阿里通义千问、智谱AI;SaaS模式中,大模型企业为客户提供软件服务,客户无需安装和维护软件,如Google Cloud AI。在实际应用中,大模型企业通常混合使用多种商业模式。
从收入端看,国内外大模型企业已逐步开始商业化探索,并取得初步成果。国内方面,部分大模型相关企业披露大模型业务的相关收入。360披露“360智脑”大模型在2023年上半年为其创收约2,000万元,百度在其2023年年报电话会上披露大模型为其带来了6.6亿元的增量收入。此外,从项目中标结果看,据智能超参数显示,2024年上半年国内大模型相关的中标数量合计为238个,披露的项目金额为9.4亿元(仅统计已披露金额的项目),已超过2023年全年的7.9亿元,其中百度、科大讯飞、智谱AI的中标项目均超过10个。海外方面,OpenAI首席执行官Sam Altman表示2024年的全年营收有望达到34亿美元。基于此,FutureSearch对OpenAI的营收进行了初步拆分,其中,约85%的营收来自约988万付费用户,仅15%来自面向开发者端的API接口服务。这在一定程度上表明,提供有足够吸引力的付费产品或服务吸引大量用户付费仍是大模型企业获得收入的重要来源。
从成本端看,大模型的构建和运行成本仍高昂。国内方面,360在2023年上半年的研发费用为15.6亿元,同比提升1.2%,在人工智能、数字安全等领域保持高研发投入;百度2023年的研发费用约为241.9亿元,同比增加约3.8%;科大讯飞表示2023年的研发费用为34.8亿元,同比增长11.9%,其中对讯飞星火大模型相关的直接研发投入超过20亿元。海外方面,OpenAI在2024年的各项成本可能达85亿美元,因此尽管OpenAI的收入远超竞争对手,但仍面临无法覆盖成本的难题。同时,斯坦福大学以人为本人工智能研究所(Stanford HAI)发布的《2024年人工智能指数报告》显示,前沿大模型的训练成本更加昂贵。例如,2023年OpenAI的GPT-4和谷歌的Gemini Ultra的训练成本分别约为7,800万美元、1.91亿美元。而2017年发布的Transformer模型和2019年发布的RoBERTa Large模型的训练成本分别约为900美元、16万美元。此外,2024年4月,美国AI公司Anthropic创始人Dario Amodei表示,Anthropic正在训练的模型成本将接近10亿美元,在2025-2026年,模型训练成本将接近50亿-100亿美元。这意味着,未来构建和运行大模型的成本将愈加昂贵。
整体看,尽管部分企业的大模型业务已开始获得收入,但其大模型业务并未真正实现盈利,大模型行业的商业化仍处于早期阶段。大模型业务盈利能力不佳的主要原因在于:(1)研发成本高昂。大模型的研发、训练成本昂贵,据每日经济新闻显示,日活用户千万级别的通用大模型一年需获得超100亿元的营收方可支撑其背后的数据中心成本。通过大模型业务直接获得的收入与研发成本的悬殊,使大模型企业的盈利更是艰难;(2)市场竞争激烈。2024年5月,大模型相关企业对大模型进行降价,开启“价格战”。例如,阿里巴巴通义千问9款模型均降价,其中主力模型Qwen-Long价格直降97%;百度文心大模型ERNIE Speed和ERNIE Lite免费;腾讯云主力模型混元-lite全面免费,其他模型降幅最高可达87.5%。OpenAI的多模态大模型GPT-4o的性能有大幅提升,但收费价格下降50%。可见,大模型供给过多,市场竞争激烈,但实际市场需求和用户接受度不足;(3)技术和应用的局限性。大模型在部分领域表现出色,但在实际应用中,常识偏差、安全性问题、知识盲区等缺点仍限制了大模型在更广泛领域的应用。
AI大模型融资热度有所下降,但优质项目吸金能力较强。2024年上半年,ag旗舰厅网AI大模型的融资数量较2023年同期有所减少,但也出现了一些大额融资事件,如月之暗面8亿美元的A轮融资、MiniMax超6亿美元的B轮融资。这表明部分领先的AI大模型企业凭借自身的技术创新和市场拓展优势,吸引了大额资本。同时,这也在一定程度上表明资本对于AI大模型的投资愈趋谨慎,对大模型项目的各项要求进一步提升。此外,2024年上半年AI大模型领域由A轮及之前的融资事件占主导,行业仍处于早期发展阶段,大模型领域的竞争也远未到终局。
多模态将是AI大模型发展主流方向之一。通用人工智能(AGI)具备人类级别智能,具有高度自主性,可独立完成大量工作,在规模化后可替代人力。当前的大模型多为大语言模型,输入与输出主要以文本形式进行,在性能和通用性、认知能力、工具使用能力、创作能力等方面与AGI仍有较大差距。而多模态大模型可输入和输出文本、图像、音频等不同模态信息,多模态能力有助于提升模型各维度的能力,对于推动大模型走向AGI具有重要意义。
行业大模型逐步成为大模型的主战场。通用大模型具有参数规模大、泛化能力强、多任务学习能力优等特点,但其背后的训练成本高企,大部分大模型企业难以持续投入资金,因而部分大模型企业逐步转向金融、医疗、制造等特定领域的行业大模型。相较通用大模型而言,垂直的行业大模型集中于特定领域,模型参数相对较小,训练成本较低。同时,行业大模型结合B端企业的实际数据解决实际场景问题,更体现大模型对企业起到的降本增效作用。
版权及免责声明: 本文内容为来觅研究院撰写,其版权系深圳来觅数据信息科技有限公司(下称:Rime 或 来觅数据)所有。未经来觅数据许可或授权,任何单位或人士禁止转载、引用、刊登、发表、修改或翻译本文内容,及其他以作商用的行为。许可或授权下的引用、转载时须注明出处为Rime或来觅数据。任何未经授权使用本报告的相关商业行为都将违反《中华人民共和国著作权法》和其他法律法规以及有关国际公约的规定,来觅数据将保留追究其相关法律责任的权利。
本文内容基于来觅数据认为可信的公开资料或实地调研资料,我们力求本文内容的客观、公正,但对本文中所载的信息、观点及数据的准确性、可靠性、时效性及完整性不作任何明确或隐含的保证,亦不负相关法律责任。受研究方法和数据获取资源的限制,本报告全部内容仅供参考之用,对任何人的投资、商业决策、法律等操作均不构成任何建议。在任何情况下,对因参考本报告造成的任何影响和后果,来觅数据均不承担任何责任。