通信人家园
标题:
把大模型“榜单”关进笼子里
[查看完整版帖子]
[打印本页]
时间:
2025-5-13 14:00
作者:
see122
标题:
把大模型“榜单”关进笼子里
中国AI竞赛进入深水区,唯有将技术扎根于产业痛点的公司,才能穿越周期,成为最终的“生存者”。或许当资本泡沫退去,中国大模型的故事才刚刚开始。
仅仅一年前,阿里、百度、科大讯飞、腾讯等大模型纷纷宣布降价,甚至免费。部分权威媒体形容,这是中国大模型“吹响了竞争下半场的哨子”。还有一个令人热议的话题是,大模型到底要卷什么?
半年后,深度求索公司先后发布DeepSeek V3和DeepSeek R1大模型,并快速“出圈”,提升了中国在全球人工智能领域的影响力,并在全球范围掀起又一轮大模型发展浪潮。于是,一场声势更为浩大的探讨在广大网民中展开,烧钱的大模型如何才能赚钱?
或许全球关心人工智能的人们都在盯着,谁能拿到更多的订单,这也意味着未来活下来并走在大模型队伍前列,其股价更具投资价值。
有意思的是,这几日,网络上突然多起来有关大模型“六小虎”变成“基模五强”的帖子。本来还很兴奋,因为谁都知道,大模型市场只有经过一轮轮洗牌后,剩下来的企业才是更有竞争力。但看完之后,总觉得缺点什么。
当然,这里并非要讨论这份“基模五强”的榜单是否具有说服力,更非讨论哪家大模型更有代表性。毕竟,市场是检验一切的真理。需要提醒注意的是,在经过洗牌之后,不仅标志着资本与技术的重新分配,更揭示了行业逻辑的深刻转向:从野蛮生长的“参数竞赛”转向以场景落地的收益、成本效益和用户黏性为核心的第二阶段竞争。
通俗点讲,别看什么榜单了,更别造什么概念了,大模型已经到了真正卷落地、卷收益、卷效率、卷用户的阶段了。
01
事实上,早在2024年上半年,行业内就已经开始讨论如何赚钱的问题。而DeepSeek的开源策略如同一枚深水炸弹,将中国大模型行业推入新纪元。其API定价低至OpenAI的1/30,训练成本仅为行业头部模型的1/10,彻底打破了大模型的“奢侈品”属性。
这场“价格革命”迫使厂商重新思考:在有限的算力与资金约束下,中国大模型究竟该卷排名还是卷效益?答案或许藏于腾讯、科大讯飞、百度、阿里等大厂迥异的战略路径中。
众所周知,大模型场景落地已从“通用基建”发展到更为细分的“垂直深潜”,大模型的商业化已从技术验证步入深水区。未来大模型的核心竞争力在于“穿透行业本质、解决复杂场景的能力”。最终,变成可以从数字层面解读的账单。
那么,2024年哪几家大模型厂商分别拿到多少订单呢?
公开资料显示,2024年,中国大模型招投标市场呈现出爆发式增长的态势。根据智能超参数的统计数据,全年共统计到1520个大模型相关中标项目,其中413个项目未披露金额,其余1107个中标项目披露的金额达到64.67亿元。
在众多参与大模型招投标的企业中,科大讯飞的表现可谓断层领先。其91个中标项目涵盖了通信、金融、能源、 教科 、政务、医疗等多个行业,主要以央国企客户为主。而在中标金额方面,第一名的科大讯飞超过了第二名到第六名的中标金额之和。
在科大讯飞的91个中标项目中,应用类项目数量占比最大,其中排名靠前的应用场景包括数字人&客服、知识问答&知识平台、智能编程等。这些应用场景的成功落地,不仅为科大讯飞带来了可观的经济效益,也为大模型在各行业的应用推广提供了有力的示范。
除了科大讯飞外,百度、智谱等其他通用大模型企业也表现不俗。百度在2024年共中标69个项目,披露的中标金额为37295.3万元。其项目主要分布在金融、能源、政务、通信、教科等行业。智谱则以32个中标项目位列第三,其中标项目主要集中在通信、金融、能源、教科等行业。字节跳动旗下的火山引擎、阿里云、腾讯云以24、20、19个中标项目分列4到6位,值得一提的是,腾讯云14803.6万元的中标金额,仅次于科大讯飞和百度。
由此不难看出,在B端市场,大模型还是主要以大厂们为主。
02
不能不提的是,能源消耗与算力成本的不断攀升,成为制约大模型行业发展的关键因素之一。随着模型规模的日益扩大,所需的算力资源也呈指数级增长,这导致运营成本急剧上升,对企业的财务状况构成了严峻挑战。高昂的算力成本不仅压缩了企业的利润空间,还限制了模型的广泛应用和商业化进程。因此,如何降低能耗、提高算力效率,成为大模型行业亟待解决的重要课题。
美国芯片禁令的持续加码,迫使中国大模型厂商在算力约束中寻找出路。两条路径逐渐清晰:一是通过工程创新降低单位成本,二是构建自主可控的算力生态。
DeepSeek选择前者。其采用降秩KV矩阵(MLA)与混合专家(MOE)架构,将参数数量减少60%,并通过强化学习优化训练效率,使API定价低至1元/百万Token。这种“极致性价比”策略不仅吸引中小开发者,更倒逼云厂商适配其开源模型——壁仞科技、华为云等纷纷宣布支持DeepSeek推理服务,形成“开源生态反哺算力生态”的奇观。
科大讯飞则押注后者。其与华为联合打造的“飞星”国产算力平台,以1万张910B芯片完成同行10倍算力卡的任务量,并在数学、教育等关键领域实现性能超越GPT-4 Turbo79。这种“全栈自研”路径虽艰难,却为央国企客户提供了安全可控的选择。科大讯飞董事长刘庆峰曾直言,自主可控是AI发展的底气,也是中国在全球竞争中掌握主动权的关键。
阿里与腾讯等则在中间地带寻找平衡。阿里云计划三年投入3800亿元建设AI基础设施,包括自研含光芯片与液冷数据中心;腾讯混元大模型通过开源降低生态参与成本,其视频生成模型虽晚于Sora发布,却以开源策略加速开发者适配。
当然,大模型的C端战场在于用户。用户争夺也从“流量入口”发展至打造全方位的“生态黏性”。
公允地讲,2024年,中国生成式AI用户规模达2.3亿,但如何将流量转化为可持续的商业价值,仍是未解之题。
字节跳动的“豆包”模型以价格战破局,将视觉理解模型的Token成本降至0.003元/千个,较行业平均降低85%,迅速抢占教育、电商等场景。其“Dreamina”视频生成工具对标Sora,依托抖音的流量优势,移动端月活用户已达4839万,一度在行业内成为眼红的对象之一。
百度选择“智能体生态”作为突破口。文心大模型日均调用量超15亿次,但其真正野心在于将智能体嵌入搜索、文库等场景,通过提升广告点击率实现收入转化——2024年第三季度,百度搜索收入同比翻番,印证了这一路径的潜力。
总之,几乎有能力的大模型公司都在用户的“生态黏性”。尽管如此,用户争夺战仍将是未来各个大模型厂商的必修课程。
好了,大模型的发展已经开始回归到扑朔的商业话题——降本增效,用户是上帝。那么,中国大模型的下一阶段竞争将围绕什么来展开呢?
综合现在意见来看,有三大主轴。核心主轴,算力自主的“生死线”。美国对华芯片禁令已从硬件制裁扩展至投资限制,迫使厂商在算力底座上“脱钩”。科大讯飞的“飞星”平台与DeepSeek的开源生态,分别代表“硬突围”与“软优化”两种路线,但共同指向自主可控的必然性。
垂类模型的“知识壁垒”或将已变得有利可图。通用模型将集中于头部大厂,而中小企业需在金融、医疗等高壁垒领域构建垂类模型,形成“通用主干+垂类枝干”的生态。例如,金融业的风控与投研模型若突破决策场景,有望打开千亿市场。
而端侧智能体将进行一场“场景革命”。“端侧大模型+智能体”模式正在成为现实。手机、汽车、可穿戴设备等终端将承载轻量化模型,通过离线推理与云端协同,重塑人机交互范式。DeepSeek、字节跳动“豆包”的终端适配等,均预示这一趋势的加速。
简而言之,中国大模型的竞争,已从OpenAI式的“暴力美学”(拼参数、拼算力)转向一场“精细手术”——在有限资源下,通过场景深挖、成本优化与生态构建,实现可持续的商业闭环。
这场竞赛没有唯一赢家,但可以肯定的是,“造概念”“刷榜单”不如拼内功。唯有将技术扎根于产业痛点的公司,才能穿越周期,成为最终的“生存者”。或许当资本泡沫退去,中国大模型的故事才刚刚开始。
【文章只供交流,并非投资建议,请注意投资风险。】
来源:36kr
时间:
2025-5-13 14:47
作者:
laozhu
烧钱拼内力
时间:
2025-5-13 14:59
作者:
不吹不黑
别关了!!
通信人家园 (https://www.txrjy.com/)
Powered by C114