通信人家园
标题:
如何正确理解Token经济学?
[查看完整版帖子]
[打印本页]
时间:
2025-9-23 20:06
作者:
tayun
标题:
如何正确理解Token经济学?
去年5月,当大模型厂商卷起价格战时,Tokens大概率是出镜率最高的英文单词。
简单来说,Tokens是大语言模型(LLM)用来切割自然语言文本的基本单位,可以直观的理解为“字”或“词”。
就像工业时代用“千瓦时”度量电力消耗,互联网时代用“GB”度量数据流量,AI时代用“Token”来度量模型的工作量。一个Token可以理解为一个词或词片段(中文里可能是一个字或词语)。
Tokens的调用量,本质反映了模型推理过程的计算量。而计算量的高或低,直接揭示了模型在实际应用中的能力、成本、速度和可行性。
因此,从Tokens角度跟踪AI应用落地进展,就是一个非常深刻且切中要害的视角。
它意味着我们将AI从一种“黑箱魔法”或纯粹的技术概念,拉回到了一个可度量、可分析、可商业化的实际生产要素的层面。
简单来说,这意味着我们不再只关注AI“能做什么”,而是开始量化分析它“做了多少”、“效率多高”、“成本多少”以及“价值多大”。
1
谁在消耗tokens?
模型厂商以tokens为主要定价单位的底层逻辑是:模型调用时的tokens消耗量与相应算力投入存在强关联性。而另一条暗线则是,算力投入链接了营收与tokens调用量。
换个说法就是,模型厂商营收与其tokens调用量呈现显著同步的高增趋势。
2024年6月至2025年6月,OpenAI大模型基础设施——微软Azure云的日均tokens调用量从0.55万亿上涨至4.40万亿,与此同时,OpenAI年化营收(ARR)从2024年12月的55亿美元增长至2025年6月的突破100亿美元,并在2025年8月达到120亿-130亿美元。
也就是说,谁消耗tokens更多谁就是基模厂商的主流商业模式。
就目前来看,OpenAI、Anthropic、字节跳动等基模厂商主要有C端和B端两种,其中C端包括原生聊天助手、工具类原生应用(影视、图片、编程等)的订阅收入、付费功能以及与内部C端产品整合后的间接收入(如Google Chrome);
B端则包含为大客户落地AI应用和企业直接API调用。
C端的tokens调用量,主要贡献者有三个:
1 大流量池产品内部的附加AI功能
2024年5月谷歌搜索上线的AI Overview功能,至2025年二季度月活已超20亿。国海证券预测,AI Overview功能单日tokens消耗量在1.6至9.6万亿区间内,在2025年7月Google日均tokens调用量中的占比为4.9%至29.4%。
抖音、剪映、今日头条等同样为大流量池C端产品,月活量级已达到10亿(2025年3月)、7亿(2025年7月)、2.6亿(2024年下半年月均)。
百度之于搜索、美图秀秀之于图像,大流量C端应用的AI改造都是上述逻辑。据非凡产研,2025年7月百度AI搜索访问量居国内智慧搜索品类第一、美图秀秀的国内访问量/存量月活、新增下载量依旧居图像品类第一,且月度收入仍在环比提升。
2 原生聊天助手
ChatGPT聊天助手保有较大C端用户规模,2025年7月APP+网页端合计月活达10.15亿,是OpenAI重要Tokens调用量驱动因素。
3 视频赛道拥有较大用户基础的新兴应用
除产品内置AI功能、聊天助手外,图像、视频、陪伴、办公、教育赛道内均出现了有较大潜力的C端新兴AI应用。
字节跳动进行多维度布局,推出醒图/星绘(图像)、即梦(视频)、猫箱(陪伴)、豆包爱学(教育)等AI应用。
其中醒图、即梦7月月活达到4924万(当月收入59万美元)、1393万(当月收入58万美元),已成为图像、视频赛道内拥有较大用户量级的产品;猫箱7月月活794万,当月收入达112万美元,商业转化效率较高。
例如接入gpt-image-1、Leonardo.AI的Canva,用于文生图、文生视频、图像补全等除文本模态外的编辑、生成场景。根据Gemini、Kimi等大模型的折算口径,单张图片的输出(输入)tokens消耗量在1024(kimi)—1290(Gemini)之间。
B端tokens调用量主要源于企业级AI应用。其所呈现出来的特征,一是渗透率较高,Google发布的“全球601个领先企业AI应用案例”显示,各大规模的企业已开始尝试将生成式AI投入生产,涉及汽车与物流、商业与专用服务、金融服务、医疗与生命科学、酒店与旅游、制作、工业与电子、媒体、营销与游戏、零售、科技、通信、公共部门与非盈利组织”11大行业。
二是基模厂商的B端收入比例较大。
数据预测2025年OpenAI来自B端的ARR收入占比达54%;Anthropic占比达80%。谷歌透露Gemini企业客户超过8.5万家,推动调用量同比增长35倍;火山引擎大模型收入2024年在国内公有云市场中份额排名第一,占比达46.4%(外部使用量,不包括豆包等内部APP)。
2
技术迭代解锁应用需求
越来越多的tokens调用量,并非因为更大参数的大模型,而是推理增强、多模态、Agent化、长上下文转型共同作用的结果。用一句话概括既是:技术迭代解锁应用需求。
以GPT-5和Grok4为例:
GPT-5把“更强的推理能力(通过引入test-timecompute)+多模态+更长上下文+更严格的安全控制等”置于产品默认层面;
Grok4核心升级则是把“原生工具调用+多代理协同推理+超长上下文等”做成一个可商用产品。
GPT-5和Grok4如此设置的目标,是希望借助技术迭代增强AI在更复杂、更具备“生产力”的关键场景下的实用性、准确性,并且使得AI应用加速落地。
举个例子,假设原来1轮客服对话服务消耗200tokens,升级后客服问答场景中的大模型推理过程将扩展成:
客户意图澄清+内部知识库检索+逻辑校验+答案润色4个环节,即4轮内部推理,每轮150~200tokens,最终消耗600至800tokens。
类似的案例在对应的推理增强、多模态、Agent化、长上下文转型中都能找到,其最终结果是双向增强,存量AI应用场景的解决方案更好,对应的tokens调用量也倍数增长。
随着技术趋势的不断推进,大量原本因“不准、不全、不落地”而被搁置的需求将被解锁。当准确率、可控性跨过可行性线后,用户特别是B端企业(有生产力场景需求)或将从观望转为批量采购。
总结起来就四点,推理增强把能用变成敢用、多模态把单点工具变成端到端工作流、Agent化把对话变成可审计的业务系统、长上下文把项目级任务放进模型。
与此同时,虽然tokens调用量倍数增长,但定价却是直线下降。
比如xAI的Grok-4-Fast,输出百万Token仅需0.5美元(约3.5元人民币),但比起国内基模厂商来还是不够狠,去年9月阿里通义千问主力模型最高降价85%,Qwen-Turbo低至0.3元/百万Tokens。
其中一部分原因是基模厂商的价格战,让“一百万Tokens的钱,都买不了钵钵鸡”,也有一部分是因为模型厂优化算力成本的结果。
2024-2025年,为优化大模型算力成本,模型厂商进行了压缩大模型单次推理计算量(稀疏化、量化、投机解码)、提升GPU利用率(连续批处理、编译器融合)以及换用租金更便宜的云、芯片(国产替代、专用ASIC)等方面的尝试,平均tokens定价实现了较大降幅。
此外模型厂商还进一步通过“模型分层+价格分层”的多样化策略压低模型的使用门槛,让中小预算客户也可接入,比如:OpenAI 用GPT-5-mini/nano覆盖轻量场景;Google以Gemini 2.5 Flash 主打“极速低价”;Anthropic用Claude 3.5 Haiku 提供中等规模、高性价比选项等。
因此一个AI飞轮就已成型,当模型使用成本下降,企业/个人调用ROI随之上升,更多应用需求从观望向采购转化,促进tokens调用量倍数增长的同时,AI应用随之迎来生态繁荣。
Token经济学就意味着,可以直观的获得以下几个关键进展的洞察:成本与经济效益的量化、技术效能与模型能力的评估、应用场景的深化与演化以及商业模式与市场格局的清晰化。其中成本与经济效益的量化是最直接、最商业化的意义。
3
尾声
如果把AI大模型想象成一个“知识电厂”,Token就是它发出的“度电”,你的提示词就是“合上电闸”的指令,AI应用开发者就像是“家电制造商”。
从Tokens角度跟踪进展,就相当于电力公司和社会在跟踪:
全社会总用电量(AI应用的总规模)增长了多少?
哪种家电(哪种AI应用)最耗电(消耗Token最多)?
发电技术是否进步了(模型效率)?每度电的成本是否下降?
新的高能效家电(高效的AI应用)是否被开发出来?
从Tokens角度跟踪AI应用落地进展,意味着AI行业正在走向成熟、务实和工业化。它摒弃了早期对参数规模和技术炫技的过度关注,转而聚焦于一个更根本的问题:如何以可承受的成本,可靠地利用AI能力来解决实际问题并创造商业价值。
这标志着AI不再是实验室里的玩具,而是真正成为了驱动下一代技术和商业创新的基础效用。作为从业者、投资者或观察者,理解Token经济学,就如同在互联网时代理解带宽成本一样,至关重要。
来源:36kr
时间:
2025-9-23 20:16
作者:
wang0906601
时间:
2025-9-23 21:52
作者:
不吹不黑
很详细全面的
通信人家园 (https://www.txrjy.com/)
Powered by C114