比如 Qwen3 发之前身边的很多创业者和开发者就都知道 Qwen 团队在憋大招,不仅提早一个多月就在「蹲守」,而且也在第一时间就把他们手中正在开发的 AI 应用背后的模型切到了 Qwen3。最近跟他们聊起模型层面的新变化,发现 Qwen3 被提及的越来越多。
在他们看来,像过去两年那样只是看模型跑分来评价模型性能已经没有太大意义,因为随着模型能力的继续提升有了明确路径——预训练+后训练+强化学习,很多评测基准评估的比如像代码、写作等单项能力各家都会拉平,更重要的是它已经不能反映现实环境中实际使用模型的场景,尤其是今年按下了 AI Agent 应用的加速键后。
我记得 Hugging Face 中国区负责人王铁震总结他在 Hugging Face 开源社区上看到的 Qwen 为什么受欢迎的原因是,「量大管饱、更新快、底模好」,这份确定性让开发者确信持续会有最新最好最快的模型在手。
这个现象还挺有意思,AI 应用至少是下一个十年里相对长期和复杂的建设,确信有一个持续投入的模型,这件事太重要了。我们都说要水涨船高地做 AI 应用,AI 应用的开发者一定会希望水流量大、水涨得快、水源源不断,才能更安心地做应用。
想必这也是为什么 Qwen 会成为全球拥有最多衍生模型的开源模型,建立了自己的全球影响力。估计也是看到了 Llama 虽然坚持开源,但更新速度和性能距离同时期的闭源模型有差距。Qwen 如果可以一直坚持持续、快速给大家发最好的「枪」,持续开源全模态、全尺寸的 SOTA 模型,那这个开源旗帜就应该是 Qwen 扛起来。
所有的「如果」背后都必须有逻辑链的支撑。那么,阿里是不是会支持 Qwen 坚决地持续、全面开源 SOTA 模型这件事,就必须看一下阿里自己的 COT 是否和这个期待是相符的。
此前我写的分析的文章梳理过,出于阿里巴巴自身的场景,一定会持续探索智能的上限。AI 时代,阿里「让天下没有难做的生意」的延长线,必然还是要为千行百业的 AI 创新和转型提供基础设施。这意味着,从算力到模型再到应用的每一层平台型机会——阿里云、Qwen 模型家族及其开源生态、应用平台都需要持续进化。其中最主要的目标,一定是追求 AGI 的实现,以此来突破现有业务的 AI 转型升级和 AI 原生应用。
而且,不同于比如背靠 Meta 的 Llama,阿里即便把研发成本高昂的 SOTA 模型开源,也可以通过阿里云实现业务闭环,作为亚太最大的云厂商,这是阿里坚决开源的底气。极客公园社区的很多创业者和开发者都跟我分享,别看开源模型好像不赚钱,只图技术品牌,但其实,Qwen 系列开源模型给阿里云带来了实实在在的收入增长,可以说是过去一年多阿里云最好的销售。选择了 Qwen 开源模型,一个很自然的选择就是购买阿里云,因为使用整个通义以及通义的衍生模型,在阿里云上面运行效率最好。