通信人家园
标题:
AI 的下一个Scaling law 或许发生在MOE架构里的专家数
[查看完整版帖子]
[打印本页]
时间:
2025-3-8 23:03
作者:
cwyy
标题:
AI 的下一个Scaling law 或许发生在MOE架构里的专家数
类似于在传统的CPU时代,单纯的提高核心频率受到物理规律的限制,在AGI时代,单纯地增加模型的参数规模,改善效果也越来越差。混合专家模型就相当于CPU的多核架构。或许以后大模型的发展方向就是越来越细粒度的MOE,大模型内部划分成越来越多的参数规模较小的模型,甚至碰到人类知识的全部边界和经济性边界。
通信人家园 (https://www.txrjy.com/)
Powered by C114