只需一步,快速开始
短信验证,便捷登录
军衔等级:
大校
“算力规模已经足够大,以至于并不显见你需要那么多额外的算力来证明某个想法。我给你打个比方。AlexNet是建立在两块GPU上的。那是用于它的总算力。Transformer是建立在8到64块GPU上的。2017年没有哪篇Transformer论文的实验使用了超过64块GPU,这相当于什么,今天的两块GPU?ResNet也是如此,对吧?你可以争辩说,o1推理模型(o1 reasoning)并不是世界上最耗算力的东西。 因此,对于研究来说,你绝对需要一定量的算力,但远非显而易见的是,你需要绝对最大量的算力来进行研究。”
0 举报本楼
发表回复 回帖后跳转到最后一页
版规|手机版|C114 ( 沪ICP备12002291号-1 )|联系我们 |网站地图
GMT+8, 2026-1-20 00:26 , Processed in 0.194951 second(s), 16 queries , Gzip On.
Copyright © 1999-2025 C114 All Rights Reserved
Discuz Licensed