只需一步,快速开始
短信验证,便捷登录
军衔等级:
大校
通往超级智能之路——只需训练大语言模型,用更多合成数据训练,雇佣成千上万的人在后训练中“教育”你的系统,发明强化学习的新花招——我认为这完全是胡说八道。这根本行不通。
Meta正在变得更加封闭……FAIR被推动去从事一些比传统上更偏向短期的项目。
FAIR曾对AI研究生态产生了巨大影响,核心就在于高度开放的理念。但在过去几年里,包括OpenAI、谷歌、Meta都在变得封闭。
构建智能系统的正确打开方式就是世界模型。
大量经验证据表明,这根本行不通。
15000小时的视频信息量相当于一个4岁孩子一生中清醒时接收到的视觉信息总量,但这仅相当于YouTube半小时的上传量,而且后者信息结构更为丰富、冗余度更高。
所有科学和模拟都通过“发明抽象”来工作,例如计算流体力学忽略了分子等底层细节,只关注宏观变量(如速度、密度、温度),而这种抽象能够带来“更长期、更可靠的预测”。
我起初和当时所有人的做法一样,犯了试图在像素级别预测视频的错误,这实际上是不可能的,因为预测是非决定性的。
在训练过程中,模型可能将所有输入映射到单一的点或低维空间,导致嵌入空间中的样本不可区分,从而无法有效捕捉样本间的语义差异。
为了这一目标,我愿意继续做出贡献。
0 举报本楼
发表回复 回帖后跳转到最后一页
版规|手机版|C114 ( 沪ICP备12002291号-1 )|联系我们 |网站地图
GMT+8, 2025-12-22 19:23 , Processed in 0.297560 second(s), 16 queries , Gzip On.
Copyright © 1999-2025 C114 All Rights Reserved
Discuz Licensed