只需一步,快速开始
短信验证,便捷登录
军衔等级:
中校
InfLLM-V2是一种可高效处理长文本的稀疏注意力模型,仅需少量长文本数据即可训练,且性能接近传统稠密模型。通过动态切换短长文本处理模式,显著提升长上下文任务的效率与质量。从短到长低成本「无缝切换」,预填充与解码双阶段加速,释放长上下文的真正生产力。
论文链接:https://www.arxiv.org/pdf/2509.24663 模型链接:https://huggingface.co/openbmb/MiniCPM4.1-8B
0 举报本楼
发表回复 回帖后跳转到最后一页
版规|手机版|C114 ( 沪ICP备12002291号-1 )|联系我们 |网站地图
GMT+8, 2025-10-10 18:19 , Processed in 0.186404 second(s), 16 queries , Gzip On.
Copyright © 1999-2025 C114 All Rights Reserved
Discuz Licensed