通信人家园

 找回密码
 注册

只需一步,快速开始

短信验证,便捷登录

搜索

军衔等级:

  大元帅

注册:2007-12-102434
跳转到指定楼层
1#
发表于 2026-1-29 11:37:50 |只看该作者 |倒序浏览
DeepSeek开源了其面向OCR场景的专用模型DeepSeek-OCR 2,技术报告同步发布。这一模型是对去年DeepSeek-OCR模型的升级,其采用的新型解码器让模型看图、读文件的顺序更像人,而不是像机械的扫描仪。
简单来说,以前的模型阅读模式是从左上到右下,地毯式扫一遍图片,DeepSeek-OCR 2则能够理解结构,按结构一步步读。这种新的视觉理解模式,让DeepSeek-OCR 2可以更好地理解复杂的布局顺序、公式和表格。
在文档理解基准测试OmniDocBench v1.5上,DeepSeek-OCR 2拿到了91.09%的得分,在训练数据和编码器都不变的前提下,较DeepSeek-OCR提升了3.73%。与其他端到端的OCR模型相比,这已经是SOTA成绩,但其表现要略逊于百度的PaddleOCR-VL(92.86%)OCR管线。
同时,在相似的视觉token预算下,DeepSeek-OCR 2在文档解析方面的编辑距离(编辑为正确文本所需的工作量)低于Gemini-3 Pro,这证明DeepSeek-OCR 2在确保优越性能的同时保持了视觉token的高压缩率。
DeepSeek-OCR 2兼具双重价值:既可作为新型VLM(视觉语言模型)架构进行探索性研究,也能作为生成高质量预训练数据的实用工具,服务于大语言模型的训练过程。


举报本楼

本帖有 1 个回帖,您需要登录后才能浏览 登录 | 注册
您需要登录后才可以回帖 登录 | 注册 |

版规|手机版|C114 ( 沪ICP备12002291号-1 )|联系我们 |网站地图  

GMT+8, 2026-1-30 12:57 , Processed in 0.073745 second(s), 18 queries , Gzip On.

Copyright © 1999-2025 C114 All Rights Reserved

Discuz Licensed

回顶部