10月20日,DeepSeek-AI团队发布《DeepSeek-OCR:Contexts Optical Compression》论文,提出利用视觉模态压缩长文本上下文的新方法。Hugging Face页面显示,该模型的参数量为3B。根据介绍,此次开源的DeepSeek-OCR由两个部分组成:核心编码器DeepEncoder和解码器DeepSeek3B-MoE-A570M。
DeepEncoder专为在高分辨率输入下保持低计算激活而设计,同时实现高压缩比,以控制视觉token数量在可管理的范围内。实验显示,当文本token数量不超过视觉token的 10倍(压缩比低于10×)时,模型的OCR精度可达97%;即便压缩比提高到20×,准确率仍保持约60%,展现出在历史文档长上下文压缩和大语言模型记忆机制研究中的巨大潜力。DeepSeek-OCR同时具备较高的实际应用价值。
在OmniDocBench测试中,DeepSeek-OCR使用100个视觉token就超过了GOT-OCR2.0(每页256个token),而使用不到800个视觉token便优于MinerU2.0(平均每页超过6000个token)。在实际生产中,DeepSeek-OCR可在单块A100-40G显卡上每天生成超过20万页的大语言模型/视觉语言模型训练数据。

{{item.content}}