
一文讲透 AI Agent 与 AI Workflow 的区别和深度解析:从自动化到智能化的演进
阔别九月,大家期待的 DeepSeek-VL2 终于来了!DeepSeek-MoE 架构配合动态切图,视觉能力再升级。从视觉定位到梗图解析,从 OCR 到故事生成,从 3B、16B 再到 27B,DeepSeek-VL2 正式开源。
DeepSeek-VL2 模型展现出了符合我们预期的强大能力,在各项评测指标上均取得了极具优势的成绩:
DeepSeek-VL2 仅使用一个 SigLIP-SO400M 作为图像编码器,通过将图像切分为多张子图和一张全局缩略图来实现动态分辨率图像支持。这一策略使得 DeepSeek-VL2 最多支持 1152×1152 的分辨率和 1:9 或 9:1 的极端长宽比,适配更多应用场景。
更多科研文档数据的学习使得 DeepSeek-VL2 可以轻易理解各种科研图表。
DeepSeek-VL2 同时具备图像理解和代码生成的功能,可以作为你逆向画图的好帮手。
Prompt: Draw a plot similar to the image in Python.
更大规模的训练数据赋予了 DeepSeek-VL2 解析各种 Meme 的能力,有时它甚至懂得比你还要多。
大模型的能力绝不仅限于封闭类别的物体识别。
你可以用任意的自然语言进行描述,然后让 DeepSeek-VL2 帮你在图像里找到符合描述的部分(注:模型本身只是输出相应物体的边界框,而不会直接在原图上绘制边界框,下同)。例如,DeepSeek-VL2 可以在下图里找到 "DeepSeek Whale" (DeepSeek 吉祥物虎鲸):
你也可以给 DeepSeek-VL2 一个示例,让它有样学样:
Prompt: <|grounding|>In the first image, an object within the black ellipse is highlighted. Please locate the object of the same category in the second image. (在第一张图中有一个物体被黑色椭圆包裹住。在第二张图中找到同类别的物体。)
视觉感知+语言推理,强强联手成就模型的视觉语义对话能力。如果你拿着下图问模型 "If you feel hot, what will you do?(如果感觉热,你会怎么做?)",它会回答:"To cool down, you can use <|ref|>the fan<|/ref|><|det|>166, 460, 338, 712<|/det|> which is sitting on the desk.(为了降温,你可以使用 166, 460, 338, 712 位置处的风扇,它放在桌子上)"
你也可以输入多张图像,让模型把它们串联起来,形成一个小小的童话故事。
视觉是人类获取外界信息的主要来源,占据所有信息量的约 80%。然而在大模型时代,视觉方面的进展却远远落后于语言模型。我们坚信,提升模型视觉能力的意义不仅在于支持更多的输入模态,更在于全方位提升模型的感知和认知能力。欢迎加入 DeepSeek,和我们一起探索 AGI 的星辰大海。—— End ——