7月2日讯 今天上午,智谱开放平台产业生态大会在上海浦东张江科学会堂举办,开源发布新一代通用视觉语言模型 GLM-4.1V-Thinking。
在智谱开放平台产业生态大会上,智谱宣布浦东创投集团和张江集团对智谱总额 10 亿元的战略投资,并于近期完成首笔交割。同时,三方还启动了一项合作,共同建设人工智能新型基础设施。

智谱今日正式发布并开源视觉语言大模型 GLM-4.1V-Thinking,这是一款支持图像、视频、文档等多模态输入的通用推理型大模型,专为复杂认知任务设计。
从官方获悉,它在 GLM-4V 架构基础上引入“思维链推理机制(Chain-of-Thought Reasoning)”,采用“课程采样强化学习策略(RLCS)”,系统性提升模型跨模态因果推理能力与稳定性。
其轻量版 GLM-4.1V-9B-Thinking 模型参数控制在 10B 级别,在兼顾部署效率的同时实现性能突破。该模型在 MMStar、MMMU-Pro、ChartQAPro、OSWorld 等 28 项权威评测中,有 23 项达成 10B 级模型的最佳成绩,其中 18 项更是持平或超越参数量高达 72B 的 Qwen-2.5-VL,充分展现了小体积模型的极限性能潜力。
据官方介绍,该模型特别在以下任务中表现卓越,展示出高度的通用性与稳健性:
- 图文理解(Image General):精准识别并综合分析图像与文本信息;
- 数学与科学推理(Math & Science):支持持复杂题解、多步演绎与公式理解;
- 视频理解(Video):具备时序分析与事件逻辑建模能力;
- GUI 与网页智能体任务(UI2Code、Agent):理解界面结构,辅助自动化操作;
- 视觉锚定与实体定位(Grounding):语言与图像区域精准对齐,提升人机交互可控性。
目前,GLM-4.1V-9B-Thinking 已在 Hugging Face 与魔搭社区同步开源。包含两个模型,分别是 GLM-4.1V-9B-Base 基座模型,希望能够帮助更多研究者探索视觉语言模型的能力边界作;GLM-4.1V-9B-Thinking,具备深度思考和推理能力的模型,正常使用和体验,均为这一模型。