国产大模型集体抢跑:两周发布八款,格局生变
GPT-5.5 发布后两周,国内阿里、腾讯、小米、月之暗面、智谱、MiniMax 扎堆发模型,DeepSeek V4 今天上午正式发布并开源。1M 上下文成标配,价格战开打,国产 AI 从"跟进"转向"对标"。
来源: 综合整理 →这是什么节奏?
GPT-5.5 发布后,国内厂商像被按了加速键。两周内八款模型发布或更新:
| 模型 | 厂商 | 发布时间 | 核心亮点 |
|---|---|---|---|
| DeepSeek V4 | 深度求索 | 4月24日 | 万亿参数,1M 上下文,开源 MIT |
| 腾讯混元 Hy3 | 腾讯 | 4月23日 | MoE 架构,文本能力跃居国内第一梯队 |
| 小米 MiMo-V2.5-Pro | 小米 | 4月23日 | 全球开源模型综合智能指数并列第一 |
| Kimi K2.6 | 月之暗面 | 4月21日 | 代码能力对标 GPT-5.4,全面开源 |
| Qwen3.6-Max-Preview | 阿里 | 4月20日 | 六项编程基准超越 Plus 版,新增思维保留 |
| Qwen3.6-27B | 阿里 | 4月22日 | 270 亿参数开源,编程超越 15 倍规模 MoE |
| GLM-5.1 | 智谱 | 4月7日 | SWE-Bench Pro 全球第一,MIT 许可开源 |
| Qwen3.6-35B-A3B | 阿里 | 4月17日 | 稀疏 MoE,30B 激活参数超越 270B 稠密模型 |
| MiniMax M2.7 | MiniMax | 4月12日 | 自进化编程模型,代码能力追平 GPT-5.3-Codex |
DeepSeek V4 今天上午已正式发布并开源。
各家拿出了什么?
智谱 GLM-5.1:4月7日发布,754B 参数 MoE,40B 激活。SWE-Bench Pro 58.4%,超越 GPT-5.4(57.7%)和 Claude Opus 4.6(57.3%),全球第一。MIT 许可,完全开源。METR 长程任务 8 小时,开源全球第一。定价约 $2/M Token,是 Claude 的 22%。ARR 四个月从 $3900 万增至 $2.5 亿,增长 6.4 倍。
MiniMax M2.7:230B 总参数,~10B 激活。首个”自进化”模型,能构建复杂 Agent Harness,持续优化。SWE-Pro 56.22%,追平 GPT-5.3-Codex。复杂任务指令遵循率 97%。API 定价约 $0.26-0.30/M 输入。
小米 MiMo-V2.5-Pro:4月23日登顶全球开源模型综合智能指数并列第一,Agent 专项开源第一。OpenRouter 周调用量占比 30%,周 Token 量 4.82 万亿,终结 MiniMax 连续榜首。中国模型总调用量已连续五周超美国,占比 61%。
腾讯混元 Hy3:295B 总参数,21B 激活。快慢思考融合,256K 上下文。文本能力跃居国内第一梯队。姚顺雨加入后首个大动作。API 输入 1.2 元/M,输出 4 元/M。
月之暗面 Kimi K2.6:代码能力对标 GPT-5.4,已全面开源。代码编写、长程任务执行、Agent 集群能力全面升级。
阿里 Qwen3.6 系列:密集发布三款。Qwen3.6-35B-A3B 稀疏 MoE,30B 激活超越 270B 稠密;Qwen3.6-27B 开源,编程超越 15 倍规模 MoE;Qwen3.6-Max-Preview 六项编程基准超越 Plus,新增 preserve_thinking 保留推理链。
DeepSeek V4(已发布,今天上午开源):
两个版本:
- V4-Pro:1.6 万亿参数 MoE,49B 激活,33T Token 训练数据,1M 上下文
- V4-Flash:2840 亿参数,13B 激活,32T Token 训练数据,更低成本
核心技术:
- 混合稀疏注意力(DeepSeek Sparse Attention),1M 上下文 FLOPs 降低 73%,KV 缓存减少 90%
- 流形约束超连接(mHC)+ Muon 优化器
- 支持”思考模式”与推理强度调节,复杂 Agent 场景建议开启
API 定价:
- V4-Pro:输入 $0.28/M,输出 $1.1/M
- V4-Flash:输入 $0.14/M,输出 $0.36/M
开源:权重已在 Hugging Face 上线,MIT 许可,可本地部署。旧版 API(deepseek-chat、deepseek-reasoner)将于 2026 年 7 月 24 日停服。
华为昇腾适配:昇腾 CANN 当晚 7 点直播 V4 首发,寒武纪同步完成 Day 0 适配并开源代码。
背后反映的趋势
1. 开源成为主战场
GLM-5.1、Qwen3.6 系列、Kimi K2.6、MiniMax M2.7、DeepSeek V4 全部 MIT 许可、可商用。国产开源模型从”发布 weights”的噱头,到真正对标闭源旗舰的能力。中国模型在全球开源话语权快速上升。
2. 编程能力是制高点
几乎每家都在秀编程 benchmark——SWE-Bench、Terminal-Bench、GDPval-AA。编程任务有明确评判标准,结果可量化,不存在”主观体验”的模糊地带。谁在编程上领先,谁就敢说自己是第一梯队。
3. 1M 上下文成标配
DeepSeek V4 将 100 万 token 上下文带入实用阶段。FLOPs 降低 73%、KV 缓存减少 90%,使超长上下文推理从”噱头”变成”默认配置”。各家的长上下文战争正在白热化。
4. 价格战打响了
DeepSeek V4-Flash 输入 $0.14/M,V4-Pro 输入 $0.28/M。GLM-5.1 定价 $2/M,是 Claude 的 22%。MiniMax M2.7 输入约 $0.26/M。国产模型用几分之一的价格抢市场,下一步必然倒逼国际厂商降价。
5. 华为昇腾从”备选”变”必选”
DeepSeek V4 全链路适配华为昇腾,寒武纪 Day 0 完成适配。阿里、腾讯、字节早已下单。英伟达 H200 在中国销售额为零(国内厂商主动拒单)。国产算力生态从”可用”到”好用”的临界点正式到来。
6. 资本化加速
智谱港股上市,DeepSeek 寻求超 100 亿美元估值首次外部融资。国产 AI 资本大战进入新阶段。
一句话总结
这波发布潮不是各自表态,是国产 AI 从”跟随 GPT”到”主动定义”的转折点。1M 上下文成标配,价格战开打,华为昇腾全链路适配完成。DeepSeek V4 登场,2026 年上半年大模型格局已定。
黄仁勋说”这对美国是灾难”——不是客套。*