2026年4月,开源大模型迎来了一个历史性的时刻。Meta正式推出了Llama 4系列,首次在多个核心基准测试中全面超越了GPT-5.4和Claude Opus 4.6;智谱GLM-5.1以MIT许可证完全开源,编程能力位居国产第一;DeepSeek-V4据报道将运行在华为昇腾芯片上,并可能在不久的将来开源。这场由Meta、中国AI厂商和全球开源社区共同推动的浪潮,正在颠覆“闭源模型更优”的传统观念。当开源模型在性能上追平甚至超越闭源竞争对手时,AI的“Linux时刻”似乎真的来临了。
Llama 4登场:Meta的“核武器”如何改写游戏规则
4月13日,Meta正式发布Llama 4系列模型,包括Llama 4 Scout、Llama 4 Maverick和Llama 4 Dragonfly三款。其中,旗舰模型Llama 4 Maverick在MMLU、GSM8K、HumanEval等多个基准测试中均超越GPT-5.4和Claude Opus 4.6,成为首个在通用能力上全面超越闭源竞品的开源模型。
Llama 4的技术突破集中在三个方面。第一是混合专家架构的极致优化。Llama 4 Maverick采用了动态专家路由机制,每次前向计算仅激活约15%的参数,大幅降低了推理成本。据Meta公布的数据,Llama 4 Maverick的每百万Token推理成本仅为GPT-5.4的三分之一,而性能全面领先。第二是超长上下文。Llama 4 Scout支持1000万Token的上下文窗口,能够一次性处理《三体》三部曲的全部内容,在长文档摘要和法律合同分析等场景中具有明显优势。第三是多模态原生能力。与上一代需要外部视觉编码器不同,Llama 4从头开始进行图文联合训练,实现了真正的多模态理解。
更令开发者兴奋的是Llama 4的开源策略。Meta采用定制化开源协议,允许商业使用,仅对超大规模企业(月活超过7亿)设置了额外条款。这意味着绝大多数企业和开发者可以免费使用、修改和部署Llama 4。发布仅72小时,Llama 4在Hugging Face上的下载量就突破200万次,社区已经涌现出数十个微调版本和量化版本。
国产开源的崛起:GLM-5.1与DeepSeek-V4的双重奏
在Llama 4发布的同一周,中国开源模型同样动作频频。智谱于4月8日发布的GLM-5.1采用MIT许可证完全开源,在SWE-Bench Pro评测中得分58.4,超越GPT-5.4和Claude Opus 4.6,成为全球第三、国产第一、开源第一的编程模型。GLM-5.1的最大亮点在于其长周期任务能力——它能够在单次任务中持续、自主地工作长达8小时,经历超过600次迭代和6000次工具调用,独立完成复杂软件工程任务。
GLM-5.1的开源策略与Llama 4形成互补。Llama 4强在通用能力和多模态,GLM-5.1强在代码和智能体执行。开发者可以根据需求组合使用——用Llama 4做内容理解和对话,用GLM-5.1写代码和执行任务。这种“开源模型矩阵”正在形成对闭源生态的合围之势。
最受关注的当属DeepSeek-V4。据香港新闻网2026年4月报道,DeepSeek-V4将运行于华为最新芯片之上,DeepSeek过去几个月一直与华为和寒武纪直接合作协助重写底层代码。虽然DeepSeek官方尚未确认开源计划,但考虑到DeepSeek一贯的开放传统(DeepSeek-V2和DeepSeek-V3均已开源),业内普遍预期V4也将开源。如果DeepSeek-V4开源并适配国产芯片,将标志着中国首次拥有“全栈自主+开源开放”的顶尖大模型——从芯片到模型,从训练到推理,全部掌握在自己手中。
阿里千问系列虽然主打闭源商用,但其Qwen-7B、Qwen-14B等小尺寸模型一直保持开源,形成了“小模型开源引流,大模型闭源变现”的商业模式。腾讯混元和字节豆包则尚未开源,仍走闭源路线。可以预见,未来一年内,开源与闭源的竞争将更加激烈,而用户将是最大的受益者。
Llama 4的发布标志着一个重要的转折点——当开源模型在性能上与闭源竞争对手持平,并且以极低的成本提供服务时,闭源模型的商业模式将面临严峻的挑战。GLM-5.1展示了国产开源模型在编程等专业领域的强大实力,而DeepSeek-V4则可能成为“全栈自主开源”的典范。当然,开源并不意味着可以免费使用——部署、维护、微调和安全加固都需要专业的技术能力。但毫无疑问,开源大模型的崛起正在加速人工智能的民主化进程,使得更多中小企业和开发者能够平等地使用最前沿的AI技术。这或许是2026年人工智能领域最重要、最深远的变革。
