2025 年 4 月 29 日凌晨,阿里巴巴通义千问正式发布并开源新一代大语言模型 Qwen3 (简称千问3)系列,包含 2 款混合专家(MoE)模型与 6 款密集(Dense)模型,参数量覆盖 0.6B 至 235B。
作为国内首个支持 “思考模式” 与 “非思考模式” 的混合推理模型,Qwen3 在保持高性能的同时大幅降低部署成本,标志着中国大模型在开源领域实现对国际顶尖水平的全面超越。
Qwen3 旗舰模型 Qwen3-235B-A22B 总参数量达 2350 亿,激活参数仅 220 亿,凭借 MoE 架构实现 “动态资源分配”:对简单任务启用 “非思考模式”,可低算力 “秒级响应”;对复杂逻辑、数学推理等任务切换 “思考模式”,通过多步骤深度推理输出结果。
这种双模式设计使模型在效率与精度间实现平衡,在多个权威基准测试中,Qwen3展现了惊人的性能。在奥数水平的AIME25测评中,Qwen3斩获81.5分,刷新了开源模型的纪录;在代码能力测试LiveCodeBench中,它突破70分大关,超越了Grok3;在模型人类偏好对齐评估ArenaHard中,Qwen3以95.6分的成绩超越了OpenAI-o1和DeepSeek-R1。此外,Qwen3在GPQA、AIME24/25等测试中也表现出色,全面超越了DeepSeek-R1、OpenAI-o1等全球顶尖模型。
三大技术突破点
业界分析认为,参数量的减少并非简单裁剪,而是通过更高效的计算方式和知识蒸馏技术实现。例如,Qwen3引入动态稀疏激活机制,仅在必要时调用关键参数,从而降低计算冗余。这一改进使其在资源受限场景(如移动端或边缘设备)中更具部署潜力。
具体来看,Qwen3 的性能飞跃源于三大核心升级:
- 数据规模翻倍,覆盖多语言与专业领域预训练数据量从 Qwen2.5 的 18 万亿 token 扩展至 36 万亿 token,新增 119 种语言及方言支持,涵盖 PDF 文档解析、STEM 领域教材、代码片段等高质量数据。通过 Qwen2.5-VL 视觉模型辅助提取文档文本,结合 Qwen2.5-Math 与 Qwen2.5-Coder 合成数学及代码数据,模型在专业领域的理解能力显著增强。
- 四阶段训练流程,强化推理与响应效率通过 “长思维链冷启动 - 强化学习 - 模式融合 - 通用优化” 四阶段后训练,Qwen3 实现推理能力与响应速度的深度整合。例如,30B 参数的 MoE 模型 Qwen3-30B-A3B 仅激活 3B 参数,即可达到上代 32B 密集模型的性能,部署成本降至同类模型的 1/3,仅需 4 张 H20 显卡即可运行满血版,而性能相近的DeepSeek-R1则需要8到16张H20显卡,显存占用为 DeepSeek-R1 的三分之一。
- 全场景适配,小模型实现跨级超越6 款密集模型中,4B 参数的 Qwen3-4B 可媲美 Qwen2.5-72B-Instruct适合手机端,8B 模型支持汽车端和电脑端侧部署,32B 模型收到企业大规模部署的欢迎,性能超越上一代 72B 模型,形成从手机端到企业级的全场景覆盖。
开源生态再突破:Apache 2.0 许可下的全球化布局
阿里巴巴开源了Qwen3的全部8个模型版本,包括2款MoE模型(Qwen3-235B-A22B和Qwen3-30B-A3B)以及6款Dense模型(Qwen3-0.6B、1.7B、4B、8B、14B、32B)。
Qwen3 系列模型均采用宽松的 Apache 2.0 协议开源,全球开发者可在 Hugging Face、ModelScope 等平台免费下载商用。截至发布当日,Qwen3 在 GitHub 星标数突破 17k,刷新国内开源模型纪录。阿里同步推出 Qwen-Agent 框架,封装工具调用模板,降低智能体开发门槛,推动 “模型即服务” 生态落地。
值得关注的是,Qwen3 首次支持 119 种语言的多模态交互,在 BFCL 多语言评测中得分 70.8,超越 Gemini-2.5-Pro 等模型,为全球化应用提供底层支持。个人用户可通过通义 APP 体验 Qwen3,夸克浏览器也将于近期全线接入,实现 “AI 助手” 的规模化落地。
此外,Qwen3还支持通过阿里云百炼调用API服务,进一步降低了使用门槛。
重新定义大模型性价比,加速 AI 普惠
Qwen3 的开源标志着大模型进入 “高效能” 时代。阿里云表示,模型在保持高性能的同时,将推理成本降低 60%,中小企业无需高算力投入即可部署复杂 AI 应用。例如,金融行业可基于 Qwen3-32B 构建智能投研系统,教育领域可用 4B 模型开发个性化学习助手,算力门槛的降低预计推动千万级开发者进入大模型生态。
阿里Qwen3的发布让AI社区感到激动,有网友献上经典Meme
“Qwen3 的‘思考预算’控制机制,让模型能根据任务动态分配计算资源,这是迈向通用人工智能(AGI)的关键一步。” 阿里云智能首席技术官周靖人表示。未来,阿里计划进一步扩展模型上下文长度至 32K,探索多模态融合与长周期推理,推动大模型从 “单一任务” 向 “复杂系统” 进化。
