您的位置: 首页> 新闻资讯> 阿里云通义千问 Qwen 3 旗舰版模型宣布更新:性能全面提升,超越 Kimi、DeepSeek 等行业顶尖水平

阿里云通义千问 Qwen 3 旗舰版模型宣布更新:性能全面提升,超越 Kimi、DeepSeek 等行业顶尖水平

时间:2025-07-24 15:48:01 来源:互联网

alixixi 7 月 22 日消息,阿里云今天更新了旗舰版 Qwen3 模型,推出 Qwen3-235B-A22B-FP8 非思考模式(Non-thinking)的更新版本,命名为 Qwen3-235B-A22B-Instruct-2507-FP8。

阿里云表示,在经过与社区沟通和深思熟虑后,决定停止使用混合思考模式,转为分别训练 Instruct 和 Thinking 模型,以获得最佳质量。

据介绍,新的 Qwen3 模型通用能力显著提升,包括指令遵循、逻辑推理、文本理解、数学、科学、编程及工具使用等方面,在 GQPA(知识)、AIME25(数学)、LiveCodeBench(编程)、Arena-Hard(人类偏好对齐)、BFCL(Agent 能力)等众多测评中表现出色,超过 Kimi-K2、DeepSeek-V3 等顶级开源模型以及 Claude-Opus4-Non-thinking 等领先闭源模型。

模型概述

FP8 版本的 Qwen3-235B-A22B-Instruct-2507 具有以下功能特点:

类型:因果语言模型 / 自回归语言模型

训练阶段:预训练与后训练

参数量:总共 235B,激活 22B

参数量(非嵌入):234B

层数:94

注意头数(GQA): Q 为 64,KV 为 4

专家数:128

激活专家数:8

上下文长度:原生支持 262,144。

阿里云表示,本次更新的 Qwen3 模型,还增强了以下关键性能:

在多语言的长尾知识覆盖方面,模型取得显著进步。

在主观及开放性任务中,模型显著增强了对用户偏好的契合能力,能够提供更有用的回复,生成更高质量的文本。

长文本提升到 256K,上下文理解能力进一步增强。

目前,Qwen3 新模型已在魔搭社区和 HuggingFace 上开源更新,alixixi附官方地址:

官网地址:https://chat.qwen.ai/

HuggingFace:https://huggingface.co/Qwen/Qwen3-235B-A22B-Instruct-2507-FP8

魔塔社区:https://modelscope.cn/models/Qwen/Qwen3-235B-A22B-Instruct-2507-FP8

上一篇:OPPO× 阿里云达成合作,前者大数据平台累计数百 PB 的数据和数十万个任务上云 下一篇:苹果 watchOS 11.6 RC 发布

相关文章

最近更新