Qwen 3发布:235B模型性能超越R1、Grok和o1,采用Apache 2.0许可证

近日,阿里通义千问团队发布了全新一代大模型Qwen 3,该模型一经推出便登顶全球开源模型王座。与前代产品相比,Qwen 3在推理能力、多语言支持和部署成本等方面均有显著突破,其旗舰模型Qwen3-235B-A22B的性能堪比甚至超越了DeepSeek-R1、OpenAI的o1、o3-mini、XAI的Grok-3和谷歌的Gemini-2.5-Pro等顶级模型。

全面开源的Qwen 3家族

Qwen 3系列模型依旧采用宽松的Apache 2.0协议开源,全球开发者、研究机构和企业均可免费下载模型并进行商用。此次开源的Qwen 3家族包含两款MoE模型和六款密集模型:

  • MoE模型
    • Qwen3-235B-A22B(总参数量235B,激活参数量22B)
    • Qwen3-30B-A3B(总参数量30B,激活参数量3B)
  • 密集模型
    • Qwen3-32B
    • Qwen3-14B
    • Qwen3-8B
    • Qwen3-4B
    • Qwen3-1.7B
    • Qwen3-0.6B

值得注意的是,尽管Qwen3-235B-A22B的总参数量远大于其他开源模型,但其实际部署成本却大幅下降——仅需4张H20即可部署满血版,显存占用仅为性能相近模型的三分之一。

横扫各大基准测试的卓越性能

Qwen 3系列在各项专业评测中表现出色,刷新了多项开源模型记录:

  • 在奥数水平的AIME25测评中,Qwen3斩获81.5分,刷新开源纪录
  • 在评估代码能力的LiveCodeBench测评中,Qwen3突破70分大关,表现超过Grok-3
  • 在评估模型人类偏好对齐的ArenaHard测评中,Qwen3以95.6分超越了OpenAI-o1及DeepSeek-R1
  • 在评估模型Agent能力的BFCL评测中,Qwen3创下70.8的新高,超越Gemini2.5-Pro、OpenAI-o1等顶尖模型

即使是较小的模型,如Qwen3-4B,也能媲美Qwen2.5-72B-Instruct的性能,展现出显著的效率提升。小型MoE模型Qwen3-30B-A3B的激活参数量仅为QwQ-32B的十分之一,但性能却更胜一筹。

突破性的”混合推理”模式

Qwen3最大的创新之一是引入了”混合推理”模式,支持在思考模式和非思考模式之间无缝切换:

  • 思考模式:模型逐步推理,经过深思熟虑后给出最终答案,适合需要深入思考的复杂问题
  • 非思考模式:模型提供快速、近乎即时的响应,适用于对速度要求高于深度的简单问题

用户可以根据任务复杂度灵活控制模型的推理过程,甚至可以设置”思考预算”(即预期最大深度思考的tokens数量),在性能和成本间找到最佳平衡点。基准测试显示,在AIME24、AIME25、LiveCodeBech(v5)和GPQA Diamond等任务中,思考模式可显著提升模型表现。

阿里提供了简单的软切换机制,用户可以在对话中通过添加”/think”和”/no_think”标签动态控制模型的思考模式。

多语言支持与Agent能力增强

Qwen3模型支持119种语言和方言,大幅扩展了其全球应用潜力。同时,模型的Agent和代码能力也得到显著增强:

  • 原生支持MCP协议
  • 强大的工具调用能力
  • 配合Qwen-Agent框架,大大降低编码复杂性
  • 在复杂的基于智能体的任务中,实现了领先的性能

强大技术基础:36万亿token预训练

Qwen3的卓越性能建立在庞大的训练数据和精心设计的训练流程上:

  • 预训练数据量达36万亿token,几乎是Qwen2.5的两倍
  • 覆盖119种语言和方言
  • 除网络数据外,还包括从PDF等文档中提取的高质量信息
  • 利用Qwen2.5-Math和Qwen2.5-Coder生成大量合成数据,增强数学和代码能力

预训练过程分为三个阶段:

  1. 基础语言能力构建:在超30万亿个token上预训练,上下文长度为4K token
  2. 知识稠密型优化:增加STEM、编程和推理任务等数据比例,在额外5万亿token上继续训练
  3. 上下文能力扩展:使用高质量长上下文数据,将上下文长度扩展至32K token

后训练阶段采用四阶段流程,包括长思维链冷启动、长思维链强化学习、思维模式融合,以及通用强化学习,打造出既能进行复杂推理又能快速响应的混合模型。

社区反响与实际体验

Qwen3开源不到3小时,GitHub便狂揽17k星,引发开源社区热烈响应。苹果工程师Awni Hannun宣布,Qwen3已得到MLX框架支持,使得从iPhone到M2/M3 Ultra等各类苹果设备均可本地运行不同规格的Qwen3模型。

一些实际测试表明,Qwen3能轻松应对复杂的推理问题,如数学证明和编程任务。例如,在一项复杂的编程任务中(编写一个具有平头哥追赶功能的贪吃蛇游戏),Qwen3-235B-A22B仅用约3分钟就给出了可运行的代码。

有网友实测后发现,与相同参数量的Llama模型相比,Qwen3表现出明显优势,推理更深入,能保持更长上下文,并能解决更难的问题。

使用指南

Qwen3模型目前已上线魔搭社区、Hugging Face和GitHub,并可在线体验:

对于部署,官方推荐使用SGLang和vLLM等框架;对于本地使用,推荐Ollama、LMStudio、MLX、llama.cpp和KTransformers等工具。

这些工具确保用户可以轻松将Qwen3集成到各种工作流程中,无论是用于研究、开发还是生产环境。使用transformers库的标准示例如下:

PHP
from modelscope import AutoModelForCausalLM, AutoTokenizer

model_name = "Qwen/Qwen3-30B-A3B"
# load the tokenizer and the model
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(
        model_name,
        torch_dtype="auto",
        device_map="auto"
)

# prepare the model input
prompt = "Give me a short introduction to large language model."
messages = [
        {"role": "user", "content": prompt}
]
text = tokenizer.apply_chat_template(
        messages,
        tokenize=False,
        add_generation_prompt=True,
        enable_thinking=True # Switch between thinking and non-thinking modes. Default is True.
)

结语

至此,阿里通义已开源200余个模型,全球下载量超3亿次,千问衍生模型数超10万个,超越美国Llama,成为全球第一开源模型。Qwen3的开源不仅标志着中国AI技术又一重大突破,也为全球AI开发者社区提供了强大的新工具,推动了开源生态的繁荣发展。

Para mais produtos, consultar

Ver mais em

ShirtAI - Inteligência penetrante O Grande Modelo do AIGC: inaugurando uma era de dupla revolução na engenharia e na ciência - Penetrating Intelligence
1:1 Restauração de Claude e GPT Site oficial - AI Cloud Native Aplicação de jogos em direto Leitor de visualização de desporto HD global (recomendado) - Blueshirt Technology
Serviço de trânsito baseado na API oficial - API GPTMeta Ajuda, alguém pode dar algumas dicas sobre como fazer perguntas no GPT? - Conhecimento
Loja digital de bens virtuais globais - Global SmarTone (Feng Ling Ge) Quão poderosa é a funcionalidade Claude airtfacts que o GPT instantaneamente não cheira bem? -BeepBeep

espaço publicitário

Serviço de agente de trânsito baseado em APIs oficiais

Nesta era de abertura e partilha, o OpenAI lidera uma revolução na inteligência artificial. Agora, anunciamos ao mundo que suportámos totalmente todos os modelos da OpenAI, por exemplo, suportando GPT-4-ALL, GPT-4-multimodal, GPT-4-gizmo-*, etc., bem como uma variedade de grandes modelos desenvolvidos internamente. O mais interessante é que apresentámos ao mundo o mais poderoso e influente GPT-4o!

Navegação no sítio

fig. início
Atracagem de terceiros
consolas
Instruções de utilização
Monitorização em linha

Contactar-nos

公众号二维码

número público

企业合作二维码

Cooperação Wechat

Direitos de autor © 2021-2024 Todos os direitos reservados 2024 | GPTMeta API