Qwen 3リリース:235BモデルがApache 2.0ライセンスでR1、Grok、o1を上回る

最近、阿里通義千問チームは新世代の大型モデルQwen 3をリリースし、発売と同時に世界のオープンソースモデルの王座についた。Qwen 3は、前モデルと比較して、推論能力、多言語サポート、導入コストなどで大きなブレークスルーを遂げた。そのフラッグシップモデルQwen3-235B-A22Bのパフォーマンスは、DeepSeek-R1、OpenAIのo1、o3-mini、XAIのGrok-3、GoogleのGemini-2.5-Proなどのトップモデルに匹敵するか、それを上回る。モデル

完全オープンソースのQwen 3ファミリー

Qwen 3ファミリーは、Apache 2.0プロトコルのもと、引き続きオープンソース化されており、世界中の開発者、研究機関、企業が無償でモデルをダウンロードし、商用化することができる。オープンソースのQwen 3ファミリーには、2つのMoEモデルと6つの高密度モデルが含まれています:

  • MoEモデル::
    • クウェン3-235B-A22B(合計235B、22B発動)
    • Qwen3-30B-A3B(参加者総数30B、活性化した参加者数3B)
  • インテンシブ・モデリング::
    • クウェン3-32B
    • クウェン3-14B
    • クウェン3-8B
    • クウェン3-4B
    • クウェン3-1.7B
    • クウェン3-0.6B

Qwen3-235B-A22Bの総参照数は他のオープンソースモデルよりはるかに多いが、実際の導入コストは劇的に低いことは注目に値する。フルブラッドバージョンを導入するのに必要なH20はわずか4台で、ビデオメモリのフットプリントは同程度の性能を持つモデルのわずか3分の1である。

すべてのベンチマークで優れたパフォーマンス

Qwen 3シリーズは、さまざまな専門家のレビューで好成績を収め、オープンソースのモデルとして数々の記録を打ち立てている:

  • Qwen3はOUレベルのAIME25評価で81.5点を獲得し、オープンソースの新記録を樹立した!
  • コード能力を評価するLiveCodeBench評価では、Qwen3は70点を突破し、Grok-3を上回った。
  • Qwen3は、モデルによる人間の嗜好のアライメントを評価するArenaHardメジャーで95.6点を獲得し、OpenAI-o1とDeepSeek-R1を上回った。
  • エージェントの能力を評価するBFCLレビューで、Qwen3はGemini2.5-ProやOpenAI-o1といったトップモデルを凌ぐ70.8の最高値を記録した。

Qwen3-4Bのような小さなモデルでも、Qwen2.5-72B-Instructの性能に匹敵し、大幅な効率向上を示している。より小さなMoEモデルQwen3-30B-A3Bは、QwQ-32Bの10分の1の活性化パラメータ数しかありませんが、さらに優れた性能を発揮します。

画期的な「混合推論」モデル

Qwen3の最大の革新のひとつは、思考モードと非思考モードのシームレスな切り替えをサポートする「混合推論」モードの導入だ:

  • 思考パターン綿密な思考を必要とする複雑な問題に適している。
  • 合意形成深さ以上のスピードが要求される単純な問題に対して、高速で瞬時に近いレスポンスを提供します。

ユーザーはタスクの複雑さに応じてモデルの推論プロセスを柔軟に制御することができ、さらに「think budget」(最大深度での思考に期待されるトークン数)を設定することで、性能とコストの最適なバランスを見つけることができる。ベンチマークでは、AIME24、AIME25、LiveCodeBech (v5)、GPQA Diamondなどのタスクにおいて、thinkモードがモデルのパフォーマンスを大幅に向上させることが示されている。

Aliは、ダイアログに"/think "と"/no_think "タグを追加することで、ユーザーがモデルの思考モードを動的に制御できるシンプルなソフト切り替えメカニズムを提供する。

多言語サポートとエージェント機能の強化

Qwen3 モデルでは、119 の言語と方言がサポートされ、グローバルなアプリケーションの可能性が大きく広がりました。同時に、このモデルのエージェント機能とコード機能も大幅に強化されました:

  • MCPプロトコルのネイティブサポート
  • 強力なツール呼び出し機能
  • Qwen-Agentフレームワークと連携し、コーディングの複雑さを大幅に軽減。
  • 複雑なインテリジェンスに基づくタスクでトップクラスのパフォーマンスを達成する

強力な技術基盤:36兆トークンの事前トレーニング

Qwen3の優れた性能は、膨大なトレーニングデータと綿密に設計されたトレーニングプロセスの上に成り立っている:

  • 事前学習データ量が36兆トークンに達し、Qwen 2.5の約2倍に
  • 119の言語と方言をカバー
  • ウェブデータだけでなく、PDFなどのドキュメントからも高品質な情報を抽出
  • Qwen2.5-MathとQwen2.5-Coderで大量の合成データを生成し、数学とコード機能を強化。

プレトレーニングプロセスは3段階に分かれている:

  1. 基本的な言語能力の構築:4Kトークンの文脈長を持つ30兆以上のトークンに対する事前学習
  2. 知識密度の最適化:STEM、プログラミング、推論タスクなどのデータの割合を増やし、さらに5兆トークンのトレーニングを継続する。
  3. コンテキスト能力の拡張:高品質のロングコンテキストデータを使用して、コンテキスト長を32Kトークンに拡張する。

訓練後の段階では、長考連鎖コールドスタート、長考連鎖強化学習、思考パターン融合、汎用強化学習の4段階のプロセスを用いて、複雑な推論と迅速な反応の両方が可能なハイブリッドモデルを作成する。

地域社会の対応と実務経験

Qwen3は3時間足らずでオープンソース化され、GitHubには17kものスターが集まり、オープンソースコミュニティからの圧倒的な反響を呼んだ。アップルのエンジニアであるAwni Hannun氏は、Qwen3がMLXフレームワークでサポートされ、iPhoneからM2/M3 Ultraに至るまで、あらゆるタイプのアップル製デバイスで仕様の異なるQwen3モデルをネイティブに実行できるようになったと発表した。

Qwen3 は、数学の証明やプログラミングタスクのような複雑な推論問題にも容易に 対処できることが、多くの実環境テストで示されています。例えば、複雑なプログラミングタスク(ピントチェイス機能を持つスネークゲームを書く)において、Qwen3-235B-A22Bは、わずか3分程度で実行可能なコードを与えた。

何人かのユーザーがテストした結果、同じ数のパラメーターを持つLlamaモデルと比較して、Qwen3は、より深く推論し、より長いコンテクストを維持し、より難しい問題を解くという大きな利点を示すことがわかった。

使用ガイドライン

Qwen3モデルは現在稼働中で、MagicBuilderコミュニティ、Hugging Face、GitHubでオンラインで入手できる:

デプロイ用には、SGLangやvLLMのようなフレームワークが公式に推奨されている。ローカルでの使用には、Ollama、LMStudio、MLX、llama.cpp、KTransformersのようなツールが推奨されている。

これらのツールにより、研究、開発、生産環境など、さまざまなワークフローに Qwen3 を簡単に統合することができます。トランスフォーマーライブラリの標準的な使用例を以下に示します:

PHP
from modelscope import AutoModelForCausalLM, AutoTokenizer

モデル名 = "Qwen/Qwen3-30B-A3B"
#トークナイザーとモデルをロードする
tokeniser = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(
        model_name, torch_dtype="auto")
        torch_dtype="auto"、
        device_map="auto"
)

#モデル入力の準備
prompt = "大きな言語モデルを簡単に紹介してください。"
メッセージ = [
        {役割": "ユーザー", "内容": プロンプト}。
messages = [ {"role": "user", "content": prompt} ]と入力する。
text = tokenizer.apply_chat_template(
        messages, tokenise=False, text = tokenizer.apply_chat_template(
        tokenise=False、
        add_generation_prompt=True, enable_thinking=True 1TP
        enable_thinking=True # 思考モードと非思考モードの切り替え。 デフォルトはTrue。
デフォルトは True。)

結語

これまでのところ、Ali Tongyiは200以上のモデルをオープンソース化しており、全世界で3億以上のダウンロードを記録し、1000の質問から導き出されたモデルは10万を超え、米国のLlamaを抜いて世界No.1のオープンソースモデルとなった。Qwen3のオープンソース化は、中国のAI技術における新たな大きなブレークスルーを示すだけでなく、世界のAI開発者コミュニティにオープンソースエコシステムの繁栄を促進する強力な新ツールを提供するものでもある。

その他の製品については

詳細はこちら

シャツAI - 貫通する知性 AIGCビッグモデル:工学と科学の二大革命の時代を切り開く - Penetrating Intelligence
クロードとGPTの1:1復元 公式サイト - AI Cloud Native ライブマッチアプリ グローバルHDスポーツ観戦プレーヤー(推奨) - Blueshirt Technology
公式APIに基づくトランジットサービス - GPTMeta API GPTで質問するときのコツを教えてください。- 知識
グローバル・バーチャルグッズ・デジタルストア - グローバル・スマート(馮玲葛) GPTが瞬時にいい匂いを感じなくなるクロード・エアトファクト機能の実力は?-ピーピーピー

広告スペース

公式APIに基づくトランジット・エージェント・サービス

オープンと共有の時代において、OpenAIは人工知能の革命をリードしています。この度、GPT-4-ALL、GPT-4-multimodal、GPT-4-gizmo-*など、OpenAIの全モデルを完全にサポートし、さらに様々な自家製ビッグモデルもサポートしたことを世界に発表します。最もエキサイティングなのは、より強力で影響力のあるGPT-4oを世に送り出したことです!

サイトナビゲーション

図頭
サードパーティとのドッキング
コンソール
使用方法
オンライン・モニタリング

お問い合わせ

公众号二维码

公開番号

企业合作二维码

協力 Wechat