アリババはただいま、Qwen3.6をオープンソースライセンスで公開しました。 合計パラメータ数:350億。 推論時に活性化されるパラメータ:30億。 ベンチマーク結果: > SWE-bench Verified:73.4(GoogleのGemma4-26B-A4Bは17.4) > Terminal-Bench 2.0:51.5(Gemma4-31B密モデルは42.9) > GPQA Diamond:86.0、MMLU-Pro:85.2 コンピュータビジョン分野では、アリババは、ほとんどのマルチモーダルベンチマークでClaude Sonnet 4.5と同等の性能を達成し、空間的知性において優れていると主張しています。 この規模の意味を理解していますか? これはオープンソースで、ローカルに実行可能なモデルであり、はるかに巨大で高価なモデルに近い性能を発揮しています。 30億の活性化パラメータを持つこのモデルは、一般向けハードウェアで動作します。 適切な量子化を行えば、1枚の消費者向けGPUで完全に実行可能です。 クラスターやH100、CAPEX予算は一切不要です。 そして、このモデルは、活性化パラメータが10倍も大きい密モデルと同等のコードエージェント性能を発揮しています。 これは完全に数学を変えるものです。 現在、閉じられたAPI上で構築している人にとって、問いは変わりました。 オープンモデルが閉じたモデルに性能で追いつくかどうかではなく、 30億の活性化パラメータを持つモデルをセルフホスティングする方が、同等の閉じたプロバイダーのAPI料金よりも安くなるまでにどれだけ時間がかかるか、という問いです。 その答えは、今、さらに短くなりました。

