Alibaba、Qwen・Wanモデルのオープンソース継続を正式表明|r/LocalLLaMAで277↑「全サイズ公開」

|Aitly編集部

海外の話題

2026年3月23日|Aitly編集部

Alibabaが自社AIモデル「Qwen」および動画生成モデル「Wan」の全シリーズ・全サイズのオープンソース公開を継続すると正式に表明した。ModelScapeの公式ツイートを引用した投稿がr/LocalLLaMAで277アップボート・25件のコメントを集めている。ローカルLLMコミュニティは歓迎ムードだが、動画生成モデル「Wan」については懐疑的な声も上がっている。

Alibabaが全サイズのQwen・Wanモデルのオープンソース継続を表明

AlibabaのAI部門は、ModelScope公式アカウントを通じて「オープンソースで全シリーズのモデルを公開し、全サイズをカバーする」と発表した。Qwenシリーズは大規模言語モデル(LLM)として、Wanシリーズは動画生成AIとして、それぞれオープンソースコミュニティで高い評価を受けてきたモデルだ。

今回の発表は、中国のAI企業がオープンソース戦略を加速させる流れの一環と見られる。特にQwen 3.5シリーズは0.8Bから大規模パラメータまで幅広いサイズで公開されており、ローカル環境での運用を重視するユーザーから支持を集めている。

Alibaba confirms…
by u/ in LocalLLaMA

Redditの反応|「Wan」のオープンソースには懐疑的な声も

r/LocalLLaMAのコメント欄では歓迎の声が多い一方で、冷静な指摘も目立った。

33 r/LocalLLaMA

「素晴らしいニュースだ。ただ、最近優秀なチームメンバーが退職したという話もある。品質に影響が出ないか気になる」

(原文意訳)

20 r/LocalLLaMA

「中国語の原文を読むと『今後さらに多くのモデルを公開予定』としか書かれていない。Wanの公開を明確に保証しているわけではない」

(原文意訳)

19 r/LocalLLaMA

「画像左下に注目。『オープンソースで全シリーズ、全サイズ』と書いてある」

(原文意訳)

Wanについては、最近のバージョン(2.5、2.6)がオープンソースとして公開されなかった経緯があり、「本当に全シリーズ公開されるのか」という疑念が根強い。一方で、Qwen 3.5シリーズに対する期待は非常に高く、「0.8Bモデルですら驚異的な性能だった」「Qwen 3.5 Coderが待ちきれない」といったポジティブな反応も多かった。

4 r/LocalLLaMA

「Qwen 3.5は次元が違う。0.8Bですら信じられないレベルだった」

(原文意訳)

Aitly編集部の見解

Alibabaの「全サイズ公開」宣言は、オープンソースLLM市場における競争をさらに加速させるものだ。MetaのLlama、MistralのMistralシリーズに続き、Qwenが全サイズ展開を明言したことで、ローカルLLMユーザーにとっての選択肢は確実に広がる。

ただしRedditユーザーが指摘する通り、Wanシリーズの公開実績には懸念がある。バージョン2.5・2.6が非公開だった事実は、「全シリーズ」という言葉の解釈に幅があることを示唆している。テキスト系のQwenモデルは高い確率で公開が続くと見られるが、動画生成のWanについては実際にリリースされるまで判断を保留するのが妥当だろう。日本のローカルLLMユーザーにとっては、Qwen 3.5 Coderの公開タイミングが最大の関心事になりそうだ。

参考リンク