技術2025-08-10•12 min 読む
Wan 2.2 MoEアーキテクチャ解説
Wan 2.2を動かすMixture of Expertsアーキテクチャの技術的深掘り。計算を50%削減。
A
AI Research
Wan AI

Wan 2.2は、動画生成に画期的なMixture of Experts(MoE)アーキテクチャを導入し、効率を劇的に向上させました。
モデルは合計270億のパラメータを持っていますが、任意の生成に対して活性化されるのは140億のみです。このスパースな活性化パターンにより、同等の能力を持つ密なモデルと比較して、計算要件が約50%削減されます。
アーキテクチャは特殊化されたエキスパートネットワークを使用し、それぞれが動画生成のさまざまな側面—モーション、照明、テクスチャなど—を処理するように訓練されています。ゲーティングネットワークは各生成を最も適切なエキスパートにルーティングすることを学習します。
この設計により、Wan 2.2は実際にはより少ない計算リソースを使用しながら、Wan 2.1よりも優れた品質を達成でき、限られたハードウェアを持つユーザーにとってよりアクセスしやすくなっています。
タグ
#WanAI#AIVideo#technology#Tutorial#OpenSource
共有:


