Wan 2.2 MoE-Architektur erklärt
Technischer Tiefgang in die Mixture-of-Experts-Architektur, die Wan 2.2 antreibt und die Berechnung um 50% reduziert.
AI Research
Wan AI

Wan 2.2 führte die bahnbrechende Mixture of Experts (MoE) Architektur in die Videogenerierung ein und verbesserte die Effizienz dramatisch.
Das Modell hat insgesamt 27 Milliarden Parameter, aber nur 14 Milliarden werden für jede Generierung aktiviert. Dieses spärliche Aktivierungsmuster reduziert die Berechnungsanforderungen um etwa 50% im Vergleich zu dichten Modellen ähnlicher Fähigkeit.
Die Architektur verwendet spezialisierte Expertennetzwerke, die jeweils für die Handhabung verschiedener Aspekte der Videogenerierung trainiert sind - Bewegung, Beleuchtung, Texturen und mehr. Ein Gating-Netzwerk lernt, jede Generierung zu den am besten geeigneten Experten zu leiten.
Dieses Design ermöglicht es Wan 2.2, bessere Qualität als Wan 2.1 zu erreichen, während tatsächlich weniger Rechenressourcen verwendet werden, was es für Benutzer mit begrenzter Hardware zugänglicher macht.


