新着:Wan 2.7-Image リリース
QwenAlibaba Qwen搭載

AI動画&画像生成
プラットフォーム

Wan 2.7が登場。画像モデルはリアルな顔生成、精密なカラーパレット、3Kトークンテキスト描画でブラインドテスト第1位。動画モデルはネイティブオーディオ、首尾フレーム制御、九宮格入力、指示編集を搭載し1080p出力に対応。Wan 2.1はオープンソース&コンテンツ制限なし。

15M+
生成された動画
800K+
アクティブユーザー
4.9
ユーザー評価
新リリース — 2026年4月

Wan 2.7-Image
画像生成&編集の統合モデル

Wan 2.7-Imageは、リアルな人物生成、精密なカラーコントロール、超長文テキストレンダリングを実現。中国国内の人間嗜好ブラインドテストで第1位。

千人千面カスタマイズ

AI標準顔からの脱却。骨格、目の形(アーモンド型、奥二重、切れ長)、顔の形(卵型、丸型、角型)を自由にカスタマイズし、個性的でリアルな顔を生成。

顔型目の特徴骨格調整

カラーパレット制御

参考画像からワンクリックで色彩分布を抽出。名画の色調再現やブランドガイドラインに合わせた正確な配色が可能。

色彩抽出ブランド整合精密移行

3Kトークン テキスト描画

最大3,000トークンのテキストを12言語で印刷品質で描画。複雑な表、数式、A4全面の学術コンテンツに対応。

12言語対応3000トークン印刷品質

インタラクティブ編集

気に入らない部分をクリックして編集。範囲選択で要素の追加・整列・移動がピクセル精度で可能。

クリック編集ピクセル精度追加/移動/整列

マルチ主体の一貫性

最大9枚の参照画像で、絵コンテ、ECサイト写真、映画ポスター、多角度建築図のキャラクターとスタイルの統一を維持。

9枚参照スタイル統一キャラクター一貫性

バッチ生成(12枚)

一度に最大12枚を生成。同スタイルシリーズ、PPT素材、絵コンテ、EC用モデル写真、多視点レンダリングに対応。

最大12枚シリーズ制作多視点

生成&理解の統合アーキテクチャ

Wan 2.7-Imageは先進的な生成・理解統合アーキテクチャを採用。共有潜在空間での意味マッピングにより、ピクセル適合から深層意味認知への飛躍を実現。大規模データで訓練されたWan 2.7-Image-proも同時リリース。

強力な機能

プロフェッショナルなAI動画作成に必要なすべて

テキストから動画

高度なAI理解で、テキスト説明を高品質な動画に変換。中国語、英語、日本語など多言語対応。

画像から動画

静止画像に自然な動きとシネマティックな効果で命を吹き込みます。製品デモやクリエイティブアニメーションに最適。

モーションコントロール

精密なカメラワークとオブジェクト軌道制御でプロ品質の映像を実現。パン、ズーム、回転などシネマティックな動きをサポート。

高解像度

最大1080p/24fpsの動画を生成。クリスタルクリアな品質とスムーズな動き。VBenchスコア86%+で業界トップ。

多言語対応

英語、中国語、日本語、韓国語、ドイツ語など多くの言語でプロンプトをネイティブサポート。

オープンソース

Wan 2.1はApache 2.0で完全オープンソース。コンシューマーGPU(8GB+ VRAM)でローカル実行、または新しいバージョン向けにクラウドAPIを使用。

AI画像生成

Wan 2.7-Image新登場——画像生成と編集を統合したモデル。リアルな顔カスタマイズ、カラーパレット制御、3Kトークンテキスト描画、最大12枚のバッチ生成に対応。

無検閲 / NSFW

Wan 2.1はローカルGPUでコンテンツフィルターなしで実行可能。生成の完全な制御——制限なし、検閲なし。GitHubとHugging Faceでコミュニティ微調整版も利用可能。

先進技術

最先端のアーキテクチャ

最先端のDiffusion Transformer技術をベースに、MoE(混合エキスパート)とネイティブマルチモーダル機能を組み合わせ、VBenchベンチマークでトップクラスの性能を実現。

Diffusion Transformer (DiT)

優れた時間的一貫性と複雑な動き理解を実現する、先進的なTransformerベースの拡散モデル。リアルな動画コンテンツを生成。

Transformer拡散モデルSOTA

Causal 3D VAE (Wan-VAE)

4×8×8圧縮率の効率的な時空間圧縮技術。任意の長さの1080p動画エンコーディングをサポートし、正確な時間情報を保持。

4×8×8圧縮1080p対応時間的一貫性

混合エキスパート (MoE)

総パラメータ27B、アクティベーション14B。同等のパラメータスケールで計算リソースを約50%削減し、複雑なシーンやマルチキャラクターインタラクションの生成品質を向上。

27Bパラメータ50%効率向上マルチエキスパート

ネイティブマルチモーダル

テキスト、画像、動画、音声を統一アーキテクチャで処理。ネイティブリップシンクサポートで、口の動きと音声を正確にマッチング。

リップシンク音声連動統合モデル

モデル仕様比較

指標Wan2.1Wan2.2Wan2.6Wan2.7
最大解像度720P720P1080P1080P+
最大時間5s5s15s2-15s
フレームレート24fps24fps24fps24fps
パラメータ14B27B27B+27B+
VBenchスコア86.22%87.5%89%+90%+
画像生成--基本統合生成+編集

Wanシリーズの進化

Wan 2.1から最新のWan 2.7への継続的なイノベーション。Wan 2.7-Imageが2026年4月にリリース、Wan 2.7動画モデルも同時公開。

2025.02

Wan 2.1

  • 14Bパラメータフラッグシップモデル
  • VBenchスコア86.22%(世界1位)
  • 中国語/英語テキストエフェクト
  • コンシューマーGPU対応(6GB+)
2025.07

Wan 2.2

  • MoEアーキテクチャ(総計27B)
  • 60+シネマティックパラメータ
  • キャラクター置換技術
  • 50%計算削減
2025.10

Wan 2.5

  • ネイティブマルチモーダルアーキテクチャ
  • 音声と映像の同期
  • 10秒動画生成
  • 写真で歌って踊る
2025.12

Wan 2.6

  • 15秒動画(中国最長)
  • マルチショットナラティブシステム
  • ロールプレイ&ボイスクローン
  • 完全リップシンクサポート
最新版
2026.04

Wan 2.7

  • 千人千面カスタマイズ(骨格・目の形・顔型)
  • カラーパレット制御(色彩抽出&ブランド整合)
  • 3Kトークン テキスト描画(12言語対応)
  • バッチ生成(最大12枚)&インタラクティブ編集
オンライン準備完了

AI動画プレイグラウンド

数秒でAI動画の作成を開始

モデル:
5s
Wan 2.65sシネマティック
1080p16:924fps
Preview
NSFWモード(18+コンテンツ)
推定時間~15s
クレジット消費
10 クレジット期間限定無料

クイックプロンプト:

無限のクリエイティブ可能性

個人の創作からプロの制作まで、Wan AIはあらゆる業界のクリエイターをサポートします。

ショート動画制作

TikTok、YouTubeショート、Instagramリール向けの魅力的なコンテンツを作成。シンプルなテキストプロンプトでクリエイティブな動画を生成。

ライフスタイルVlog
レシピ動画
旅行ハイライト
コメディスケッチ

広告・マーケティング

従来のコストの一部でプロフェッショナルな製品デモ、ブランドCM、マーケティング素材を制作。

製品紹介
ブランドストーリー
SNS広告
EC動画

映画・アニメーション

映画のプリプロダクションやインディーズプロジェクト向けのコンセプト動画、ストーリーボードプレビュー、アニメーションシーケンスを生成。

コンセプトビジュアライゼーション
ストーリーボードアニメーション
VFXプレビュー
インディー映画

教育・研修

物理シミュレーション、プロセスデモ、インタラクティブ学習素材で教育コンテンツを作成。

科学シミュレーション
歴史再現
語学学習
チュートリアル動画

デジタルヒューマン・アバター

ニュース放送、バーチャルアシスタント、インタラクティブエンターテイメント向けのリアルなデジタルヒューマンを生成。

バーチャルアンカー
AIアシスタント
バーチャルインフルエンサー
カスタマーサービスボット

ゲーム・エンターテイメント

ゲーム業界向けのトレーラー、カットシーン、キャラクターアニメーション、プロモーションコンテンツを制作。

ゲームトレーラー
キャラクター公開
カットシーンプレビュー
eスポーツハイライト

Wan 2.7 vs 競合製品

2026年3月データに基づく、Wan 2.7を含むSora 2、Kling 3.0、Veo 3.1、Runway Gen-4.5、Pika 2.0との包括的比較。

指標Wan 2.7
推奨
SeedDance 2.0Sora 2Kling 3.0Veo 3.1Gen-4.5
最大時間2-15s15s25s10s10s10s
解像度1080p1080p1080p4K/60fps1080p1080p
オープンソース
(wan 2.1オープンソース)
真人画像入力
動画参照数5111
無料使用
指示編集
リップシンク★★★★★★★★★☆★★★★☆★★★★☆★★★★☆★★★☆☆
スタイル一貫性★★★★★★★★★☆★★★★☆★★★★☆★★★★☆★★★☆☆
コストFree$$$$$$$$$$$

よくある質問

Wan AI動画ジェネレーターについて知っておくべきこと。

Wan AIはAlibabaが開発した最先端のAI動画生成モデルシリーズです。Wan 2.1は完全オープンソース(Apache 2.0)です。SoraやVeoなどのクローズドソースとは異なり、Wan 2.1はコンシューマーGPUでローカル実行可能。新しいバージョンのWan 2.6は15秒生成、マルチショットナラティブ、ネイティブリップシンクなどのユニークな機能を提供します。
はい!Wan 2.1は完全に無料でオープンソースです。GitHubまたはHugging Faceからモデルウェイトをダウンロードしてローカルで実行できます。Wan 2.6などの新しいバージョンについては、ローカル環境を構築したくない方向けにクラウドAPIを提供しています。
軽量版1.3Bモデルには6-8GB VRAM(RTX 3060以上)が必要です。フル14Bモデルには24GB+ VRAM(RTX 4090、A100)を推奨。モデルはメモリ要件を削減するためINT8量子化をサポートしています。
はい、Wan 2.7は画像モデルと動画モデルの両方がリリースされました。①Wan 2.7-Image(2026年4月リリース):画像生成&編集の統合モデル。千人千面カスタマイズ、カラーパレット制御、3Kトークンテキスト描画(12言語)、インタラクティブ編集、マルチ主体の一貫性(最大9枚参照)、バッチ生成(最大12枚)。人間嗜好ブラインドテスト第1位。②Wan 2.7動画モデル(2026年3月末リリース):1080p/15秒生成、ネイティブオーディオ生成、首尾フレーム制御、九宮格I2V入力、主体+音声クローン、指示編集、動画リクリエーションに対応。オープンソース版は2026年Q2に公開予定です。
Wan 2.6は1回の生成で最大15秒の動画をサポート—中国で最長です。Wan 2.7では最大30秒の動画生成に対応予定です。より長い動画には、キャラクターとシーンの一貫性を維持しながら、マルチショットナラティブ機能を使用して一貫したシーケンスを作成できます。
はい!Wan 2.5以降のバージョンは、完全な音声と映像の同期を備えたネイティブマルチモーダルアーキテクチャを採用。キャラクターは歌ったり話したりでき、リップムーブメントは音声入力と完璧にマッチします。
Soraは物理シミュレーションと長いシーケンス(25秒)に優れていますが、Wanはマルチショットナラティブ、リップシンク、中国語サポートで優位性があります。Wan 2.1は無料でオープンソースです。Wan 2.1はコンシューマーGPUで実行可能ですが、Soraは高価なクラウドインフラが必要です。
もちろんです!Wan 2.1はApache 2.0ライセンスでリリースされており、制限なく商用利用が可能です。広告、映画制作、コンテンツ制作など、あらゆる商用目的に使用できます。
Wanは英語、中国語(ネイティブレベル)、日本語、韓国語、ドイツ語に優れたサポートを提供。モデルはこれらの言語の複雑なプロンプトを理解し、正確な動画を生成できます。
期間限定

素晴らしい動画を作る準備はできましたか?

Wan AIでアイデアを形にする数千人のクリエイターに参加しましょう(Wan 2.1は無料でオープンソース)。

$1 無料クレジット

25% キャッシュバック

50回無料生成

今すぐ特典を受け取る

クレジットカード不要

10M+

Videos

500K+

Users

99.9%

Uptime

24/7

Support