RTX 4090でWan AIをローカル実行する方法
RTX 4090でWan 2.6をローカルマシンにセットアップする完全ガイド。最適なパフォーマンスのためのステップバイステップの手順。
Tech Team
Wan AI

Wan AIをローカルで実行することで、動画生成ワークフローを完全にコントロールできます。クラウドAPIの制限やプライバシーの懸念なしに、自由に実験できるのが最大のメリットです。このガイドでは、NVIDIA RTX 4090搭載システムでWan 2.6をセットアップする方法を説明します。
まず、前提条件を確認してください:Python 3.10以上、CUDA 12.1以上、少なくとも24GBのVRAM。RTX 4090は完全な14Bパラメータモデルを実行するのに理想的です。RTX 3090(24GB)でも動作しますが、生成速度は約40%低下します。RTX 4080(16GB)の場合は1.3Bの軽量モデルのみ対応となります。
セットアップ手順は以下の通りです。まずGitHubからリポジトリをクローンします:git clone https://github.com/Wan-Video/Wan2.6。次にconda create -n wan python=3.10で仮想環境を作成し、pip install -r requirements.txtで依存関係をインストールします。他のプロジェクトとの競合を避けるため、仮想環境の使用を強く推奨します。
モデルの重みはHugging Faceからダウンロードできます。14Bモデルは約28GBのディスク容量が必要です。ダウンロード後、configファイルでモデルパスを指定してください。
最適なパフォーマンスのために、品質を維持しながらメモリ使用量を削減するINT8量子化の使用をお勧めします。BitsAndBytesライブラリを使用したINT8量子化により、VRAM使用量を約14GBまで削減できます。追加のメモリ最適化のためにxformersを有効にすることもできます。
480p動画の場合、RTX 4090で約30秒/フレームの生成速度が期待できます。5秒(24fps = 120フレーム)の動画生成には約1時間かかります。ComfyUIやWebUIなどのGUIフロントエンドを使用すると、コマンドラインに不慣れなユーザーでも簡単に操作できます。


