RTX 4090에서 Wan AI를 로컬로 실행하는 방법
RTX 4090으로 로컬 머신에서 Wan 2.6을 설정하는 완전한 가이드. 최적의 성능을 위한 단계별 지침.
Tech Team
Wan AI

Wan AI를 로컬로 실행하면 비디오 생성 워크플로우를 완전히 제어할 수 있습니다. 클라우드 API의 제한이나 프라이버시 우려 없이 자유롭게 실험할 수 있다는 것이 최대 장점입니다. 이 가이드에서는 NVIDIA RTX 4090이 장착된 시스템에서 Wan 2.6을 설정하는 방법을 안내합니다.
먼저 필수 조건을 확인하세요: Python 3.10 이상, CUDA 12.1 이상, 최소 24GB VRAM. RTX 4090은 전체 14B 파라미터 모델을 실행하기에 이상적입니다. RTX 3090(24GB)에서도 동작하지만 생성 속도는 약 40% 느려집니다. RTX 4080(16GB)의 경우 1.3B 경량 모델만 대응 가능합니다.
설정 절차는 다음과 같습니다. 먼저 GitHub에서 리포지토리를 클론합니다: git clone https://github.com/Wan-Video/Wan2.6. 다음으로 conda create -n wan python=3.10으로 가상 환경을 만들고, pip install -r requirements.txt로 종속성을 설치합니다. 다른 프로젝트와의 충돌을 피하기 위해 가상 환경 사용을 강력히 권장합니다.
모델 가중치는 Hugging Face에서 다운로드할 수 있습니다. 14B 모델은 약 28GB의 디스크 공간이 필요합니다. 다운로드 후 config 파일에서 모델 경로를 지정하세요.
최적의 성능을 위해 품질을 유지하면서 메모리 사용량을 줄이는 INT8 양자화 사용을 권장합니다. BitsAndBytes 라이브러리를 사용한 INT8 양자화로 VRAM 사용량을 약 14GB까지 줄일 수 있습니다. 추가 메모리 최적화를 위해 xformers를 활성화할 수도 있습니다.
480p 비디오 기준으로 RTX 4090에서 약 30초/프레임의 생성 속도가 기대됩니다. 5초(24fps = 120프레임) 비디오 생성에는 약 1시간이 소요됩니다. ComfyUI나 WebUI 같은 GUI 프론트엔드를 사용하면 커맨드라인에 익숙하지 않은 사용자도 쉽게 조작할 수 있습니다.


