본문 바로가기
[TIP] Stable Diffusion/ComfyUI

💡 Flux 모델을 10초 안에? '눈차크(Nunchaku)'로 AI 이미지 생성 속도 혁신하기

by doobam 2025. 5. 15.
반응형

플럭스(Flux)는 디테일과 사실감을 극대화하는 최고의 AI 이미지 생성 모델 중 하나입니다. 하지만 속도는 늘 문제였습니다.
그런데 등장한 Nunchaku(눈차크). MIT Han Lab에서 개발한 이 기술은 기존 플럭스보다 최대 5배 빠른 생성 속도, 그리고 낮은 VRAM 사용량을 자랑합니다.

이 글에서는 Nunchaku를 설치하고, ComfyUI에서 Flux 모델과 함께 사용하는 법을 알려드립니다. 특히 낮은 사양의 GPU 사용자도 충분히 실전 투입이 가능하다는 것이 핵심입니다.

AI 이미지 생성 인터페이스를 조작하는 여성, Flux와 Nunchaku를 통해 고속 이미지 생성 기술을 시각화한 미래지향적 일러스트
Flux + Nunchaku: 10 초 만에 생성되는 AI 이미지 혁명


1. Nunchaku란?

주요 장점:

  • 기본 모델도 10초 이내에 이미지 생성 가능
  • Turbo 모델 없이도 빠른 생성
  • VRAM 6GB 이하 환경에서도 동작
  • Flux 필(인페인트), 리덕스, 일반 Flux 워크플로우 모두 호환 가능

2. 설치 방법

🔧 사전 조건

  • Python 3.11 이상
  • ComfyUI 최신 버전
  • GPU: Turing, Ampere, Ada, Blackwell (RTX 20~50 시리즈)

📦 설치 절차

# 필수 라이브러리 설치
pip install git+https://github.com/mit-han-lab/nunchaku.git

🧩 ComfyUI에서 연동

  1. 기존 ComfyUI 프로젝트 폴더에 ComfyUI-nunchaku 저장소 복제
  2. custom_nodes 폴더에 Nunchaku 폴더가 포함되어 있어야 함
  3. ComfyUI 재시작 → 자동 인식됨

3. 사용법 (Flux 모델과 함께)

① 워크플로우 구성

  • 기존 Flux 워크플로우 사용 가능 (리덕스, 필 등 포함)
  • Load Checkpoint 노드에 Nunchaku 양자화 모델 로드
  • 필요시 Turbo 모델 연결 비활성화 (기본 모델 사용으로 충분히 빠름)

② VRAM 설정 팁

  • 8GB GPU: Flux + Nunchaku 문제없이 사용 가능
  • 6GB 이하: 설정에서 max VRAM usage 제한 가능 (ex. 5GB, 4GB로 테스트됨)
  • 브라우저 버전보다 로컬 실행이 더 안정적

③ 생성 속도 예시

설정 스텝 수 생성 시간
Flux 기본 + Nunchaku 8스텝 4초
Flux 기본 + Nunchaku 20스텝 9~10초
Flux 필 (인페인트) + Nunchaku 20스텝 8~9초

4. 한계와 주의사항

한계 설명
프롬프트에 따라 톤이 다르게 표현될 수 있음 일부 Turbo 설정 시 톤이 과도하게 밝거나 비정상적으로 나올 수 있음
VRAM 극단적 제한 시 텍스트 인코딩 속도 지연 너무 낮은 VRAM (3GB 미만)에서 인코더가 느려질 수 있음
인페인트 결과가 처음엔 부정확할 수 있음 마스크 범위를 조정하여 반복 생성 필요

5. 마무리

Flux와 Nunchaku의 결합은 단순한 성능 향상이 아닌 새로운 제작 흐름의 혁신입니다. 기존의 느린 플럭스 모델 생성 속도에 지친 사용자라면 이제는 기다림이 필요 없습니다.
특히 RTX 3060, 4060, 2060 같은 보급형 GPU 유저도 10초 만에 고퀄리티 이미지를 제작할 수 있는 기회를 얻게 되었습니다.

반응형

댓글