ComfyUI

ComfyUIでFLUX.2 Kleinを動かす完全ガイド【2026年4月】低VRAM設定・ワークフロー最適化

RTX 4060クラスの8GB VRAMからでも動作するFLUX.2 Kleinを、ComfyUIでゼロから動かす手順を解説します。Distilledモデルの4ステップ設定から、低VRAM向け最適化テクニックまで実践的にまとめました。

最新のAI画像生成ニュース全般は 【2026年4月】AI画像生成最新ニュースまとめ もあわせてご覧ください。

FLUX.2 Kleinとは?3分で理解する特徴

Black Forest Labs(FLUX開発元)が2026年1月にリリースした最新画像生成モデルです。「Klein(小さい)」の名の通り、4Bパラメータという軽量設計でありながら次の2機能を1モデルで実行できます。

  • テキスト→画像生成:プロンプトから高品質な画像を生成
  • インペインティング(画像編集):既存画像の一部をテキスト指示で変更

特にDistilledモデルは4ステップでサブ秒推論を達成しており、ラピッドプロトタイピングに最適です。

モデルバリアント比較

モデル名 パラメータ 最低VRAM 生成ステップ 向いている用途
4B Distilled 4B 約8.4GB 4ステップ 高速イテレーション・低VRAM環境
4B Base 4B 約13GB 20〜25ステップ バランス重視・編集精度重視
9B Distilled 9B 約16GB 4ステップ 高品質+高速のバランス
9B Base 9B 約24GB+ 20〜25ステップ 最高品質・プロ用途

ライセンス注意:Klein系の一部モデルはApache 2.0(商用利用可)、Devモデルは別途FLUX Research Licenseが適用されます。HuggingFaceの各モデルページで確認してください。

必要な環境とダウンロード

システム要件

  • GPU:NVIDIA RTX 20シリーズ以上(4B Distilledなら8.4GB VRAM〜)
  • RAM:16GB以上(CPU Offloading利用時は32GB推奨)
  • ComfyUI:最新版(Manager経由で更新推奨)

必要ファイルのダウンロード先

1. モデル本体:HuggingFace black-forest-labs/FLUX.2-klein-4B

2. テキストエンコーダー(T5):t5xxl_fp8_e4m3fn.safetensors

3. VAE:ae.safetensors

ファイルの配置先

ComfyUI/models/diffusion_models/ にモデル本体、ComfyUI/models/text_encoders/ にT5、ComfyUI/models/vae/ にVAEを配置してください。

ComfyUIセットアップ手順(5ステップ)

ステップ1:ComfyUIを最新版にアップデート

ComfyUI Managerを開き「Update ComfyUI」を実行します。FLUX.2 Kleinは比較的新しいノードを使用するため最新版が必須です。

ステップ2:モデルファイルを配置

上記のファイル構成に従って、ダウンロードしたファイルをそれぞれのフォルダに配置します。

ステップ3:公式ワークフローをインポート

ComfyUI公式ドキュメント(docs.comfy.org/tutorials/flux/flux-2-klein)からワークフローJSONをダウンロードし、ComfyUIのキャンバスにドラッグ&ドロップします。または comfy.org/workflows/model/flux-2-klein/ から無料テンプレートを取得できます。

ステップ4:モデルの選択

Load Diffusion Model ノードで配置したモデルファイルを選択します。

ステップ5:KSamplerの設定を調整(次セクション参照)

KSampler推奨設定

Distilledモデルと Baseモデルで設定が異なります。特にDistilledモデルの設定を間違えると品質が大きく低下するため注意が必要です。

Distilledモデル(推奨・低VRAM向け)

パラメータ 推奨値 注意点
Steps 4 この値から変更しない
CFG Scale 1.0〜1.5 高くすると破綻しやすい
Sampler euler 変更不要
Scheduler simple 変更不要
Denoise 1.0(t2i) / 0.7〜0.85(編集) 用途で変える

Baseモデル(高品質生成向け)

パラメータ 推奨値
Steps 20〜25
CFG Scale 3.5〜4.5
Sampler euler
Scheduler beta

低VRAM環境での最適化テクニック5選

1. FP8量子化モデルを使う(VRAM 40%削減)

BFLが公式提供するFP8量子化チェックポイントを使うとVRAMを約40%削減できます。RTX 30シリーズ(Ampere世代)以降のGPUで利用可能です。HuggingFaceの同リポジトリ内にFP8版が含まれています。

2. NVFP4量子化(VRAM最大55%削減・RTX 30以降専用)

RTX 30シリーズ以降ならNVFP4フォーマットでさらに削減できます。ただしNVIDIA Ampere+ GPU専用フォーマットのため、旧世代GPUでは使用不可です。

3. ComfyUIのWeight Streamingを有効化

ComfyUIの設定でWeight Streamingを有効にすると、VRAM不足時に自動でシステムRAMにオフロードします。設定場所はComfyUI設定 → Inference → Enable Weight Streamingです。必要RAM:16GB以上(32GB推奨)。

4. 解像度を段階的に上げる

最初に512×512や768×768で構図・スタイルを確認してから、Hires.fixやアップスケーラーノードで最終解像度に引き上げます。最初から1024×1024以上で生成するとVRAMを大量消費します。

5. Distilledモデルを日常使いに固定する

品質に大きな差がない場面ではDistilledモデルを使い、最終出力が必要な場面のみBaseモデルに切り替える使い分けが最も効率的です。

インペインティング(画像編集)の基本手順

FLUX.2 Kleinの最大の特徴である、テキスト指示による画像部分編集です。

ワークフロー手順

  • Load Image ノードで元画像を読み込む
  • Inpaint Mask ノード(またはPainter Node)で編集部分をペイント
  • テキストノードで変更内容を英語で記述(例:change the sky to golden sunset)
  • KSamplerのdenoise値を編集強度に合わせて設定して実行

denoise値の目安

編集の強度 denoise値
細部の微調整(質感・色調) 0.40〜0.60
要素の変更(物体の入れ替え) 0.65〜0.80
大幅な変更(背景全体の差し替え) 0.85〜1.00

まとめ

FLUX.2 Klein 4B Distilledは、RTX 4060の8GB VRAMでも快適に動作する現時点で最もコスパに優れたオープンソース画像生成モデルです。ComfyUI公式のワークフローテンプレートが充実しているため、ダウンロード→配置→ワークフローインポートの3ステップで即座に試せます。

特に試してほしい使い方は、4ステップ高速生成で構図を大量に試してから、気に入ったものをBaseモデルで仕上げる「ラフ→本番」フローです。

最新のAI画像生成ツール全体の動向は 【2026年4月】AI画像生成最新ニュースまとめ もご覧ください。

よくある質問(FAQ)

Q1. RTX 3060 12GBでFLUX.2 Klein 4B Distilledは動く?

はい、12GB VRAMはDistilledモデルの動作要件(8.4GB〜)を十分満たします。FP8量子化版を使えばさらに余裕が生まれます。

Q2. FLUX.2 Kleinで日本語プロンプトは使える?

T5テキストエンコーダーが日本語を一部理解しますが、精度は英語に劣ります。重要な表現は英語で入力することを推奨します。

Q3. Distilledモデルで4ステップより多く設定してもいい?

4ステップより増やしても品質はほとんど向上せず、むしろ破綻する場合があります。Distilledモデルは4ステップに最適化されているため、変更しないことを強く推奨します。

Q4. ComfyUIのApp ViewでFLUX.2 Kleinは使える?

はい。公式のFLUX.2 Kleinワークフローテンプレートを読み込めば、App Viewで簡単なテキスト入力のみで生成を開始できます。

Q5. FLUX.2 KleinのApache 2.0ライセンスとは?商用利用できる?

Apache 2.0は商用利用・改変・再配布が可能なオープンソースライセンスです。ただし適用されるのは特定のKleinモデルのみです。Devモデルなど別ライセンスのバリアントも存在するため、HuggingFaceの各モデルページで必ずライセンスを確認してください。

-ComfyUI