ComfyUI

ComfyUIでFLUX.2 Kleinを動かす完全ガイド【2026年4月最新版】

FLUX.2 Kleinは4B/9Bと軽量ながら、テキスト→画像と画像編集を1モデルで実現。ComfyUIへの導入から推奨設定まで完全解説します。

関連記事: 【2026年4月】AI画像生成最新ニュース7選

FLUX.2 Kleinとは?

Black Forest Labsが2026年1月15日にリリースしたFLUXシリーズ最速モデルです。

4B vs 9B モデル比較

項目 4B(蒸留版) 9B(ベースモデル)
パラメータ数 約40億 約90億
推論速度 〜1秒 3〜5秒
VRAM目安 6GB〜 12GB〜
用途 リアルタイムプレビュー 高品質・編集
ライセンス Apache 2.0 Apache 2.0

商用利用可能なApache 2.0ライセンスが最大の特徴。同人ゲーム・受託案件への活用が公式に認められています。

必要ファイル一覧

ComfyUIでKleinを動かすには以下のファイルが必要です:

4Bモデルの場合

  • テキストエンコーダ: qwen_3_4b.safetensors(HuggingFace: Qwen/Qwen3-4B)
  • 拡散モデル(蒸留版): flux-2-klein-4b-fp8.safetensors
  • VAE: flux2-vae.safetensors

9Bモデルの場合

  • テキストエンコーダ: qwen_3_4b.safetensors(共通)
  • 拡散モデル: flux-2-klein-base-9b-fp8.safetensors
  • VAE: flux2-vae.safetensors(共通)

配置先ディレクトリ

  • ComfyUI/models/text_encoders/ → qwen_3_4b.safetensors
  • ComfyUI/models/diffusion_models/ → flux-2-klein-*.safetensors
  • ComfyUI/models/vae/ → flux2-vae.safetensors

ComfyUI セットアップ手順

Step 1: ComfyUIを最新版にアップデート

ターミナルでComfyUIフォルダに移動して以下を実行します:

git pull

python -m pip install -r requirements.txt

Step 2: モデルファイルをダウンロード

Hugging Face(black-forest-labs/FLUX.2-klein)から各ファイルを取得し、上記ディレクトリに配置します。FP8量子化版を使うことで通常精度版比でVRAM40%削減が可能です。

Step 3: 公式ワークフローを読み込む

ComfyUIの公式ドキュメント(docs.comfy.org)から以下のワークフローJSONを取得できます:

  • テキスト→画像ワークフロー(9Bベースモデル用)
  • 画像編集ワークフロー(9Bベースモデル用)
  • 高速蒸留画像編集ワークフロー(4B用・超高速)

ワークフローJSONをComfyUI画面にドラッグ&ドロップするだけで読み込めます。

推奨パラメータ設定

4B蒸留モデル(最高速)

パラメータ 推奨値 理由
**Steps** **4** 蒸留モデルは4ステップ固定が最適
**CFG Scale** **1.0〜1.5** 低CFGがFLUX系の基本
**Sampler** Euler シンプルなサンプラーで十分
**解像度** 1024×1024 標準正方形

9Bベースモデル(高品質)

パラメータ 推奨値
Steps 20〜28
CFG Scale 1.0
Sampler Euler
解像度 1024×1024 or 832×1216

CFG Scale 1.0が基本です。SDXL系の7〜9と異なり、FLUX系は低CFGが正しい挙動です。

画像編集ワークフローの使い方

Klein最大の特徴はテキスト→画像と画像編集が1モデルで完結する点です。

編集手順

  • ComfyUIでImage Editノードに元画像を接続
  • マスクで編集したい領域を指定
  • プロンプトで変更内容を記述
  • Generate実行
  • 4B蒸留版ではインタラクティブな即時プレビューが可能(1秒以下)
  • 9Bではより高精度な編集が可能(背景保持・細部描写)

パフォーマンス参考値

GPU モデル Steps 生成時間
RTX 4090 4B FP8 4 約0.8秒
RTX 4080 4B FP8 4 約1.2秒
RTX 4070 Ti 9B FP8 20 約8秒
RTX 4060 (8GB) 4B FP8 4 約2.5秒
RTX 3060 (12GB) 9B FP8 20 約18秒

NVFP4対応のRTX 50シリーズではさらに2.5倍速になります。

FLUX.1との違い・移行ポイント

FLUX.1(12B)からKleinへ移行する際の注意点:

  • モデル構造が変わるためFLUX.1用LoRAはそのまま使えない
  • VAEも更新されているため flux2-vae.safetensors を必ず使う
  • テキストエンコーダがT5からQwen3に変更(ファイル名に注意)
  • CFGの適正値はFLUX.1と同様に1.0前後

まとめ

FLUX.2 Kleinは軽量・高速・Apache 2.0という三拍子が揃った実用モデルです。

  • 4Bで高速プレビュー → 確認後に9Bで本番生成というツーステップワークフローが実務的
  • 画像編集がシームレスに組み込めるため、キャラ修正・背景変更がComfyUI上で完結
  • LoRA資産はFLUX.1用は使えないため、Klein専用LoRA学習が今後の課題

最新のAI画像生成ニュースは 【2026年4月】AI画像生成最新ニュース7選 もご覧ください。

よくある質問(FAQ)

Q. FLUX.2 Kleinはどこでダウンロードできますか?

A. Hugging Faceの black-forest-labs/FLUX.2-klein リポジトリからダウンロードできます。HuggingFaceアカウントとライセンス同意が必要です。

Q. FLUX.1用LoRAはKleinで使えますか?

A. 基本的には使えません。モデルアーキテクチャが変わっているため、Klein専用にLoRAを学習し直す必要があります。

Q. ComfyUIのApp ViewでもKleinは使えますか?

A. はい。App ViewはノードUIのフロントエンドを簡略化したものなので、同じモデルが使用可能です。

Q. RTX 4060(8GB)でも動きますか?

A. 4B FP8モデルなら6〜8GBで動作します。9B FP8は12GB推奨ですが、システムVRAMオフロードを使えば8GBでも低速で動作可能です。

Q. 商用ゲームに使っても大丈夫ですか?

A. Apache 2.0ライセンスのため商用利用可能ですが、モデルの利用規約(Acceptable Use Policy)も合わせて確認してください。

-ComfyUI