FLUX.2 Kleinは4B/9Bと軽量ながら、テキスト→画像と画像編集を1モデルで実現。ComfyUIへの導入から推奨設定まで完全解説します。
関連記事: 【2026年4月】AI画像生成最新ニュース7選
FLUX.2 Kleinとは?
Black Forest Labsが2026年1月15日にリリースしたFLUXシリーズ最速モデルです。
4B vs 9B モデル比較
| 項目 | 4B(蒸留版) | 9B(ベースモデル) |
|---|---|---|
| パラメータ数 | 約40億 | 約90億 |
| 推論速度 | 〜1秒 | 3〜5秒 |
| VRAM目安 | 6GB〜 | 12GB〜 |
| 用途 | リアルタイムプレビュー | 高品質・編集 |
| ライセンス | Apache 2.0 | Apache 2.0 |
商用利用可能なApache 2.0ライセンスが最大の特徴。同人ゲーム・受託案件への活用が公式に認められています。
必要ファイル一覧
ComfyUIでKleinを動かすには以下のファイルが必要です:
4Bモデルの場合
- テキストエンコーダ: qwen_3_4b.safetensors(HuggingFace: Qwen/Qwen3-4B)
- 拡散モデル(蒸留版): flux-2-klein-4b-fp8.safetensors
- VAE: flux2-vae.safetensors
9Bモデルの場合
- テキストエンコーダ: qwen_3_4b.safetensors(共通)
- 拡散モデル: flux-2-klein-base-9b-fp8.safetensors
- VAE: flux2-vae.safetensors(共通)
配置先ディレクトリ
- ComfyUI/models/text_encoders/ → qwen_3_4b.safetensors
- ComfyUI/models/diffusion_models/ → flux-2-klein-*.safetensors
- ComfyUI/models/vae/ → flux2-vae.safetensors
ComfyUI セットアップ手順
Step 1: ComfyUIを最新版にアップデート
ターミナルでComfyUIフォルダに移動して以下を実行します:
git pull
python -m pip install -r requirements.txt
Step 2: モデルファイルをダウンロード
Hugging Face(black-forest-labs/FLUX.2-klein)から各ファイルを取得し、上記ディレクトリに配置します。FP8量子化版を使うことで通常精度版比でVRAM40%削減が可能です。
Step 3: 公式ワークフローを読み込む
ComfyUIの公式ドキュメント(docs.comfy.org)から以下のワークフローJSONを取得できます:
- テキスト→画像ワークフロー(9Bベースモデル用)
- 画像編集ワークフロー(9Bベースモデル用)
- 高速蒸留画像編集ワークフロー(4B用・超高速)
ワークフローJSONをComfyUI画面にドラッグ&ドロップするだけで読み込めます。
推奨パラメータ設定
4B蒸留モデル(最高速)
| パラメータ | 推奨値 | 理由 |
|---|---|---|
| **Steps** | **4** | 蒸留モデルは4ステップ固定が最適 |
| **CFG Scale** | **1.0〜1.5** | 低CFGがFLUX系の基本 |
| **Sampler** | Euler | シンプルなサンプラーで十分 |
| **解像度** | 1024×1024 | 標準正方形 |
9Bベースモデル(高品質)
| パラメータ | 推奨値 |
|---|---|
| Steps | 20〜28 |
| CFG Scale | 1.0 |
| Sampler | Euler |
| 解像度 | 1024×1024 or 832×1216 |
CFG Scale 1.0が基本です。SDXL系の7〜9と異なり、FLUX系は低CFGが正しい挙動です。
画像編集ワークフローの使い方
Klein最大の特徴はテキスト→画像と画像編集が1モデルで完結する点です。
編集手順
- ComfyUIでImage Editノードに元画像を接続
- マスクで編集したい領域を指定
- プロンプトで変更内容を記述
- Generate実行
- 4B蒸留版ではインタラクティブな即時プレビューが可能(1秒以下)
- 9Bではより高精度な編集が可能(背景保持・細部描写)
パフォーマンス参考値
| GPU | モデル | Steps | 生成時間 |
|---|---|---|---|
| RTX 4090 | 4B FP8 | 4 | 約0.8秒 |
| RTX 4080 | 4B FP8 | 4 | 約1.2秒 |
| RTX 4070 Ti | 9B FP8 | 20 | 約8秒 |
| RTX 4060 (8GB) | 4B FP8 | 4 | 約2.5秒 |
| RTX 3060 (12GB) | 9B FP8 | 20 | 約18秒 |
NVFP4対応のRTX 50シリーズではさらに2.5倍速になります。
FLUX.1との違い・移行ポイント
FLUX.1(12B)からKleinへ移行する際の注意点:
- モデル構造が変わるためFLUX.1用LoRAはそのまま使えない
- VAEも更新されているため flux2-vae.safetensors を必ず使う
- テキストエンコーダがT5からQwen3に変更(ファイル名に注意)
- CFGの適正値はFLUX.1と同様に1.0前後
まとめ
FLUX.2 Kleinは軽量・高速・Apache 2.0という三拍子が揃った実用モデルです。
- 4Bで高速プレビュー → 確認後に9Bで本番生成というツーステップワークフローが実務的
- 画像編集がシームレスに組み込めるため、キャラ修正・背景変更がComfyUI上で完結
- LoRA資産はFLUX.1用は使えないため、Klein専用LoRA学習が今後の課題
最新のAI画像生成ニュースは 【2026年4月】AI画像生成最新ニュース7選 もご覧ください。
よくある質問(FAQ)
Q. FLUX.2 Kleinはどこでダウンロードできますか?
A. Hugging Faceの black-forest-labs/FLUX.2-klein リポジトリからダウンロードできます。HuggingFaceアカウントとライセンス同意が必要です。
Q. FLUX.1用LoRAはKleinで使えますか?
A. 基本的には使えません。モデルアーキテクチャが変わっているため、Klein専用にLoRAを学習し直す必要があります。
Q. ComfyUIのApp ViewでもKleinは使えますか?
A. はい。App ViewはノードUIのフロントエンドを簡略化したものなので、同じモデルが使用可能です。
Q. RTX 4060(8GB)でも動きますか?
A. 4B FP8モデルなら6〜8GBで動作します。9B FP8は12GB推奨ですが、システムVRAMオフロードを使えば8GBでも低速で動作可能です。
Q. 商用ゲームに使っても大丈夫ですか?
A. Apache 2.0ライセンスのため商用利用可能ですが、モデルの利用規約(Acceptable Use Policy)も合わせて確認してください。