ComfyUIでFLUX.2 Kleinを動かす完全ガイド【2026年4月最新】
結論から言うと: FLUX.2 KleinはApache 2.0ライセンスで無料・商用利用可能なAI画像生成モデルです。ComfyUIと組み合わせれば、VRAM 8GBのGPUでも4メガピクセルの超高解像度画像を生成できます。本記事では30分で動作環境を構築できるよう、モデル配置からワークフロー実行まで完全解説します。
FLUX.2とは?FLUX.1からの主な改善点
2026年1月にBlack Forest Labsが公開したFLUX.2は、前世代FLUX.1を大幅に上回る次世代テキスト→画像モデルです。4つのモデルで構成され、中でもFLUX.2 KleinはApache 2.0ライセンスで無料・商用利用可能な唯一のローカル動作モデルです。
FLUX.2ファミリー全モデル比較
| モデル | ライセンス | 主な用途 | 特徴 |
|---|---|---|---|
| FLUX.2 Pro | 商用有料API | プロダクション | 最高品質 |
| FLUX.2 Flex | 商用有料API | 高品質量産 | フレキシブル |
| FLUX.2 Dev | 研究・非商用 | ローカル高品質 | 高品質・商用不可 |
| FLUX.2 Klein | **Apache 2.0・無料** | **ローカル商用** | **高速・軽量・商用可** |
FLUX.1から改善された5つのポイント
- 超高解像度: 最大4メガピクセル(4096×1024など)の出力に対応
- マルチリファレンス: 最大10枚の参照画像を使ったキャラクター一貫性生成
- テキスト描写: 画像内のテキストレンダリングが大幅向上
- 手・指の精度: AI画像生成の鬼門だった手指の描写が飛躍的に改善
- VRAM最適化: NVIDIA RTX最適化でFP8使用時にVRAM消費を最大40%削減
必要環境(ハードウェア・ソフトウェア)
ハードウェア要件
| 項目 | 最低 | 推奨 |
|---|---|---|
| GPU VRAM | 8GB(FP8量子化使用時) | 16GB以上 |
| システムRAM | 16GB | 32GB |
| ストレージ | 30GB | 50GB SSD |
| GPU世代 | RTX 3000番台 | RTX 4090 / RTX 5090 |
ソフトウェア要件
- ComfyUI(最新版推奨)
- Python 3.10〜3.12
- CUDA 12.1以降
ステップ1:モデルファイルのダウンロードと配置
FLUX.2 Kleinの動作には以下の3種のモデルファイルが必要です。
必要なモデルファイルと配置先
| ファイル名 | 配置先フォルダ | 役割 |
|---|---|---|
| `mistral_3_small_flux2_bf16.safetensors` | `ComfyUI/models/text_encoders/` | テキストエンコーダー |
| `flux2_dev_fp8mixed.safetensors` | `ComfyUI/models/diffusion_models/` | 拡散モデル(FP8・省VRAM版) |
| `flux2_dev_bf16.safetensors` | `ComfyUI/models/diffusion_models/` | 拡散モデル(BF16・高品質版) |
| `flux2-vae.safetensors` | `ComfyUI/models/vae/` | VAEモデル |
ポイント: VRAM 12GB以下の環境ではflux2_dev_fp8mixed.safetensorsを使用してください。16GB以上であればflux2_dev_bf16.safetensorsで最高品質を得られます。
ステップ2:ComfyUIワークフローの構築
基本ノード構成(必須ノード7つ)
- CLIPLoader — テキストエンコーダーを読み込む
- CLIPTextEncode — プロンプトをエンコード
- UNETLoader — 拡散モデルを読み込む
- FluxGuidance — FLUX専用のCFG制御ノード
- KSampler — サンプリング処理(中心的なノード)
- VAEDecode — 潜在空間から画像に変換
- SaveImage — 生成画像を保存
KSamplerの推奨パラメータ設定
| パラメータ | 推奨値 | 注意点 |
|---|---|---|
| steps | 20〜28 | 28以上は品質向上が頭打ちに |
| cfg_scale | **3.5〜4.5** | **7〜8は過飽和になるので注意** |
| sampler | euler | dpmpp_2mも可 |
| scheduler | simple | karrasより安定 |
| seed | 任意 | 固定すると再現性確保 |
CFGスケールは必ず3.5〜4.5に設定してください。 従来のSD系と同じ感覚で7〜8に設定すると色が過飽和になり、品質が大幅に低下します。
ステップ3:解像度設定とアスペクト比の選び方
FLUX.2 Kleinは最大4メガピクセルの出力に対応しています。用途に応じて以下の解像度を使い分けてください。
| アスペクト比 | 解像度 | 推奨用途 |
|---|---|---|
| 1:1 | 1024×1024 | SNS投稿・アイコン |
| 16:9 | 1920×1080 | ブログサムネイル・YouTube |
| 4:3 | 1280×960 | 一般的な横長コンテンツ |
| 9:16 | 1080×1920 | スマホ縦長・Instagram Stories |
| 超高解像度 | 2048×2048 | 印刷・商業利用 |
ステップ4:マルチリファレンス機能でキャラクター一貫性を実現
FLUX.2 Kleinの強力な機能の一つがマルチリファレンス機能です。最大10枚の参照画像を与えることで、一貫したキャラクターを複数シーンで生成できます。
マルチリファレンスの設定手順
LoadImageノードを参照画像の枚数分追加(最大10個)- すべての
LoadImageをFluxMultiReferenceConditionerノードに接続 weightパラメータを0.6〜0.85で調整(0.6=参照弱め・自由度高、0.85=参照強め・一貫性高)FluxMultiReferenceConditionerをKSamplerに接続
参照画像のコツ
- 背景を単色にした画像を使う(背景の影響を排除)
- 同一被写体の複数アングルを使う(正面・横顔・斜めなど)
- スタイルを統一する(写真とイラストを混在させない)
ステップ5:FP8量子化でVRAM消費を大幅削減
FP8 vs BF16 詳細比較
| 項目 | BF16(通常版) | FP8量子化版 |
|---|---|---|
| VRAM使用量 | 24GB | **9〜12GB** |
| 生成品質 | 最高(基準) | 95%程度(実用上ほぼ差なし) |
| 生成速度 | 基準 | **1.3〜1.5倍高速** |
| 必要GPU | RTX 4090必須 | **RTX 3080以上で動作** |
RTX 3080・RTX 4070・RTX 4080ユーザーにはFP8版を強く推奨します。 品質の差はほとんど感じられず、速度と動作可能なGPU範囲が大幅に広がります。
よくある質問(FAQ)
Q. FLUX.2 KleinはVRAM 8GBのGPUで動きますか?
FP8量子化版(flux2_dev_fp8mixed.safetensors)を使用すればVRAM 9〜12GBで動作します。RTX 3080やRTX 4070での動作実績があります。厳密には8GBでは不足する場合があるため、VRAM 10GB以上を推奨します。
Q. FLUX.2 Kleinは商用利用できますか?
はい、Apache 2.0ライセンスのため商用利用が可能です。生成画像の著作権もユーザーに帰属します。FLUX.2 Dev(NC)やMidjourney(プラン依存)と異なり、無料で商用利用できる点が最大の強みです。
Q. CFGスケールを高くすると何が起きますか?
FLUX.2系はCFGに敏感で、7〜8に設定すると色の過飽和(彩度が異常に高い不自然な画像)が発生します。必ず3.5〜4.5の範囲に収めてください。
Q. マルチリファレンス機能に必要なノードはどこで入手できますか?
ComfyUI-Manager経由で「FluxMultiReference」を検索してインストールできます。公式リポジトリにも収録予定です。
まとめ:ComfyUI × FLUX.2 Kleinで始めるAI画像生成
- 3つのモデルファイル(テキストエンコーダー・拡散モデル・VAE)を正しいフォルダに配置
- CFGスケールは必ず3.5〜4.5(7〜8は過飽和になる)
- FP8量子化版を使えばVRAM 10GB前後で動作可能
- マルチリファレンス機能でキャラクター一貫性を実現(最大10枚参照)
- Apache 2.0ライセンスで商用利用可能・生成画像の権利はユーザーに帰属
FLUX.2 Kleinは2026年現在、無料・商用可能・ローカル動作という条件を満たす最強クラスのAI画像生成モデルです。AI画像生成ツール比較記事も参照して、自分の用途に合ったツール選びの参考にしてください。
{
"@context": "https://schema.org",
"@type": "HowTo",
"name": "ComfyUIでFLUX.2 Kleinをセットアップする方法",
"description": "FLUX.2 KleinをComfyUIで動かすための完全セットアップ手順。モデルダウンロードからワークフロー実行まで。",
"totalTime": "PT30M",
"tool": [
{"@type": "HowToTool", "name": "ComfyUI"},
{"@type": "HowToTool", "name": "Python 3.10以上"},
{"@type": "HowToTool", "name": "NVIDIA GPU(VRAM 8GB以上)"}
],
"step": [
{
"@type": "HowToStep",
"name": "モデルファイルのダウンロードと配置",
"text": "テキストエンコーダー・拡散モデル・VAEの3ファイルを正しいフォルダに配置する"
},
{
"@type": "HowToStep",
"name": "ComfyUIワークフローの構築",
"text": "CLIPLoader → UNETLoader → KSampler → VAEDecode の基本ノードを接続する"
},
{
"@type": "HowToStep",
"name": "KSamplerパラメータの設定",
"text": "steps: 20〜28、cfg_scale: 3.5〜4.5、sampler: euler に設定する"
},
{
"@type": "HowToStep",
"name": "FP8量子化で最適化",
"text": "FP8版モデルを使用してVRAM消費を最大40%削減し、RTX 3080以上で動作可能にする"
}
]
}
{
"@context": "https://schema.org",
"@type": "FAQPage",
"mainEntity": [
{
"@type": "Question",
"name": "FLUX.2 KleinはVRAM 8GBのGPUで動きますか?",
"acceptedAnswer": {
"@type": "Answer",
"text": "FP8量子化版(flux2_dev_fp8mixed.safetensors)を使用すればVRAM 9〜12GBで動作します。RTX 3080やRTX 4070での動作実績があります。"
}
},
{
"@type": "Question",
"name": "FLUX.2 Kleinは商用利用できますか?",
"acceptedAnswer": {
"@type": "Answer",
"text": "はい、Apache 2.0ライセンスのため商用利用が可能です。生成画像の権利もユーザーに帰属します。"
}
},
{
"@type": "Question",
"name": "FLUX.2 KleinとFLUX.2 Devの違いは何ですか?",
"acceptedAnswer": {
"@type": "Answer",
"text": "KleinはApache 2.0ライセンスで商用利用可能・軽量高速。DevはNC(非商用)ライセンスで高品質だが商用不可。用途に応じて使い分けてください。"
}
},
{
"@type": "Question",
"name": "マルチリファレンス機能とは何ですか?",
"acceptedAnswer": {
"@type": "Answer",
"text": "最大10枚の参照画像を使って一貫したキャラクターやスタイルを生成できる機能です。FluxMultiReferenceConditionerノードで実装します。"
}
}
]
}