FLUX.2 Kleinは2026年時点でローカルAI画像生成の最有力選択肢です。Apache 2.0ライセンスで商用利用可能、8GB VRAMでも動作します。この記事ではComfyUIへのインストールから最初の画像生成まで、ゼロから丁寧に解説します。
FLUX.2 Kleinとは?なぜ今注目されるのか
Black Forest Labsが2025年11月にリリースしたFLUX.2シリーズの中で、Kleinは以下の特徴から実務者に特に支持されています。
| 特徴 | 内容 |
|---|---|
| ライセンス | Apache 2.0(商用利用OK) |
| 速度 | BFLの中で最高速モデル |
| VRAM要件 | FP8版で8GB、GGUF版で6GB〜 |
| 出力品質 | 4MP対応のphotorealistic画像 |
必要な環境と前提条件
ハードウェア要件
- 推奨: NVIDIA RTX 3080以上(12GB VRAM)
- 最低: NVIDIA RTX 3070/4060(8GB VRAM)+FP8量子化
- 低予算: 6GB VRAMでもGGUF形式で動作可能
ソフトウェア前提
- Python 3.10〜3.13
- CUDA 12.x
- ComfyUI(最新版を推奨)
STEP 1: ComfyUIのインストール
Windowsの場合(推奨:ComfyUI Desktop)
ComfyUI公式GitHubリリースページから最新版インストーラーをダウンロードします。インストール後、ComfyUI Desktopを起動すると初回起動時に依存関係が自動インストールされます。
手動インストール(上級者向け)
`
git clone https://github.com/comfyanonymous/ComfyUI
cd ComfyUI
pip install -r requirements.txt
python main.py
`
STEP 2: FLUX.2 Kleinのモデルファイルをダウンロード
必要なファイル一覧
| ファイル | 保存先 | サイズ |
|---|---|---|
| flux2-klein-fp8.safetensors | models/diffusion_models/ | 約12GB |
| t5xxl_fp16.safetensors | models/clip/ | 約9GB |
| ae.safetensors(VAE) | models/vae/ | 約335MB |
Hugging Faceからのダウンロード
huggingface-cliを使う方法が推奨です。pip install huggingface_hubでインストール後、huggingface-cli download black-forest-labs/FLUX.2-klein --local-dir ./models/diffusion_models/でダウンロードします。
低VRAM環境向け:GGUFバリアント
8GB未満のVRAMではGGUF形式が有効です。city96/FLUX.2-klein-ggufリポジトリからQ4_K_M量子化モデルをダウンロードします。
STEP 3: ワークフローの読み込み
公式ワークフローの取得
1. ComfyUIを起動(http://127.0.0.1:8188 にアクセス)
2. 「Load」ボタンをクリック、または公式ワークフロー画像をドラッグ&ドロップ
3. ComfyUI公式サンプルページ(comfyanonymous.github.io/ComfyUI_examples/flux2/)から取得
基本ノード構成
CLIPTextEncode(T5)→ FluxGuidance → KSampler → VAEDecode → SaveImageの流れが基本です。CheckpointLoader(Klein)をKSamplerに接続します。
STEP 4: 推奨パラメータ設定
テキスト→画像の基本設定
| パラメータ | 推奨値 | 説明 |
|---|---|---|
| Steps | 20〜28 | 少ないとノイジー、多いと遅い |
| CFG Scale | 3.5〜4.5 | FLUX系は低めが良い |
| Sampler | euler / dpmpp_2m | 品質と速度のバランス |
| Scheduler | simple / karras | - |
| 解像度 | 1024×1024 / 1280×720 | 学習解像度に近い方が良い |
FLUX系でのプロンプト記法
FLUX.2はCLIP-Lを使わずT5のみで処理します。タグの羅列ではなく、自然文での詳細な状況描写が効果的です。例:「A professional photograph of a woman in a red dress standing in a sunlit garden, golden hour lighting, shallow depth of field, 4K, photorealistic」
STEP 5: 低VRAM向け最適化設定
FP8量子化の有効化
ComfyUI設定でfp8_e4m3fn_unetとfp8_e4m3fn_text_encをtrueに設定します。
VRAMを節約するその他の設定
- VAE Tiling: 大解像度生成時のVRAM節約(設定→最適化)
- モデルオフロード: --lowvram 起動オプション
- ライブプレビュー無効化: 約500MB節約
App View:初心者はここから始めよう
2026年のComfyUIにはApp Viewが追加されました。プロンプト入力欄にテキストを入力して「Generate」ボタンを押すだけで画像生成できます。熟練後はNode Viewに切り替えれば完全なカスタマイズが可能です。
まとめ:FLUX.2 KleinはローカルAI生成の新標準
FLUX.2 KleinをComfyUIで動かすメリットをまとめます。
- Apache 2.0ライセンスで商用作品にも使用可
- 8GB VRAMの一般的なゲーミングPCで動作
- マルチリファレンス・高精度テキスト描画などの最新機能が使える
- ComfyUIのApp Viewで初心者でも簡単操作
次のステップとして、LoRAの組み合わせやControlNetとの連携を試してみてください。
よくある質問(FAQ)
Q: FLUX.2 KleinはMidjourneyと比べて画質はどう?
A: Midjourney V8には及ばない場面もありますが、ローカル・無料・商用可の点でFLUX.2 Kleinが優位です。プロンプト追従性は特に優秀です。
Q: ComfyUIのApp ViewとAutomatic1111どちらが使いやすい?
A: 直感的な操作性はAutomatic1111が勝りますが、FLUX.2対応ワークフローの充実度ではComfyUIが上回ります。初心者はApp Viewから入るのがおすすめです。
Q: T5テキストエンコーダーは必須?
A: FLUX.2の性能を最大限引き出すにはT5が必須です。省略するとプロンプト追従性が大幅に低下します。
Q: 生成速度の目安は?
A: RTX 4090で1024×1024/20ステップ約5〜8秒。RTX 3080で15〜25秒程度です(FP8使用時)。
Q: WindowsとLinuxどちらがComfyUIのパフォーマンスが良い?
A: 差は小さいですが、Linuxの方がドライバーオーバーヘッドが少なく数%高速な傾向があります。Windowsでも実用上問題ありません。