この記事では、Windows環境のClaude Codeで実際に試した結果をもとにまとめています。
「猫の画像を出して」――この一文で、ComfyUIは画像を生成してくれるでしょうか。ComfyUIは自由度が高い分、ノードを繋ぐ作業が独特で、最初は何がなんだか分からないものです。そこでClaude Codeに全部頼んでみました。シンプルな画像生成から複雑なワークフローまで、どこまで思い通りにできるかを正直に試しています。
この記事で確かめること
「Claude Codeに頼むだけで、ComfyUIで思い通りの画像がどこまで出せるか」を段階的に検証しました。シンプルな指示で画像が生成できるかから始め、修正指示でどこまで理想に近づくか、複雑なワークフローも自動構築できるかまで試します。
検証の範囲について先に断っておきます。ComfyUIのインストール手順は別記事で扱うため、ここでは取り上げません。また環境はClaude CodeをWindowsにインストールする前提で進めます。MacやLinuxの手順は含めません。
前提:ComfyUIとClaude Codeの連携の仕組み
ComfyUIは自分のPC上で動く画像生成ツールです(他のAIコーディングツールと組み合わせて使うこともできます)。ブラウザで 127.0.0.1:8188 を開いて操作します。画面上では四角い「ノード」という部品を線で繋いでワークフローを組みます。
ポイントは、ComfyUIのワークフローが裏側ではJSONというデータ形式で表現されていること。Claude CodeはこのJSONを直接読み書きできるため、人間が画面上でノードを繋ぐ代わりにテキスト指示だけでワークフローを生成・編集できます。
「猫の画像を出して」と頼むと、Claude Codeはモデル読み込みノード、プロンプトノード、サンプラーノードなどを正しい接続関係で含むJSONを組み立ててComfyUIに送信します。ドラッグ&ドロップで組む作業をテキスト1文で代替できる仕組みです。
ComfyUIをまだインストールしていない方は、ComfyUIの導入手順を解説した記事を先にご覧ください。
Step 1:最初の依頼 — シンプルな画像生成
まずは一番シンプルな依頼から始めました。Claude Codeに対して次のように頼みます。
「ComfyUIで猫の画像を生成して。realisticな写真風でお願いします。」
この頼み方にした理由は2つあります。1つは、Claude Codeが「画像生成」という目的に対して最低限のワークフローを自力で構築できるかを見るため。もう1つは、「realistic」というスタイル指定だけで、モデル選択やパラメータをAIがどこまで適切に判断するかを確認するためです。
Claude Codeの反応は速かったです。数秒でStable Diffusion XL(SDXL)モデルを選択し、プロンプトノードに英語のプロンプトを記述し、KSamplerノードでステップ数やCFGスケールを設定したJSONワークフローを生成しました。モデルの選択やパラメータの初期値は、指示しなくてもそれらしい値が入っていました。
ただし、ここで1つ気になった点があります。Claude Codeが選んだモデルパスが実際の環境と一致する保証はありません。SDXLのモデルファイル名や配置場所は人間の環境によって異なるため、この部分は事前に確認するか、指示文でモデルを明示する方が確実です。
Step 2:最初の結果
生成されたワークフローをComfyUIに読み込ませて実行したところ、画像は出力されました。猫の画像です。毛並みの質感もそれなりで、SDXLの基本性能の高さを感じさせます。
良かった点は、シンプルな指示1文でワークフローが組み上がり、画像が1回で出力されたことです。ノードを手動で繋ぐ手間がゼロでした。Claude Codeが生成したプロンプトも「a realistic photo of a cat」程度であれば十分に機能しています。
一方で足りなかった点もあります。構図の指定をしていなかったため、猫が画面のどこにどう配置されるかは完全にランダムでした。全身が写っていることもあれば、顔のクローズアップになることもある。背景もバラバラです。「思い通りの画像」にはまだ程遠い状態です。
人が確認すべきだったのは、モデルパスの整合性と生成されたプロンプトの内容です。モデルパスは自分の環境に合わせて書き換える必要があり、プロンプトも意図しないキーワードが含まれていないか一読しておく方が安心でした。
Step 3:修正指示でどこまで近づくか
次に、最初の結果をベースに修正指示を出しました。
「猫を画面中央に配置して、背景を夕暮れの窓辺にして。暖かい色調で。」
狙いは3つ。構図のコントロール(中央配置)、背景の具体化(夕暮れの窓辺)、色調の調整(暖かい)——どれも画像生成の基本的な制御項目ですが、テキスト指示だけでどこまで反映されるかがポイントです。
Claude Codeの対応は手際的でした。プロンプトを書き換え、ネガティブプロンプトを追加し、KSamplerのシード値を変更して再生成しました。出力された画像は、たしかに猫が中央に寄り、窓からの夕日のような暖色がかる構図になっていました。
修正が通用したのは「プロンプトの書き換え」というレベルです。構図や色調を変えたいとき、Claude Codeはプロンプトのキーワードを適切に調整できます。ただし「プロンプトの工夫」で近づける範囲に限られ、ControlNetで厳密にポーズを指定したり、インペイントで特定領域だけ書き直したりする高度な制御は、修正指示だけでは難しかったです。
修正前後の変化は確かにありましたが、「思い通り」の度合いで言えば6〜7割といったところ。ここから先はプロンプトの限界が見えてきます。
Step 4:複雑なワークフローに挑戦
ここから難易度を上げます。画像読み込み→ControlNetによる姿勢制御→複数ノード連携で出力、というワークフローをClaude Codeに自動構築させました。
「入力画像を読み込んで、その人物のポーズを維持したまま別の服装の画像を生成するワークフローを組んで。」
Claude CodeはそれらしいJSONを出力しました。画像読み込みノード、ControlNetノード、プロンプトノード、KSamplerノードが含まれ、接続関係も一見すると正しく見えます。
しかし、ここで壁にぶつかります。ControlNetを使うには専用のモデルファイルが必要で、OpenPose、Depth、Cannyなどどのモデルを使うかも明示しないと動きません。Claude Codeは汎用的な構造を組めますが、特定のカスタムノードの依存関係までは自動解決してくれませんでした。
カスタムノードの依存関係トラブルはComfyUIを使っているとよく遭遇する問題です。必要なノードがインストールされていない、バージョンが合わない、Pythonパッケージが足りない——こうした問題はClaude Codeにエラーログを見て直してもらうことで一部は解決できますが、根本的な解決にはComfyUIのエコシステムへの理解が必要でした。
結果として、複雑なワークフローの構築はClaude Codeが8割方の構造を作り、残り2割を人が調整してようやく動きました。ゼロから手作業で組むより圧倒的に速いのは事実です。
Step 5:結果の整理と境界線
ここまでの実験で「頼むだけでできたこと」と「できなかったこと」の境界線を引きます。
頼むだけでできたこと:
– シンプルな画像生成のワークフローJSONの自動生成
– プロンプトの自動作成(英語)
– 修正指示に基づくプロンプトの書き換え
– 複雑なワークフローの基本的な構造の組み立て
頼むだけでは到達しなかったこと:
– モデルパスと実際の環境の自動マッチング
– ControlNetモデルの自動選択と依存関係の解決
– 出力画像の品質評価と自動的な再生成判断
– インペイントや領域指定編集の正確な実行
人が確認・修正すべきだったこと:
– 生成されたJSON内のモデルパスの書き換え
– カスタムノードのインストール状況の確認
– 出力画像が意図通りかの最終判断
– 複雑なワークフローのノード接続の検証
やり取りの回数は、シンプルな生成で2往復(依頼+確認)、修正指示で1往復、複雑なワークフローで4往復(依頼+エラー確認+修正+再確認)でした。合計7往復です。
境界線はこうなります。プロンプトの作成とJSONの基本的な構造組み立てまではAI任せで問題ありません。モデル選択、パラメータの妥当性、カスタムノードの依存関係、出力の最終品質判断——ここは人がやるべき領域です。
自分でも試すときのコツ
この検証結果をもとに、自分でも試すときの実践的なポイントをまとめました。
最初の依頼文の書き方:
画像生成を頼むときは、目的とスタイルをセットで伝えます。「猫の画像を出して」だけでも動きますが、「realisticな写真風で」とスタイルを添えるとモデル選択やパラメータの精度が上がります。モデル名は明示した方が確実です。「SDXLのdreamshaperモデルを使って」と指定すると、モデルパスのズレを防げます。
修正指示の出し方:
修正は具体的に、1回の指示で2〜3項目までに絞ります。「構図を中央にして、背景を夕暮れにして、暖色系にして」とまとめて伝えても反映されますが、項目が多すぎると一部が抜けることがあります。大きな変更は段階的に指示する方が結果が安定します。
つまずきやすいポイント:
VRAMの制約は初心者がよく引っかかる壁です。グラフィックボードのメモリが6GB未満の環境では、SDXLサイズ(1024×1024)の生成でエラーが出る可能性が高くなるとされています。その場合は画像サイズを512×512に下げるか、VAEの最適化オプションを有効にしてみてください。
もう一つよくあるのがカスタムノードの依存関係エラー。ComfyUI Manager経由でノードをインストールしていてもPythonパッケージが足りないと動きません。APIのレート制限エラーに遭遇した経験がある場合も、エラーメッセージをそのままClaude Codeに貼り付ければ不足パッケージのインストールコマンドを提案してくれます。
Windows環境固有の注意点として、モデルファイルのパスに日本語が含まれていると読み込みエラーになることがあります。モデルの保存先は英数字のみのパスにしておく方が無難です。
この検証の振り返り
全体を振り返ります。依頼→結果→修正→限界→確認の流れで検証を進めました。
シンプルな画像生成なら最初の依頼から2往復程度で画像が出力できました。修正指示もプロンプトレベルであれば1往復で反映されます。複雑なワークフローになると4往復必要で、カスタムノードの依存関係は人が確認・解決する場面が出てきます。
やり取りの合計は7往復。そのうちClaude Codeだけで完結したのは、プロンプト生成とJSON構造の組み立て、修正指示に基づくプロンプト書き換えの3つです。モデルパスの調整、カスタムノードの確認、出力品質の判断は人が行いました。
ComfyUIのシンプルな画像生成は驚くほど進みます。しかし、複雑なワークフローの自動構築やカスタムノードの依存関係解決、出力品質の最終判断は人の確認が必須です。この境界線を意識しておけば、ComfyUIの難しさを大幅に緩和できます。
次に試すなら、ControlNetやLoRAを使ったワークフローの自動構築に挑戦してみてください。カスタムノードの組み合わせ次第で、できる範囲はさらに広がるはずです。
まとめ
ComfyUIで思い通りの画像はどこまで出せるか——シンプルな画像生成であれば「頼むだけ」でかなりの部分が進みます。修正指示もプロンプトレベルなら柔軟に対応してくれました。ただし、モデルの選択やパスの確認、カスタムノードの依存関係、出力品質の最終判断は人が担う領域です。AIに任せられるところと人が確認すべきところの境界線を知っておけば、ComfyUI初心者でもかなり前に進めます。
今回の結果は、利用モデル、接続先、時期、環境によって変わる可能性があります。再現する時は検証条件もあわせて確認してください。