この記事では、Windows環境のClaude Codeで実際に試した結果をもとにまとめています。
ComfyUIを起動した——のに、画面にはノードが並ぶだけで「何をすれば画像が出るか」がさっぱり分からない。その状態から、Claude Codeに「モデルを入れて画像を1枚出して」と頼んだら、どこまで進むのか。結果としては、モデルの選定・ダウンロード・配置・ワークフロー構築までは頼むだけで進んだ。ただし、生成された画像が「思い通り」かどうかは最後に人が確かめる必要があった。
前提が二つある。CC-022(ComfyUIの起動記事)でComfyUIが起動している状態であること。そしてcomfyui-mcp(Claude CodeとComfyUIを橋渡しするツール)が設定済みであること。
この記事で確かめること
確かめるのは一つのことだけだ。Claude Codeに頼むだけで、ComfyUIにモデルを入れて最初の1枚の画像を出せるかどうか。「最初の1枚」の基準は、エラーなく画像ファイルが出力されること。美しさや精度は問わない。
検証の範囲は、モデルの選定→Hugging Faceからのダウンロード→checkpointsフォルダへの配置→基本ワークフローの構築→Queue Promptの実行まで。つまり、ComfyUIを起動してから画像が出るまでの全工程をClaude Codeに任せてみる。
前提が二つある。CC-022(ComfyUIの起動記事)でComfyUIが起動している状態であること。そしてcomfyui-mcpが設定済みであること。comfyui-mcpは、Claude CodeとComfyUIを橋渡しするMCPサーバーだ。これがないとClaude CodeからComfyUIを操作できないので、事前にインストールと設定を済ませておく。
やりたいこと——とりあえず1枚画像を出したい
ComfyUIを起動して画面を開くと、四角い箱(ノード)がいくつか並んでいる。線でつなぐと画像が生成される仕組みだが、仕組みが分かってもcheckpointsフォルダは空っぽで「じゃあどうすればいいのか」が見えない。
一番引っかかるのがモデル選びだ。Stable Diffusion 1.5、SDXL、FLUX——名前がいくつもあって、どれを選べばいいか迷う。拡張子も.safetensorsと聞き慣れない形式。自分のPCのGPUやVRAMで動くかも不安になる。
とりあえず1枚、何でもいいから画像が出れば安心する。その気持ち、よく分かる。この記事では、その「とりあえず1枚」をClaude Codeに頼んで出すところまでを検証する。
Step 1: 最初の依頼——モデルを入れて画像を1枚出して
Claude Codeにはこう頼んだ。
「ComfyUIにモデルをダウンロードして配置し、テキストから画像を生成する基本ワークフローを構築してQueue Promptを実行してください。モデルはStable Diffusion 1.5をお願いします」
モデル名をStable Diffusion 1.5と指定した理由は、SD1.5が最も軽くて初心者向けだからだ。SDXLやFLUXは高品質だがファイルサイズが大きく、VRAM要件も高い。動くかどうかを確かめる段階なので、一番確実そうなSD1.5を選んだ。
依頼文にはモデル名のほかに「テキストから画像を生成する基本ワークフロー」と「Queue Promptの実行」を盛り込んだ。画像が出るまでの全工程を一気に進めてもらう意図だ。
Step 2: モデルの選定とダウンロード
Claude Codeが選んだモデルはStable Diffusion 1.5の公式チェックポイント「v1-5-pruned-emaonly.safetensors」だ。ファイルサイズは約4.27GB。Hugging Face(AIモデルの配布プラットフォームで、多くの開発者が利用する信頼できるサイト)からダウンロードされた。
ダウンロード時間の目安を回線速度別に整理しておく。
- 100Mbpsの回線 → 約5分
- 30Mbpsの回線 → 約18分
- 10Mbpsの回線 → 約55分
4GB超のファイルなので、回線が遅い場合は気長に待つ必要がある。ダウンロードが終わると、自動的にComfyUIのcheckpointsフォルダに配置された。
ここで良かったのは二点。モデルの選定が適切だったこと(SD1.5のemaonly版は軽量で初心者に向いている)と、配置先フォルダの特定が正確だったこと。ただし、ファイルが壊れていないか、配置先が本当に正しいかは人が目で確認した。4GB超のファイルだとダウンロードの途中で通信が切れることがあり、その場合ファイルが不完全になる。ここは自動化に任せきりにできない。
Step 3: ワークフロー構築と画像生成
モデルが配置できたら、次はテキストから画像を生成するワークフローの構築だ。
Claude Codeがcomfyui-mcp経由で構築したノード構成は、大まかに次の流れになっている。
モデル読み込み(CheckpointLoaderSimple)→プロンプト入力(CLIPTextEncode)→空画像の生成(EmptyLatentImage)→サンプリング(KSampler)→VAEデコード(VAEDecode)→画像保存(SaveImage)
ComfyUIではこの「四角い箱(ノード)」を線でつないで一連の処理を作る。この一連の流れをワークフローと呼ぶ。Claude Codeがノードを一つずつ追加し、正しい順序で接続してくれた。
生成パラメータは次の通りだ。
- CFG Scale:7.0(プロンプトへの従いやすさ。7前後が標準的)
- サンプリングステップ数:20(多すぎると時間がかかるが、少なすぎると粗くなる)
- 出力解像度:512×512px(SD1.5の標準サイズ)
- サンプラー:euler(シンプルで結果が安定する)
Queue Promptを実行すると、数秒から数十秒で画像が生成された。プロンプトには「a cat sitting by a window, soft sunlight, cozy atmosphere」のような英語の文章を指定した。
結果は——「猫らしきものが窓辺っぽい場所にいる」程度のぼんやりした画像だった。SD1.5+512×512の初期設定では、精度としてはこんなものだ。最初の1枚としては十分。ここからCFGやステップ数を調整したり、SDXLに乗り換えたりして品質を上げていく。
一発で画像が出たことは良かったが、ワークフロー構築の途中で一つ引っかかった点がある。ノードの接続順序が最初は一部間違っており、Queue Promptを実行してもエラーが出た。修正指示を出して接続を直した結果、2回目の実行で画像が出力された。
Step 4: どこまで頼むだけでできた?
まとめると、Claude Codeに頼むだけでできたことと、人が確認・修正したことの境界線は次のようになる。
頼むだけでできたこと:
– SD1.5モデル(v1-5-pruned-emaonly.safetensors)の選定
– Hugging Faceからのダウンロード
– checkpointsフォルダへの配置
– 基本ワークフローの構築(モデル読み込み→プロンプト→サンプラー→保存)
– Queue Promptの実行
人が確認・修正したこと:
– ダウンロード後のファイルの整合性確認
– checkpointsフォルダの配置先が正しいかの目視確認
– エラーの原因特定と修正指示(1回目の実行でエラーが出たため)
– 生成された画像の品質評価
– モデルのライセンス確認(Hugging Faceの利用条件の確認)
やり取りは全部で3回だった。最初の依頼→エラー発生時の修正指示→最終確認。画像が出るまでは2回のQueue Prompt実行を要した。
「最初の1枚」としての最終評価は、合格だ。美しい画像ではなかったけれど、エラーなく画像ファイルが出力されたという基準はクリアしている。ここから品質を上げていくのは、CC-024(思い通りの画像を生成する記事)で扱う。
この検証の振り返り
全体の流れを整理する。依頼→モデル選定とダウンロード→ワークフロー構築→エラー発生→修正指示→画像出力成功、という6ステップで最初の依頼から1枚が出た。
初心者が試すときのコツを三つ挙げておく。まずモデルはSD1.5のemaonly版を選ぶこと。軽くて確実に動く。次にダウンロード元はHugging Faceの公式ページからにすること。検索で出てくるミラーサイトの中には信頼性が不明なものがある。最後に、Queue Promptがエラーになったら慌てずにノードの接続を確認すること。線が一本抜けているだけで画像が出ないことがある。
comfyui-mcpが設定済みであることがこの記事の絶対前提だった。これがないとClaude CodeからComfyUIを操作できないので、事前に準備を済ませておく。
Claude Codeに頼むだけで、モデル選びから画像が出るまでは一通り進められた。ただし、ノード接続のエラー直しと配置先の確認は人の目が必要だった。画像生成AIを試してみたいWindowsユーザーにとって、まずはこの「1枚出す」体験が一番の壁だと分かった。壁を越えれば、あとはパラメータの調整で品質を上げていくだけだ。
今回の結果は、利用モデル、接続先、時期、環境によって変わる可能性があります。再現する時は検証条件もあわせて確認してください。