>>820
ollamaやらquwen 使えるノードがあるからcomfy上でllmとエロ会話をしつつプロンプトを吐かせる事はできる。
ただ、会話の一部だけを自動でプロンプトに流し込む事ができないから、そこはコピペ作業がいる。
VRAM容量的に16G以上は欲しいが16ギガにイラスト用モデルとLLM両方乗っけるのは結構キツい。
SD1.5ならともかく、リアスやそれ以上のもの乗っけるとVRAM溢れて会話も生成も快適とはいい難い。

試してみたけりゃcomfyUI LLM party って拡張使えばおk。