当ブログには広告が含まれています。

Stable Diffusionで画像生成してみた(3)

生成AI

今回は桜と絡めてのポートレートのバッチ処理にチャレンジ。

設定画面

2並列×100回で200枚生成してみました。

ネガティブプロンプトの便利機能である、「EasyNegativeV2」と「NG_DeepNegative_V1_75T」を設定しています。効果があったのかなかったのかはよく分からないですが、ほぼ意図したとおりの絵になっているのでいい感じの設定になってるのだと思います。

生成した画像のサムネイルはこちら。
200枚だとちょっと少ない気がしてきました(笑)
あまり多くし過ぎるとチェックしきれなくなるけれど、本気モード(?)だと1000枚単位で出したくなりそうです。どれくらいの枚数出すのが良いんでしょうね。

今回、「(full body:1.1)」にしたのですが、横長の画像サイズの指定にしたので無視されて「portrait」になっちゃってますね。「dynamic pose」もあまり考慮されていないようです。

200枚のうち、うまくいった例とうまくいかなかった例をご紹介します。

うまくいった例

うまくいった例です。

桜ポートレートとして成立しています。
ただ、プロンプトで細かく指定していないにもかかわらず顔がどれも似ているのは生成モデルの癖みたいなものなんでしょうかね。

うまくいかなかった例

桜は学習データも多いのか、破綻しているものはとても少なかったです(感覚ですが全体の1割ないくらい)。

Stable Diffusionは手や足の指の生成が苦手なようなので対策が必要ですね。

誰の手?(笑)

向かって左の桜の枝が髪の毛から生えてますね。

感想

とてもきれいな仕上がりばかりで驚きです。
生成AI楽しいです!

コメント

タイトルとURLをコピーしました