up:: Stable Diffusion
便利機能詰め合わせ。
XLはPonyとAnimagineでつかうモデルが異なることも。
らくがき
ControlNet 852_a_scribble_xl - veryhard | Stable Diffusion Controlnet | Civitai
黒地白線からの色付け。
kataragi/ControlNet-LineartXL · Hugging Face
白地黒線からの色付け。
kataragi/controlnetXL_line2color at main
ボックス内ならなんでもいいよ
LooseControl—Use the box depth map to control the protagonist position - v1.0 | Stable Diffusion Controlnet | Civitai
canny,scribble
xinsir (qi)
sdxlのモデルはここ。
bdsqlsz/qinglong_controlnet-lllite at main
lllyasviel/sd_control_collection · Hugging Face
sd1.5
ControlNet model download · lllyasviel/stable-diffusion-webui-forge Wiki · GitHub
lllyasviel/ControlNet-v1-1 at main
comfyanonymous/ControlNet-v1-1_fp16_safetensors at main
Openpose
骨格関係。ControlNet最大の目玉。
画像→骨格にはPreprocessorという物が必要。これはwebuiなら初回適用時に自動でインストールされる。
いろいろ種類があったが、今はdw_openpose_fullという物以外を使う意味はない。商用利用可能。
骨格→画像に使うモデルは自分でDL。
骨格を既に持っている場合は、PreprocessorをNoneにして実行する。
How to Use Open Pose & ControlNet in Stable Diffusion - Next Diffusion
ちなみにBlenderでこのボーンを作る機能もあったり。
Character bones that look like Openpose for blender _ Ver_96 Depth+Canny+Landmark+MediaPipeFace+finger
モデルごとの違い。
ControlNet OpenPoseモデルによる出力の違い - Stable Diffusion Tips | iPentec
animal。
huchenlei/animal_openpose · Hugging Face
えでぃた
3D Openpose Editor
Shuffle
絵柄の雰囲気を保ったまま別の画像が描ける。
直接img2imgするとポーズや人物も大体決まってしまうが、それよりもう少し柔軟に雰囲気だけ取り出す感じ。
歪ませたりカラー抽出したりいろいろある。
T2I-Adapter
Controlnetの中にあるが、Controlnetの亜種っぽい奴。
Shuffleと同じStyle転送、openposeなどに加え、それらの処理の結合を公式サポートしている。
【T2I-Adapter・ControlNet】画像によるスタイルの適用 | ジコログ
Controlnetよりも軽いらしい。
Google Colab で T2I-Adapter-SDXL を試す|npaka
TencentARC/T2I-Adapter at main
TencentARC/t2i-adapter-lineart-sdxl-1.0 at main
IP-Adapter
同じ顔のキャラクターの違う構図を生成する。亜種。
img2imgのキャラに、ControlNetのポーズを取らせる。
Control Weight値を上げれば元の絵により近づく。
Full-faceは顔特化。
LicenseはApatch。
h94/IP-Adapter at main
【Stable Diffusion】「IP-Adapter」の使い方!元画像から類似の画像を生成する方法 | イクログ
How To Use IP-Adapter Models for Image Prompting (A1111) - Next Diffusion
IP-Adapters: All you need to know - Stable Diffusion Art
img2imgに入った絵の顔を保ったままに、ControlNet上の画像の特徴を追加する。
なので背景を追加するといった使い方も可能。というかこっちが元。
顔特化のIP-Adapter-FaceIDもある。元のIP-AdapterにFaceIDを追加し、より正確性を増したバージョン。
複数枚を一気に食わせてさらに正確性を高めるportraitモデルも追加されている。
ただしこちらはInsightFaceを使用した関係で非営利ライセンス。
Face ID license and redist of the lora version · Issue 188 · tencent-ailab/IP-Adapter · GitHub
効く量をLoRAで指定するので、LoRAモデルも必要。
h94/IP-Adapter-FaceID · Hugging Face
StableDiffusionで同じ顔のAI美女を作る方法『IP-Adapter FaceID』の使い方
Reference only
元画像の特徴を残したまま別の絵を作る。いわゆる絵をプロンプトとして使う機能。
IP-Adapterと違い構図やら背景やら元絵の特徴を強く引き継いでしまうため、最初から背景無しで作った絵とかじゃないと今はもう使えない。
Photomaker
3D用の顔一致。
入力がRealisticの実という意味で、そこからの変換はStylizationも可能。
TencentARC/PhotoMaker · Hugging Face
InstantID
Photomakerの後継。IP-Adapterと同じタイプ。亜種。元写真はカラーを使うと精度が上がる。
GitHub - InstantID/InstantID: InstantID : Zero-shot Identity-Preserving Generation in Seconds 🔥
MistoLine
SDXL用。CannyやSoftEdgeやScribbleやらの統合版。
商用利用する際は適切な表示が必要になる。
プリプロセッサとしてAnyLineという物がついてくる。
AnyLineかけない場合は、構図と明暗を維持して絵を作ることもできる……そっちがメイン?
公式でmistoLine_rank256推奨。
Anystyle
構図と明暗を維持して絵を作る。
Dev版のAnytestのAはAnimagine、PはPony。dimはllliteじゃないやつ。PMはAとPの事前マージをベースに。
x.com
anytestはv3が正確、v4がちょっとガバらしい。
SDXL用ControlNetモデルの使い方【Anytest + ComfyUI】
でも試してるとv4で全部いい気がしてくる。
手と顔さえあれば体を生成してくれる。
x.com
LLLite
ControlNetのちょっと変更ver。clipじゃなくmodelにかかるのでちょっとどころじゃないが。
ComfyUIで使うとなんかやたら重い。
応用
- DazでキャラとNormal抜き、ついでに背景のNormalを取る
- 一度キャラをNormalで生成、髪と元でキャラだけ切抜き
- 二人を合わせてタネ画像を作る
- Depthをかけ、再生成
- Facedetailerで顔を修正(lamaで一人だけにして確実に顔を取っている)
キャラクター描き分け ComfyUI ワークフローの解説|pipix@シュガーナイト
X-Adapter
SD1.5のモデルをSDXLで使う。
ControlNetもLoRAもいけるみたい?
ComfyUIで動かす無茶苦茶もできる。
GitHub - kijai/ComfyUI-Diffusers-X-Adapter: ComfyUI diffusers wrapper node X-Adapter testing
代替として、Latentを直接SDXLに渡せるcustom nodeもあるらしい。
ニューラルネットワーク使用。
凄いように見えて、その実中身はHiresfixらしい。
そのためsd1.5で上手くいかないとsdxlでは使えない。
なのでforgeは実装しない。
[Enhancement] Adding the X-adapter · Issue 2652 · Mikubill/sd-webui-controlnet · GitHub
StarLine
Line2colorをさらに線画に忠実にしたもの。
一度l2cしてから線画太くして線重ねて太くした分を機械的に除去して…ということをやっている。
GitHub - mattyamonaca/starline: Strict coloring machine for line drawings.
Tile
大きな画像を小さなタイルに分割し、全体の画像を作る手法。
派生のHyperTileはVAEもtile化している。
resample, color, color + sharpはその順でバージョンアップしたもの。
色がくすまないようにしたもの、鮮明さを追加したもの。
Control Net v1.1.196に搭載されたTileの新モード:Tile_colorfixとTile_colorfix+Sharp|アリタマナブ
QR
qrコードを埋め込む。
応用でいろいろ埋め込むことが出来る。
Temporalnet
時間的一貫性を付与する。
SDXL版もある。
CiaraRowles/TemporalNet · Hugging Face
Densepose
ComfyUI上
合計の強度が1を超えると不味いという噂。
【Stable-Diffusion】🔰人物と背景を合成!ComfyUIでAnimatediff <マスクと合成編:後編> animatediff sam ipadapter - YouTube
Depth
深度情報。
2024/06/15くらいにプリプロセッサ、Depth Anything V2が出た。大体これでいい。
852_a_clone
anystyle同様絵の構図を保ったままにする。
i2iだと問題ないが、t2iだと色を雰囲気保ったまま変更してしまう。注意。
絵の構図を保ったままなのでアップスケールに使える。あとAnimatediff。
https://civitai.com/models/463436/controlnet-852aclonexl
Depth Hand Refiner
手だけ深度情報を取って作り直し、適用することで手を修正する。
中身はGraphomorというもの。ComfyUI-Impact-Packでも出た奴。
線画の種類
lineart そんな正確じゃない 雰囲気を変えられる
softedge 正確 hedのほうが忠実
ControlNet(v1.1)を使って塗り直す方法【Stable Diffusion】 | 謎の技術研究部