|
本帖最后由 Diberlo 于 2023-5-11 21:54 编辑
; b: U* ^( Y* ^0 j
# S! S& B3 b) [. _! P o6 I基础模型:Fantasticmix v40
# @4 ]* M; _/ G1 V4 x; |
: m7 q9 q$ f. ^1 S2 w0 C# u* L5 u* s
才接触controlnet没几天,运用还不是很流畅,大家见笑了。9 U. u) t9 V8 q( a/ c* @/ U
第一步画张草图,拖入controlnet识别(如果openpose可以识别,就更好了),我选择了Canny把数值Preprocessor Resolution调整到700多,能识别出人形就可以,给模型提示词“一个女孩”,不能生产就重画,还好生成了。/ u2 u/ l+ j9 D: K6 ]
PS:又试验了一楼朋友给出的建议,果然model中,scribble这个涂鸦识别很给力,强力建议!) {7 W, |& G/ N: |6 a2 L- A5 X9 D d
草01.jpg
; ^2 ^# F9 Y0 ^8 [# K6 n第二步生成了人物后,本来想文字背景组合的,突然发癫想整点小众的。(重口警告,不喜欢的朋友请及时离开)。想塑造一个血肉背景,直接拿生成的人物随便涂了个背景,血肉模糊很好画。这时候在提示词中加入需要的正提示词(基础题提示词高清什么的随便抄一抄,后面的血肉模糊全是在线翻译的功劳),到这一步都还不用开放大器,小尺寸大量生成,然后筛选。
7 L% h+ f+ a: x, g' l" q" R& E
9 z- M- o6 H) G6 F5 z4 U2 x草02.jpg# ?. x9 \5 q; @( q6 i% x
选中自己满意的一张,然后再次拖入controlnet,选中depth-midas进行层次识别。识别的结果并不到位,我在正词条中加入了“stucked”(因为词条不停的换掉,现在忘记之前输入的是什么了,抱歉),然后再次筛选。在选中的结果中通过手绘又加入了部分想要变动的内容通过inpaint调整。
- W T$ k0 _5 p' z- F8 W9 L草03.jpg
O4 w7 W- s3 ?: W# J最终结果通过4x Ultrasharp进行了放大,结果满意。
9 ~4 l& d- A& L9 l00000.jpg6 p( Z6 j$ N: X% A9 p4 Y" P' W
/ i& [# k9 ]( @ D( U
+ x3 [$ m8 A7 D0 a# l0 {8 R" `完成。- \$ C. I3 u6 g& y+ O1 @
第一次写,有什么到不到的请大家多多包涵,感谢。
$ y" Z) U+ F: u. \& _4 Q! g" e3 Y' j& k# z- L" J, f) r* _
3 l* S; ~6 V& C' ^$ L8 s7 G |
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有账号?立即注册
×
评分
-
查看全部评分
|