|
本帖最后由 Diberlo 于 2023-5-11 21:54 编辑
% W5 k2 t$ F/ _7 ]; G, U( L. R! e' l6 o" |) X3 P/ C0 Y
基础模型:Fantasticmix v40
1 S) u4 U7 C2 I9 B0 }$ \+ k2 ~
; G) K2 M+ Y3 G' o8 z" |/ p7 C/ g* Q- A0 D7 k5 u1 T$ [' z
才接触controlnet没几天,运用还不是很流畅,大家见笑了。* r* B2 l8 ?$ m; `
第一步画张草图,拖入controlnet识别(如果openpose可以识别,就更好了),我选择了Canny把数值Preprocessor Resolution调整到700多,能识别出人形就可以,给模型提示词“一个女孩”,不能生产就重画,还好生成了。+ w, U& c7 m, O, X" A3 [. z% h) M
PS:又试验了一楼朋友给出的建议,果然model中,scribble这个涂鸦识别很给力,强力建议!
9 U3 G+ {* x) F" t草01.jpg
1 U. W& I2 s3 b" ^& E第二步生成了人物后,本来想文字背景组合的,突然发癫想整点小众的。(重口警告,不喜欢的朋友请及时离开)。想塑造一个血肉背景,直接拿生成的人物随便涂了个背景,血肉模糊很好画。这时候在提示词中加入需要的正提示词(基础题提示词高清什么的随便抄一抄,后面的血肉模糊全是在线翻译的功劳),到这一步都还不用开放大器,小尺寸大量生成,然后筛选。7 N. P- f- b2 G+ q& i/ C; A( Q, H
& n7 ^" E1 Y9 a. c
草02.jpg3 k3 ]- T4 }2 ?8 n, Y- p3 V! D8 Z
选中自己满意的一张,然后再次拖入controlnet,选中depth-midas进行层次识别。识别的结果并不到位,我在正词条中加入了“stucked”(因为词条不停的换掉,现在忘记之前输入的是什么了,抱歉),然后再次筛选。在选中的结果中通过手绘又加入了部分想要变动的内容通过inpaint调整。
% q! A8 L" X8 j8 \草03.jpg
# S1 W0 M- x0 I) _. v1 G- S7 X最终结果通过4x Ultrasharp进行了放大,结果满意。6 Z5 q. v* a6 m# q% v9 i
00000.jpg
7 E$ u& o$ c; G( p" Y6 q, P8 J# q n' @
) [: p: U- X) k9 \8 w2 l
完成。% ]# f: ]4 U7 J/ b% t. _
第一次写,有什么到不到的请大家多多包涵,感谢。
: r4 U2 E r9 ^4 U9 [5 z' ?% M! V. F
2 M ` H2 F/ b) m4 q |
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有账号?立即注册
×
评分
-
查看全部评分
|