|
本帖最后由 Diberlo 于 2023-5-11 21:54 编辑 * u, J7 {- |+ r e& b) x
2 W, D4 Q2 s2 x7 Y% j: C/ |3 k3 w
基础模型:Fantasticmix v40
9 N' l+ s/ _3 x! y' D+ }" r2 d: P Q+ w3 p2 X' W$ B0 _! _
- G' |0 ?9 f- ^) y) S. o7 V
才接触controlnet没几天,运用还不是很流畅,大家见笑了。5 \4 A) ^* o! \" _4 F2 T9 D- u" ~& \
第一步画张草图,拖入controlnet识别(如果openpose可以识别,就更好了),我选择了Canny把数值Preprocessor Resolution调整到700多,能识别出人形就可以,给模型提示词“一个女孩”,不能生产就重画,还好生成了。
8 V0 V& W4 A& o- N9 q! a8 U- FPS:又试验了一楼朋友给出的建议,果然model中,scribble这个涂鸦识别很给力,强力建议!
6 ^3 Y% g6 z) {; h9 e4 z& r草01.jpg" ^+ R2 S, A4 B0 y& G% O8 T
第二步生成了人物后,本来想文字背景组合的,突然发癫想整点小众的。(重口警告,不喜欢的朋友请及时离开)。想塑造一个血肉背景,直接拿生成的人物随便涂了个背景,血肉模糊很好画。这时候在提示词中加入需要的正提示词(基础题提示词高清什么的随便抄一抄,后面的血肉模糊全是在线翻译的功劳),到这一步都还不用开放大器,小尺寸大量生成,然后筛选。3 ]+ P( h0 M x" F6 g% T( q( `
( f. f U+ d/ w! L% w( Z草02.jpg
) o) `" }8 S+ |, ]选中自己满意的一张,然后再次拖入controlnet,选中depth-midas进行层次识别。识别的结果并不到位,我在正词条中加入了“stucked”(因为词条不停的换掉,现在忘记之前输入的是什么了,抱歉),然后再次筛选。在选中的结果中通过手绘又加入了部分想要变动的内容通过inpaint调整。& u4 z& d+ I0 c7 T5 e' A
草03.jpg
3 W) {3 X0 d0 R1 ?' ]最终结果通过4x Ultrasharp进行了放大,结果满意。
8 g$ s; s) k" v) y% @ u" M; y00000.jpg
! d7 ~" v+ f) e9 _: f/ X; }9 w; e. z! Z* l, X/ a, T
% O% h! n( ^% x4 H% ]
完成。& D: s3 c. k' s& C* y+ w- L1 N' k
第一次写,有什么到不到的请大家多多包涵,感谢。; p2 h8 v: x' f' F' }8 J
1 P7 t" f% q& p- @3 Z' B
5 O: i3 [8 e" I |
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有账号?立即注册
×
评分
-
查看全部评分
|