|
本帖最后由 Diberlo 于 2023-5-11 21:54 编辑
: O- q/ X% a# y4 u/ j
1 Q$ y) J' h4 K9 ?4 ]- y基础模型:Fantasticmix v40
# y" {! u2 m+ ~3 i8 }: Y: j% L; O7 F, N9 Y
& Z+ T& a+ p7 }3 }5 [& N$ ^3 F才接触controlnet没几天,运用还不是很流畅,大家见笑了。0 Q p, X1 ^4 m5 \+ V$ N
第一步画张草图,拖入controlnet识别(如果openpose可以识别,就更好了),我选择了Canny把数值Preprocessor Resolution调整到700多,能识别出人形就可以,给模型提示词“一个女孩”,不能生产就重画,还好生成了。
# U# B4 I& f# lPS:又试验了一楼朋友给出的建议,果然model中,scribble这个涂鸦识别很给力,强力建议!
. a6 @2 j9 l2 V7 y$ S& q草01.jpg
0 c% b( i K) G8 T; c第二步生成了人物后,本来想文字背景组合的,突然发癫想整点小众的。(重口警告,不喜欢的朋友请及时离开)。想塑造一个血肉背景,直接拿生成的人物随便涂了个背景,血肉模糊很好画。这时候在提示词中加入需要的正提示词(基础题提示词高清什么的随便抄一抄,后面的血肉模糊全是在线翻译的功劳),到这一步都还不用开放大器,小尺寸大量生成,然后筛选。% S: ?" N- G/ i# X4 R! v) l
1 `9 s5 o% T- E! r# E6 N5 n" U8 O草02.jpg: u+ G' [8 v# n/ f3 {6 f" N
选中自己满意的一张,然后再次拖入controlnet,选中depth-midas进行层次识别。识别的结果并不到位,我在正词条中加入了“stucked”(因为词条不停的换掉,现在忘记之前输入的是什么了,抱歉),然后再次筛选。在选中的结果中通过手绘又加入了部分想要变动的内容通过inpaint调整。
& z8 X# E) P: I, ^( U; L( A草03.jpg
0 a$ D- t9 `) ]4 y% O3 k5 m% @最终结果通过4x Ultrasharp进行了放大,结果满意。
- q* A8 |' @, X2 t% E0 ]00000.jpg& b! _" v d$ x, Z
; G3 y/ B" h2 R! {9 t% R
: i7 J2 B$ b k( P/ S
完成。- f8 d7 |: u! ]" G% m. }4 }1 O$ e
第一次写,有什么到不到的请大家多多包涵,感谢。) ? s5 F- W' G& `3 q% T9 B- f
, N3 j5 H9 s1 l; V7 S7 y% S/ L
* L6 y5 E- ]+ v8 `
|
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有账号?立即注册
×
评分
-
查看全部评分
|