|
本帖最后由 Diberlo 于 2023-5-11 21:54 编辑 - u) C+ b0 j# d: M8 Q' L- _
$ j; W( G$ r/ A7 B: U6 o& ?* M3 U基础模型:Fantasticmix v404 i8 N& Z9 j; s8 |! W) M
- S% C5 G# b7 m3 \$ M
s/ e" a. V6 ~' c" x0 L
才接触controlnet没几天,运用还不是很流畅,大家见笑了。
4 u* ?& i- L' Q+ @4 _- I8 N6 n5 |第一步画张草图,拖入controlnet识别(如果openpose可以识别,就更好了),我选择了Canny把数值Preprocessor Resolution调整到700多,能识别出人形就可以,给模型提示词“一个女孩”,不能生产就重画,还好生成了。
2 h( F0 F" z$ U8 q% b [PS:又试验了一楼朋友给出的建议,果然model中,scribble这个涂鸦识别很给力,强力建议!
8 T* [* {8 }/ E$ ]草01.jpg2 T& Z' y2 I( W! M I
第二步生成了人物后,本来想文字背景组合的,突然发癫想整点小众的。(重口警告,不喜欢的朋友请及时离开)。想塑造一个血肉背景,直接拿生成的人物随便涂了个背景,血肉模糊很好画。这时候在提示词中加入需要的正提示词(基础题提示词高清什么的随便抄一抄,后面的血肉模糊全是在线翻译的功劳),到这一步都还不用开放大器,小尺寸大量生成,然后筛选。; q: l& l$ | q
! D6 m8 g7 a' m! U: r; s; ^草02.jpg( f% t: \( D Q* _0 X2 l4 |4 ~: u
选中自己满意的一张,然后再次拖入controlnet,选中depth-midas进行层次识别。识别的结果并不到位,我在正词条中加入了“stucked”(因为词条不停的换掉,现在忘记之前输入的是什么了,抱歉),然后再次筛选。在选中的结果中通过手绘又加入了部分想要变动的内容通过inpaint调整。
7 E3 ~0 B6 `& W6 w5 R0 v草03.jpg, [3 g- d% T- K9 S' c) _
最终结果通过4x Ultrasharp进行了放大,结果满意。) l# T% c% r: s: w6 K7 ?
00000.jpg
. V; c% c5 h! r6 S: F8 O! ?: C1 \) @, Y/ d7 d' B" P
+ a1 V- T) H( U6 C) y
完成。
( D6 e5 A7 X) r0 ]2 U; x* ^( G第一次写,有什么到不到的请大家多多包涵,感谢。! `8 v1 I6 m& }. e5 n- v. J
3 m- w: Q' p6 v( E8 @+ `$ k, `
' R) w' @# O- y! c: i) i. w |
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有账号?立即注册
×
评分
-
查看全部评分
|