[预训练模型]LIAE-UDT 288WF 250万迭代 顶级神丹
这应该是目前论坛里表现最好的LIAE-UDT基础丹,在采用了增补的优质素材的同时,改进了训练方法,使得成像速度、大角度、牙眼清晰度方面有了极大的提高。总训练时长近2个月,从头到尾全部是顶着16GB显卡所能开的上限BS=14运行。这个模型参数高,而且本来LIAE资源消耗就比较厉害,所以显卡至少要有8GB显存,
== Model name: 288WF liae-udt BASE_SAEHD ==
== ==
== Current iteration: 2500000 ==
== ==
==---------------------- Model Options ----------------------==
== ==
== resolution: 288 ==
== face_type: wf ==
== models_opt_on_gpu: True ==
== archi: liae-udt ==
== ae_dims: 384 ==
== e_dims: 92 ==
== d_dims: 72 ==
== d_mask_dims: 24 ==
== masked_training: True ==
== eyes_mouth_prio: True ==
== uniform_yaw: False ==
== blur_out_mask: False ==
== adabelief: True ==
== lr_dropout: n ==
== random_warp: True ==
== random_hsv_power: 0.0 ==
== true_face_power: 0.0 ==
== face_style_power: 0.0 ==
== bg_style_power: 0.0 ==
== ct_mode: none ==
== clipgrad: False ==
== pretrain: False ==
== autobackup_hour: 12 ==
== write_preview_history: False ==
== target_iter: 2500000 ==
== random_src_flip: False ==
== random_dst_flip: False ==
== batch_size: 14 ==
== gan_power: 0.0 ==
== gan_patch_size: 36 ==
== gan_dims: 32 ==
使用方法基本上是这样:本身这个丹我就已经删除了AB文件,你下载后直接放进model文件夹即可使用
先打开随机扭曲、眼嘴优先和uniform yaw,训练2W,然后删除AB文件
再保持上述设置再训练2W迭代,然后再删除AB文件
继续保持上述设置再训练2W迭代,然后删除AB文件
保持上述设置,训练直到loss不再下降,然后关闭随机扭曲继续训练到loss不再下降
打开GAN 0.1 Patch Size 36 GAN_Dims 32,训练到loss出现上升,然后打开lr dropout,直到你觉得满意为止
这里解释一下为什么要反复删除interAB文件,可以理解为在保留模型本身数据的同时,将src到dst的特殊映射进行归零处理,通过删除interAB可以提高人脸相似度,这正是liae系列的弱项
有些朋友担心删除这个文件不就相当于从头开始练了么?其实并非如此,尽管在预览上确实是从一片灰开始了,但是你很快就会发现,每次你删除interAB,loss下降速度就会变快很多,最后一次删除后,只需要下几千迭代就能出清晰的脸了
在我自己的测试中,在这个丹的基础上,用新的的src和dst,全程bs14,7-8W的迭代就能出非常高质量的结果了,如果你的src质量很高,可以开GAN,总迭代13W以内基本到头(意思就是再训练也基本上没啥提高了)我用刘亦菲的src换李沁的庆余年中的素材,总迭代13W次
***本内容需购买可见***
是自己训练的吗 本帖最后由 Cxsmo 于 2025-5-1 12:05 编辑
best 288 model is the payuyi 384 res model changed to 288
页:
[1]