可以分享一下你制作lora的经验吗

#1
by jianhuihehe - opened

可以分享一下你制作lora的经验吗

https://civitai.com/articles?view=feed&tags=128645
C站教程很多,我就不献丑了,只提一下在真人lora制作方面可能有差异的几点。

1.挑选图片源素材
a.脸部尽量清晰,不清晰则使用supir先变清晰再进行挑选,尤其是老照片
b.姿势表情尽量多样,半身照最多最好,其次是大头照,适量加两三张全身照
c.可以借助代码脚本进行相似度挑选,比人眼识别省事
d.能抠背景还是抠掉最好,但一定要抠得干净,不然生成图一定会有毛边,不如不抠
e.20到30张足够了

2.打标签
a.用wdtagger足够用了,flux也不需要追求自然语言描写,效果也并不会更好
b.抠掉背景的注意把类似white background改成transparent background,对于flux的模型来说是能识别两者的区别的
c.除了人物脸部的描述,其他描述尽可能保留,越详细越好(也就是lips/nose等脸部特征最要删掉)

3.训练参数
a.kohya就行,基底最好fp16的flux-dev,有blocks_to_swap技术,可以用内存换显存,不怕爆显存
b.每张图片迭代10次,总步数2000~3000,学习率4e-4,再高一点也可以,flux很稳定,学习率开得高并不碍事

ifmylove2011 changed discussion status to closed

大佬可以讲讲ZIB的经验嘛,或者个人体验也行

This comment has been hidden (marked as Off-Topic)
ifmylove2011 changed discussion status to open

大佬可以讲讲ZIB的经验嘛,或者个人体验也行

使用体验的话,得等更多的微调版,目前来说红潮微调版的效果还不错,有加速和DPO,lora兼容性也很好;
不使用微调版也行,单独下载其相关的加速lora和DPO lora也是不错的,理论上只要解决了速度慢的问题,ZIB本身很多优势就能慢慢显现出来了。

训练lora的话,可以看看 https://www.reddit.com/r/StableDiffusion/comments/1qwc4t0/thoughts_and_solutions_on_zimage_training_issues ,我个人实测下来应该是目前为止几个训练器里,训练ZIB相对效果比较好的一个,社区最近也有认可的了,C站也有老手给出了阶段总结 https://civitai.com/articles/26518
数据集没什么好说的,老样子,质量大于数量;有几个变动较大的训练参数——新的调度器automagic_sinkgd或者prodigy_adv,学习率可以往1e-3拉高,设定min_snr_gamma=5,动态步移开启,输出格式采用全秩lokr;
这套OneTrainer的训练方案,就人物来说拟合速度很快,1000步就足够了,某些人脸特征明显的500步左右就已经能保证拟合了。
总体来说ZIB的训练还是有些蹊跷的,训练参数比较晦涩,可能还是有些参数没被挖掘出来,目前只能先这样练着,等等之前网传的官方的训练器发布后再进行比较。

ifmylove2011 changed discussion status to closed

大佬,你可以发一份你的onetrainer的json配置看看吗

大佬,你可以发一份你的onetrainer的json配置看看吗

https://pastebin.com/DQvH1pvY

Sign up or log in to comment