Files
DiffSynth-Studio/docs/zh/Training/Direct_Distill.md
Zhongjie Duan ba0626e38f add example_dataset in training scripts (#1358)
* add example_dataset in training scripts

* fix example datasets
2026-03-18 15:37:03 +08:00

5.1 KiB
Raw Permalink Blame History

端到端的蒸馏加速训练

蒸馏加速训练

Diffusion 模型的推理过程通常需要多步迭代,在提升生成效果的同时也让生成过程变得缓慢。通过蒸馏加速训练,可以减少生成清晰内容所需的步数。蒸馏加速训练技术的本质训练目标是让少量步数的生成效果与大量步数的生成效果对齐。

蒸馏加速训练的方法是多样的,例如

直接蒸馏

在训练框架层面,支持这类蒸馏加速训练方案是极其困难的。在训练框架的设计中,我们需要保证训练方案满足以下条件:

  • 通用性:训练方案适用于大多数框架内支持的 Diffusion 模型,而非只能对某个特定模型生效,这是代码框架建设的基本要求。
  • 稳定性训练方案需保证训练效果稳定不需要人工进行精细的参数调整ADD 中的对抗式训练则无法保证稳定性。
  • 简洁性:训练方案不会引入额外的复杂模块,根据奥卡姆剃刀(Occam's Razor原理复杂解决方案可能引入潜在风险Hyper-SD 中的 Human Feedback Learning 让训练过程变得过于复杂。

因此,在 DiffSynth-Studio 的训练框架中我们设计了一个端到端的蒸馏加速训练方案我们称为直接蒸馏Direct Distill其训练过程的伪代码如下

seed = xxx
with torch.no_grad():
    image_1 = pipe(prompt, steps=50, seed=seed, cfg=4)
image_2 = pipe(prompt, steps=4, seed=seed, cfg=1)
loss = torch.nn.functional.mse_loss(image_1, image_2)

是的,非常端到端的训练方案,稍加训练就可以有立竿见影的效果。

直接蒸馏训练的模型

我们用这个方案基于 Qwen-Image 训练了两个模型:

点击模型链接即可前往模型页面查看模型效果。

在训练框架中使用蒸馏加速训练

首先,需要生成训练数据,请参考模型推理部分编写推理代码,以足够多的推理步数生成训练数据。

以 Qwen-Image 为例,以下代码可以生成一张图片:

from diffsynth.pipelines.qwen_image import QwenImagePipeline, ModelConfig
import torch

pipe = QwenImagePipeline.from_pretrained(
    torch_dtype=torch.bfloat16,
    device="cuda",
    model_configs=[
        ModelConfig(model_id="Qwen/Qwen-Image", origin_file_pattern="transformer/diffusion_pytorch_model*.safetensors"),
        ModelConfig(model_id="Qwen/Qwen-Image", origin_file_pattern="text_encoder/model*.safetensors"),
        ModelConfig(model_id="Qwen/Qwen-Image", origin_file_pattern="vae/diffusion_pytorch_model.safetensors"),
    ],
    tokenizer_config=ModelConfig(model_id="Qwen/Qwen-Image", origin_file_pattern="tokenizer/"),
)
prompt = "精致肖像,水下少女,蓝裙飘逸,发丝轻扬,光影透澈,气泡环绕,面容恬静,细节精致,梦幻唯美。"
image = pipe(prompt, seed=0, num_inference_steps=40)
image.save("image.jpg")

然后,我们把必要的信息编写成元数据文件

image,prompt,seed,rand_device,num_inference_steps,cfg_scale
distill_qwen/image.jpg,"精致肖像,水下少女,蓝裙飘逸,发丝轻扬,光影透澈,气泡环绕,面容恬静,细节精致,梦幻唯美。",0,cpu,4,1

这个样例数据集可以直接下载:

modelscope download --dataset DiffSynth-Studio/diffsynth_example_dataset --local_dir ./data/diffsynth_example_dataset

然后开始 LoRA 蒸馏加速训练:

bash examples/qwen_image/model_training/lora/Qwen-Image-Distill-LoRA.sh

请注意,在训练脚本参数中,数据集的图像分辨率设置要避免触发缩放处理。当设定 --height--width 以启用固定分辨率时,所有训练数据必须是以完全一致的宽高生成的;当设定 --max_pixels 以启用动态分辨率时,--max_pixels 的数值必须大于或等于任一训练图像的像素面积。

训练框架设计思路

直接蒸馏与标准监督训练相比,仅训练的损失函数不同,直接蒸馏的损失函数是 diffsynth.diffusion.loss 中的 DirectDistillLoss

未来工作

直接蒸馏是通用性很强的加速方案,但未必是效果最好的方案,所以我们暂未把这一技术以论文的形式发布。我们希望把这个问题交给学术界和开源社区共同解决,期待开发者能够给出更完善的通用训练方案。