
GLIDE 常用提示词:稳定扩散模型的深度解析
Stable Diffusion(SD)模型在文本到图像生成任务中表现卓越,本文将详细探讨其微调方法。理解模型类别的演变有助于我们更好地理解微调策略。
SD是基于latent的扩散模型,它通过在UNet中引入text condition来实现基于文本生成图像。其核心来源于Latent Diffusion工作。这一模型首先使用autoencoder将图像压缩到latent空间,然后通过扩散模型生成图像的latents,最终通过autoencoder的解码模块生成图像。这个过程使得SD在生成高质量图像的同时保持了模型的高效性。
SD 2.0在SD 1.x的基础上进行了显著的改进,特别是在模型结构和训练数据方面。SD 1.x版本使用的是OpenAI的CLIP ViT-L/14模型,而SD 2.0则采用了参数量更大的CLIP ViT-H/14模型,从而提升了模型的文本编码能力。随着参数的增加,模型在处理复杂图像生成任务时的表现也相应提高。
Stable Diffusion XL(SDXL)进一步扩展了模型的能力。通过将UNet扩大三倍,并引入第二个文本编码器(OpenCLIP ViT-bigG/14),SDXL显著增加了参数数量。同时,它引入了大小和裁剪调节方法,以防止训练数据的丢失,保证生成图像的完整性。SDXL的两阶段模型过程使得基本模型生成的图像可以作为细化器模型的输入,添加高质量细节。
为了更好地进行Stable Diffusion的微调,我们需要安装一些必要的软件包,如accelerate和diffusers。
pip install accelerate
安装accelerate后,我们需要进行配置以适应不同的计算环境。
在配置过程中,我们需要选择计算环境(如单机或多机)和使用的GPU数量等参数。以下是一个基本配置示例:
accelerate config
配置完成后,配置文件会保存在指定路径,可以根据需要进行调整。
为了确保diffusers的最新特性和稳定性,建议从源码安装:
git clone https://github.com/huggingface/diffusers
cd diffusers
pip install -e .
高质量的数据是成功微调模型的基础。在数据处理阶段,我们需要关注数据的质量、相关性和多样性。
在数据收集后,我们首先需要筛除分辨率较低、质量较差的数据,并去除水印和干扰信息。然后,对数据进行标注,标注过程可以通过自动标注(如使用BLIP模型)和手动标注结合完成。
数据标注过程需要根据任务的不同需求进行调整,比如在文本到图像生成任务中,可以为每个文本描述添加对应的图像标签。标注的准确性直接影响模型的训练效果。
Stable Diffusion的微调方法多种多样,常见的包括Full FineTune、Dreambooth、LoRA等。
Full FineTune方法涉及全量训练,数据以图片加标注的形式提供。此方法虽然耗时较长,但可以全面更新模型的能力,以适应新的任务需求。
folder/train/metadata.jsonl
folder/train/0001.png
folder/train/0002.png
folder/train/0003.png
训练脚本示例:
export MODEL_NAME="stable-diffusion-2"
export DATASET_NAME="pokemon-blip-captions"
accelerate launch --mixed_precision="fp16" train_full_finetune.py
--pretrained_model_name_or_path=$MODEL_NAME
--dataset_name=$DATASET_NAME
--use_ema
--resolution=768 --center_crop --random_flip
--train_batch_size=1
--gradient_accumulation_steps=4
--gradient_checkpointing
--max_train_steps=15000
--learning_rate=1e-05
--max_grad_norm=1
--lr_scheduler="constant" --lr_warmup_steps=0
--output_dir="sd-pokemon-model"
Dreambooth是一种通过对特定主题或风格的图像进行训练来更新扩散模型的方法。它通过将提示中的特殊单词与示例图像相关联来实现个性化图像生成。
准备数据:
https://huggingface.co/datasets/diffusers/dog-example
训练脚本:
export MODEL_NAME="stable-diffusion-2"
export INSTANCE_DIR="dog"
export OUTPUT_DIR="path-to-save-model"
accelerate launch train_dreambooth.py
--pretrained_model_name_or_path=$MODEL_NAME
--instance_data_dir=$INSTANCE_DIR
--output_dir=$OUTPUT_DIR
--instance_prompt="a photo of sks dog"
--resolution=768
--train_batch_size=1
--gradient_accumulation_steps=1
--learning_rate=5e-6
--lr_scheduler="constant"
--lr_warmup_steps=0
--max_train_steps=400
from diffusers import StableDiffusionPipeline
import torch
model_id = "stable_finetine/path-to-save-model"
pipe = StableDiffusionPipeline.from_pretrained(model_id, torch_dtype=torch.float16).to("cuda")
prompt = "A photo of dog in a bucket"
image = pipe(prompt, num_inference_steps=50, guidance_scale=7.5).images[0]
image.save("dog-bucket2.png")
LoRA(大型语言模型的低秩适应)是一种轻量级的训练技术,通过向模型中插入少量的新权重来进行微调。它的优势在于训练速度快、内存占用低,并且可以与其他技术结合。
LoRA的训练数据格式与Full FineTune类似,训练脚本如下:
export MODEL_NAME="stable-diffusion-2"
export DATASET_NAME="pokemon-blip-captions"
accelerate launch --mixed_precision="no" train_lora.py
--pretrained_model_name_or_path=$MODEL_NAME
--dataset_name=$DATASET_NAME --caption_column="text"
--resolution=768 --random_flip
--train_batch_size=2
--num_train_epochs=100 --checkpointing_steps=5000
--learning_rate=1e-04 --lr_scheduler="constant" --lr_warmup_steps=0
--seed=42
--output_dir="sd-pokemon-model-lora"
--validation_prompt="cute dragon creature"
from diffusers import StableDiffusionPipeline
import torch
model_path = "sd-pokemon-model-lora/checkpoint-10000"
pipe = StableDiffusionPipeline.from_pretrained("stable-diffusion-2", torch_dtype=torch.float16)
pipe.load_lora_weights(model_path)
pipe.to("cuda")
prompt = "A pokemon with green eyes and red legs."
image = pipe(prompt, num_inference_steps=30, guidance_scale=7.5).images[0]
image.save("pokemon.png")
Stable Diffusion的微调方法多种多样,每种方法都有其独特的优点和适用场景。通过正确的数据准备、模型选择和训练策略,我们可以有效地提升模型在特定任务中的表现。无论是通过Full FineTune全面更新模型,还是通过Dreambooth和LoRA进行个性化调整,关键在于理解和应用合适的方法。
问:Stable Diffusion微调的主要方法有哪些?
问:如何选择适合的微调方法?
问:数据质量对微调有多重要?