博文

目前显示的是标签为“lora训练”的博文

Lora训练有哪些技巧?五点高招帮你优化训练

训练 LoRA(尤其是基于 Z-Image 或 Flux 架构)如果不像,通常是由**数据集质量**、**训练参数**或**过拟合/欠拟合**导致的。 请根据以下维度排查并调整: 1. 优化数据集(最关键因素) 增加特写镜头: 确保至少有 40%-50% 的照片是脸部特写。远景照片很难让模型记住面部细节。 光影多样化: 如果所有照片都是室内光或同一种光影,模型会把“光影”误认为“长相”。增加不同天气、室内外、冷暖光的素材。 剔除低画质: 宁可只有 15 张超高清图,也不要混入模糊、噪点多或五官扭曲的图。 背景解耦: 如果背景太单一,模型会把背景也学进去。尝试使用抠图工具更换背景,或在标注中明确写出背景内容(如 `standing in a forest`)。 2. 调整训练参数 提高 Rank (网络维度): 如果 Rank 设置为 8 或 16,模型可能容量不足以记住复杂的面部特征。尝试提高到 **32 或 64**。 调整学习率 (Learning Rate):     - **依然不像(欠拟合)**:适当提高学习率(如从 `1e-4` 升至 `4e-4`),或者增加训练步数。 画面崩坏/偏色(过拟合): 降低学习率,或者减少训练步数。 Alpha 值: 通常设置 Alpha 为 Rank 的一半或相等(如 Rank 32, Alpha 16-32)。Alpha 过低会导致学习效果极其微弱。 3. 优化标注 (Captioning) 触发词唯一性: 使用一个罕见的词作为触发词(如 `SksMan`, `OhwxWoman`),避免使用像 `man` 或 `girl` 这种通用词,否则 LoRA 会和基础模型自带的人物特征产生冲突。 特征解耦: 如果你训练的人戴着眼镜,但在标注里没写 `glasses`,模型就会认为“眼镜”是这个人长相的一部分。你应该在标注里写出所有可变的特征(眼镜、帽子、衣服颜色)。 4. 检查推理设置 权重调节: 在推理(生成图)时,不要死守 1.0 的权重。尝试在 **0.7 - 1.2** 之间滑动测试。 - **采样步数 (Steps)**:Z-Image 是加速模型,步数通常在 4-8 步。如果步数过高,反而会导致面部产生严重的伪影和噪点。 提示词优先级: 确保触发词放在 Prompt 的最前面。 5. 高级技巧:分...

我训练的Lora不像怎么办?

  训练 LoRA(尤其是基于 Z-Image 或 Flux 架构)如果不像,通常是由**数据集质量**、**训练参数**或**过拟合/欠拟合**导致的。 请根据以下维度排查并调整: 1. 优化数据集(最关键因素) - **增加特写镜头**:确保至少有 40%-50% 的照片是脸部特写。远景照片很难让模型记住面部细节。 - **光影多样化**:如果所有照片都是室内光或同一种光影,模型会把“光影”误认为“长相”。增加不同天气、室内外、冷暖光的素材。 - **剔除低画质**:宁可只有 15 张超高清图,也不要混入模糊、噪点多或五官扭曲的图。 - **背景解耦**:如果背景太单一,模型会把背景也学进去。尝试使用抠图工具更换背景,或在标注中明确写出背景内容(如 `standing in a forest`)。 2. 调整训练参数 - **提高 Rank (网络维度)**:如果 Rank 设置为 8 或 16,模型可能容量不足以记住复杂的面部特征。尝试提高到 **32 或 64**。 - **调整学习率 (Learning Rate)**:     - **依然不像(欠拟合)**:适当提高学习率(如从 `1e-4` 升至 `4e-4`),或者增加训练步数。     - **画面崩坏/偏色(过拟合)**:降低学习率,或者减少训练步数。 - **Alpha 值**:通常设置 Alpha 为 Rank 的一半或相等(如 Rank 32, Alpha 16-32)。Alpha 过低会导致学习效果极其微弱。 3. 优化标注 (Captioning) - **触发词唯一性**:使用一个罕见的词作为触发词(如 `SksMan`, `OhwxWoman`),避免使用像 `man` 或 `girl` 这种通用词,否则 LoRA 会和基础模型自带的人物特征产生冲突。 - **特征解耦**:如果你训练的人戴着眼镜,但在标注里没写 `glasses`,模型就会认为“眼镜”是这个人长相的一部分。你应该在标注里写出所有可变的特征(眼镜、帽子、衣服颜色)。 4. 检查推理设置 - **权重调节**:在推理(生成图)时,不要死守 1.0 的权重。尝试在 **0.7 - 1.2** 之间滑动测试。 - **采样步数 (Steps)**:Z-Image 是加速模型...

如何训练一个Z-image Lora?

训练 Z-Image (特别是 Z-Image-Turbo) 的 LoRA 模型主要使用 **AI Toolkit (Ostris)** 工具,其核心在于维持该模型的加速(Turbo)特性。 您也可以通过以下方式,联系我们进行Lora代训练服务: 如果你需要Lora的代训练服务,可以通过以下方式联系我们: 1. public[AT]mail.luolala.com 2. 微信:anandelon_ 请来信或加好友说明来意~ 以下是截至 2025 年末的训练要点与流程: 1. 环境准备 - **硬件要求**:最低需要 **12GB VRAM** 的显卡。推荐使用 16GB 以上(如 RTX 4080/5090)以获得更佳速度和精度。 - **工具选择**:目前主流工具为 Ostris/ai-toolkit。也可使用集成的 ComfyUI 训练插件或国内社区(如 ModelScope)提供的加速训练方案。  2. 数据集准备 - **数量与质量**:通常需要 **20-80 张** 高质量、高分辨率(建议 1024x1024)的照片。 - **标注**:使用标准的文本打标,确保包含触发词。 - **多样性**:如果是训练角色,需包含不同角度(正面、侧面)、表情和光影背景。  3. 关键参数设置 (AI Toolkit) 由于 Z-Image 是基于蒸馏技术的加速模型,其训练参数与普通 SDXL/Flux LoRA 不同:  - **Rank (r)**:推荐设置为 **16 到 64**。若追求皮肤细节和真实感,建议使用 Rank 64;若仅为简单风格,Rank 8-16 即可。 - **学习率 (Learning Rate)**:建议在 **4e-4 到 1e-4** 之间。过低会导致无法学习到特征,过高会破坏 Turbo 的加速能力。 - **训练步数**:根据数据集大小,通常在 **250 到 3000 步** 之间。对于小型数据集,100-500 步即可初见成效。 - **适配器 (Training Adapter)**:需选择针对 Z-Image-Turbo 优化的适配器(如 v1 或 v2),以防直接更新权重破坏预训练的加速轨迹。  4. 训练步骤简述 5. **克隆工具**:部署 AI Toolkit 并在配...