AI 专业名词百科

可搜索 · 分类 · 创建 · 编辑 · 评论

LoRA 低秩适配 Low-Rank Adaptation · LoRA

通过在特定层注入低秩矩阵完成参数高效微调,显著降低训练与部署成本。

分类:training 类型:concept 别名:低秩适配

LoRA 通过在部分权重处引入低秩分解(如 W≈W₀ + BA),在保持原始权重冻结的同时学习少量适配参数,达到接近全参微调的效果。

工作原理

  • 对 Transformer 中的注意力或前馈层引入两个低秩矩阵 A、B,通过训练 B·A 的增量来调整输出。
  • 训练阶段仅更新 LoRA 参数,推理时将其与原始权重合并或按需加载。
  • 可灵活选择插入层、秩 r 与缩放系数 α,以平衡容量与成本。

优势

  • 参数效率高:新增参数数量远少于全量微调,便于多任务共享同一底座模型。
  • 训练资源需求低:可在单卡甚至消费级显卡完成微调,适合企业私有化部署。
  • 部署灵活:通过权重注入或 Adapter 形式动态切换能力,降低模型版本管理成本。

扩展与组合

  • 与量化技术结合(如 QLoRA)可在 4-bit 精度下完成训练。
  • 可与前缀调优(Prefix-Tuning)、Adapter、IA3 等其他参数高效方法结合。
  • 在多模态模型、扩散模型中也有成功应用。

实践提示

  • 选择与任务相关性最高的层进行注入,常见为注意力的 Query、Value 权重。
  • 调整学习率与秩值避免欠拟合或过拟合,可通过验证集监控损失。
  • 对于多任务场景,可维护 LoRA 权重仓库,按需加载或合并。

参考资料

打开 GitHub 界面,修改后直接生成 PR

💬 用户评论与个人笔记