Lora fine-tuning

Lora微调

Lora

原理

冻结原始矩阵,在原始矩阵的基础上添加一个低秩矩阵。

微调流程

微调后的大模型使用

参考

Licensed under CC BY-NC-SA 4.0
Last updated on May 29, 2025 00:00 UTC
View: Loading