LLM
Lora fine-tuning
Lora微调
Lora
原理
冻结原始矩阵,在原始矩阵的基础上添加一个低秩矩阵。
微调流程
微调后的大模型使用
参考