||
学习周报
姓名 | 郝丹萌 | 时间范围 | 2025.3.10-3.17 |
周次 | 第十三周 | 研究方向 | 大模型高效参数微调 |
一、本周工作
1. 基本完成所有实验:覆盖Qwen/Llama3/Deepseek三个模型,在Final/Identity数据集上验证微调方法。
2. 对于在两个数据集上用awq+lora+方法训练后的模型,完成了Chat前端界面开发,实现前后端API对接。
1. 论文方面,基于得出的实验数据,主要看了lora和lora+的论文。总结来说,LoRA+优于LoRA的主要原因包括:(1)差异化的学习率设置协调了A和B的梯度更新;(2)优化的初始化策略增强了训练的稳定性。
二、后续工作计划
1.读AWQ的论文。
2.开始编写毕设论文初稿。
Archiver|手机版|科学网 ( 京ICP备07017567号-12 )
GMT+8, 2025-4-16 16:56
Powered by ScienceNet.cn
Copyright © 2007-2025 中国科学报社