每次训练批次做事情 损失函数 调整 深度学习的参数
大语言模型微调及其应用的探索 跟踪前沿的技术
View On GitHub
每次训练批次做事情 损失函数 调整 深度学习的参数
一、每个批次要做事情
optimizer.zero_grad:清除上一个批次留下的旧梯度
计算这个批次训练的
平均损失
loss.backward: 根据loss和计算图反向计算梯度
optimizer.step:使用新计算的梯度, 更新模型中的参数
打印训练信息
二、损失计算
将输入送给模型
再将logits交给cross_entropy计算损失