AdamW
发布日期:2021-05-14 14:48:25 浏览次数:17 分类:精选文章

本文共 545 字,大约阅读时间需要 1 分钟。

AdamWAdamW

��� ������Torch������

���PyTorch���������AdamW������������������������������������������

optimizer = torch.optim.AdamW(model.parameters(), lr=1e-4, weight_decay=1e-3)

���������������������������������������zero_grad���������������������������������������������������������

optimizer.zero_grad()
# loss.backward() # ������������
optimizer.step()

������������������������������������������������ReduceLROnPlateau������������

lr_step = torch.optim.lr_scheduler.ReduceLROnPlateau(optimizer, factor=0.5, patience=5)
lr_step.step(val_dice)
上一篇:优化器(二)
下一篇:损失函数

发表评论

最新留言

哈哈,博客排版真的漂亮呢~
[***.90.31.176]2025年04月08日 02时45分34秒