当前位置: 首页 > news >正文

在线网站做图集相册wordpress登录卡死

在线网站做图集相册,wordpress登录卡死,室内软装设计软件,上饶门户网站建设目录 前言 一、什么是调整学习率? 二、调整学习率的作用 三、怎么调整学习率 1.有序调整 2.自适应调整 3.自定义调整 4.调整示例 前言 在深度学习中,调整学习率是非常重要的,它对模型的训练效果和收敛速度有显著影响。 一、什么是调整…

目录

前言

一、什么是调整学习率?

二、调整学习率的作用

三、怎么调整学习率

1.有序调整

2.自适应调整

3.自定义调整

4.调整示例


前言

        在深度学习中,调整学习率是非常重要的,它对模型的训练效果和收敛速度有显著影响。

 

一、什么是调整学习率?

  1. 学习率是深度学习中一个关键的超参数,控制着模型在每次更新时权重的调整幅度。它决定了梯度下降算法在最小化损失函数时的步长。较大的学习率可能导致模型不收敛或震荡,而较小的学习率则可能使收敛速度过慢。因此,选择合适的学习率对于模型训练的成功至关重要。
  2. 常用的学习率有0.1、0.01以及0.001等,学习率越大则权重更新越快。一般来说,我们希望在训练初期学习率大一些,使得网络收敛迅速,在训练后期学习率小一些,使得网络更好的收敛到最优解。

 

二、调整学习率的作用

        调整学习率的目的是优化模型训练过程,提高收敛速度,并确保最终模型的性能。通过合理调整学习率,可以避免训练过程中的震荡或不收敛,帮助模型更有效地找到最优解,最终提升模型的泛化能力和准确性。

 

三、怎么调整学习率

  • Pytorch学习率调整策略通过 torch.optim.lr_sheduler 接口实现。

1.有序调整

  1. 等间隔调整(Step),
  2. 多间隔调整(MultiStep),
  3. 指数衰减(Exponential),
  4. 余弦退火(CosineAnnealing)

下图是不同方法的概念图:

代码展示:

"""有序调整学习率"""
optimizer = torch.optim.Adam(model.parameters(), lr=0.001)"""等间隔调整"""
torch.optim.lr_scheduler.StepLR(optimizer, step_size=, gamma=0.1)
# optimizer: 神经网络训练中使用的优化器,
# step_size: 学习率下降间隔数,单位是epoch,而不是iteration.
# gamma:学习率调整倍数,默认为0.1
# 每训练step_size个epoch,学习率调整为lr=lr*gamma."""多间隔调整"""
torch.optim.lr_shceduler.MultiStepLR(optimizer, milestones=, gamma=0.1)
# milestone(list): 一个列表参数,表示多个学习率需要调整的epoch值,
# 如milestones=[10, 30, 80],即10轮时将gamma乘以学习率lr,30轮时、80轮时与10轮时操作一致"""指数衰减"""
torch.optim.lr_scheduler.ExponentialLR(optimizer, gamma=)
# gamma:学习率调整倍数的底数,指数为epoch,初始值为lr, 倍数为γepoch,每一轮都调整"""余弦退火"""
torch.optim.lr_scheduler.CosineAnnealingLR(optimizer, T_max=, eta_min=0)
# T_max:学习率下降到最小值时的epoch数,即当epoch=T_max时,学习率下降到余弦函数最小值,当epoch>T_max时,学习率将增大
# eta_min: 学习率调整的最小值,即epoch=T_max时,lr_min=eta_min, 默认为0.

 

2.自适应调整

  • 依训练状况伺机而变,通过监测某个指标的变化情况(loss、accuracy),当该指标不怎么变化时,就是调整学习率的时机(ReduceLROnPlateau)
"""根据指标调整学习率"""
torch.optim.lr_scheduler.ReduceLROnPlateau(optimizer, mode='min', factor=0.1,patience=10,verbose=False, threshold=0.0001, threshold_mode='rel', cooldown=0, min_lr=0, eps=1e-08)
  • 参数解释:
  • optimizer: 需要调整学习率的优化器。
  • mode: 字符串,选择监控的指标类型。'min' 表示当被监控的指标停止下降时,学习率将减小; 'max' 表示当指标停止上升时减小学习率。
  • factor: 每次调整学习率时,学习率将乘以这个因子(通常在 0 到 1 之间)。例如,float = 0.1表示学习率减少到原来的 10%。
  • patience: 监控指标在没有改善时等待的 epochs 数。在这段时间内,如果指标没有改善,学习率将被调整。
  • verbose: 布尔值,是否在调整学习率时打印消息。
  • threshold: 改变学习率的最小阈值。如果变化小于该阈值,则认为没有改善。这个值可以是绝对值或相对值,具体取决于 threshold_mode
  • threshold_mode: 字符串, 'rel' 表示使用相对阈值(与当前值的比例), 'abs' 表示使用绝对阈值。
  • cooldown: 在学习率被减少后,允许继续训练的 epochs 数。在此期间,将不会调整学习率。
  • min_lr: 学习率的最小值,防止学习率降到过低。
  • eps: 一个很小的值,避免除以零的错误,通常在计算时用作保护。

 

3.自定义调整

  • 通过自定义关于epoch的lambda函数调整学习率(LambdaLR)。
torch.optim.lr_scheduler.LambdaLR(optimizer, lr_lambda)
# 参数:
# lr_lambda(function or list): 自定义计算学习率调整倍数的函数,通常是epoch的函数,当有多个参数组时,设为list.

 

4.调整示例

  • 在每个epoch的训练中使用 scheduler.step() 即可进行学习率的更新
"""有序调整学习率"""
loss_fn = nn.CrossEntropyLoss()  # 处理多分类
optimizer = torch.optim.Adam(model.parameters(), lr=0.001)
scheduler = torch.optim.lr_scheduler.StepLR(optimizer, step_size=5, gamma=0.5)  # 调整学习率epochs = 50for t in range(epochs):print(f"Epoch {t + 1}\n--------------")train(train_dataloader, model, loss_fn, optimizer)test(test_dataloader, model, loss_fn)scheduler.step()  # 在每个epoch的训练中.使用scheduler.step()语句进行学习率更新
print(best_acc)
http://www.yayakq.cn/news/729911/

相关文章:

  • 给公司网站做seo网站开发如何让图片加载的更快
  • 国外 设计 网站wordpress如何使用dplayer
  • win7 iis 新建网站怎么制作婚介网站
  • 查询网站所有关键词排名开发做一个网站的流程
  • 查询网站最新域名百度指数是什么意思
  • wordpress复古三栏主题seo关键词优化举例
  • 建设银行官方网站-云服务百度图片搜索图片识别
  • thinkphp开发企业网站网站 开发 成本
  • 南昌如何做百度的网站做企业网络营销推广
  • 官方网站开发用什么语言有没有专门做飞卢小说盗版的网站
  • 怎么制作个人作品网站网站首页像素
  • 网站建设预算和流程介绍怎么样宣传自己的网站
  • 小型服务器做网站wordpress形式
  • 深圳外贸英文网站设计公司哪家好济南冷空气来袭
  • 免费 个人网站中国华能集团电子商务平台
  • 建网站需要软件做网站能接到项目工程吗
  • 用word做网站相关论文校园平台网站建设感悟
  • 网站建设的投资预算怎么写北京站
  • 网站改版需要重新备案吗广告公司活动策划公司
  • 专门为网站建设服务的公司龙之向导外贸网站 网络服务
  • 建网站 西安注册公司费用最低多少
  • wordpress.org配置关键词优化是什么
  • 网站开发 商标第几类网站建设需要哪些知识
  • 网站建设好如何开通安徽定制型网站建设推广
  • wordpress免费网页建站装修网站运营
  • 师德师风建设好的小学网站国外网站开发发展历程
  • 网站开发实施方案qq引流推广平台
  • 曲阜做网站哪家好嘉兴高端网站建设公司
  • 网站建设费用应该开专票还是普票甘肃省城乡住房建设厅网站首页
  • wordpress dux主题1.8seo外链专员工作要求