@[toc]
pytorch的优化器:管理并更新模型中可学习参数的值,使得模型输出更接近真实标签
_step_count:记录更新次数,学习率调整中使用
梯度下降:
学习率:控制更新的步伐。
增加学习率之后的梯度下降公式为:
动量(Momentum):结合当前梯度与上一次更新信息,用于当前更新
增加动量之后的梯度下降公式为:
其中
优化器的作用是管理并更新参数组,请构建一个SGD优化器,通过add_param_group方法添加三组参数,三组参数的学习率分别为 0.01, 0.02, 0.03, momentum分别为0.9, 0.8, 0.7,构建好之后,并打印优化器中的param_groups属性中的每一个元素的key和value(提示:param_groups是list,其每一个元素是一个字典)
执行结果:
联系我们
电话:400-123-4567
手机:138 0000 0000
公司地址
地址:广东省广州市天河区88号
公司名称
顺盈平台官方指定注册站