python人工智能tensorflow优化器Optimizer算法汇总
作者:Bubbliiiing 发布时间:2023-12-06 14:44:51
前言
优化器的选择关乎参数更新的方法,合理的方法可以帮助机器学习更好的寻找到全局最佳值。
那我们快点开始学习吧
tensorflow常见的Optimizer
1 梯度下降法
tf.train.GradientDescentOptimizer(learning_rate, use_locking=False, name='GradientDescent')
常用参数为学习率learning_rate。
使用梯度下降算法的Optimizer,容易陷入局部最优解。
2 Adagrad下降法
tf.train.AdagradOptimizer(learning_rate, initial_accumulator_value=0.1, use_locking=False,name='Adagrad')
常用的参数为学习率learning_rate。
使用Adagrad算法的Optimizer,独立地适应所有模型参数的学习率,缩放每个参数反比于其所有梯度历史平均值总和的平方根。具有代价函数最大梯度的参数相应地有个快速下降的学习率,而具有小梯度的参数在学习率上有相对较小的下降。
Adagrad 的主要优势在于不需要人为的调节学习率,它可以自动调节;缺点在于,随着迭代次数增多,学习率会越来越小,最终会趋近于0。
3 动量优化法
tf.train.MomentumOptimizer.__init__(learning_rate, momentum, use_locking=False, name='Momentum', use_nesterov=False)
常用的参数 learning_rate,momentum,use_nesterov使用Momentum算法的Optimizer使用动量(Momentum)的随机梯度下降法(SGD),主要思想是引入一个积攒历史梯度信息动量来加速SGD。
动量优化法的优点是收敛快,不容易陷入局部最优解,但是缺点是有时候会冲过头了,使得结果不够精确。
如果使得use_nesterov=True,则该优化器实现牛顿加速梯度(NAG, Nesterov accelerated gradient)算法,该算法是Momentum动量算法的变种。
4 RMSProp算法
tf.train.RMSPropOptimizer(learning_rate, decay=0.9, momentum=0.0, epsilon=1e-10, use_locking=False, name='RMSProp')
常用的参数由learning_rate
RMSProp算法修改了AdaGrad的梯度积累为指数加权的移动平均,使得其在非凸设定下效果更好。
RMSProp算法在经验上已经被证明是一种有效且实用的深度神经网络优化算法。目前它是深度学习从业者经常采用的优化方法之一。
5 Adam算法
tf.train.AdamOptimizer(learning_rate=0.001, beta1=0.9, beta2=0.999, epsilon=1e-08, use_locking=False, name='Adam')
常用的参数由learning_rate
Adam中动量直接并入了梯度一阶矩(指数加权)的估计。相比于缺 * 因子导致二阶矩估计可能在训练初期具有很高偏置的RMSProp,Adam包括偏置修正,修正从原点初始化的一阶矩(动量项)和(非中心的)二阶矩估计。
Adam通常被认为对超参数的选择相当鲁棒,尽管学习率有时需要从建议的默认修改。
在实际运用中Adam效果非常优秀。
例子
本文以Mnist手写体识别为例子,将各个Optimizer在实际分类中进行运用,本例中,使用的神经网络是一个二层神经网络,每一层神经元均为150个,所用激励函数均为tf.nn.tanh()。
import tensorflow as tf
import numpy as np
from tensorflow.examples.tutorials.mnist import input_data
mnist = input_data.read_data_sets("MNIST_data",one_hot = "true")
def add_layer(inputs,in_size,out_size,n_layer,activation_function = None):
layer_name = 'layer%s'%n_layer
with tf.name_scope(layer_name):
with tf.name_scope("Weights"):
Weights = tf.Variable(tf.random_normal([in_size,out_size]),name = "Weights")
tf.summary.histogram(layer_name+"/weights",Weights)
with tf.name_scope("biases"):
biases = tf.Variable(tf.zeros([1,out_size]) + 0.1,name = "biases")
tf.summary.histogram(layer_name+"/biases",biases)
with tf.name_scope("Wx_plus_b"):
Wx_plus_b = tf.matmul(inputs,Weights) + biases
tf.summary.histogram(layer_name+"/Wx_plus_b",Wx_plus_b)
if activation_function == None :
outputs = Wx_plus_b
else:
outputs = activation_function(Wx_plus_b)
tf.summary.histogram(layer_name+"/outputs",outputs)
return outputs
def compute_accuracy(x_data,y_data):
global prediction
y_pre = sess.run(prediction,feed_dict={xs:x_data})
correct_prediction = tf.equal(tf.arg_max(y_data,1),tf.arg_max(y_pre,1)) #判断是否相等
accuracy = tf.reduce_mean(tf.cast(correct_prediction,tf.float32)) #赋予float32数据类型,求平均。
result = sess.run(accuracy,feed_dict = {xs:batch_xs,ys:batch_ys}) #执行
return result
xs = tf.placeholder(tf.float32,[None,784])
ys = tf.placeholder(tf.float32,[None,10])
layer1 = add_layer(xs,784,150,"layer1",activation_function = tf.nn.tanh)
prediction = add_layer(layer1,150,10,"layer2")
with tf.name_scope("loss"):
loss = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(labels=ys,logits = prediction),name = 'loss')
#label是标签,logits是预测值,交叉熵。
tf.summary.scalar("loss",loss)
train = tf.train.GradientDescentOptimizer(0.2).minimize(loss)
init = tf.initialize_all_variables()
merged = tf.summary.merge_all()
with tf.Session() as sess:
sess.run(init)
write = tf.summary.FileWriter("logs/",sess.graph)
for i in range(5001):
batch_xs,batch_ys = mnist.train.next_batch(100)
sess.run(train,feed_dict = {xs:batch_xs,ys:batch_ys})
if i % 1000 == 0:
print("训练%d次的识别率为:%f。"%((i+1),compute_accuracy(mnist.test.images,mnist.test.labels)))
result = sess.run(merged,feed_dict={xs:batch_xs,ys:batch_ys})
write.add_summary(result,i)
在该部分中,我主要只修改训练的Optimizer。
train = tf.train.GradientDescentOptimizer(0.2).minimize(loss)
1 梯度下降法
在该例子中,训练器为:
train = tf.train.GradientDescentOptimizer(0.2).minimize(loss)
得到结果:
训练1次的识别率为:0.119100。
训练1001次的识别率为:0.864600。
训练2001次的识别率为:0.889300。
训练3001次的识别率为:0.897400。
训练4001次的识别率为:0.905600。
训练5001次的识别率为:0.910200。
2 Adagrad下降法
在该例子中,训练器为:
train = tf.train.AdagradOptimizer(0.1).minimize(loss)
得到结果
训练1次的识别率为:0.136100。
训练1001次的识别率为:0.871600。
训练2001次的识别率为:0.894400。
训练3001次的识别率为:0.900500。
训练4001次的识别率为:0.909100。
训练5001次的识别率为:0.911600。
3 动量优化法
在该例子中,训练器为:
train = tf.train.MomentumOptimizer(learning_rate=0.05, momentum=0.9).minimize(loss)
得到结果
训练1次的识别率为:0.121300。
训练1001次的识别率为:0.894800。
训练2001次的识别率为:0.909400。
训练3001次的识别率为:0.916900。
训练4001次的识别率为:0.920700。
训练5001次的识别率为:0.927600。
4 RMSProp算法
在该例子中,训练器为:;
train = tf.train.RMSPropOptimizer(0.01).minimize(loss)
得到结果
训练1次的识别率为:0.071500。
训练1001次的识别率为:0.929500。
训练2001次的识别率为:0.944000。
训练3001次的识别率为:0.954100。
训练4001次的识别率为:0.953900。
训练5001次的识别率为:0.958000。
5 Adam算法
在该例子中,训练器为:
train = tf.train.AdamOptimizer(0.004).minimize(loss)
得到结果
训练1次的识别率为:0.103100。
训练1001次的识别率为:0.900700。
训练2001次的识别率为:0.928100。
训练3001次的识别率为:0.938900。
训练4001次的识别率为:0.945600。
训练5001次的识别率为:0.952100。
来源:https://blog.csdn.net/weixin_44791964/article/details/96428665


猜你喜欢
- 本文实例讲述了MYSQL锁表问题的解决方法。分享给大家供大家参考,具体如下:很多时候!一不小心就锁表!这里讲解决锁表终极方法!案例一mysq
- 虽然有很多种方式可以解决这个问题,但是我们可以用T-SQL代码来处理这个文件删除过程。我用xp_cmdshell命令和FORFILES命令来
- 本篇博客会介绍如何使用python在excel和csv里实现vlookup函数的功能,首先需要简单了解一下python如何操作excel1.
- 之前公司有个绘制实时盈利率折线图的需求,实现的还不错,今天来分享下vue+echarts实现动态折线图的方法。实现代码<templat
- try 块允许您测试代码块以查找错误。except 块允许您处理错误。finally 块允许您执行代码,无论 try 和 except 块的
- 有很多种方法来实现图片的预加载,通常大部分使用Javascript让事情滚动。不要再受Javascript预载的束缚了吧,用CSS你就可以毫
- 有一个需求, 需要从数据库中导出两张表的数据到同一个excel中鉴于是临时的业务需求, 直接使用Navicat 进行查询并导出数据.数据涉及
- use strict;use warnings;# Print all files in a directorysub print_file
- 很有创意的鼠标指针风筝,看起来非常有意思。在网络上看到的,一下也想不起来是那里的了,所以特别说一下图片是来自网络的,版权归作者所有。
- 一、若出现404错误,自动跳转到所在目录的首页;二、若当前页本身是目录首页,则自动跳转至上一级目录的默认首页。自定义404页面代码如下:&l
- 框架特色:一、统一命名空间 默认命名空间为F,当然你也可以改成自己喜欢的名字,整个框架
- 一、安装selenium打开命令控制符输入:pip install -U selenium火狐浏览器安装firebug:www.firebu
- 请问论坛的树状记录表是怎么展开的?如何做?论坛的这种展开技术一般采用两种方法实现,一种是采用递归的方法,优点是逻辑简单,编程简单,缺点是速度
- 呵,以前也没考虑过这方面的东西,现在写的代码越来越多,越来越复杂,如果再不把不用的变量及时释放掉,到时肯定会出问题。今天无意中在无忧Q群里看
- 初学python,对python的对齐很重视,为了防止出错,使用spyder工具提供的功能下面是方法:1、首先打开Tools菜单栏下的Pre
- 脚本要实现的功能:输入instance id1:将所有的volume take snapshot2: 获取public ip 并
- 关于Mysql整理的需要记忆和熟练掌握的内容1. /* 查看操作 */ ----------------------------------
- 本文为大家分享了python2.7和NLTK安装教程,具体内容如下系统:Windows 7 Ultimate 64-bitsPython 2
- 首先,说明一下python确实可以根据照片获取地理位置,但是也是有一定的限制条件的。获取照片地理位置的实现思路是这样的:通过提取照片中的经纬
- 一、函数list(1)定义:用打开的文件作为参数,把文件内的每一行内容作为一个元素(2)格式:list(文件)(3)例子:with open