Tensorflow之梯度裁剪的实现示例
tensorflow中的梯度计算和更新
为了解决深度学习中常见的梯度消失(gradientexplosion)和梯度爆炸(gradientsvanishing)问题,tensorflow中所有的优化器tf.train.xxxOptimizer都有两个方法:
- compute_gradients
- apply_gradients
compute_gradients
对于compute_gradients方法,计算var_list中参数的梯度,使得loss变小。默认情况下,var_list为GraphKeys.TRAINABLE_VARIABLES中的所有参数。
compute_gradients方法返回由多个(gradients,variable)二元组组成的列表。
compute_gradients( loss, var_list=None, gate_gradients=GATE_OP, aggregation_method=None, colocate_gradients_with_ops=False, grad_loss=None )
apply_gradients
对于apply_gradients方法,根据compute_gradients的返回结果对参数进行更新
apply_gradients( grads_and_vars, global_step=None, name=None )
梯度裁剪(GradientClipping)
tensorflow中裁剪梯度的几种方式
方法一tf.clip_by_value
defclip_by_value(t,clip_value_min,clip_value_max, name=None):
其中,t为一个张量,clip_by_value返回一个与t的type相同、shape相同的张量,但是新tensor中的值被裁剪到了clip_value_min和clip_value_max之间。
方法二:tf.clip_by_global_norm
defclip_by_global_norm(t_list,clip_norm,use_norm=None,name=None):
其中,t_list为AtupleorlistofmixedTensors,IndexedSlices,orNone。clip_norm为clippingratio,use_norm指定global_norm,如果use_norm为None,则按global_norm=sqrt(sum([l2norm(t)**2fortint_list]))计算global_norm。
最终,梯度的裁剪方式为
可知,如果clip_norm>global_norm,则不对梯度进行裁剪,否则对梯度进行缩放。
scale=clip_norm*math_ops.minimum( 1.0/use_norm, constant_op.constant(1.0,dtype=use_norm.dtype)/clip_norm)
方法的返回值为裁剪后的梯度列表list_clipped和global_norm
示例代码
optimizer=tf.train.AdamOptimizer(learning_rate) gradients,v=zip(*optimizer.compute_gradients(loss)) gradients,_=tf.clip_by_global_norm(gradients,grad_clip) updates=optimizer.apply_gradients(zip(gradients,v),global_step=global_step)
方法三tf.clip_by_average_norm
defclip_by_average_norm(t,clip_norm,name=None):
t为张量,clip_norm为maximumclippingvalue
裁剪方式如下,
其中,avg_norm=l2norm_avg(t)
方法四:tf.clip_by_norm
defclip_by_norm(t,clip_norm,axes=None,name=None):
t为张量,clip_norm为maximumclippingvalue
裁剪方式为
示例代码
optimizer=tf.train.AdamOptimizer(learning_rate,beta1=0.5) grads=optimizer.compute_gradients(cost) fori,(g,v)inenumerate(grads): ifgisnotNone: grads[i]=(tf.clip_by_norm(g,5),v)#clipgradients train_op=optimizer.apply_gradients(grads)
注意到,clip_by_value、clib_by-avg_norm和clip_by_norm都是针对于单个张量的,而clip_by_global_norm可用于多个张量组成的列表。
到此这篇关于Tensorflow之梯度裁剪的实现示例的文章就介绍到这了,更多相关Tensorflow梯度裁剪内容请搜索毛票票以前的文章或继续浏览下面的相关文章希望大家以后多多支持毛票票!
声明:本文内容来源于网络,版权归原作者所有,内容由互联网用户自发贡献自行上传,本网站不拥有所有权,未作人工编辑处理,也不承担相关法律责任。如果您发现有涉嫌版权的内容,欢迎发送邮件至:czq8825#qq.com(发邮件时,请将#更换为@)进行举报,并提供相关证据,一经查实,本站将立刻删除涉嫌侵权内容。