tensorflow 实现自定义梯度反向传播代码

Rena ·
更新时间:2024-11-10
· 770 次阅读

以sign函数为例:

sign函数可以对数值进行二值化,但在梯度反向传播是不好处理,一般采用一个近似函数的梯度作为代替,如上图的Htanh。在[-1,1]直接梯度为1,其他为0。

#使用修饰器,建立梯度反向传播函数。其中op.input包含输入值、输出值,grad包含上层传来的梯度 @tf.RegisterGradient("QuantizeGrad") def sign_grad(op, grad): input = op.inputs[0] cond = (input>=-1)&(input<=1) zeros = tf.zeros_like(grad) return tf.where(cond, grad, zeros) #使用with上下文管理器覆盖原始的sign梯度函数 def binary(input): x = input with tf.get_default_graph().gradient_override_map({"Sign":'QuantizeGrad'}): x = tf.sign(x) return x #使用 x = binary(x)

以上这篇tensorflow 实现自定义梯度反向传播代码就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持软件开发网。

您可能感兴趣的文章:有关Tensorflow梯度下降常用的优化方法分享TensorFlow梯度求解tf.gradients实例基于TensorFlow中自定义梯度的2种方式tensorflow 查看梯度方式tensorflow求导和梯度计算实例Tensorflow的梯度异步更新示例在Tensorflow中实现梯度下降法更新参数值Tensorflow实现部分参数梯度更新操作运用TensorFlow进行简单实现线性回归、梯度下降示例Tensorflow 卷积的梯度反向传播过程



自定义 反向传播 梯度 tensorflow

需要 登录 后方可回复, 如果你还没有账号请 注册新账号
相关文章