以sign函数为例:
sign函数可以对数值进行二值化,但在梯度反向传播是不好处理,一般采用一个近似函数的梯度作为代替,如上图的Htanh。在[-1,1]直接梯度为1,其他为0。
#使用修饰器,建立梯度反向传播函数。其中op.input包含输入值、输出值,grad包含上层传来的梯度
@tf.RegisterGradient("QuantizeGrad")
def sign_grad(op, grad):
input = op.inputs[0]
cond = (input>=-1)&(input<=1)
zeros = tf.zeros_like(grad)
return tf.where(cond, grad, zeros)
#使用with上下文管理器覆盖原始的sign梯度函数
def binary(input):
x = input
with tf.get_default_graph().gradient_override_map({"Sign":'QuantizeGrad'}):
x = tf.sign(x)
return x
#使用
x = binary(x)
以上这篇tensorflow 实现自定义梯度反向传播代码就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持软件开发网。
您可能感兴趣的文章:有关Tensorflow梯度下降常用的优化方法分享TensorFlow梯度求解tf.gradients实例基于TensorFlow中自定义梯度的2种方式tensorflow 查看梯度方式tensorflow求导和梯度计算实例Tensorflow的梯度异步更新示例在Tensorflow中实现梯度下降法更新参数值Tensorflow实现部分参数梯度更新操作运用TensorFlow进行简单实现线性回归、梯度下降示例Tensorflow 卷积的梯度反向传播过程