Tag: GRADIENTTAPE
Estoy trabajando en Convolution Tasnet, el tamaño del modelo que hice es de aproximadamente 5.05 millones de variables. Quiero entrenarlo usando bucles de entrenamiento personalizados, y el problema es el siguiente: for i, (input_batch, target_batch) in enumerate(train_ds): # cada forma es (64, 32000, 1) with tf.GradientTape() as tape: predicted_batch = . . . Read more
Aquí hay una parte de un modelo en el que estoy trabajando. Al ser nuevo en el cálculo de gradientes en tf, me confundí cuando encontré que todos los valores de gradientes están llegando como 0. Aquí está el código: class A: def __init__(self, inputA_dim, inputB_dim): self.inputA_dim = (35, 35, . . . Read more
Estoy intentando entender el propósito de TF GRADIENT TAPE, en el siguiente código: import tensorflow as tf var = tf.Variable(5.0) with tf.GradientTape() as tape: op = (2*var)+(var*var) diff = tape.gradient(op,var) print (diff) Op: diff = tf.Tensor(12.0, shape=(), dtype=float32) Estoy confundido porque dado que var=5, la op=(2*5)+(5*5)=>35, y si estoy calculando . . . Read more