Tag: LOSS-FUNCTION
En pytorch, nn.CrossEntropy tiene un parámetro: ignore_index. ¿Cómo se implementa? ¿Quizás así? “Calcular la pérdida de entropía cruzada con torch, pero sin usar la función nn.CrossEntropy“
Entonces, he estado tratando de implementar algunas pérdidas personalizadas y pensé en comenzar implementando la pérdida SCE, sin utilizar el objeto TF incorporado. Aquí está la función que escribí para ello. def custom_loss(y_true, y_pred): print(y_true, y_pred) return tf.cast(tf.math.multiply(tf.experimental.numpy.log2(y_pred[y_true[0]]), -1), dtype=tf.float32) y_pred es el conjunto de probabilidades y y_true es el . . . Read more
Estoy entrenando una red neuronal para distinguir entre tres clases. Naturalmente, opté por la función de pérdida CrossEntropyLoss de PyTorch. Durante la experimentación, me di cuenta de que la pérdida era significativamente mayor cuando se colocaba una capa de Softmax al final del modelo. Así que decidí experimentar más: import . . . Read more
La Pérdida Focal proporcionada en Tensorflow se utiliza para el desequilibrio de clases. Para la clasificación binaria, hay muchos códigos disponibles, pero para la clasificación multiclase, hay muy poca ayuda. Ejecuté el código con variables objetivo codificadas en “One Hot Encoding” de 250 clases y me dio resultados sin errores. . . . Read more
Estoy tratando de encontrar una manera de acumular pérdidas en Keras. Esto funciona (para la pérdida de modelo de mezcla gaussiana = verosimilitud negativa logarítmica), pero no es tan elegante: def neg_log_likelihood(y, phis, mu, sigmasq): a = phis[:, 0]*gaussian_pdf(y, mu[:, 0*t:(0+1)*t], sigmasq[:, 0]) for i in range(1, k): a += . . . Read more