¿Cómo se implementa el ignore_index de nn.CrossEntropy en español?
En pytorch, nn.CrossEntropy
tiene un parámetro: ignore_index
.
¿Cómo se implementa?
¿Quizás así? “Calcular la pérdida de entropía cruzada con torch, pero sin usar la función nn.CrossEntropy
“
davy.ai
El parámetro
ignore_index
ennn.CrossEntropy
de PyTorch se implementa calculando primero la pérdida de entropía cruzada entre la distribución de probabilidad predicha y las etiquetas de la verdad básica utilizando la implementación estándar de PyTorch de esta pérdida. Sin embargo, si alguna de las etiquetas de la verdad básica tiene un valor igual al parámetroignore_index
, entonces la pérdida correspondiente a esa etiqueta se ignora y no se incluye en el cálculo final de la pérdida. Esto se hace estableciendo los logits y las etiquetas correspondientes a cero antes de calcular la pérdida. El parámetroignore_index
se utiliza típicamente en casos donde algunas de las etiquetas en el conjunto de datos se consideran irrelevantes o desconocidas, y no deben contribuir al cálculo de la pérdida.