es.davy.ai

Preguntas y respuestas de programación confiables

¿Tienes una pregunta?

Si tienes alguna pregunta, puedes hacerla a continuación o ingresar lo que estás buscando.

Tag: GRADIENT-DESCENT

Paso de tiempo en el optimizador Adam

Estoy intentando implementar el optimizador Adam para mi red neuronal (todo escrito desde cero). Lo tengo implementado, pero hay algo de lo que no estoy seguro. ¿Cuándo se incrementa el paso de tiempo? Lo que quiero decir es, ¿se incrementa después de cada mini lote? ¿Lo aumento después de cada . . . Read more

Descenso del gradiente en Python para aproximación.

Estoy tratando de implementar un descenso de gradiente para aproximar los datos. Con la función Y = P0 + P1*X (o y=kx+b), el modelo funciona bien. Aquí está el código completo: import numpy as np import matplotlib.pyplot as plt from sklearn.linear_model import SGDRegressor def gradient(x, y): P0 = P1 = . . . Read more