Tag: GRADIENT-DESCENT
Estoy tratando de entender mejor cómo funciona la Acumulación de Gradientes y por qué es útil. Con este fin, me gustaría preguntar cuál es la diferencia (si alguna) entre estas dos posibles implementaciones en estilo PyTorch de un bucle de entrenamiento personalizado con acumulación de gradientes: pasos_de_acumulacion_de_gradiente = 5 for . . . Read more
Estoy ejecutando una Regresión Lineal (usando el Análisis de Descenso Gradiente / GDA) utilizando datos importados de un archivo .csv (las variables data_axis y data representan las fechas y los precios del mercado de valores, respectivamente). El código a continuación devuelve [nan nan nan nan nan nan] como el valor . . . Read more
¿Cómo usar el Descenso de Gradiente para resolver esta función trigonométrica con múltiples términos? Respuesta: La función que se muestra es de la forma: f(x) = A sin(2π * L * x) + B cos(2π * M * x) + C sin(2π * N * x) Y los valores de . . . Read more
Definí la siguiente red neuronal simple: import torch import torch.nn as nn X = torch.tensor(([1, 2]), dtype=torch.float) y = torch.tensor([1.]) learning_rate = 0.001 class Neural_Network(nn.Module): def __init__(self, ): super(Neural_Network, self).__init__() self.W1 = torch.nn.Parameter(torch.tensor(([1, 0], [2, 3]), dtype=torch.float, requires_grad=True)) self.W2 = torch.nn.Parameter(torch.tensor(([2], [1]), dtype=torch.float, requires_grad=True)) def forward(self, X): self.xW1 = torch.matmul(X, . . . Read more
Estoy intentando implementar un descenso de gradiente simple para una regresión lineal con PyTorch, como se muestra en este ejemplo en la documentación: import torch from torch.autograd import Variable learning_rate = 0.01 y = 5 x = torch.tensor([3., 0., 1.]) w = torch.tensor([2., 3., 9.], requires_grad=True) b = torch.tensor(1., requires_grad=True) . . . Read more