Tag: GPYTORCH
Tengo una restricción de memoria al cargar un modelo desde un punto de control de antorcha para inferencia: Lo que tengo es lo siguiente: Un modelo de antorcha (xlm-roberta) y un punto de control (xlm-roberta-checkpoint.pth) Lo que normalmente sucede es que cargamos xlm-roberta de la siguiente manera: modelo = AutoModel.from_pretrained(‘xlm-roberta-base’) . . . Read more
Estoy intentando entrenar el modelo yolov5 con colab con este código: https://colab.research.google.com/drive/17o6Ci-x8hIMhWXXzxRQcxvB5MfvjEeDV?usp=sharing Menciono –device cpu pero también recibo el mismo mensaje warnings.warn(‘User provided device_type of ‘cuda’, but CUDA is not available. Disabling’)
Tengo una lista de tensores que quiero convertir a puntos flotantes, ¿cómo puedo hacerlo? He intentado usar .item pero no funciona. Me sale ValueError: only one element tensors can be converted to Python scalars. tensor([[12.1834, 4.9616, 7.7913], [ 8.9394, 8.5784, 9.3691], [ 9.4475, 8.9766, 9.8418], [11.8210, 6.0852, 8.2168], [ 8.2885, . . . Read more
Tengo un modelo: import torch import torch.nn as nn import torch.optim as optim class Modelo(nn.Module): def init(self): super(Modelo, self).init() self.fc1 = nn.Linear(1, 3) self.fc2 = nn.Linear(3, 2) self.fc3 = nn.Linear(2, 1) def forward(self, x): x1 = self.fc1(x) x = torch.relu(x1) x2 = self.fc2(x) x = torch.relu(x2) x3 = self.fc3(x) return . . . Read more
Tengo una red neuronal que produce output. Quiero transformar output antes de que ocurra la pérdida y el retropropagación. Aquí está mi código general: with torch.set_grad_enabled(entrenando): outputs = net(xbatch[:, 0], xbatch[:, 1]) # la predicción de la NN # Mi problema está aquí: outputs = transformar(torch(outputs) pérdida = mi_loss(outputs, y_batch) . . . Read more