es.davy.ai

Preguntas y respuestas de programación confiables

¿Tienes una pregunta?

Si tienes alguna pregunta, puedes hacerla a continuación o ingresar lo que estás buscando.

Tag: GPYTORCH

Error de ejecución: Los tamaños de los tensores deben coincidir excepto en la dimensión 2. Se esperaba un tamaño de 32 pero se obtuvo un tamaño de 1 para el tensor número 3 en la lista.

Estoy ejecutando EDITNTS: https://github.com/yuedongP/EditNTS sin forzado del maestro en algunos datos de entrenamiento. Cuando ejecuto main.py, obtengo el error:   Archivo "/home/jba5337/work/ds440w/EditNTS-Google/editnts.py", línea 252, en forward     output_t = torch.cat((output_edits, attn_applied_org_t, c, hidden_words[0]), RuntimeError: los tamaños de los tensores deben coincidir excepto en la dimensión 2. Tamaño esperado 32 pero se obtuvo . . . Read more

Cómo indexar un tensor con un tensor de alta dimensión.

Tengo dos tensores, x para valores y y para indexación. x.shape e y.shape son iguales excepto por la última dimensión. Por ejemplo: x=torch.tensor([[1, 6, 7, 5, 6], [8, 6, 7, 8, 4], [2, 8, 3, 5, 6]]) <h1>x.shape:(3,5)</h1> y=torch.tensor([[1, 2], [2, 3], [2, 2]]) <h1>y.shape:(3,2)</h1> <code> ¿Hay una manera simple . . . Read more

¿Cómo puedo ejecutar vgg16 (transfer learning) en mi GPU que tiene 4GB de memoria?

Quiero usar VGG16 (aprendizaje transferido), pero no tengo suficiente memoria: Según nvidia-smi, tengo 4GB de memoria Modelo: model = torchvision.models.vgg16(pretrained=True) for p in model.parameters(): p.requires_grad = False sin = model.classifier[0].in_features model.classifier = nn.Sequential( nn.Linear(sin, 128), nn.ReLU(), nn.Linear(128, 2) ) De acuerdo con: torchinfo.summary(model, (64, 3, 224, 224)) Tamaño total estimado . . . Read more

loss.backward () devuelve RuntimeError: error de CUDA: se activó la comprobación de assert en el dispositivo.

Estoy intentando utilizar BCELoss sin éxito. loss = BCELoss() opt = optim.AdamW (model.parameters(), lr=0.01, betas=(0.9, 0.99), weight_decay=0.001) loss = Loss(z, y) opt.zero_grad() loss.backward() z, y tienen la forma: (128,2) Estoy obteniendo el siguiente error (de loss.backward()): RuntimeError: Error de CUDA: dispositivo de activación del lado del dispositivo. Los errores de . . . Read more