Tag: GPYTORCH
Intenté imprimir el resumen del modelo SinGAN, pero obtuve un error que es: imagen Este es el código: def init_models(opt): # Inicialización del generador: netG = models.GeneratorConcatSkip2CleanAdd(opt).to(opt.device) netG.apply(models.weights_init) if opt.netG != ”: netG.load_state_dict(torch.load(opt.netG)) summary(netG, input_size=(3, 201, 256)) print(netG) # Inicialización del discriminador: netD = models.WDiscriminator(opt).to(opt.device) netD.apply(models.weights_init) if opt.netD != ”: . . . Read more
Quiero cargar los datos de MNIST usando: test_dataset = datasets.MNIST(root=’./mnist_data/’, train=False, transform=transforms.ToTensor(), download=False) test_loader = torch.utils.data.DataLoader(dataset=test_dataset, batch_size=1, shuffle=False) Sin embargo, este código cargará los 10000 ejemplos de prueba de imágenes escritas a mano. ¿Existe alguna oportunidad de tener test_loader exactamente en el mismo tipo y limitar su carga solo a . . . Read more
No conocemos la forma del tensor de entrada y no deberíamos usar ningún bucle. Solo operaciones de reducción e indexación. ¿Cómo establecemos el valor mínimo de cada fila en cero? Por ejemplo: entrada: x = torch.tensor([[ [10, 20, 30] [2, 5, 1] ]]) salida: torch.tensor([ [0, 20, 30], [2, 5, . . . Read more
Cambiando algo en una posición de mi entrada no afecta las salidas en otras posiciones de mi codificador de transformador. Hice una prueba en aislamiento en PyTorch: # Mi capa de codificador encoder_layer = nn.TransformerEncoderLayer(d_model=8, nhead=2) # Desactivar la deserción encoder_layer.eval() # Entrada aleatoria src = torch.rand(2, 10, 8) # . . . Read more
Cuando intentaba ejecutar modelos de huggingface en Jupyterlab, me encontré con este problema: from transformers import AutoModelForSeq2SeqLM, DataCollatorForSeq2Seq, Seq2SeqTrainingArguments, Seq2SeqTrainer ImportError: no se puede importar el nombre ‘amp’ de ‘apex’ (ubicación desconocida)