es.davy.ai

Preguntas y respuestas de programación confiables

¿Tienes una pregunta?

Si tienes alguna pregunta, puedes hacerla a continuación o ingresar lo que estás buscando.

Tag: TORCHTEXT

Guardar y cargar vocabulario y peso para utilizar torchtext en la inferencia.

He seguido este ejemplo para construir un clasificador de texto usando torchtext. Después de terminar el entrenamiento, he guardado el vocabulario y los pesos, pero cuando los he cargado de nuevo para hacer una inferencia con los datos de validación, obtuve cero de precisión. Encontré una pregunta similar en https://stackoverflow.com/questions/62744998/using-torchtext-for-inference . . . Read more

“Token second\team not found and default index is not set” error en la función de torchtext.

Este es mi código, la función funciona bien para el conjunto de entrenamiento pero para el conjunto de prueba devuelve este error RuntimeError: Token second\team not found and default index is not set train_data, train_labels = text_classification._create_data_from_iterator( vocab, text_classification._csv_iterator(train_csv_path, ngrams, yield_cls=True), False) test_data, test_labels = text_classification._create_data_from_iterator( vocab, text_classification._csv_iterator(test_csv_path, ngrams, yield_cls=True), . . . Read more

El uso de la capa BatchNorm1d con capas de Embedding y Linear en un problema de clasificación de texto para NLP arroja un RuntimeError.

Estoy tratando de crear una red neuronal y entrenar mis propias incrustaciones. La red tiene la siguiente estructura (PyTorch): import torch.nn as nn class MultiClassClassifer(nn.Module): #define all the layers used in model def __init__(self, vocab_size, embedding_dim, hidden_dim, output_dim): #Constructor super(MultiClassClassifer, self).__init__() #embedding layer self.embedding = nn.Embedding(vocab_size, embedding_dim) #dense layer self.hiddenLayer . . . Read more