Tag: HUGGINGFACE-TRANSFORMERS
Estoy utilizando los modelos de huggingface transformers para varias tareas y funciona bien, pero el único problema es el tiempo de respuesta. Tarda alrededor de 6-7 segundos en generar el resultado, mientras que a veces incluso tarda alrededor de 15-20 segundos. Lo intenté en Google Colab usando GPU, el rendimiento . . . Read more
Intenté seguir el ejemplo de tokenización siguiente: tokenizer = BertTokenizer.from_pretrained(MODEL_TYPE, do_lower_case=True) sent = “Me desagrada esto. No aquello.”, _tokenized = tokenizer(sent, padding=True, max_length=20, truncation=True) print(_tknzr.decode(_tokenized[‘input_ids’][0])) print(len(_tokenized[‘input_ids’][0])) La salida fue: [CLS] Me desagrada esto. No aquello. [SEP] 9 Observe el parámetro max_length=20 de tokenizer. ¿Cómo puedo hacer que el tokenizador de . . . Read more
Estoy intentando ajustar un modelo BERT preentrenado de HuggingFace. Estoy importando lo siguiente: from transformers import (AutoTokenizer, AutoConfig, AutoModelForSequenceClassification, TrainingArguments, Trainer) y obtengo el siguiente error: no se puede importar el nombre ‘TrainingArguments’ de ‘transformers’ Tampoco puedo importar ‘Trainer’. Actualmente tengo instalados tensorflow 2.2.0, pytorch 1.7.1, y transformers 2.1.1.
Trabajando con HuggingFace Transformers para la tarea de Lenguaje Enmascarado, esperaba que la predicción devolviera la misma cadena de entrada más los tokens para los enmascarados: from transformers import BertConfig, BertTokenizer, BertForMaskedLM modelo1 = BertForMaskedLM.from_pretrained("bert-base-uncased") tokenizer1 = BertTokenizer.from_pretrained("bert-base-uncased") # Leer el resto de [MASK] para entender con mayor detalle las . . . Read more
Estoy tratando de cargar un conjunto de datos personalizado para usar en el ajuste fino de un modelo de Huggingface. Mi conjunto de datos es un archivo CSV con 2 columnas: una es “sequence”, que es una cadena, y la otra es “label”, que también es una cadena, con 8 . . . Read more