es.davy.ai

Preguntas y respuestas de programación confiables

¿Tienes una pregunta?

Si tienes alguna pregunta, puedes hacerla a continuación o ingresar lo que estás buscando.

Tag: BERT-LANGUAGE-MODEL

Reentrenar un modelo BERT

He entrenado un modelo BERT utilizando pytorch con alrededor de un millón de datos de texto para una tarea de clasificación. Después de probar este modelo con nuevos datos, obtengo Falsos Positivos y Falsos Negativos. Ahora quiero volver a entrenar el modelo existente solo con los FN y FP. No . . . Read more

¿Cómo funciona el relleno de espacios (padding) en el tokenizer de huggingface?

Intenté seguir el ejemplo de tokenización siguiente: tokenizer = BertTokenizer.from_pretrained(MODEL_TYPE, do_lower_case=True) sent = “Me desagrada esto. No aquello.”, _tokenized = tokenizer(sent, padding=True, max_length=20, truncation=True) print(_tknzr.decode(_tokenized[‘input_ids’][0])) print(len(_tokenized[‘input_ids’][0])) La salida fue: [CLS] Me desagrada esto. No aquello. [SEP] 9 Observe el parámetro max_length=20 de tokenizer. ¿Cómo puedo hacer que el tokenizador de . . . Read more

No se puede importar el nombre ‘TrainingArguments’ de ‘transformers’.

Estoy intentando ajustar un modelo BERT preentrenado de HuggingFace. Estoy importando lo siguiente: from transformers import (AutoTokenizer, AutoConfig, AutoModelForSequenceClassification, TrainingArguments, Trainer) y obtengo el siguiente error: no se puede importar el nombre ‘TrainingArguments’ de ‘transformers’ Tampoco puedo importar ‘Trainer’. Actualmente tengo instalados tensorflow 2.2.0, pytorch 1.7.1, y transformers 2.1.1.