Tag: HUGGINGFACE-TRANSFORMERS
Tengo una restricción de memoria al cargar un modelo desde un punto de control de antorcha para inferencia: Lo que tengo es lo siguiente: Un modelo de antorcha (xlm-roberta) y un punto de control (xlm-roberta-checkpoint.pth) Lo que normalmente sucede es que cargamos xlm-roberta de la siguiente manera: modelo = AutoModel.from_pretrained(‘xlm-roberta-base’) . . . Read more
Estoy intentando usar los modelos de Helsinki-NLP de huggingface, pero no puedo encontrar instrucciones sobre cómo hacerlo. Los archivos README son generados por computadora y no contienen explicaciones. ¿Alguien puede orientarme con una guía para empezar o mostrarme un ejemplo de cómo ejecutar un modelo como opus-mt-en-es?
Estoy usando SimpleTransformers en mi tarea de clasificación, tengo 2 columnas en mi Dataframe (sentence, label) de tamaño 3890. Cuando entreno el modelo, ¿por qué muestra que solo está utilizando 8 muestras de mis datos de entrenamiento? ¿Por qué no son 3890/3890? (ver barra roja 0% en la imagen a . . . Read more
Intento ejecutar el ejemplo estándar de introducción de la documentación de HuggingFace en un cuaderno de Jupiter: from transformers import pipeline classifier = pipeline(“sentiment-analysis”) classifier(“He estado esperando un curso de HuggingFace toda mi vida.”) Importar el método pipeline aparentemente funciona, sin embargo, si declaro el clasificador en la siguiente línea, . . . Read more
Quiero ejecutar (o reanudar) el script run_mlm.py con una tasa de aprendizaje específica, pero parece que establecerla en los argumentos del script no hace nada. os.system( f”python {script} \ –model_type {model} \ –config_name ‘./models/{model}/config.json’ \ –train_file ‘./content/{data}/train.txt’ \ –validation_file ‘./content/{data}/test.txt’ \ –learning_rate 6e-4 \ –weight_decay 0.01 \ –warmup_steps 6000 \ . . . Read more