Tag: HUGGINGFACE-TRANSFORMERS
cómo implementar BERT en rasa con Hugging Face Transformers y qué se necesita para ejecutar el modelo Bert en rasa? receta: defecto.v1 *# Configuración para Rasa NLU. # https://rasa.com/docs/rasa/nlu/components/* idioma: en tubería: *# cómo implementar este BERT en rasa* – nombre: HFTransformersNLP pesos_del_modelo: "bert-base-uncased" nombre_del_modelo: "bert" – nombre: LanguageModelTokenizer – . . . Read more
Estoy usando Anaconda para ejecutar mi proyecto de Transformers localmente en Google Colab. He creado un nuevo entorno (tf_gpu) e instalado (supuestamente) todo lo que necesito. Y todo funciona correctamente, pero cuando intento simplemente importar pytorch, aparece este error: [WinError 206] El nombre de archivo o la extensión es demasiado . . . Read more
Quiero predecir el sentimiento de miles de oraciones utilizando Huggingface. from transformers import pipeline model_path = “cardiffnlp/twitter-xlm-roberta-base-sentiment” pipe = pipeline(“sentiment-analysis”, model=model_path, tokenizer=model_path) from datasets import load_dataset data_files = { “train”: “/content/data/customer.csv” } dataset = load_dataset(“csv”, data_files=data_files) dataset = dataset.map(lambda examples: dict(pipe(examples[‘text’]))) # but I am getting the following error. # . . . Read more
En referencia a este cuaderno de Colab (del curso de Transformadores de Huggingface disponible aquí), si ejecuto: tokenized_datasets[“train”][:8] el dtype es un diccionario en lugar de un Dataset y el segmento de código devolverá algunos datos. Si paso el segmento de código aquí, obtengo un error de clave, lo cual . . . Read more
Tengo varios modelos de lenguaje enmascarados (principalmente Bert, Roberta, Albert, Electra). También tengo un conjunto de datos de oraciones. ¿Cómo puedo obtener la perplejidad de cada oración? En la documentación de huggingface aquí, mencionan que la perplejidad “no está bien definida para modelos de lenguaje enmascarados como BERT”, aunque todavía . . . Read more