es.davy.ai

Preguntas y respuestas de programación confiables

¿Tienes una pregunta?

Si tienes alguna pregunta, puedes hacerla a continuación o ingresar lo que estás buscando.

Tag: HUGGINGFACE-TRANSFORMERS

InvalidConfigException: No se puede cargar la clase con el nombre ‘HFTransformersNLP’ en Rasa.

cómo implementar BERT en rasa con Hugging Face Transformers y qué se necesita para ejecutar el modelo Bert en rasa? receta: defecto.v1 *# Configuración para Rasa NLU. # https://rasa.com/docs/rasa/nlu/components/* idioma: en tubería: *# cómo implementar este BERT en rasa* – nombre: HFTransformersNLP pesos_del_modelo: "bert-base-uncased" nombre_del_modelo: "bert" – nombre: LanguageModelTokenizer – . . . Read more

Error en tiempo de ejecución: El tamaño ampliado del tensor (585) debe coincidir con el tamaño existente (514) en la dimensión no singular 1.

Quiero predecir el sentimiento de miles de oraciones utilizando Huggingface. from transformers import pipeline model_path = “cardiffnlp/twitter-xlm-roberta-base-sentiment” pipe = pipeline(“sentiment-analysis”, model=model_path, tokenizer=model_path) from datasets import load_dataset data_files = { “train”: “/content/data/customer.csv” } dataset = load_dataset(“csv”, data_files=data_files) dataset = dataset.map(lambda examples: dict(pipe(examples[‘text’]))) # but I am getting the following error. # . . . Read more

Cómo calcular la perplejidad de una frase utilizando los modelos de lenguaje con espaciado de huggingface?

Tengo varios modelos de lenguaje enmascarados (principalmente Bert, Roberta, Albert, Electra). También tengo un conjunto de datos de oraciones. ¿Cómo puedo obtener la perplejidad de cada oración? En la documentación de huggingface aquí, mencionan que la perplejidad “no está bien definida para modelos de lenguaje enmascarados como BERT”, aunque todavía . . . Read more