es.davy.ai

Preguntas y respuestas de programación confiables

¿Tienes una pregunta?

Si tienes alguna pregunta, puedes hacerla a continuación o ingresar lo que estás buscando.

Tag: BERT-LANGUAGE-MODEL

Utilice la cuantización en los modelos de HuggingFace Transformers.

Estoy aprendiendo Quantization, y estoy experimentando con Sección 1 de este cuaderno. Quiero usar este código en mis propios modelos. Hipotéticamente, solo necesito asignar a la variable model en Sección 1.2 <h1>cargar modelo</h1> model = BertForSequenceClassification.from<em>pretrained(configs.output</em>dir) model.to(configs.device) Mis modelos son de una biblioteca diferente: from transformers import pipeline. Entonces .to() . . . Read more

InvalidConfigException: No se puede cargar la clase con el nombre ‘HFTransformersNLP’ en Rasa.

cómo implementar BERT en rasa con Hugging Face Transformers y qué se necesita para ejecutar el modelo Bert en rasa? receta: defecto.v1 *# Configuración para Rasa NLU. # https://rasa.com/docs/rasa/nlu/components/* idioma: en tubería: *# cómo implementar este BERT en rasa* – nombre: HFTransformersNLP pesos_del_modelo: "bert-base-uncased" nombre_del_modelo: "bert" – nombre: LanguageModelTokenizer – . . . Read more

Cómo calcular la perplejidad de una frase utilizando los modelos de lenguaje con espaciado de huggingface?

Tengo varios modelos de lenguaje enmascarados (principalmente Bert, Roberta, Albert, Electra). También tengo un conjunto de datos de oraciones. ¿Cómo puedo obtener la perplejidad de cada oración? En la documentación de huggingface aquí, mencionan que la perplejidad “no está bien definida para modelos de lenguaje enmascarados como BERT”, aunque todavía . . . Read more