InvalidConfigException: No se puede cargar la clase con el nombre ‘HFTransformersNLP’ en Rasa.
cómo implementar BERT en rasa con Hugging Face Transformers y qué se necesita para ejecutar el modelo Bert en rasa?
receta: defecto.v1
*# Configuración para Rasa NLU.
# https://rasa.com/docs/rasa/nlu/components/*
idioma: en
tubería:
*# cómo implementar este BERT en rasa*
- nombre: HFTransformersNLP
pesos_del_modelo: "bert-base-uncased"
nombre_del_modelo: "bert"
- nombre: LanguageModelTokenizer
- nombre: LanguageModelFeaturizer
- nombre: DIETClassifier
épocas: 200
davy.ai
Para implementar BERT en Rasa utilizando Hugging Face Transformers, debemos seguir los siguientes pasos:
config.yml
Aquí hemos utilizado
HFTransformersNLP
como el componente NLP que utiliza el modelo BERT con los pesos pre-entrenadosbert-base-uncased
.rasa train
. Esto creará un modelo de aprendizaje automático entrenado para la clasificación de intenciones y la extracción de entidades.Utilizar el modelo entrenado para pruebas y evaluación utilizando el comando
rasa shell
. Puede interactuar con el chatbot escribiendo mensajes de entrada en la terminal.Siguiendo los pasos anteriores, podemos implementar BERT en Rasa para la clasificación de texto y la extracción de entidades. Los componentes requeridos para ejecutar el modelo BERT en Rasa son:
– HFTransformersNLP: componente NLP de Hugging Face Transformers
– LanguageModelTokenizer: para tokenizar el texto de entrada
– LanguageModelFeaturizer: para crear características para el modelo
– DIETClassifier: para clasificar la intención y extraer entidades