es.davy.ai

Preguntas y respuestas de programación confiables

¿Tienes una pregunta?

Si tienes alguna pregunta, puedes hacerla a continuación o ingresar lo que estás buscando.

Tag: ALLENNLP

¿Puedo crear un chatbot basado en transformers que esté preentrenado con otro conjunto de datos?

Actualmente estoy creando un chatbot transformador médico con el tutorial de esta página: https://blog.tensorflow.org/2019/05/transformer-chatbot-tutorial-with-tensorflow-2.html Estoy utilizando un corpus de texto de preguntas/respuestas médicas. Cuando entreno y pruebo el modelo, solo responde preguntas relevantes para el campo médico. Sin embargo, quiero crear un chatbot conversacional que pueda responder preguntas básicas como . . . Read more

Imponiendo reglas de gramática manualmente en el modelo de Sequence2Sequence de Keras.

Tengo un traductor de secuencia a secuencia bastante estándar en Keras, que se ve así: # crear modelo encoder_inputs = Input(shape=(None,)) en_x = Embedding(num_encoder_tokens, EMBEDDING_SIZE)(encoder_inputs) encoder = LSTM(50, return_state=True) encoder_outputs, state_h, state_c = encoder(en_x) # Descartamos `encoder_outputs` y solo mantenemos los estados. encoder_states = [state_h, state_c] # Configurar el decodificador, . . . Read more

¿Cómo puedo encontrar nombres de puntos similares o estimados a partir de una lista de direcciones mediante NLP o alguna solución mejor?

Tengo una lista de 500,000 direcciones de diferentes tipos y también tengo una lista de nombres específicos de puntos en la base de datos. Quieres encontrar estos nombres de puntos según las direcciones. Pero hay un problema, muchos nombres de puntos están mal escritos en las direcciones; por ejemplo: Nombres . . . Read more

InvalidConfigException: No se puede cargar la clase con el nombre ‘HFTransformersNLP’ en Rasa.

cómo implementar BERT en rasa con Hugging Face Transformers y qué se necesita para ejecutar el modelo Bert en rasa? receta: defecto.v1 *# Configuración para Rasa NLU. # https://rasa.com/docs/rasa/nlu/components/* idioma: en tubería: *# cómo implementar este BERT en rasa* – nombre: HFTransformersNLP pesos_del_modelo: "bert-base-uncased" nombre_del_modelo: "bert" – nombre: LanguageModelTokenizer – . . . Read more