es.davy.ai

Preguntas y respuestas de programación confiables

¿Tienes una pregunta?

Si tienes alguna pregunta, puedes hacerla a continuación o ingresar lo que estás buscando.

Tag: TRANSFORMER-MODEL

Cómo calcular la perplejidad de una frase utilizando los modelos de lenguaje con espaciado de huggingface?

Tengo varios modelos de lenguaje enmascarados (principalmente Bert, Roberta, Albert, Electra). También tengo un conjunto de datos de oraciones. ¿Cómo puedo obtener la perplejidad de cada oración? En la documentación de huggingface aquí, mencionan que la perplejidad “no está bien definida para modelos de lenguaje enmascarados como BERT”, aunque todavía . . . Read more

¿El código de muestra oficial de Keras sobre Transformer aplicado en series de tiempo contiene la parte de Posicionamiento Incrustado?

El código de muestra para referir desde la URL: https://keras.io/examples/timeseries/timeseriestransformerclassification/ No pude encontrar ninguna descripción sobre el contenido de “Position Embedding” en la página completa de la URL mencionada anteriormente. Cuando revisé el Transformer aplicado en NLP, pude ver claramente la clase llamada “TokenAndPositionEmbedding”. Si no contiene “Position Embedding”, ¿cómo . . . Read more