es.davy.ai

Preguntas y respuestas de programación confiables

¿Tienes una pregunta?

Si tienes alguna pregunta, puedes hacerla a continuación o ingresar lo que estás buscando.

Tag: ENCODER-DECODER

Predictando vectores de palabras en lugar de palabras (Procesamiento del Lenguaje Natural)

Me pregunto si hay intentos de predecir vectores de embedding de palabras como objetivos en arquitecturas de redes neuronales (como Transformers, Sequence-to-Sequence-Models o RNN simples) utilizando, por ejemplo, errores cuadráticos medios como función de pérdida en lugar de predecir palabras como categorías con softmax. No pude encontrar ningún artículo sobre . . . Read more

JSONDecoder().decode falla cuando hay comas.

JSONDecoder().decode falla cuando hay comas al final de un campo de nombre. ¿Por qué está sucediendo? ¿Cómo puedo resolverlo? let string = “[{\”name\”:\”Homeoffice Marc,\”,\”Km\”:846.7911330652549,\”Strid\”:\”DE262B62633E34AAA8A622E189B42920B319C371\”},{\”name\”:\”Küche,\”,\”Km\”:857.8694764184313,\”Strid\”:\”BD1A60D736BE86377121A2CC713251DBE2603BD5\”},{\”name\”:\”Besprechungszimmer,\”,\”Km\”:857.8721480885644,\”Strid\”:\”751A10C5D3065F91CC9F5BDF5E7111DC452D1C39\”},{\”name\”:\”Büro Vertrieb,\”,\”Km\”:857.8723091979339,\”Strid\”:\”148F97F324BB59EAFF613A0EB3766E026CFAB320\”},{\”name\”:\”Büro Produktmanagement und Support,\”,\”Km\”:857.8734889037903,\”Strid\”:\”3A37C955F7D3C012577B1D19B6F662AD233372A5\”},{\”name\”:\”Tischkicker,\”,\”Km\”:857.8748603133218,\”Strid\”:\”B5B8A86BBA2102AF56721166D2E814736EF13132\”},{\”name\”:\”Büro Entwicklung,\”,\”Km\”:857.8773683652697,\”Strid\”:\”E6814BE03EEF386E63AD7609D970BD9BA8CE71AD\”},{\”name\”:\”Syfit GmbH,\”,\”Km\”:857.877841443768,\”Strid\”:\”64F80B1EC04D008E060F28D7F198A8C39DCD53B5\”},{\”name\”:\”Büro Zolti,\”,\”Km\”:857.8798725612223,\”Strid\”:\”23F4C2E1C467AEC9D55D873DC3ED7FC73CD92177\”},{\”name\”:\”Globale Suche\”,\”Km\”:null,\”Km\”:846.7911330652549}]” let data = string.data(using: .utf8) ?? Data() let areas = try? JSONDecoder().decode([AreaModel].self, from: data) decodificar estos datos devuelve . . . Read more

Pérdida de valor + el resultado de la red codificador-decodificador LSTM devuelve NaN – TensorFlow 2.x

Actualmente estoy entrenando una red codificador-decodificador seq2seq potenciada por LSTM en TensorFlow 2.x. El problema principal en este momento es que la pérdida se acerca a NaN y las predicciones devueltas también son NaN. Entiendo la posibilidad de gradientes explosivos/desvanecidos y he implementado varias formas de intentar combatirlo (ejemplo: agregar . . . Read more