Me pregunto si hay intentos de predecir vectores de embedding de palabras como objetivos en arquitecturas de redes neuronales (como Transformers, Sequence-to-Sequence-Models o RNN simples) utilizando, por ejemplo, errores cuadráticos medios como función de pérdida en lugar de predecir palabras como categorías con softmax. No pude encontrar ningún artículo sobre . . . Read more
Tengo una clase de modelo que tiene un tipo y datos, y en el backend he agregado otro diccionario que no tiene un associated codingKey para obtener los datos. ¿Cómo puedo analizar los datos en este caso? A continuación se muestra la clase de modelo: struct OverviewWorkout: Codable { enum . . . Read more
JSONDecoder().decode falla cuando hay comas al final de un campo de nombre. ¿Por qué está sucediendo? ¿Cómo puedo resolverlo? let string = “[{\”name\”:\”Homeoffice Marc,\”,\”Km\”:846.7911330652549,\”Strid\”:\”DE262B62633E34AAA8A622E189B42920B319C371\”},{\”name\”:\”Küche,\”,\”Km\”:857.8694764184313,\”Strid\”:\”BD1A60D736BE86377121A2CC713251DBE2603BD5\”},{\”name\”:\”Besprechungszimmer,\”,\”Km\”:857.8721480885644,\”Strid\”:\”751A10C5D3065F91CC9F5BDF5E7111DC452D1C39\”},{\”name\”:\”Büro Vertrieb,\”,\”Km\”:857.8723091979339,\”Strid\”:\”148F97F324BB59EAFF613A0EB3766E026CFAB320\”},{\”name\”:\”Büro Produktmanagement und Support,\”,\”Km\”:857.8734889037903,\”Strid\”:\”3A37C955F7D3C012577B1D19B6F662AD233372A5\”},{\”name\”:\”Tischkicker,\”,\”Km\”:857.8748603133218,\”Strid\”:\”B5B8A86BBA2102AF56721166D2E814736EF13132\”},{\”name\”:\”Büro Entwicklung,\”,\”Km\”:857.8773683652697,\”Strid\”:\”E6814BE03EEF386E63AD7609D970BD9BA8CE71AD\”},{\”name\”:\”Syfit GmbH,\”,\”Km\”:857.877841443768,\”Strid\”:\”64F80B1EC04D008E060F28D7F198A8C39DCD53B5\”},{\”name\”:\”Büro Zolti,\”,\”Km\”:857.8798725612223,\”Strid\”:\”23F4C2E1C467AEC9D55D873DC3ED7FC73CD92177\”},{\”name\”:\”Globale Suche\”,\”Km\”:null,\”Km\”:846.7911330652549}]” let data = string.data(using: .utf8) ?? Data() let areas = try? JSONDecoder().decode([AreaModel].self, from: data) decodificar estos datos devuelve . . . Read more
Actualmente estoy entrenando una red codificador-decodificador seq2seq potenciada por LSTM en TensorFlow 2.x. El problema principal en este momento es que la pérdida se acerca a NaN y las predicciones devueltas también son NaN. Entiendo la posibilidad de gradientes explosivos/desvanecidos y he implementado varias formas de intentar combatirlo (ejemplo: agregar . . . Read more
Hay cinco tipos de codificación de bits: 11, 10, 01, 001, 000. El mensaje correspondiente para cada codificación de bits es: 11 -> A 10 -> B 01 -> C 001 -> D 000 -> E El resultado de compilación se verá así: Ingresa una secuencia de bits: 01100001100110 CBEADB . . . Read more