Tag: BAYESIAN-DEEP-LEARNING
Estoy trabajando en tareas de super resolución de imágenes con EDSR como modelo base. Siguiendo a EDSR, no estoy utilizando ninguna capa de batch-norm en mi modelo. De repente, se me ocurrió una pregunta estúpida sobre los tamaños de lote. Actualmente, estoy entrenando mi modelo con un tamaño de lote . . . Read more
Estoy trabajando en un problema de clasificación de múltiples etiquetas donde mis datos a gran escala están altamente desequilibrados. Por lo tanto, necesito aplicar un muestreo estratificado con la intuición de que mi generador de imágenes muestree proporcionalmente los datos de cada clase en cada lote. Cualquier sugerencia o solución . . . Read more
Leí en línea que steps_per_epoch se define como el tamaño del conjunto de datos dividido por el tamaño del lote. Básicamente, es el número de lotes que se deben ver/aprender en cada época. En el siguiente código, tengo 8 lotes después de procesar con el Generador de series de tiempo. . . . Read more
Soy nuevo en el aprendizaje profundo y keras. Consulte el siguiente código. 1) Quiero confirmar la terminología. Antes de procesar para crear lotes mediante el Generador de series temporales, hay 10 muestras. Después de procesar por el Generador, ¿es correcto decir que hay 8 muestras en 1 lote? 2) No . . . Read more
Estoy utilizando la implementación por defecto y básica de Clasificación de Texto como sigue: tokenizer = Tokenizer(num_words=tamaño_vocabulario, filters=filtros) tokenizer.fit_on_texts(list(train_X)) train_X = tokenizer.texts_to_sequences(train_X) val_X = tokenizer.texts_to_sequences(val_X) train_X = pad_sequences(train_X, maxlen=longitud_maxima) val_X = pad_sequences(val_X, maxlen=longitud_maxima) def obtener_coeficientes(palabra,*arr): return palabra, np.asarray(arr, dtype=’float32′) #Para cargar el Embedding embeddings_index = dict(obtener_coeficientes(*o.split(” “)) for o in . . . Read more