Tag: BAYESIAN-DEEP-LEARNING
Tengo una imagen RGB y mi primera capa es una capa de convolución con tamaño de kernel (1×1) y una profundidad de 3 (filtros). Debido a que el filtro es de tamaño 1×1, el tamaño de la imagen de salida no cambia. Observando este píxel, vemos que 3 nodos de . . . Read more
Estoy tratando de implementar algo como esto para 2 nodos (cada nodo con 2 GPUs): Proceso paralelo iniciado con torch.distributed.init_process_group () Todas las GPUs trabajan en paralelo y generan listas como: [20, 0, 1, 17] para GPU0 del nodo A [1, 2, 3, 4] para GPU1 del nodo A [5, . . . Read more
Tengo un conjunto de datos de lotes de Entrenamiento y Validación: train_ds = tf.keras.preprocessing.image_dataset_from_directory( train_path, label_mode = ‘categorical’, # se utiliza para clasificación multiclase. Son etiquetas codificadas en one-hot para cada clase validation_split = 0.2, # porcentaje del conjunto de datos que se considerará para validación subset = ‘training’, # . . . Read more
Noté que la definición de la capa Densa de Keras dice lo siguiente: Función de activación a utilizar. Si no se especifica nada, no se aplica ninguna activación (es decir, activación “lineal”: a(x) = x). Entonces, si tenemos un código como este: model.add(Dense(10, activation = None)) ¿Es básicamente lo mismo . . . Read more
Me pregunto si hay intentos de predecir vectores de embedding de palabras como objetivos en arquitecturas de redes neuronales (como Transformers, Sequence-to-Sequence-Models o RNN simples) utilizando, por ejemplo, errores cuadráticos medios como función de pérdida en lugar de predecir palabras como categorías con softmax. No pude encontrar ningún artículo sobre . . . Read more