Batchnormalize, Dropout y número de capas
Estoy aprendiendo batchnormalisation y dropout. Visto esto en https://www.kaggle.com/ryanholbrook/dropout-and-batch-normalization. El modelo model = keras.Sequential([ layers.Dense(1024, activation=’relu’, input_shape=[11]), layers.Dropout(0.3), layers.BatchNormalization(), layers.Dense(1024, activation=’relu’), layers.Dropout(0.3), layers.BatchNormalization(), layers.Dense(1024, activation=’relu’), layers.Dropout(0.3), layers.BatchNormalization(), layers.Dense(1), ]) Mi pregunta es, ¿ponemos dropout antes de batchnormalization (BN) o después? ¿Los resultados son los mismos? Mi entendimiento es que dropout . . . Read more