Tag: AMAZON-MACHINE-LEARNING
¿Existe algún tipo de capa de mayoría en Keras? ¿En la cual la entrada sea un vector 1D y la salida sea un único número que sea el valor que más veces aparece en el vector de entrada? Mi caso de uso es: estoy construyendo un conjunto de redes neuronales, . . . Read more
Estoy tratando de realizar una retropropagación a través de una operación Tensor.index_add, pero se produce un error cuando index_add transmite vectores. ¿Es esto intencional o es un error en PyTorch? El siguiente código NO arroja un error: m = torch.zeros(4) m.requires_grad = True i = [0, 1, 2, 3] v . . . Read more
Tengo un traductor de secuencia a secuencia bastante estándar en Keras, que se ve así: # crear modelo encoder_inputs = Input(shape=(None,)) en_x = Embedding(num_encoder_tokens, EMBEDDING_SIZE)(encoder_inputs) encoder = LSTM(50, return_state=True) encoder_outputs, state_h, state_c = encoder(en_x) # Descartamos `encoder_outputs` y solo mantenemos los estados. encoder_states = [state_h, state_c] # Configurar el decodificador, . . . Read more
Estoy comparando un bosque aleatorio (RF) con una red neuronal feed-forward (NN) para predecir la riqueza de especies. En ambos modelos, utilicé los mismos (60) predictores. El problema es que los coeficientes de determinación (r2) y los errores cuadrados medios son muy similares, pero cuando grafico las predicciones vs las . . . Read more
Tengo un marco de datos que consiste en 3000 muestras, n números de características y dos columnas de objetivos de la siguiente manera: mydata: id, f1, f2, …, fn, target1, target2 01, 23, 32, …, 44, 0 , 1 02, 10, 52, …, 11, 1 , 2 03, 66, 15, . . . Read more