Tag: BAYESIAN-DEEP-LEARNING
Aquí está el conjunto de datos por lotes que creé antes para ajustarlo al modelo: train_ds = tf.keras.preprocessing.image_dataset_from_directory( train_path, label_mode=’categorical’, # se utiliza para la clasificación multiclase. Son etiquetas codificadas en one-hot para cada clase validation_split=0.2, # porcentaje del conjunto de datos a considerar para validación subset=”training”, # este subconjunto . . . Read more
Me encontré con un código de red siamesa en el que se calculaba la distancia euclidiana de la siguiente manera: def euclidean_distance(vects): x, y = vects sum_square = K.sum(K.square(x – y), axis=1, keepdims=True) return K.sqrt(K.maximum(sum_square, K.epsilon())) ¿Por qué en este código tomamos el máximo entre sum_square y epsilon?
Estoy usando Keras y GroupKFold. Mi dataset contiene varias entradas que aparecen más de una vez. Tiene sentido mantenerlas en el entrenamiento. Pero creo que mantenerlas en la validación es en el mejor de los casos superfluo y en el peor introduce sesgo en los resultados. ¿Cómo podría omitir las . . . Read more
TL;DR: ¿Existe alguna forma en Gensim de utilizar el Embedding existente y ampliar su vocabulario + aprendizaje al entrenarlo nuevamente en un conjunto de datos personalizado? Uno puede simplemente entrenar su propio Embedding en Gensim de la siguiente manera: from gensim.models import FastText # o cualquier otro modelo corpus = . . . Read more
Mi idea sería crear un VAE o un GAN capaz de generar nuevas drogas, utilizando grafos como representaciones de mis moléculas. Ahora estoy haciendo la pregunta real: Comencé el proyecto con un simple Pandas dataframe compuesto por cadenas de SMILES y varias características, como esta: CC(=O)Nc1ccc(O)cc1, peso = 151.16, … . . . Read more