Tag: TENSORFLOW-DATASETS
En este momento estoy tratando de unir un conjunto de datos que se encuentra disperso en diferentes carpetas en uno solo, este conjunto de datos no tiene etiquetas ya que es una aplicación similar a un codificador automático. El código en este momento está creando los conjuntos de datos de . . . Read more
Estoy entrenando un autoencoder convolucional y tengo este código para cargar los datos (imágenes): train_ds = tf.keras.preprocessing.image_dataset_from_directory( ‘ruta/a/las/imagenes’, image_size=tamaño_imagen ) normalization_layer = layers.experimental.preprocessing.Rescaling(1./255) def adjust_inputs(imagenes, etiquetas): return normalization_layer(imagenes), normalization_layer(imagenes) normalized_train_ds = train_ds.map(adjust_inputs) Como no necesito las etiquetas de clase sino las imágenes mismas como Y, estoy asignando la función adjust_inputs . . . Read more
Tengo una gran cantidad de datos que quiero cargar en un Dataset de Tensorflow para entrenar una red LSTM. Quiero utilizar funcionalidad de transmisión en lugar de leer todos los datos en memoria debido al tamaño de mis datos. Me está costando trabajo leer mis datos para que cada muestra . . . Read more
Tengo un código de Aprendizaje Profundo para Detectar Objetos. Lo que hice fue correr el código en Google Colab y exporté el modelo para usarlo localmente. Ahora, para ejecutar el modelo, debo volver a instalar todo el paquete de Tensorflow, lo cual es demasiado pesado para mi sistema. Quisiera preguntar . . . Read more
Tengo un conjunto de datos de entrenamiento almacenado en S3 en formato parquet. Quiero cargar estos datos en un cuaderno (en el clúster de databricks) y entrenar un modelo Keras en él. Hay pocas formas que se me ocurren de entrenar un modelo Keras en este conjunto de datos: – . . . Read more