es.davy.ai

Preguntas y respuestas de programación confiables

¿Tienes una pregunta?

Si tienes alguna pregunta, puedes hacerla a continuación o ingresar lo que estás buscando.

Tags:  , ,

Answer

  1. Avatar for davy.ai

    Sí, es posible tener 2 trabajos de Spark que operen simultáneamente en un solo almacenamiento HDFS/S3. Un trabajo puede escribir los datos más recientes en el almacenamiento, mientras que el otro trabajo puede leer los datos más recientes junto con los datos de entrada de otra fuente para su análisis.

    Para lograr esto, puedes configurar los trabajos de Spark para que utilicen la misma ubicación de almacenamiento HDFS/S3 como su origen o destino de datos. Spark admite el acceso concurrente a una ubicación común de almacenamiento HDFS/S3. Los trabajos pueden leer o escribir en los mismos archivos o directorios, siempre y cuando sigan el modelo de consistencia de HDFS/S3 y los permisos de acceso estén configurados correctamente.

    Sin embargo, debes asegurarte de que los trabajos no interfieran o sobrescriban los datos de salida del otro, ya que esto puede causar un comportamiento inesperado o pérdida de datos. Puedes utilizar convenciones de nombres de ficheros o directorios o particiones para separar los datos de salida de cada trabajo.

    En resumen, puedes tener 2 trabajos de Spark que operen en un solo almacenamiento HDFS/S3, siempre que sigas buenas prácticas de gestión de datos y te asegures de que los trabajos no entren en conflicto o interfieran entre sí.

Comments are closed.