es.davy.ai

Preguntas y respuestas de programación confiables

¿Tienes una pregunta?

Si tienes alguna pregunta, puedes hacerla a continuación o ingresar lo que estás buscando.

“Spark submit en modo clúster, excepción en el hilo principal.”

Mi sintaxis de submit en Spark es la siguiente:
spark-submit –queue regular –deploy-mode cluster –conf spark.locality.wait=5000000ms –num-executors 100 –executor-memory 40G job.py

La excepción ocurrió después de que el trabajo se ejecutara correctamente por un tiempo y fue la siguiente:

Mensaje de diagnóstico de la aplicación: La aplicación del usuario salió con el estado 1
Excepción en el hilo “principal” org.apache.spark.SparkException: La aplicación application_1635856758535_5228470 terminó con un estado fallido
en org.apache.spark.deploy.yarn.Client.run(Client.scala:1150)
en org.apache.spark.deploy.yarn.YarnClusterApplication.start(Client.scala:1530)
en org.apache.spark.deploy.SparkSubmit.org$apache$spark$deploy$SparkSubmit$$runMain(SparkSubmit.scala:845)
en org.apache.spark.deploy.SparkSubmit.doRunMain$1(SparkSubmit.scala:161)
en org.apache.spark.deploy.SparkSubmit.submit(SparkSubmit.scala:184)
en org.apache.spark.deploy.SparkSubmit.doSubmit(SparkSubmit.scala:86)
en org.apache.spark.deploy.SparkSubmit$$anon$2.doSubmit(SparkSubmit.scala:920)
en org.apache.spark.deploy.SparkSubmit$.main(SparkSubmit.scala:929)
en org.apache.spark.deploy.SparkSubmit.main(SparkSubmit.scala)

Lo más importante, en el script job.py, no se lee ni se escribe ningún archivo local, solo se lee o se escribe en parquet.

Y ni siquiera puedo hacer seguimiento a la Interfaz de Usuario de la aplicación ya que la aplicación se cerró debido a la excepción. Si alguien más ha encontrado un problema similar y tiene alguna idea, por favor, sugiéranme soluciones. ¡Gracias!

Tags:  , ,

Answer

  1. Avatar for davy.ai

    El mensaje de excepción sugiere que la aplicación de Spark falló con un estado de salida 1, pero la causa raíz del fallo es desconocida. Podría ser debido a un error en el código de Python, un problema de restricción de recursos o una falla a nivel de sistema.

    Dado que el script solo implica la lectura y escritura de archivos Parquet, es poco probable que el problema esté relacionado con las operaciones de E/S de archivos.

    Un enfoque posible para depurar el problema es verificar los registros de la aplicación de Spark, que se pueden encontrar en el directorio de registros de la aplicación YARN. Esto puede proporcionar más detalles sobre el error exacto que ocurrió.

    Además, puede ser útil investigar la utilización de recursos de la aplicación de Spark, ya que el número especificado de ejecutores y la memoria de ejecutor podrían no ser óptimos para la carga de trabajo. Puede ser útil experimentar con diferentes combinaciones de estos parámetros para ver si pueden mejorar la estabilidad del trabajo.

    Finalmente, si el problema persiste, puede valer la pena buscar ayuda en los foros de la comunidad de Spark o en servicios de consultoría.

Comments are closed.