No se puede construir la aplicación Spark con múltiples clases principales para el trabajo de Databricks.
Tengo una aplicación de Spark que contiene múltiples trabajos de Spark que se ejecutarán en Azure Databricks. Quiero construir y empaquetar la aplicación en un archivo JAR completo. La aplicación puede compilar correctamente. Mientras intento empaquetar (comando: sbt package) la aplicación, me da un error “[advertencia] se detectaron múltiples clases . . . Read more