es.davy.ai

Preguntas y respuestas de programación confiables

¿Tienes una pregunta?

Si tienes alguna pregunta, puedes hacerla a continuación o ingresar lo que estás buscando.

Tag: GOOGLE-CLOUD-DATAPROC

Error al pasar metadatos al operador DataprocClusterCreateOperator.

Estoy utilizando la versión de Airflow: 2.1.4+composer y tengo un DAG donde he definido el DataprocClusterCreateOperator de la siguiente manera: create_dataproc = dataproc_operator.DataprocClusterCreateOperator( task_id=’create_dataproc’, cluster_name=’dataproc-cluster-demo-{{ ds_nodash }}’, num_workers=2, region=’us-east4′, zone=’us-east4-a’, subnetwork_uri=’projects/example’, internal_ip_only=True, tags=[‘allow-iap-ssh’], init_actions_uris=[‘gs://goog-dataproc-initialization-actions-us-east4/connectors/connectors.sh’], metadata=[(‘spark-bigquery-connector-url’,’gs://spark-lib/bigquery/spark-2.4-bigquery-0.23.1-preview.jar’)], labels=dict(equipo=’dm’, ambiente=’dev’, etapa=’datapreparation’, producto=’x’, modelo=’x’), master_machine_type=’n1-standard-1′, worker_machine_type=’n1-standard-1′, image_version=’1.5-debian10′ ) He pasado los metadatos como una . . . Read more

Cómo ejecutar una plantilla de flujo de trabajo desde un archivo YAML almacenado en un bucket

Estoy tratando de ejecutar un trabajo a través de un archivo YAML de plantilla de flujo de trabajo de dataproc. Estoy ejecutando el siguiente comando en la nube: gcloud dataproc workflow-templates instantiate-from-file –file=’gs://mybucket/template.yaml’ –region=us-central1 Estoy obteniendo el siguiente error: ERROR: (gcloud.dataproc.workflow-templates.instantiate-from-file) No se pudo leer el archivo [gs://mybucket/template.yaml]: [Errno 2] . . . Read more