es.davy.ai

Preguntas y respuestas de programación confiables

¿Tienes una pregunta?

Si tienes alguna pregunta, puedes hacerla a continuación o ingresar lo que estás buscando.

Tag: BIGDATA

Cómo encontrar el n-ésimo dato en Python después de un carácter especial?

Tengo un archivo que contiene información en la línea. Solo quiero imprimir las palabras después del último carácter ∑. ¿Cómo puedo hacer esto? Texto: App∑Category∑Rating∑Reviews∑Size∑Installs∑Type∑Price∑Content Rating∑Genres∑Last Updated∑Current Ver∑Android Ver Photo Editor & Candy Camera & Grid & ScrapBook∑ART_AND_DESIGN∑4.1∑159∑19M∑10,000+∑Free∑0∑Everyone∑Art & Design∑7-Jan-18∑1.0.0∑4.0.3 and up Coloring book moana∑ART_AND_DESIGN∑3.9∑967∑14M∑500,000+∑Free∑0∑Everyone∑Art & Design;Pretend Play∑15-Jan-18∑2.0.0∑4.0.3 and up . . . Read more

Límites máximos y mitigaciones de celdas de Google Sheets.

Había leído en línea que Google Sheets tiene un límite máximo de celdas de 5 millones. Una hoja en la que estoy trabajando actualmente ha superado ampliamente ese límite (incluyendo celdas en blanco). 1. ¿Cuál es el nuevo límite? 2. Además, había verificado manualmente cuántas celdas estaba utilizando. ¿Existe alguna . . . Read more

El comando de importación de Sqoop arroja un error, pero funciona desde la terminal.

El siguiente comando funciona bien desde la terminal, pero cuando lo ejecuto desde Oozie, me da un error: bash sqoop import –connect jdbc:mysql://172.16.16.128:3306/employees — username=hive –password=hive –driver com.mysql.jdbc.Driver –query ‘select * from employee.testtable where 1=1 AND $CONDITIONS’ –m 1 –target-dir ‘/user/hive/warehouse/test.db/testtable’ –hive-import –hive-table test.testtable –hive-drop-import-delims –hive-overwrite –hs2-url jdbc:hive2://hivehostname:10000/default; ERROR sqoop.Sqoop: . . . Read more

La clase de usuario ha lanzado una excepción: org.apache.spark.sql.AnalysisException: No se puede inferir el esquema para Parquet. Debe especificarse manualmente.

Estoy implementando un código de Spark Java de la siguiente manera: Dataset input = spark.read().parquet(configuration.getInputDataLocation()); Sin embargo, el inputDataLocation (una carpeta en un contenedor de Azure Storage Account) puede que no contenga datos y en esos casos se lanzará una excepción: La clase de usuario lanzó una excepción: org.apache.spark.sql.AnalysisException: No . . . Read more