Tag: SPARKR
Muchas cosas se pueden hacer con la función groupBy en SparkR. Aquí tienes un ejemplo de la documentación: # Calcular el promedio para todas las columnas numéricas agrupadas por departamento. avg(groupBy(df, “department”)) Pero estoy muy curioso acerca del objeto “GroupedData” generado por la función groupBy, el cual se menciona en . . . Read more
Estoy obteniendo el siguiente error al ejecutar este código en Databricks: Soy nuevo en R y Spark. ¿Alguien podría ayudarme, por favor? %r sql("REFRESH TABLE view_for_R") p <- sql("SELECT * FROM view_for_R") p <- as.data.frame(p) Error in (function (cl, name, valueClass) : la asignación de un objeto de clase “NULL” . . . Read more
Introducción: He instalado algunos paquetes en un clúster de Databricks utilizando install.packages en DR 9.1 LTS, y quiero ejecutar una UDF utilizando R & Spark (SparkR o sparklyr). Mi caso de uso es puntuar algunos datos en lotes utilizando Spark (ya sea SparkR o sparklyr). Actualmente he elegido SparkR::dapply. El . . . Read more
Estoy dando mis primeros pasos en el mundo de Azure Databricks y, por lo tanto, tengo que aprender cómo usar SparkR. [Vengo de data.table] Aunque he leído mucha documentación, creo que algo se me escapa en SparkDataFrame. Para crear una nueva columna, aprendí que podemos hacer algo como: sdf$new <- . . . Read more