Tag: UNBOUNDED-WILDCARD
Tengo un archivo Snake mínimo como prueba/demo, pero seguía produciendo errores: No todos los archivos de salida, registro y referencia de la regla test contienen los mismos caracteres comodines. Aquí está el contenido del snakefile: samples = [‘A’, ‘B’, ‘C’] rule test: input: “mapped/{sample_name}.fsa”, sample_name=samples output: “mapped/{sample_name}_out.fsa”, sample_name=samples shell: “cp . . . Read more
Me encuentro con un error de que el objeto ‘Wildcards’ no tiene el atributo ‘output’, similar a esta pregunta anterior (https://stackoverflow.com/questions/64318645/wildcards-object-has-no-attribute-output), cuando envío Snakemake a mi clúster. Me preguntaba si tienes alguna sugerencia de cómo hacerlo compatible con el clúster. Si bien mi regla “annotate_snps” funciona cuando la pruebo localmente, . . . Read more
Tengo una regla que toma cualquier archivo TSV (varios TSVs) de una lista de directorios definidos como tasks. Por ejemplo: tasks foo example1.tsv circle.tsv bar rectangle.tsv square triangle.tsv triangle_1.tsv Luego tengo una regla en un flujo de trabajo Snakemake que ejecuta un script en la lista de archivos de la . . . Read more
El método fill de la clase Collections tiene el siguiente encabezado: public static <t> void fill(List<? super T> list, T obj) ¿Por qué es necesario el comodín? El siguiente encabezado parece funcionar igual de bien: public static <t> void fill(List<t> list, T obj) No puedo ver una razón por la . . . Read more
Mis rutas tienen el siguiente formato s3://mi_cubo/timestamp=año-mes-día HH:MM:SS/. Por ejemplo, s3://mi-cubo/timestamp=2021-12-12 12:19:27/, sin embargo, la parte MM:SS no es predecible y me interesa leer los datos de una hora determinada. Intenté lo siguiente: df = spark.read.parquet("s3://mi-cubo/timestamp=2021-12-12 12:*:*/") df = spark.read.parquet("s3://mi-cubo/timestamp=2021-12-12 12:[00,01-59]:[00,01-59]/") pero me dan el error pyspark.sql.utils.IllegalArgumentException: java.net.URISyntaxException.