Tag: PYTHON-UNITTEST.MOCK
Me gustaría escribir pruebas unitarias para métodos simples que contienen código de pyspark. ¿Cómo puedo simular la parte de lectura de spark? He intentado esto: “` @patch("class<em>to</em>test.SparkSession") def test<em>do</em>stuff(self, mock<em>spark: MagicMock) -> None: spark = MagicMock() spark.read.return</em>value.format.return<em>value.load.return</em>value = \ self.spark.createDataFrame([(1, 2)], ["key2", "c2"]) mock<em>spark.return</em>value = spark <pre><code>input_df = self.spark.createDataFrame([(1, 1)], . . . Read more
Quiero probar la siguiente función, pero todavía tengo dificultades con las mejores prácticas para probar operaciones de entrada/salida. def get_weight_file(path: Union[Path, str]) -> str: “””Encuentra el archivo de pesos (.model) en un directorio Parameters ———- path: Union[Path, str] Ruta donde se encuentra el archivo de pesos Returns ——- str Nombre . . . Read more
Tengo la tarea de escribir una prueba para la siguiente función: def merge_files(cwd: Path, source: str, target: str): “””[Combina el contenido de dos archivos del mismo tipo de datos] Parámetros ———- cwd : Path [Ruta del directorio de trabajo actual] source : str [Archivo utilizado para fusionarse con el objetivo, . . . Read more
Intento probar una función que lee un archivo y devuelve el contenido del archivo o devuelve ninguno si el archivo no se encuentra. def read_yaml_from_cwd(file: str) -> Dict: “””[lee un archivo yaml desde el directorio de trabajo actual] Args: file ([tipo]): [.yaml o archivo .yml] Returns: [tipo]: [Diccionario] “”” path . . . Read more
Tengo la siguiente función que quiero probar: def rmdir_and_files_with_exceptions(folder: str, exceptions: “list[str]”) -> None: “””[elimina las subcarpetas y archivos de una carpeta dada con una lista como parámetro para evitar la eliminación] Args: folder (str): [carpeta donde se deben eliminar las subcarpetas] exceptions (list[str]): [lista de las carpetas que NO . . . Read more