es.davy.ai

Preguntas y respuestas de programación confiables

¿Tienes una pregunta?

Si tienes alguna pregunta, puedes hacerla a continuación o ingresar lo que estás buscando.

Tag: AUTOMOCKING

Problema de burla de delegado con Moq en .Net Core 3.1

Estoy teniendo problemas al hacer una simulación de un delegado que devuelve un IHttpClient. Esto es requerido por el cliente y no puedo cambiar la implementación. El código se ve algo así: Delegado: namespace Foo.Http { public delegate IHttpClient FooHttpClientProvider(string name); } Clase de prueba: [SetUp] public void SetUp() { . . . Read more

Hacer que los métodos estáticos burlados estén disponibles para todos los hilos (o al menos sub-hilos)

Tengo el siguiente código que quiero probar usando Junit5 public void myMethod() { final ExecutorService executor = ThreadsUtils.newFixedThreadPool(); executor.submit(() -> { ClassWithStaticMethod.staticMethod(); }) } Escribí el siguiente caso de prueba try (MockedStatic<classwithstaticmethod> mockedStatic = mockStatic(ClassWithStaticMethod.class)) { … someObject.myMethod(COUNTRY_CODE); … } La simulación mencionada anteriormente no funciona según la documentación de . . . Read more

¿Qué hace realmente “const mock = jest.fn();” en Jest?

Encontré este ejemplo de burla flotando alrededor en una página de tutorial, pero encuentro confuso que sea utilizado como ejemplo con tanta frecuencia. test(“valor de retorno simulado”, () => { const mock = jest.fn(); mock.mockReturnValue(“bar”); expect(mock(“foo”)).toBe(“bar”); expect(mock).toHaveBeenCalledWith(“foo”); }); ¿El const mock = jest.fn(); se conecta alguna vez a una función . . . Read more

Python unittest mock pyspark chain Python unittest mock permite simular el comportamiento de objetos y funciones en las pruebas unitarias de Python. El módulo pyspark, por su parte, ofrece una interfaz para programar en Spark utilizando el lenguaje Python. La combinación de ambos permite realizar pruebas unitarias en cadenas de procesamiento en Spark.

Me gustaría escribir pruebas unitarias para métodos simples que contienen código de pyspark. ¿Cómo puedo simular la parte de lectura de spark? He intentado esto: “` @patch("class<em>to</em>test.SparkSession") def test<em>do</em>stuff(self, mock<em>spark: MagicMock) -> None: spark = MagicMock() spark.read.return</em>value.format.return<em>value.load.return</em>value = \ self.spark.createDataFrame([(1, 2)], ["key2", "c2"]) mock<em>spark.return</em>value = spark <pre><code>input_df = self.spark.createDataFrame([(1, 1)], . . . Read more