Tag: AUTOMOCKING
Estoy teniendo problemas al hacer una simulación de un delegado que devuelve un IHttpClient. Esto es requerido por el cliente y no puedo cambiar la implementación. El código se ve algo así: Delegado: namespace Foo.Http { public delegate IHttpClient FooHttpClientProvider(string name); } Clase de prueba: [SetUp] public void SetUp() { . . . Read more
Soy nuevo en las pruebas unitarias y estoy utilizando el marco de trabajo Mockito. Tengo una clase en Java y tengo el método main() en ella. En mi método main() tengo varios otros métodos que necesito probar de forma unitaria. Esta es mi clase a probar: public class cliente{ public . . . Read more
Tengo el siguiente código que quiero probar usando Junit5 public void myMethod() { final ExecutorService executor = ThreadsUtils.newFixedThreadPool(); executor.submit(() -> { ClassWithStaticMethod.staticMethod(); }) } Escribí el siguiente caso de prueba try (MockedStatic<classwithstaticmethod> mockedStatic = mockStatic(ClassWithStaticMethod.class)) { … someObject.myMethod(COUNTRY_CODE); … } La simulación mencionada anteriormente no funciona según la documentación de . . . Read more
Encontré este ejemplo de burla flotando alrededor en una página de tutorial, pero encuentro confuso que sea utilizado como ejemplo con tanta frecuencia. test(“valor de retorno simulado”, () => { const mock = jest.fn(); mock.mockReturnValue(“bar”); expect(mock(“foo”)).toBe(“bar”); expect(mock).toHaveBeenCalledWith(“foo”); }); ¿El const mock = jest.fn(); se conecta alguna vez a una función . . . Read more
Me gustaría escribir pruebas unitarias para métodos simples que contienen código de pyspark. ¿Cómo puedo simular la parte de lectura de spark? He intentado esto: “` @patch("class<em>to</em>test.SparkSession") def test<em>do</em>stuff(self, mock<em>spark: MagicMock) -> None: spark = MagicMock() spark.read.return</em>value.format.return<em>value.load.return</em>value = \ self.spark.createDataFrame([(1, 2)], ["key2", "c2"]) mock<em>spark.return</em>value = spark <pre><code>input_df = self.spark.createDataFrame([(1, 1)], . . . Read more