Tag: ONNX
No puedo crear una instancia de InferenceSession utilizando onnxruntime. Mi plataforma es Mac OS (Big Sur). El código ni siquiera arroja ninguna excepción. El proceso simplemente se cierra. El mismo código funciona perfectamente en Windows. Aquí están las capturas de pantalla: La captura de pantalla que se muestra a continuación . . . Read more
Acabo de crear un modelo yolov5 y lo exporté en formato onnx para que sea utilizable con opencv, pero sigo obteniendo el siguiente error: [ERROR:0] global D:\a\opencv-python\opencv-python\opencv\modules\dnn\src\dnn.cpp (3554) cv::dnn::dnn4v20211004::Net::Impl::getLayerShapesRecursively OPENCV/DNN: [Reshape]:(466): getMemoryShapes() lanza una excepción. entradas=1 salidas=1/1 blobs=0 [ERROR:0] global D:\a\opencv-python\opencv-python\opencv\modules\dnn\src\dnn.cpp (3557) cv::dnn::dnn4v20211004::Net::Impl::getLayerShapesRecursively entrada[0] = [ 1 24 52 52 . . . Read more
Tengo un modelo de Python en sklearn que acepta un dataframe de pandas. Realizo algunas transformaciones de datos, como eliminar columnas y completar valores faltantes antes de la inferencia. Tengo que serializar mi modelo y hacer predicciones en una aplicación .net. No he encontrado una forma de recibir datos Json . . . Read more
¿Cambia el número de parámetros y las operaciones en coma flotante por segundo (FLOPS) al convertir un modelo de PyTorch a formato ONNX o TensorRT?
Entorno: – CentOS 7 – python 3.9.5 – CUDA: 11.4 – cudnn: 8.2.4 – onnxruntime-gpu: 1.9.0 – controlador nvidia: 470.82.01 – 1 gpu tesla v100 Mientras que onnxruntime parece reconocer la gpu, cuando se crea InferenceSession, parece que ya no reconoce la gpu. El siguiente código muestra este síntoma. import . . . Read more