Tag: ONNX
Estoy tratando de estandarizar nuestro flujo de implementación para sistemas de visión artificial. Por lo tanto, estábamos pensando en el siguiente flujo de trabajo. Diagrama de flujo de implementación Así que queremos crear el prototipo para lo mismo, por lo que seguimos el flujo de trabajo. No hay ningún problema . . . Read more
He encontrado un código que convierte directamente el modelo de PyTorch a ONNX: import torch.onnx torch.onnx.export( model, input, “model.onnx”, export_params=True, opset_version=10 ) Pero arroja una advertencia (“UserWarning”) la mayoría de las veces: /usr/local/lib/python3.7/dist-packages/torch/nn/functional.py:2359: UserWarning: ‘floordiv’ está descontinuado y su comportamiento cambiará en una versión futura de PyTorch. Actualmente redondea hacia . . . Read more
Quiero convertir mi modelo de pyTorch (.pth) a ONNX. Este es mi código. import torch import torchvision dummy_input = torch.randn(1,3,224,224,device = “cuda”) model = torch.load(“/home/selfsup/moco/r50_v2/epoch_200.pth”) torch.onnx.export(model,dummy_input,”LENet.onnx”,verbose = True) Sin embargo, obtengo un error que dice lo siguiente. Traceback (most recent call last): File “tengine_convert.py”, line 5, in <module> torch.onnx.export(model,dummy_input,”LENet.onnx”,verbose = . . . Read more
He convertido un modelo de Keras a Onnx con el siguiente código: import tensorflow as tf import onnx import tf2onnx.convert from tensorflow import keras from tensorflow.keras import layers from tensorflow.keras.preprocessing import image model = keras.models.load_model(‘modelo13.h5’) model.load_weights(‘modelo13.h5’) onnx_model, _ = tf2onnx.convert.from_keras(model) onnx.save(onnx_model, ‘modelo.onnx’) Dado el mismo input (“test1.jpg”), el modelo de . . . Read more
Estoy intentando lanzar el modelo R100 (mxnet) desde aquí: https://github.com/deepinsight/insightface/tree/master/model_zoo Lo convertí a onnx con esto: sym = ‘./model-symbol.json’ params = ‘./model-0000.params’ input_shape = (1,3,112,112) onnx_file = ‘./R100_mxnet.onnx’ converted_model_path = onnx_mxnet.export_model(sym, params, [input_shape], np.float32, onnx_file) Esta comprobación se pasa correctamente: model_proto = onnx.load_model(‘./R100_mxnet.onnx’) checker.check_graph(model_proto.graph) Pero cuando intento hacer una inferencia . . . Read more