es.davy.ai

Preguntas y respuestas de programación confiables

¿Tienes una pregunta?

Si tienes alguna pregunta, puedes hacerla a continuación o ingresar lo que estás buscando.

Como traductor de español especializado en documentos de tecnología de la información, puedo ayudarte a traducir tus textos al español. Utilizo un modelo entrenado por Google Cloud Vertex AI, acelerado con TRT en Jetson Nano.

Estoy tratando de estandarizar nuestro flujo de implementación para sistemas de visión artificial. Por lo tanto, estábamos pensando en el siguiente flujo de trabajo.

Diagrama de flujo de implementación

Así que queremos crear el prototipo para lo mismo, por lo que seguimos el flujo de trabajo. No hay ningún problema con la operación de GCP en absoluto, pero cuando intentamos exportar modelos, que entrenamos en “vertexAI”, se generan tres modelos como se menciona en el flujo de trabajo, que son:

  1. SaveModel
  2. TFLite
  3. TFJS

Y tratamos de convertir estos modelos en el modelo ONNX, pero fallamos debido a diferentes errores.

  1. SaveModel: Siempre obteniendo el mismo error con cualquier parámetro, que es el siguiente: Error en savemodel. Traté de rastrear el error e identifiqué que el modelo no se está cargando dentro de TensorFlow, lo cual es extraño ya que se exporta desde “GCP vertexAI” que aprovecha la potencia de TensorFlow.
  2. TFLite: Convertido exitosamente, pero nuevamente hay un problema con el “opset” de ONNX, pero con opset 15 se convierte con éxito, sin embargo, el analizador ONNX de NVIDIA tensorRT no reconoce el modelo durante la conversión de ONNX a TRT.
  3. TFJS: Aún no lo hemos intentado.

Entonces estamos bloqueados aquí debido a estos problemas.

Podemos ejecutar estos modelos exportados directamente desde “vertexAI” en el dispositivo Jetson Nano, pero el problema es que TF-TRT y TensorFlow no están optimizados en la GPU, por lo que el sistema se congela después de 3 o 4 horas de ejecución.

Probamos este flujo de trabajo con Teachable Machine de Google una vez y funcionó bien, todos los pasos funcionaron perfectamente, así que estoy realmente confundido. ¿Cómo puedo concluir este flujo de trabajo completo si funciona en Teachable Machine, que está creado por Google, pero no funciona en el modelo de “vertexAI” que también está desarrollado por la misma compañía?

¿O estoy haciendo algo mal en este flujo de trabajo?
Para tener en cuenta, estamos desarrollando este flujo de trabajo dentro de un marco de trabajo de C++ para una aplicación en tiempo real en un entorno industrial.

Tags:  , , ,

Answer

  1. Avatar for davy.ai

    Como experto en TI especializado en TensorFlow, ONNX, NVIDIA Jetson Nano y Google Cloud Vertex AI, comprendo que estás tratando de estandarizar tu flujo de trabajo de implementación para sistemas de visión artificial. Tu flujo de trabajo parece funcionar correctamente con las operaciones de GCP, pero estás enfrentando dificultades al exportar los modelos. Los tres modelos que obtienes de Vertex AI son SaveModel, TFLite y TFJS, y estás tratando de convertirlos a modelos ONNX, pero te encuentras con diferentes errores.

    Para SaveModel, siempre obtienes el mismo error, y has identificado que el modelo no se carga dentro de TensorFlow, lo cual es inusual ya que fue exportado desde GCP Vertex AI que aprovecha el poder de TensorFlow. Para TFLite, pudiste convertirlo correctamente, pero encontraste problemas con el opset de ONNX. Pudiste resolver este problema configurando el opset en 15, pero el analizador ONNX de NVIDIA TensorRT aún no reconoce el modelo durante la conversión de ONNX a TRT. Aún no has intentado con TFJS.

    Mencionaste que pudiste ejecutar estos modelos exportados directamente desde Vertex AI en el dispositivo Jetson Nano, pero el problema es que TF-TRT y TensorFlow no están optimizados en memoria en la GPU, por lo que el sistema se congela después de 3 a 4 horas de ejecución. Por otro lado, pudiste trabajar en el mismo flujo de trabajo con Google Teachable Machine y todos los pasos funcionaron perfectamente bien. Estás confundido acerca de por qué el mismo flujo de trabajo no está funcionando con los modelos de Vertex AI, que son desarrollados por la misma empresa.

    Es posible que pueda haber problemas de compatibilidad o errores que deben abordarse. Como próximo paso, podrías contactar al equipo de soporte de Google Cloud para verificar si hay problemas conocidos y obtener su orientación sobre cómo resolver este problema. También podrías intentar comunicarte con la comunidad de TensorFlow o el equipo de soporte de NVIDIA, ya que tienen experiencia en estas plataformas y podrían ofrecer ayuda.

    En general, es importante tener en cuenta que desarrollar un flujo de trabajo de implementación estandarizado para sistemas de visión artificial es una tarea compleja y puede requerir algo de prueba y error para hacerlo correctamente. Con perseverancia y un enfoque colaborativo, deberías poder superar estos desafíos y alcanzar tu objetivo.

Comments are closed.