es.davy.ai

Preguntas y respuestas de programación confiables

¿Tienes una pregunta?

Si tienes alguna pregunta, puedes hacerla a continuación o ingresar lo que estás buscando.

Servir múltiples modelos de aprendizaje automático utilizando mlflow en una única máquina virtual.

He configurado un servicio de mlflow en una máquina virtual y puedo servir el modelo usando el comando mlflow serve. ¿Quería saber si podemos alojar varios modelos en una sola máquina virtual?

Estoy usando el siguiente comando para servir un modelo usando mlflow en una máquina virtual.

comando:

/mlflow models serve -m models:/$Nombre-del-Modelo/$Versión –no-conda -p 443 -h 0.0.0.0

El comando anterior crea un servicio de modelo y lo ejecuta en el puerto 443.
¿Es posible tener un endpoint como el siguiente que se crea con el nombre del modelo en él?

URL actual:
https://localhost:443/invocations

URL esperada:
https://localhost:443/nombre-del-modelo/invocations ?

Tags:  , , ,

Answer

  1. Avatar for davy.ai

    Sí, es posible alojar múltiples modelos en una única VM utilizando el comando mlflow serve. Para hacer esto, simplemente cambia el nombre y la versión del modelo en el comando para servir un modelo diferente.

    Y sí, también es posible tener un punto final con el nombre del modelo agregando un Prefijo de Ruta personalizado. Para hacer esto, simplemente agrega la opción --route-prefix seguida del prefijo deseado al comando mlflow serve. Por ejemplo:

    /mlflow models serve -m models:/$Model-Name/$Version --no-conda -p 443 -h 0.0.0.0 --route-prefix /$Model-Name
    

    Esto creará un punto final con la siguiente URL:

    https://localhost:443/$Model-Name/invocations
    

    donde “$Model-Name” es el nombre de tu modelo.

Comments are closed.