Difficulty: intermedio
Estimated Time: 20 minutos

En este escenario, aprenderemos cómo desplegar diferentes cargas de trabajo de Machine Learning utilizando Kubeflow y Kubernetes. El entorno interactivo es un clúster Kubernetes de dos nodos que nos permitirá experimentar Kubeflow e implementar cargas de trabajo reales para comprender cómo puede resolver nuestros problemas.

El proyecto Kubeflow está dedicado a hacer que el aprendizaje automático en Kubernetes sea fácil, portátil y escalable. El objetivo no es recrear otros servicios, sino proporcionar una manera directa de combinar las mejores soluciones OSS de su clase.

Los detalles del proyecto se pueden encontrar en https://github.com/kubeflow/kubeflow

Christian Axel Schmidt Dick aka Mr. Kubernetes [email protected]

¡Enhorabuena! Has desplegado Kubeflow exitosamente.

En este escenario, hemos aprendido a desplegar diferentes estilos de cargas de trabajo de ML utilizando Kubernetes y Kubeflow.

El objetivo de Kubeflow es proporcionar un conjunto de manifiestos simples que ofrezcan un stack ML fácil de usar en cualquier lugar que Kubernetes ya esté ejecutando y que pueda autoconfigurarse según el clúster en el que se implementa.

Para más información visitar su sitio web en https://github.com/kubeflow/kubeflow

Despliegue de Kubeflow

Step 1 of 7

1. ¿Qué es Kubeflow?

El proyecto Kubeflow está dedicado a hacer que el Aprendizaje automático sea fácil de configurar con Kubernetes, portátil y escalable. El objetivo no es recrear otros servicios, sino proporcionar una manera directa de combinar las mejores soluciones OSS de su clase. Kubernetes es una plataforma de código abierto para automatizar la implementación, el escalado y la administración de aplicaciones en contenedores.

Debido a que Kubeflow está basado en Kubernetes, se ejecuta dondequiera que Kubernetes se ejecute, como servidores bare-metal o proveedores en la nube como Google. Los detalles del proyecto se pueden encontrar en https://github.com/kubeflow/kubeflow

Componentes de Kubeflow

Kubeflow tiene tres componentes centrales.

TF Job Operator and Controller: Extensión a Kubernetes para simplificar la implementación de cargas de trabajo distribuidas de TensorFlow. Al utilizar un operador, Kubeflow es capaz de configurar automáticamente la configuración del servidor maestro, trabajador y parametrizado. Las cargas de trabajo se pueden implementar con un TFJob.

TF Hub: Ejecución de instancias de JupyterHub, lo que le permite trabajar con Jupyter Notebooks.

Model Server: Despliegue de modelos capacitados de TensorFlow para que los clientes accedan y lo usen para futuras predicciones.

Estos tres modelos se utilizarán para desplegar diferentes cargas de trabajo en los siguientes pasos.