Puede organizar un flujo completo de activos desde la creación hasta la implantación en un lienzo gráfico con el editor Pipelines. Puede montar y configurar una canalización para crear, entrenar, desplegar y actualizar modelos de aprendizaje automático y scripts Python.
Para obtener información sobre las regiones compatibles con Orchestration Pipelines, consulte Limitaciones regionales de Cloud Pak for Data as a Service.
Diseñe una canalización arrastrando nodos al lienzo, especificando objetos y parámetros y, a continuación, ejecutando y supervisando la canalización.
Automatización de la vía de acceso de producción
Poner un modelo en un producto es un proceso de varios pasos. Hay que cargar y procesar los datos, entrenar y evaluar los modelos antes de implantarlos y probarlos. Los experimentos de IA, el análisis de datos y los modelos de aprendizaje automático requieren más observación, evaluación y actualización a lo largo del tiempo para evitar sesgos o desviaciones.
El siguiente gráfico muestra un ejemplo de ciclo de vida de un modelo que se puede automatizar de entre los muchos flujos posibles que se pueden crear.
Puede automatizar la canalización para:
- cargar y procesar datos de forma segura desde una amplia gama de fuentes internas y conexiones externas.
- obtenga los resultados que desea creando, ejecutando, evaluando y desplegando modelos o secuencias de comandos de ejecución de forma cohesionada.
- simplifican el recorrido de su flujo mediante la creación de ramas y la recopilación de resultados con visuales directos.
Los pipelines pueden ejecutar experimentos que incluyen, pero no se limitan a:
- Experimentos de AutoAI
- Trabajos Jupyter Notebook
- Data Refinery empleos
- SPSS Modeler jobs
Para acortar el tiempo desde la concepción hasta la producción, puede montar el pipeline y actualizar y probar rápidamente las modificaciones. El lienzo de interconexiones proporciona herramientas para visualizar la interconexión, personalizarla en tiempo de ejecución con variables de parámetro de interconexión y, a continuación, ejecutarla como un trabajo de prueba o según una planificación.
Utilice las herramientas de edición de Pipelines para una colaboración más cohesionada entre un científico de datos y un ModelOps. Un experto en datos puede crear y entrenar un modelo. A continuación, un ingeniero de ModelOps puede automatizar el proceso de entrenamiento, despliegue y evaluación del modelo después de que se publique en un entorno de producción.
Casos de uso y guías de aprendizaje
Puede incluir IBM Orchestration Pipelines en su solución de estructura de datos para gestionar y automatizar el ciclo de vida de los datos y la IA. Para obtener más información sobre cómo Data Fabric puede respaldar sus objetivos y operaciones de aprendizaje automático de forma práctica, consulte Casos de uso.
- El caso de uso de la ciencia de datos y MLOps describe cómo gestionar los datos, construir una canalización de creación y despliegue de modelos y evaluar la equidad y el rendimiento de los modelos.
- Guía de aprendizaje sobre ciencia de datos y MLOps: Orquestar un conducto de IA con integración de datos
- Guía de aprendizaje de ciencia de datos y MLOps: Orquestar un conducto de IA con supervisión de modelos
Recursos adicionales
Para obtener más información, consulte esta publicación de blog sobre automatizar el ciclo de vida de IA con un flujo de interconexión.
Más información
- Añada una interconexión a su proyecto y conozca las herramientas de lienzo.
- Ejecute la canalización de muestra incorporada para intentar ejecutar un flujo de canalización práctico.
- Crea una canalización para crear un flujo de extremo a extremo de tu escenario personalizado.
- Ejecutar y guardar pipelines para gestionar tus pipelines como activos.