0 / 0
Volver a la versión inglesa de la documentación
Interconexiones de IBM Orchestration
Última actualización: 25 oct 2024
Interconexiones de IBM Orchestration

Puede organizar un flujo completo de activos desde la creación hasta la implantación en un lienzo gráfico con el editor Pipelines. Puede montar y configurar una canalización para crear, entrenar, desplegar y actualizar modelos de aprendizaje automático y scripts Python.

Para obtener información sobre las regiones compatibles con Orchestration Pipelines, consulte Limitaciones regionales de Cloud Pak for Data as a Service.

Diseñe una canalización arrastrando nodos al lienzo, especificando objetos y parámetros y, a continuación, ejecutando y supervisando la canalización.

Automatización de la vía de acceso de producción

Poner un modelo en un producto es un proceso de varios pasos. Hay que cargar y procesar los datos, entrenar y evaluar los modelos antes de implantarlos y probarlos. Los experimentos de IA, el análisis de datos y los modelos de aprendizaje automático requieren más observación, evaluación y actualización a lo largo del tiempo para evitar sesgos o desviaciones.

El siguiente gráfico muestra un ejemplo de ciclo de vida de un modelo que se puede automatizar de entre los muchos flujos posibles que se pueden crear.

Automatización del ciclo de vida de IA

Puede automatizar la canalización para:

  • cargar y procesar datos de forma segura desde una amplia gama de fuentes internas y conexiones externas.
  • obtenga los resultados que desea creando, ejecutando, evaluando y desplegando modelos o secuencias de comandos de ejecución de forma cohesionada.
  • simplifican el recorrido de su flujo mediante la creación de ramas y la recopilación de resultados con visuales directos.

Los pipelines pueden ejecutar experimentos que incluyen, pero no se limitan a:

  • Experimentos de AutoAI
  • Trabajos Jupyter Notebook
  • Data Refinery empleos
  • SPSS Modeler jobs

Para acortar el tiempo desde la concepción hasta la producción, puede montar el pipeline y actualizar y probar rápidamente las modificaciones. El lienzo de interconexiones proporciona herramientas para visualizar la interconexión, personalizarla en tiempo de ejecución con variables de parámetro de interconexión y, a continuación, ejecutarla como un trabajo de prueba o según una planificación.

Utilice las herramientas de edición de Pipelines para una colaboración más cohesionada entre un científico de datos y un ModelOps. Un experto en datos puede crear y entrenar un modelo. A continuación, un ingeniero de ModelOps puede automatizar el proceso de entrenamiento, despliegue y evaluación del modelo después de que se publique en un entorno de producción.

Casos de uso y guías de aprendizaje

Puede incluir IBM Orchestration Pipelines en su solución de estructura de datos para gestionar y automatizar el ciclo de vida de los datos y la IA. Para obtener más información sobre cómo Data Fabric puede respaldar sus objetivos y operaciones de aprendizaje automático de forma práctica, consulte Casos de uso.

Recursos adicionales

Para obtener más información, consulte esta publicación de blog sobre automatizar el ciclo de vida de IA con un flujo de interconexión.

Más información

Búsqueda y respuesta de IA generativa
Estas respuestas las genera un modelo de lenguaje grande en watsonx.ai que se basa en el contenido de la documentación del producto. Más información