0 / 0
Zurück zur englischen Version der Dokumentation
IBM Orchestration Pipelines
Letzte Aktualisierung: 25. Okt. 2024
IBM Orchestration Pipelines

Mit dem Pipelines-Editor können Sie einen durchgängigen Fluss von Assets von der Erstellung bis zur Bereitstellung auf einer grafischen Leinwand orchestrieren. Sie können eine Pipeline zum Erstellen, Trainieren, Bereitstellen und Aktualisieren von Modellen für maschinelles Lernen und Python-Skripten zusammenstellen und konfigurieren.

Informationen über unterstützte Regionen für Orchestration Pipelines finden Sie unter Regionale Einschränkungen für Cloud Pak for Data as a Service.

Entwerfen Sie eine Pipeline, indem Sie Knoten auf die Leinwand ziehen, Objekte und Parameter angeben und die Pipeline dann ausführen und überwachen.

Pfad zur Produktion automatisieren

Die Einführung eines Modells in ein Produkt ist ein mehrstufiger Prozess. Daten müssen geladen und verarbeitet werden, Modelle müssen trainiert und bewertet werden, bevor sie eingesetzt und getestet werden können. KI-Experimente, Datenanalysen und Modelle des maschinellen Lernens erfordern mehr Beobachtung, Bewertung und Aktualisierung im Laufe der Zeit, um Verzerrungen oder Abweichungen zu vermeiden.

Die folgende Grafik zeigt ein Beispiel für einen Modelllebenszyklus, den Sie aus vielen möglichen Abläufen, die Sie erstellen können, automatisieren können.

Automatisierung des KI-Lebenszyklus

Sie können die Pipeline automatisieren:

  • Daten aus einem breiten Spektrum interner Quellen und externer Verbindungen sicher laden und verarbeiten.
  • die gewünschten Ergebnisse zu erzielen, indem Sie Modelle oder Laufskripte auf kohärente Weise erstellen, ausführen, auswerten und bereitstellen.
  • machen es einfach, die Pfade Ihres Flusses durch das Erstellen von Verzweigungen ablaufen zu lassen und die Ergebnisse mit direkten Visualisierungen zu sammeln.

Pipelines können Experimente durchführen, einschließlich, aber nicht beschränkt auf:

  • AutoAI-Experimente
  • Jupyter Notebook Aufträge
  • Data Refinery Aufträge
  • SPSS Modeler Aufträge

Um die Zeit von der Konzeption bis zur Produktion zu verkürzen, können Sie die Pipeline zusammenstellen und Änderungen schnell aktualisieren und testen. Der Erstellungsbereich für Pipelines stellt Tools zum Visualisieren der Pipeline, zum Anpassen der Pipeline zur Laufzeit mit Pipelineparametervariablen und zum anschließenden Ausführen als Testjob oder nach einem Zeitplan bereit.

Verwenden Sie die Pipelines-Bearbeitungstools für eine kohärentere Zusammenarbeit zwischen einem Datenwissenschaftler und einem ModelOps-Ingenieur. Ein Data-Scientist kann ein Modell erstellen und trainieren. Ein ModelOps -Entwickler kann dann den Prozess des Trainings, der Bereitstellung und der Bewertung des Modells automatisieren, nachdem es in einer Produktionsumgebung veröffentlicht wurde.

Anwendungsfälle und Lernprogramme

Sie können IBM Orchestration Pipelines in Ihre Data-Fabric-Lösung integrieren, um Ihren Daten- und KI-Lebenszyklus zu verwalten und zu automatisieren. Weitere Informationen darüber, wie Data Fabric Ihre Ziele und Abläufe im Bereich des maschinellen Lernens auf praktische Weise unterstützen kann, finden Sie unter Anwendungsfälle.

Zusätzliche Ressourcen

Weitere Informationen finden Sie in diesem Blogbeitrag zur Automatisierung des KI-Lebenszyklus mit einem Pipelineablauf.

Weitere Informationen

Generative KI-Suche und -Antwort
Diese Antworten werden von einem großen Sprachmodell in watsonx.ai basierend auf dem Inhalt der Produktdokumentation generiert. Weitere Informationen