Mit dem Pipelines-Editor können Sie einen durchgängigen Fluss von Assets von der Erstellung bis zur Bereitstellung auf einer grafischen Leinwand orchestrieren. Sie können eine Pipeline zum Erstellen, Trainieren, Bereitstellen und Aktualisieren von Modellen für maschinelles Lernen und Python-Skripten zusammenstellen und konfigurieren.
Informationen über unterstützte Regionen für Orchestration Pipelines finden Sie unter Regionale Einschränkungen für Cloud Pak for Data as a Service.
Entwerfen Sie eine Pipeline, indem Sie Knoten auf die Leinwand ziehen, Objekte und Parameter angeben und die Pipeline dann ausführen und überwachen.
Pfad zur Produktion automatisieren
Die Einführung eines Modells in ein Produkt ist ein mehrstufiger Prozess. Daten müssen geladen und verarbeitet werden, Modelle müssen trainiert und bewertet werden, bevor sie eingesetzt und getestet werden können. KI-Experimente, Datenanalysen und Modelle des maschinellen Lernens erfordern mehr Beobachtung, Bewertung und Aktualisierung im Laufe der Zeit, um Verzerrungen oder Abweichungen zu vermeiden.
Die folgende Grafik zeigt ein Beispiel für einen Modelllebenszyklus, den Sie aus vielen möglichen Abläufen, die Sie erstellen können, automatisieren können.
Sie können die Pipeline automatisieren:
- Daten aus einem breiten Spektrum interner Quellen und externer Verbindungen sicher laden und verarbeiten.
- die gewünschten Ergebnisse zu erzielen, indem Sie Modelle oder Laufskripte auf kohärente Weise erstellen, ausführen, auswerten und bereitstellen.
- machen es einfach, die Pfade Ihres Flusses durch das Erstellen von Verzweigungen ablaufen zu lassen und die Ergebnisse mit direkten Visualisierungen zu sammeln.
Pipelines können Experimente durchführen, einschließlich, aber nicht beschränkt auf:
- AutoAI-Experimente
- Jupyter Notebook Aufträge
- Data Refinery Aufträge
- SPSS Modeler Aufträge
Um die Zeit von der Konzeption bis zur Produktion zu verkürzen, können Sie die Pipeline zusammenstellen und Änderungen schnell aktualisieren und testen. Der Erstellungsbereich für Pipelines stellt Tools zum Visualisieren der Pipeline, zum Anpassen der Pipeline zur Laufzeit mit Pipelineparametervariablen und zum anschließenden Ausführen als Testjob oder nach einem Zeitplan bereit.
Verwenden Sie die Pipelines-Bearbeitungstools für eine kohärentere Zusammenarbeit zwischen einem Datenwissenschaftler und einem ModelOps-Ingenieur. Ein Data-Scientist kann ein Modell erstellen und trainieren. Ein ModelOps -Entwickler kann dann den Prozess des Trainings, der Bereitstellung und der Bewertung des Modells automatisieren, nachdem es in einer Produktionsumgebung veröffentlicht wurde.
Anwendungsfälle und Lernprogramme
Sie können IBM Orchestration Pipelines in Ihre Data-Fabric-Lösung integrieren, um Ihren Daten- und KI-Lebenszyklus zu verwalten und zu automatisieren. Weitere Informationen darüber, wie Data Fabric Ihre Ziele und Abläufe im Bereich des maschinellen Lernens auf praktische Weise unterstützen kann, finden Sie unter Anwendungsfälle.
- Der Anwendungsfall Datenwissenschaft und MLOps beschreibt, wie man Daten verwaltet, eine Pipeline für die Modellerstellung und -bereitstellung aufbaut und die Fairness und Leistung von Modellen bewertet.
- Lernprogramm zu Data Science und MLOps: Orchestrierung einer KI-Pipeline mit Datenintegration
- Lernprogramm zu Data Science und MLOps: Orchestrierung einer KI-Pipeline mit Modellüberwachung
Zusätzliche Ressourcen
Weitere Informationen finden Sie in diesem Blogbeitrag zur Automatisierung des KI-Lebenszyklus mit einem Pipelineablauf.
Weitere Informationen
- Pipeline hinzufügen zu Ihrem Projekt - lernen Sie die Erstellungsbereichstools kennen.
- Führen Sie die integrierte Beispielpipeline aus, um einen praktischen Pipelineablauf zu testen.
- Erstellen Sie eine Pipeline, um einen End-to-End-Ablauf Ihres individuellen Szenarios zu erstellen.
- Ausführen und Speichern von Pipelines zur Verwaltung Ihrer Pipelines als Assets.