0 / 0
Zurück zur englischen Version der Dokumentation
Anwendungsfall für Watsonx.ai

Anwendungsfall für Watsonx.ai

Um Ihre Geschäftsprozesse mit KI-basierten Lösungen zu transformieren, muss Ihr Unternehmen sowohl maschinelles Lernen als auch abgeleitete KI in Ihr operatives Framework integrieren. Watsonx.ai stellt die Prozesse und Technologien bereit, damit Ihr Unternehmen Modelle für maschinelles Lernen und abgeleitete KI-Lösungen entwickeln und implementieren kann.

Herausforderungen

Sie können die folgenden Herausforderungen für Ihr Unternehmen mit watsonx.ai:

Auf hochwertige Daten zugreifen
Unternehmen müssen einfachen Zugriff auf qualitativ hochwertige Daten für Data-Science-Teams bereitstellen, die die Daten zum Erstellen von Modellen für maschinelles Lernen verwenden.
Operationalisierung der Modellerstellung und -bereitstellung für maschinelles Lernen
Unternehmen müssen wiederholt anwendbare Prozesse implementieren, um Modelle für maschinelles Lernen schnell und effizient in Produktionsumgebungen zu erstellen und bereitzustellen.
Antworten mit Basismodellen finden
Unternehmen müssen Informationen aus unstrukturierten Daten in Dokumenten abrufen.

Beispiel: Herausforderungen der Goldenen Bank

Verfolgen Sie die Geschichte der Golden Bank, da sie watsonx.ai verwendet, um einen Prozess zur Analyse von Aktienanomalien zu implementieren, um die Produktivität zu steigern und die Genauigkeit eines Aktienanalysten im Investment-Banking zu erhöhen. Das Team muss:

  • Bereiten Sie die Bestandsdaten vor, um das richtige Format für das Training des Modells sicherzustellen.
  • Erstellen und implementieren Sie ein Modell für maschinelles Lernen, um Anomalien bei der Leistung des Aktienkurses vorherzusagen.
  • Suchen und blockieren Sie Nachrichtenartikel zu den Daten, an denen die Anomalien aufgetreten sind.
  • Erstellen Sie Eingabeaufforderungsvorlagen, um Zusammenfassungs-und Fragebeantwortungsaufgaben auszuführen.
  • Optimieren Sie das Basismodell mit Daten für erneutes Training, um die beste Leistung und Kosteneffizienz sicherzustellen.
  • Erstellen Sie eine Pipeline, um den Umschulungsprozess zu vereinfachen.

Prozess

Um watsonx.ai für Ihr Unternehmen zu nutzen, kann Ihre Organisation folgenden Prozess ausführen:

  1. Daten vorbereiten
  2. Modelle erstellen und trainieren
  3. Modelle bereitstellen
  4. Eingabeaufforderung für Basismodell
  5. Basismodell optimieren
  6. Automatisierung des KI-Lebenszyklus

Die Komponente watsonx.ai stellt die Tools und Prozesse bereit, die Ihr Unternehmen für die Implementierung einer KI-Lösung benötigt.

Abbildung zum Ablauf des Anwendungsfalls watsonx.ai

1. Daten vorbereiten

Data-Scientists können eigene Datasets vorbereiten. Die Data-Scientist-Teams können diese Datenassets einem Projekt hinzufügen, wo sie zusammenarbeiten, um die Daten vorzubereiten, zu analysieren und zu modellieren.

Was Sie verwenden können Aktion Am besten zu verwenden, wenn
Data Refinery Greifen Sie auf Daten aus verschiedenen Datenquellenverbindungen zu und optimieren Sie sie.

Materialisieren Sie die resultierenden Datasets als Momentaufnahmen, die Daten kombinieren, verknüpfen oder filtern können, damit andere Data-Scientists sie analysieren und untersuchen können.
Sie müssen die Daten visualisieren, wenn Sie sie formen oder bereinigen möchten.

Sie möchten den Prozess der Vorbereitung großer Mengen von Rohdaten für die Analyse vereinfachen.
Synthetic Data Generator Generieren Sie synthetische Tabellendaten auf der Basis von Produktionsdaten oder eines angepassten Datenschemas, indem Sie visuelle Abläufe und Modellierungsalgorithmen verwenden. Sie möchten Produktionsdaten maskieren oder nachahmen oder synthetische Daten aus einem angepassten Datenschema generieren.

Beispiel: Datenaufbereitung der Goldenen Bank

In ihrem Projekt optimieren die Data-Scientists die Daten, um sie für das Training eines Modells für maschinelles Lernen vorzubereiten, indem sie sicherstellen, dass die Daten das richtige Format haben. Die Entwickler für maschinelles Lernen verwenden die strukturierten und sequenziellen Trainingsdaten im AutoAI -Experiment zur Vorhersage von Zeitreihenanomalien, das die Modellpipelines erstellt.


2. Modelle für maschinelles Lernen erstellen und trainieren

Um Vorhersageerkenntnisse auf Basis Ihrer Daten zu erhalten, können Data-Scientists, Geschäftsanalysten und Entwickler für maschinelles Lernen Modelle für maschinelles Lernen erstellen und trainieren. Data-Scientists verwenden watsonx.ai -Tools, um die KI-Modelle zu erstellen, und stellen sicher, dass die richtigen Algorithmen und Optimierungen verwendet werden, um Vorhersagen zu treffen, die bei der Lösung von Geschäftsproblemen helfen.

Was Sie verwenden können Aktion Am besten zu verwenden, wenn
AutoAI Verwenden Sie AutoAI , um automatisch Algorithmen auszuwählen, Features zu entwickeln, Pipelinekandidaten zu generieren und Pipelinekandidaten für das Modell für maschinelles Lernen zu trainieren.

Bewerten Sie dann die eingestuften Pipelines und speichern Sie die besten Ergebnisse als Modelle für maschinelles Lernen.

Stellen Sie die trainierten Modelle für maschinelles Lernen in einem Bereich bereit oder exportieren Sie die Modelltrainingspipeline, die Ihnen gefällt, aus AutoAI in ein Notebook, um sie zu optimieren.
Sie möchten eine erweiterte und automatisierte Methode zum schnellen Erstellen einer guten Gruppe von Trainingspipelines und Modellen für maschinelles Lernen erstellen.

Sie möchten in der Lage sein, die generierten Pipelines zu exportieren, um sie zu optimieren.
Notebooks und Scripts Verwenden Sie Notebooks und Scripts, um eigenen Trainings-und Bewertungscode für das Feature-Engineering-Modell in Python oder R zu schreiben. Verwenden Sie Trainingsdatasets, die im Projekt verfügbar sind, oder Verbindungen zu Datenquellen wie Datenbanken, Data Lakes oder Objektspeicher.

Codieren Sie mit Ihren bevorzugten Open-Source-Frameworks und -Bibliotheken.
Sie möchten Python -oder R-Codierungskenntnisse verwenden, um vollständige Kontrolle über den Code zu haben, der zum Erstellen, Trainieren und Auswerten der Modelle für maschinelles Lernen verwendet wird.
SPSS Modeler-Datenflüsse Verwenden Sie SPSS Modeler -Abläufe, um eigene Trainings-, Evaluierungs-und Scoring-Abläufe für Modelle für maschinelles Lernen zu erstellen. Verwenden Sie im Projekt verfügbare Trainingsdatasets oder Verbindungen zu Datenquellen wie Datenbanken, Data Lakes oder Objektspeicher. Sie wollen eine einfache Methode zum Untersuchen von Daten und zum Definieren von Trainings-, Bewertungs-und Scoring-Abläufen für Modelle für maschinelles Lernen.
RStudio Analysieren Sie Daten und erstellen und testen Sie Modelle für maschinelles Lernen, indem Sie mit R in RStudio arbeiten. Sie möchten eine Entwicklungsumgebung für die Arbeit in R verwenden.
Decision Optimization Bereiten Sie Daten vor, importieren Sie Modelle, lösen Sie Probleme und vergleichen Sie Szenarios, visualisieren Sie Daten, finden Sie Lösungen, erstellen Sie Berichte und implementieren Sie Modelle für maschinelles Lernen. Sie müssen Millionen von Möglichkeiten bewerten, um die beste Lösung für ein präskriptives Analyseproblem zu finden.
Federated Learning Trainieren Sie ein allgemeines Modell für maschinelles Lernen, das verteilte Daten verwendet. Sie müssen ein Modell für maschinelles Lernen trainieren, ohne Daten zu verschieben, zu kombinieren oder gemeinsam zu nutzen, die über mehrere Standorte verteilt sind.

Beispiel: Erstellung und Schulung des Modells für maschinelles Lernen der Golden Bank

Data-Scientists der Golden Bank verwenden AutoAI , um ein Anomalieerkennungsmodell für die Zeitreihenanalyse zu erstellen, das verborgene Muster mithilfe von Langzeitdaten hervorhebt. Ziel ist es, ein Modell zu erstellen, das die Daten vorhersagen kann, an denen Bestandsanomalien für ein bestimmtes Unternehmen aufgetreten sind.


3. Modelle bereitstellen

Wenn Mitglieder des Betriebsteams Ihre KI-Modelle bereitstellen, werden die Modelle für maschinelles Lernen für Anwendungen verfügbar, die für Scoring und Vorhersagen verwendet werden können, um Aktionen zu fördern.

Was Sie verwenden können Aktion Am besten zu verwenden, wenn
Benutzerschnittstelle für Bereiche Verwenden Sie die Bereichsbenutzerschnittstelle, um Modelle und andere Assets aus Projekten in Bereichen bereitzustellen. Sie möchten Modelle implementieren und Implementierungsinformationen in einem Arbeitsbereich mit Onlinezusammenarbeit anzeigen.

Beispiel: Modellbereitstellung der Golden Bank

Die Mitglieder des Betriebsteams der Goldenen Bank stufen das Modell "Stock Anomaly Model" aus dem Projekt in einen Bereitstellungsbereich hoch und erstellen anschließend eine Onlinemodellbereitstellung. Als Nächstes testen sie das bereitgestellte Modell, indem sie Bestandsdaten in die Ausgabedaten der Anomalien eingeben.


4. Ein Basismodell anfordern

Ihr Team kann Code in einem Jupyter-Notebook schreiben oder das Prompt Lab verwenden, um Eingabeaufforderungen mit einem Basismodell zu entwickeln.

Was Sie verwenden können Aktion Am besten zu verwenden, wenn
Prompt Lab Verwenden Sie das Eingabeaufforderungslabor, um mit Eingabeaufforderungen für verschiedene Basismodelle zu experimentieren. Wählen Sie andere Basismodelle für die Eingabeaufforderung aus. Speichern und teilen Sie die effektivsten Eingabeaufforderungen. Sie möchten eine einfache Benutzerschnittstelle zum Durchsuchen und Testen verschiedener Eingabeaufforderungen.

Sie möchten in der Lage sein, eine Eingabeaufforderungsvorlage oder eine Eingabeaufforderungssitzung als Projektasset zu speichern oder als Jupyter-Notebook zu exportieren, um eine weitere Analyse durchzuführen.
Notebooks und Scripts Verwenden Sie Notebooks und Scripts, um Basismodelle programmgesteuert mithilfe der Python -Bibliothek anzufordern. Der Code kann Daten umwandeln, Basismodellparameter anpassen, Basismodelle anfordern und eine sachlich genaue Ausgabe generieren, indem das Muster für die abruferweiterte Generierung angewendet wird. Verwenden Sie Trainingsdatasets, die im Projekt verfügbar sind, oder Verbindungen zu Datenquellen wie Datenbanken, Data Lakes oder Objektspeicher.

Verwenden Sie Ihre bevorzugten Open-Source-Frameworks und -Bibliotheken.
Sie möchten Python -oder R-Codierungskenntnisse verwenden, um die vollständige Kontrolle über den Code zu haben, der zum Ausführen und Auswerten der Eingabeaufforderungsentwicklung verwendet wird.

Beispiel: Eingabeaufforderungs-Engineering der Golden Bank

Die Data-Scientist-und Prompt-Engineering-Teams der Golden Bank arbeiten zusammen, um relevante Dokumente aus verschiedenen Online-Nachrichtenquellen zu sammeln, die den Anomaliedaten aus dem Anomalievorhersagemodell entsprechen. Sie führen diese Daten in ein Jupyter-Notebook ein, um die Beschaffung von Online-Nachrichtenartikeln zu automatisieren, um festzustellen, welche aktuellen Weltereignisse zu den Bestandsanomalien beitragen könnten. Das Jupyter Notebook verwendet LangChain , um den Text in kleinere Textauszüge aufzuteilen, die für die Aufnahme in Eingabeaufforderungen geeignet sind. Diese Task stellt sicher, dass das Token die Einschränkungen des Kontexttokenfensters nicht überschreitet.

Anschließend erstellt das Team mithilfe des Eingabeaufforderungslabors eine Eingabeaufforderungsvorlage für die Zusammenfassung und eine Eingabeaufforderungsvorlage für die Beantwortung von Fragen. Für die Zusammenfassungstask besteht das Ziel darin, den Nachrichtenartikeltext zusammenzufassen und Fragen anzufordern, um weitere Informationen aus dem Text abzurufen. Für die Frage-Antwort-Aufgabe variiert die Eingabe und Ausgabe der Frage und Antworten, so dass sie den Nachrichtenartikeltext in die Anweisungen einspeisen.

5. Tune ein Basismodell

Ihr Team kann Code in einem Jupyter-Notebook schreiben oder mit Tuning Studio ein Basismodell optimieren. Sie können ein Basismodell optimieren, um Kosten zu reduzieren oder die Leistung des Modells zu verbessern.

Was Sie verwenden können Aktion Am besten zu verwenden, wenn
Optimierungsstudio Mit Tuning Studio können Sie ein Basismodell optimieren, um Kosten zu reduzieren oder die Leistung zu verbessern. Sie möchten, dass eine einfache Benutzerschnittstelle ein optimiertes Basismodell erstellt.
Notebooks und Scripts Verwenden Sie Notebooks und Scripts, um Basismodelle programmgesteuert mithilfe der Python -Bibliothek zu optimieren. Der Code kann den Prozess zur Optimierung der Eingabeaufforderung auslösen, ein Modell mit optimierter Eingabeaufforderung bereitstellen und ein Modell mit optimierter Eingabeaufforderung inferenzieren. Verwenden Sie Trainingsdatasets, die im Projekt verfügbar sind, oder Verbindungen zu Datenquellen wie Datenbanken, Data Lakes oder Objektspeicher.

Verwenden Sie Ihre bevorzugten Open-Source-Frameworks und -Bibliotheken.
Sie möchten Python -oder R-Codierungskenntnisse verwenden, um die vollständige Kontrolle über den Code zu haben, der zum Transformieren von Daten verwendet wird, und dann Modelle optimieren und auswerten.

Beispiel: Optimierung der Eingabeaufforderung der Golden Bank

Das Eingabeaufforderungs-Team der Golden Bank stimmt das Basismodell mit zusätzlichen neuen Artikeln ab. Das Team erstellt ein kostengünstigeres, kleineres Basismodell mit derselben Leistungsstufe wie das ursprüngliche Basismodell, das es für die Inferenz ausgewählt hat.


6. Automatisieren Sie den ML-Lebenszyklus

Ihr Team kann den MLOps-und KI-Lebenszyklus mit Watson Pipelinesautomatisieren und vereinfachen.

Was Sie verwenden können Aktion Am besten zu verwenden, wenn
Watson Pipelines Verwenden Sie Pipelines, um wiederholt anwendbare und geplante Abläufe zu erstellen, die Notebooks, Data Refineryund Pipelines für maschinelles Lernen automatisieren, von der Datenaufnahme bis zu Modelltraining, -tests und -bereitstellung. Sie möchten einige oder alle Schritte in einem MLOps-Ablauf automatisieren.

Beispiel: Automatisierter ML-Lebenszyklus der Golden Bank

Die Data-Scientists der Golden Bank können Pipelines verwenden, um ihren gesamten ML-Lebenszyklus und ihre Prozesse zu automatisieren, um den Prozess für das erneute Training des Modells für maschinelles Lernen zu vereinfachen.


Lernprogramme für watsonx.ai

Lernprogramm Beschreibung Fachkenntnisse für das Lernprogramm
Daten mit Data Refinery verfeinern und darstellen Tabellendaten mit einem grafischen Ablaufeditor vorbereiten und darstellen. Wählen Sie Operationen zum Bearbeiten von Daten aus.
Synthetische Tabellendaten generieren Generieren Sie synthetische Tabellendaten mithilfe eines grafischen Ablaufeditors. Wählen Sie Operationen zum Generieren von Daten aus.
Daten in einem Jupyter-Notebook analysieren Daten laden, ein Notebook ausführen und anderen zur Verfügung stellen. Lernen Sie generierten Python -Code kennen.
Modell für maschinelles Lernen mit AutoAI erstellen und bereitstellen Automatisches Erstellen von Modellkandidaten mit dem AutoAI-Tool. Erstellen, implementieren und testen Sie ein Modell ohne Codierung.
Modell für maschinelles Lernen in einem Notebook erstellen und bereitstellen Sie erstellen ein Modell, indem Sie ein Notebook aktualisieren und ausführen, das Python-Code und die Watson Machine Learning-APIs verwendet. Erstellen, implementieren und testen Sie ein scikit-learn-Modell, das Python -Code verwendet.
Modell für maschinelles Lernen mit SPSS Modeler erstellen und bereitstellen Erstellen Sie ein C5.0 -Modell, das das Tool SPSS Modeler verwendet. Daten-und Operationsknoten in einem Erstellungsbereich ablegen und Eigenschaften auswählen.
Decision Optimization-Modell erstellen und bereitstellen Automatische Erstellung von Szenarios mit Modeling Assistant. Lösen und untersuchen Sie Szenarios und implementieren und testen Sie dann ein Modell ohne Codierung.
Basismodell mit Prompt Lab abfragen Experimentieren Sie mit Eingabeaufforderungen für verschiedene Basismodelle, erkunden Sie Beispieleingabeaufforderungen und speichern und teilen Sie Ihre besten Eingabeaufforderungen. Eingabeaufforderung für ein Modell mit Prompt Lab ohne Codierung.
Eingabeaufforderung an ein Basismodell mit dem Muster 'Retrieval augmented Generation' Rufen Sie ein Basismodell auf, indem Sie Informationen in einer Wissensbasis nutzen. Verwenden Sie das Muster 'Retrieval Augmented Generation' in einem Jupyter-Notebook, das Python -Code verwendet.
Basismodell optimieren Optimieren Sie ein Basismodell, um die Modellleistung zu verbessern. Mit Tuning Studio können Sie ein Modell ohne Codierung optimieren.
Lebenszyklus für ein Modell mit Pipelines automatisieren Erstellen und führen Sie eine Pipeline aus, um die Erstellung und Bereitstellung eines Modells für maschinelles Lernen zu automatisieren. Operationsknoten in einem Erstellungsbereich ablegen und Eigenschaften auswählen.
End-to-End-Anwendungsfall watsonx.ai testen Folgen Sie einem Anwendungsfall von der Datenaufbereitung bis zur Entwicklung von Eingabeaufforderungen. Verwenden Sie verschiedene Tools wie Notebooks und Prompt Lab.

NächsSchr

  • Beginnen Sie mit der Regulierung Ihrer KI-Lösungen mit watsonx.governance
  • Skalieren Sie KI-Workloads für alle Ihre Daten-überall mit watsonx.data

Weitere Informationen

Übergeordnetes Thema: Anwendungsfälle

Generative KI-Suche und -Antwort
Diese Antworten werden von einem großen Sprachmodell in watsonx.ai basierend auf dem Inhalt der Produktdokumentation generiert. Weitere Informationen