0 / 0
Zurück zur englischen Version der Dokumentation
Anwendungsfall: IBM watsonx.governance

Anwendungsfall: IBM watsonx.governance

Um verantwortungsvolle, transparente und erklärbare KI-Workflows zu fördern, benötigt Ihr Unternehmen ein integriertes System für die Verfolgung, Überwachung und erneutes Training von KI-Modellen. Watsonx.governance stellt die Prozesse und Technologien bereit, die es Ihrem Unternehmen ermöglichen, Modelle für maschinelles Lernen und generative KI in der Produktion zu überwachen, zu warten, zu automatisieren und zu steuern.

Herausforderungen

Watsonx.governance unterstützt Sie bei der Lösung der folgenden Herausforderungen für Ihr Unternehmen:

Sicherstellung von Governance und Compliance für Modelle für maschinelles Lernen und abgeleitete KI-Assets
Unternehmen müssen den detaillierten Verlauf von Modellen für maschinelles Lernen und generativen KI-Assets bewerten, verfolgen und dokumentieren, um Compliance sicherzustellen und allen Beteiligten Einblick zu geben.
Risikomanagement und verantwortungsvolle KI
Unternehmen müssen Modelle in der Produktion überwachen, um sicherzustellen, dass die Modelle gültig und genau sind und dass sie keine Verzerrungen oder Abweichungen von den beabsichtigten Zielen einführen.
Machine Learning-Modelle überwachen und erneut trainieren
Unternehmen müssen die Überwachung und das erneute Training von Modellen für maschinelles Lernen basierend auf Produktionsfeedback automatisieren.

Beispiel: Herausforderungen der Goldenen Bank

Verfolgen Sie die Geschichte der Golden Bank, da sie watsonx.governance verwendet, um ihre KI-Assets zu steuern, während sie einen Prozess zur Analyse von Aktienanomalien implementieren, um die Produktivität zu steigern und die Genauigkeit eines Aktienanalysten im Investment-Banking zu erhöhen. Das Team muss:

  • Verfolgen Sie ihre Modelle für maschinelles Lernen und abgeleitete KI-Assets während des gesamten Lebenszyklus; um Fakten zu den Assets zu erfassen und gemeinsam zu nutzen; um Governance-und Complianceziele zu erreichen.
  • Bereitgestellte Modelle auf Fairness, Genauigkeit, Erklärbarkeit und Drift überwachen.
  • Evaluieren Sie ihre Vorlagen für die Zusammenfassung und Beantwortung von Fragen, um zu messen, wie effektiv die Basismodelle Antworten generieren.
  • Erstellen Sie eine Pipeline, um den Umschulungsprozess zu vereinfachen.

Prozess

Um watsonx.governance für Ihr Unternehmen zu implementieren, kann Ihre Organisation folgenden Prozess ausführen:

  1. Modelle für maschinelles Lernen und Eingabeaufforderungsvorlagen verfolgen
  2. Modelle für maschinelles Lernen und Eingabeaufforderungsvorlagen auswerten
  3. Implementierte Machine Learning-Modelle und Eingabeaufforderungsvorlagen überwachen

Watsonx.ai und watsonx.governance stellen die Tools und Prozesse bereit, die Ihre Organisation benötigt, um KI-Assets zu regulieren.

Abbildung des Ablaufs des Anwendungsfalls watsonx.governance

1. Modelle für maschinelles Lernen und Eingabeaufforderungsvorlagen verfolgen

Ihr Team kann Ihre Machine-Learning-Modelle und Eingabeaufforderungsvorlagen von der Anforderung bis zur Produktion verfolgen und bewerten, ob sie den Vorschriften und Anforderungen Ihres Unternehmens entsprechen.

Was Sie verwenden können Aktion Am besten zu verwenden, wenn
Factsheets Erstellen Sie einen KI-Anwendungsfall, um KI-Assets von der Anforderung bis zur Produktion zu verfolgen und zu steuern:

Zeigen Sie den Lebenszyklusstatus für alle registrierten Assets an und führen Sie ein Drilldown zu detaillierten Factsheets für Modelle, Bereitstellungen oder Eingabeaufforderungsvorlagen durch, die für den Modellanwendungsfall registriert sind.

Überprüfen Sie die Details, die für jedes überwachte Asset in einem Factsheet erfasst werden, das einem KI-Anwendungsfall zugeordnet ist.

Zeigen Sie Bewertungsdetails, Qualitätsmetriken, Fairnessdetails an. und Driftdetails.
Sie müssen ein neues Modell oder eine neue Eingabeaufforderungsvorlage von Ihrem Data-Science-Team anfordern.

Sie möchten sicherstellen, dass Ihr Modell oder die Eingabeaufforderungsvorlage konform ist und wie erwartet funktioniert.

Sie möchten ermitteln, ob Sie ein Modell oder eine Eingabeaufforderungsvorlage auf der Basis von Verfolgungsdaten aktualisieren müssen.

Sie möchten Berichte zu überwachten Assets ausführen, um Details gemeinsam zu nutzen bzw. beizubehalten.

Beispiel: Modellverfolgung der Goldenen Bank

Geschäftsanalysten der Golden Bank haben ein Modell zur Vorhersage von Aktienanomalien angefordert. Sie können dann das Modell durch alle Phasen des KI-Lebenszyklus verfolgen, wenn Data-Scientists oder ML-Entwickler das Modell erstellen und trainieren und ModelOps -Entwickler es bereitstellen und bewerten. Factsheets dokumentieren Details zum Modellverlauf und generieren Metriken, die seine Leistung anzeigen.


2. Modelle für maschinelles Lernen und Eingabeaufforderungsvorlagen bewerten

Sie können Modelle für maschinelles Lernen und Eingabeaufforderungsvorlagen in Projekten oder Bereitstellungsbereichen auswerten, um deren Leistung zu messen. Evaluieren Sie bei Modellen für maschinelles Lernen das Modell auf Qualität, Fairness und Genauigkeit. Evaluieren Sie bei Basismodellen die Aufgaben des Basismodells und verstehen Sie, wie Ihr Modell Antworten generiert.

Was Sie verwenden können Aktion Am besten zu verwenden, wenn
Projekte Verwenden Sie ein Projekt als Arbeitsbereich für die Onlinezusammenarbeit, um Modelle für maschinelles Lernen, Eingabeaufforderungsbasismodelle zu erstellen, Modelle für maschinelles Lernen und Eingabeaufforderungsvorlagen zu speichern und Modelle für maschinelles Lernen und Eingabeaufforderungsvorlagen auszuwerten. Ihr Sandboxprojekt wird standardmäßig automatisch erstellt, wenn Sie sich für watsonxregistrieren. Sie möchten an Modellen für maschinelles Lernen und Eingabeaufforderungsvorlagen zusammenarbeiten.
Benutzerschnittstelle für Bereiche Verwenden Sie die Benutzerschnittstelle von Spaces, um Modelle für maschinelles Lernen, Eingabeaufforderungsvorlagen und andere Assets aus Projekten in Bereichen bereitzustellen und auszuwerten. Sie möchten Modelle für maschinelles Lernen und Eingabeaufforderungsvorlagen bereitstellen und auswerten und Bereitstellungsinformationen in einem Arbeitsbereich mit Onlinezusammenarbeit anzeigen.

Beispiel: "Golden Bank's prompt evaluation"

Die Data-Scientist-und Prompt-Engineering-Teams der Golden Bank arbeiten zusammen, um die Zusammenfassungs-und Questantworten-Eingabeaufforderungsvorlagen mithilfe von Testdaten zu bewerten. Sie wollen die Leistung des Basismodells messen und verstehen, wie das Modell Antworten generiert. Die Auswertungen werden in AI Factsheetsverfolgt, sodass das gesamte Team den gesamten Lebenszyklus von der Entwicklungsphase bis zur Produktionsphase überwachen kann.


3. Bereitgestellte Modelle für maschinelles Lernen und Eingabeaufforderungsvorlagen überwachen

Nach der Implementierung von Modellen ist es wichtig, sie zu regulieren und überwachen, um sicherzustellen, dass sie erklärbar und transparent sind. Data-Scientists müssen erklären können, wie die Modelle zu bestimmten Vorhersagen kommen, damit sie bestimmen können, ob die Vorhersagen implizite oder explizite Verzerrungen aufweisen. Sie können Driftauswertungen konfigurieren, um Änderungen in Ihren Daten im Laufe der Zeit zu messen, um konsistente Ergebnisse für Ihr Modell sicherzustellen. Mithilfe von Driftauswertungen können Sie Änderungen in der Modellausgabe, die Genauigkeit Ihrer Vorhersagen und die Verteilung Ihrer Eingabedaten ermitteln.

Was Sie verwenden können Aktion Am besten zu verwenden, wenn
Watson OpenScale Überwachung von Modellfairnessproblemen über mehrere Funktionen hinweg.

Überwachung der Modellleistung und Datenkonsistenz im Zeitverlauf.

Erläutern Sie, wie das Modell bei bestimmten Vorhersagen mit gewichteten Faktoren angekommen ist.

Verwalten und dokumentieren Sie die Modellgovernance und den Lebenszyklus in Ihrem gesamten Unternehmen.
Sie verfügen über geschützte Features, die zur Fairness der Vorhersage beitragen können.

Sie möchten die Modellleistung und Datenkonsistenzen im Zeitverlauf verfolgen.

Sie möchten wissen, warum das Modell bestimmte Vorhersagen liefert.

Beispiel: Modellüberwachung der Goldenen Bank

Data-Scientists der Golden Bank verwenden Watson OpenScale , um das bereitgestellte Modell zur Vorhersage von Aktienanomalien zu überwachen und sicherzustellen, dass es korrekt, fair und erklärbar ist. Sie führen ein Notebook aus, um Monitore für das Modell einzurichten, und optimieren dann die Konfiguration mithilfe der Watson OpenScale -Benutzerschnittstelle. Mithilfe von Metriken der Qualitätsüberwachung und Fairnessüberwachung von Watson OpenScale bestimmen die Data-Scientists, wie gut das Modell Ergebnisse vorhersagt und ob es verzerrte Ergebnisse erzeugt. Sie erhalten auch Einblicke, wie das Modell zu Entscheidungen kommt, sodass die Entscheidungen den Aktienanalysten erklärt werden.


Lernprogramme für watsonx.governance

Lernprogramm Beschreibung Fachkenntnisse für das Lernprogramm
Eingabeaufforderungsvorlage auswerten und verfolgen Evaluieren Sie eine Eingabeaufforderungsvorlage, um die Leistung des Basismodells zu messen, und verfolgen Sie die Eingabeaufforderungsvorlage über ihren Lebenszyklus hinweg. Verwenden Sie das Auswertungstool und einen KI-Anwendungsfall, um die Vorlage für Eingabeaufforderungen zu verfolgen.
Modell für maschinelles Lernen bewerten Implementieren Sie ein Modell, konfigurieren Sie Überwachungen für das bereitgestellte Modell und bewerten Sie das Modell. Führen Sie ein Notebook aus, um die Modelle zu konfigurieren, und verwenden Sie Watson OpenScale für die Auswertung.

NächsSchr

  • Erstellung von Modellen für maschinelles Lernen und generative KI mit watsonx.ai
  • Skalieren Sie KI-Workloads für alle Ihre Daten-überall mit watsonx.data

Weitere Informationen

Übergeordnetes Thema: Anwendungsfälle

Generative KI-Suche und -Antwort
Diese Antworten werden von einem großen Sprachmodell in watsonx.ai basierend auf dem Inhalt der Produktdokumentation generiert. Weitere Informationen