0 / 0
Zurück zur englischen Version der Dokumentation
IBM für maschinelles Lernen
Letzte Aktualisierung: 22. Nov. 2024
IBM für maschinelles Lernen

Sie können IBM watsonx.ai Runtime verwenden, um Payload-Protokollierung und Feedback-Protokollierung durchzuführen und um die Leistungsgenauigkeit, Laufzeit-Bias-Erkennung, Drift-Erkennung, Erklärbarkeit und Auto-Debias-Funktion zu messen, wenn Sie Machine-Learning-Modelle evaluieren.

Die folgenden IBM watsonx.ai Runtime Frameworks werden für die Auswertung von Machine Learning Modellen unterstützt:

Tabelle 1. Details zur Frameworkunterstützung

Details zur Frameworkunterstützung
Framework Problemtyp Datentyp
AutoAI1 Klassifikation (Binär- und Mehrfachklassen) Strukturiert (Daten, Text)
AutoAI Regression Strukturiert oder unstrukturiert2 (nur Text)
Apache Spark MLlib Klassifikation Strukturiert oder unstrukturiert2 (nur Text)
Apache Spark MLLib Regression Strukturiert oder unstrukturiert2 (nur Text)
Keras mit TensorFlow3&4 Klassifikation Unstrukturiert2 (Bild, Text)
Keras mit TensorFlow3&4 Regression Unstrukturiert2 (Bild, Text)
Python-Funktion Klassifikation Strukturiert (Daten, Text)
Python-Funktion Regression Strukturiert (Daten, Text)
scikit-lernen5 Klassifikation Strukturiert (Daten, Text)
scikit-learn Regression Strukturiert (Daten, Text)
XGBoost6 Klassifikation Strukturiert (Daten, Text)
XGBoost Regression Strukturiert (Daten, Text)

1Weitere Informationen zu AutoAI finden Sie im Abschnitt zu den Bereitstellungsdetails für AutoAI. Bei Modellen, bei denen sich die Trainingsdaten in Cloud Object Storage befinden, werden boolesche Fairnessattribute nicht unterstützt. Wenn die Trainingsdaten jedoch in Db2 vorliegen, unterstützen die Modellevaluierungen Fairness-Attribute, die boolesch sind. Wenn die Modellvorhersage ein binärer Datentyp ist, werden bei Verwendung der AutoAI keine Modellbewertungen unterstützt. Solche Modelle müssen so geändert werden, dass in der Modellvorhersage der Datentyp 'string' (Zeichenfolge) verwendet wird.

2Fairness- und Abweichungsmetriken werden für unstrukturierte Datentypen (Bild und Text) nicht unterstützt.

3Die Keras-Unterstützung beinhaltet keine Unterstützung für Fairness.

4Die Erklärbarkeit wird unterstützt, wenn Ihr Modell/Framework Vorhersagewahrscheinlichkeiten ausgibt.

5Zum Generieren des Drifterkennungsmodells müssen Sie scikit-learn Version 1.3.2 in Notebooks verwenden.

6Für XGBoost-Modelle mit binären und mehreren Klassen müssen Sie das Modell aktualisieren, um die Vorhersagewahrscheinlichkeit in Form von numerischen Werten für binäre Modelle und eine Liste mit Wahrscheinlichkeiten pro Klasse für Mehrklassenmodelle zurückzugeben. Die Unterstützung des XGBoost-Frameworks weist bei Klassifizierungsproblemen die folgenden Einschränkungen auf: Für die binäre Klassifizierung wird die logistische Regressionsfunktion " binary:logistic mit einer Ausgabe als Wahrscheinlichkeit von " True für die Modellbewertung unterstützt. Bei der Mehrklassenklassifizierung wird die Funktion " multi:softprob, deren Ergebnis die vorhergesagte Wahrscheinlichkeit der Zugehörigkeit jedes Datenpunkts zu jeder Klasse enthält, für die Modellbewertung unterstützt.

AutoAI-Modelle und Trainingsdaten

AutoAI bereitet automatisch Daten vor, wendet Algorithmen oder Schätzer an und erstellt Modellpipelines, die am besten für Ihre Daten und Ihren Anwendungsfall geeignet sind. Der Zugang zu den Trainingsdaten ist erforderlich, um das Modell für Auswertungen zu analysieren.

Da der Speicherort der Trainingsdaten bei einer AutoAI nicht wie bei einem normalen Modell erkannt werden kann, müssen Sie die erforderlichen Angaben explizit machen, um auf den Speicherort der Trainingsdaten zuzugreifen:

  • Für den Online-Pfad für die manuelle Konfiguration der Überwachung müssen Sie die Details zu der Datenbank angeben, über die auf Trainingsdaten zugegriffen werden kann.
  • Für den Pfad zum angepassten Notebook, in den Sie die Verteilung der Trainingsdaten hochladen, können Sie die JSON-Datei verwenden, die bei der Ausführung des Notebooks erstellt wird.

Weitere Informationen finden Sie im Abschnitt Modelldetails angeben.

Festlegen einer IBM watsonx.ai Runtime Service-Instanz

Ihr erster Schritt bei der Konfiguration von Modellevaluierungen ist die Angabe einer IBM watsonx.ai Runtime-Instanz. Ihre watsonx.ai Runtime-Instanz ist der Ort, an dem Sie Ihre KI-Modelle und -Einsätze speichern.

Voraussetzungen

Sie sollten eine IBM watsonx.ai Runtime-Instanz im selben Konto oder Cluster bereitgestellt haben, in dem auch die Service-Instanz für Modellevaluierungen vorhanden ist. Wenn Sie eine IBM watsonx.ai Runtime-Instanz in einem anderen Konto oder Cluster bereitgestellt haben, können Sie diese Instanz nicht mit automatischer Nutzdatenprotokollierung für Modellevaluierungen konfigurieren.

Verbinden Sie Ihre watsonx.ai Runtime Service-Instanz

Sie können eine Verbindung zu KI-Modellen und -Einsätzen in einer IBM watsonx.ai Runtime-Instanz für Modellevaluierungen herstellen. Um Ihren Dienst zu verbinden, gehen Sie auf die Registerkarte " Das Symbol der Registerkarte 'Konfiguration', fügen Sie einen Anbieter für maschinelles Lernen hinzu und klicken Sie auf das Symbol " Symbol "Bearbeiten" bearbeiten. Geben Sie Name und Beschreibung an und ob es sich um eine Umgebung für Vorproduktion oder Produktion handelt. Außerdem müssen Sie für diesen Serviceinstanztyp die folgenden spezifischen Informationen angeben:

  • Wenn Sie eine Instanz von IBM watsonx.ai Runtime haben, wird die Instanz zusammen mit den Konfigurationsinformationen erkannt.

Übergeordnetes Thema: Unterstützte Engines, Frameworks und Modelle für maschinelles Lernen

Generative KI-Suche und -Antwort
Diese Antworten werden von einem großen Sprachmodell in watsonx.ai basierend auf dem Inhalt der Produktdokumentation generiert. Weitere Informationen