Sie können Auswertungen konfigurieren, um Erkenntnisse über die Leistung Ihres Modells zu gewinnen.
Sie können die folgenden Arten von Auswertungen konfigurieren:
- Qualität
Bewertet, wie gut Ihr Modell korrekte Ergebnisse vorhersagt, die mit beschrifteten Testdaten übereinstimmen. - Fairness
Bewertet, ob Ihr Modell verzerrte Ergebnisse erzeugt, die günstige Ergebnisse für eine Gruppe über eine andere liefern. - Drift
Bewertet, wie sich Ihr Modell in Bezug auf Genauigkeit und Datenkonsistenz verändert, indem es aktuelle Transaktionen mit Ihren Trainingsdaten vergleicht. - Drift v2
Evaluiert Änderungen in Ihrer Modellausgabe, die Genauigkeit Ihrer Vorhersagen und die Verteilung Ihrer Eingabedaten. - Modellzustand
Bewertet, wie effizient Ihre Modellbereitstellung Ihre Transaktionen verarbeitet. - Generative KI Qualität
Misst, wie gut Ihr foundation model Aufgaben ausführt
Wenn Sie herkömmliche Modelle für maschinelles Lernen auswerten, können Sie auch benutzerdefinierte Auswertungen und Metriken erstellen, um eine größere Vielfalt an Erkenntnissen über die Leistung Ihres Modells zu gewinnen.
Jede Auswertung generiert Metriken, die Sie analysieren können, um Einblicke in die Leistung Ihres Modells zu gewinnen.
Wenn Sie Auswertungen konfigurieren, können Sie wählen, ob die Auswertungen kontinuierlich in den folgenden standardmäßig geplanten Intervallen durchgeführt werden sollen:
Evaluierung | Standardzeitplan für Online-Abonnements | Batch-Abonnement-Standardzeitplan |
---|---|---|
Qualität | 1 Stunde | 1 Woche |
Fairness | 1 Stunde | 1 Woche |
Driftansicht | 3 Stunden | 1 Woche |
Drift v2 | 1 Tag | Nicht zutreffend |
Erklärbarkeit | 1 Woche | 1 Woche |
Modellzustand | 1 Stunde | Nicht zutreffend |
Generative KI-Qualität | 1 Stunde | Nicht zutreffend |
Übergeordnetes Thema: KI-Modelle mit Watson OpenScale