Sie können Auswertungen konfigurieren, um Erkenntnisse über die Leistung Ihres Modells zu gewinnen.
Sie können die folgenden Arten von Auswertungen konfigurieren:
Qualität Bewertet, wie gut Ihr Modell korrekte Ergebnisse vorhersagt, die mit beschrifteten Testdaten übereinstimmen.
Fairness Bewertet, ob Ihr Modell verzerrte Ergebnisse erzeugt, die günstige Ergebnisse für eine Gruppe über eine andere liefern.
DriftUnterstützte Modelle: Nur Modelle für maschinelles Lernen Bewertet, wie sich Ihr Modell in Bezug auf Genauigkeit und Datenkonsistenz verändert, indem es aktuelle Transaktionen mit Ihren Trainingsdaten vergleicht.
Drift v2 Evaluiert Änderungen in Ihrer Modellausgabe, die Genauigkeit Ihrer Vorhersagen und die Verteilung Ihrer Eingabedaten.
Modellzustand Bewertet, wie effizient Ihre Modellbereitstellung Ihre Transaktionen verarbeitet.
Generative KI QualitätUnterstützte Modelle: Nur LLM-Modelle Misst, wie gut Ihr foundation model Aufgaben ausführt
Wenn Sie herkömmliche Modelle für maschinelles Lernen auswerten, können Sie auch benutzerdefinierte Auswertungen und Metriken erstellen, um eine größere Vielfalt an Erkenntnissen über die Leistung Ihres Modells zu gewinnen.
Jede Auswertung generiert Metriken, die Sie analysieren können, um Einblicke in die Leistung Ihres Modells zu gewinnen.
Wenn Sie Auswertungen konfigurieren, können Sie wählen, ob die Auswertungen kontinuierlich in den folgenden standardmäßig geplanten Intervallen durchgeführt werden sollen: