Nehmen Sie Änderungen an Ihrem Prompt-Tuning-Experiment vor, um die Ergebnisse zu verbessern.
Es ist ein Python -Beispielnotebook mit dem Namen Use watsonx.aito tune IBM granite-13b-instruct-v2 model with Car Rental Company customer satisfaction document verfügbar, das Code für die Optimierung von Basismodellen in watsonx.aienthält. Das Beispielnotebook enthält Abschnitte zum Optimieren der Experimentparameter und zum Inferenzieren des optimierten Modells. Weitere Informationen finden Sie unter Basismodell mithilfe eines Python -Notebooks optimieren.
Anpassungsparameter anpassen
Nach Abschluss der Ausführung eines Optimierungsexperiments wird ein Verlustfunktionsdiagramm angezeigt. Eine Verlustfunktion misst die Differenz zwischen vorhergesagten und tatsächlichen Ergebnissen bei jedem Trainingslauf. Ein erfolgreiches Optimierungsexperiment führt zu einer Verlustfunktion mit einer abfallenden Kurve.
Dabei wird das Maß der Verlustabgänge und -stufen als Konvergenzbezeichnet. Sie möchten, dass die Kurve abfällt oder konvergiertund das Ende der Kurve so nahe wie möglich bei 0 liegt, weil dies bedeutet, dass die vorhergesagten Ergebnisse den Ergebnissen aus den Trainingsdaten so ähnlich wie möglich sind.
Wenn die Verlustfunktion für Ihr Experiment einer Gebirgskette mit mehreren Spitzen ähnelt, der Verlust nie konvergiert oder der Verlust konvergiert, aber eine Zahl viel höher als null bleibt, passen Sie Ihre Anpassungsparameter an.
Sie können die Parameterwerte im Tuning Studio konfigurieren oder das Beispielnotizbuch verwenden. Das Beispielnotizbuch enthält Schritte, die Ihnen dabei helfen, die besten Werte für Ihre Optimierungsparameter zu finden, die manchmal als Hyperparameteroptimierungbezeichnet werden. Weitere Informationen finden Sie unter Notebook zur Optimierung von Optimierungsparameterwerten verwenden.
Die folgende Tabelle beschreibt allgemeine Ergebnisse von Optimierungsexperimenten und listet Aktionen auf, die die Ergebnisse verbessern können.
Verlustfunktionsdiagramm | Ursache | Auszuführende Aktionen |
---|---|---|
Die Verlustkurve ist flach und fällt nie ab. |
Die Optimierung führt nicht zu einer großen Verbesserung der Ergebnisse. | Erhöhen Sie die Lernrate (um 10x), sodass das Experiment drastischere Anpassungen am Eingabeaufforderungsvektor vornimmt. |
Die Verlustkurve sinkt, aber das Ende bleibt bei einer zu hohen Zahl stehen. |
Durch die Optimierung werden die Ergebnisse nicht so weit wie möglich verbessert. | Erhöhen Sie die Lernrate (um 5x), sodass das Experiment größere Anpassungen am Eingabeaufforderungsvektor vornimmt. |
Die Verlustkurve fällt ab, nimmt dann stetig ab, pendelt sich aber nie ein. |
Das Training wurde beendet, bevor das Modell vollständig optimiert wurde. | Erhöhen Sie die Anzahl der Epochen, damit das Modell mehr Zeit zum Lernen hat. |
Die Verlustkurve steigt an und fällt dann wieder ab, wird aber nie tief genug. |
Das Training ist instabil, da die hohe Lernrate dazu führt, dass sich der Eingabeaufforderungsvektor zu sehr ändert. | - Verringern Sie die Lernrate (um 10x), um kleinere Anpassungen am Prompt-Vektor vorzunehmen. |
Weitere Informationen zum Ändern von Optimierungsparametern und zum erneuten Ausführen eines Optimierungsexperiments finden Sie unter Basismodell optimieren.
Datenqualitätsprobleme in optimierter Modellausgabe beheben
Sie wissen, dass Sie mit der Optimierung eines Modells fertig sind, wenn Sie Zero-Shot-Eingabeaufforderungen an das optimierte Modell übergeben und die erwarteten Ausgaben zurückerhalten können.
In der folgenden Tabelle werden einige allgemeine Probleme mit der Trainingsdatenqualität beschrieben und Aktionen aufgelistet, die Sie ausführen können, um sie zu beheben.
Ergebnis | Ursache | Auszuführende Aktionen |
---|---|---|
Optimierte Modellausgaben stimmen nicht mit dem Inhalt und Format von Ausgabebeispielen aus Trainingsdaten überein | Beispiele für nicht genügend Trainingsdaten | Vergrößern Sie die Trainingsdaten. |
Optimierte Modellausgaben sind unvollständig | Der Optimierungsprozess verwendet nicht die Beispiele, die Ihrer Meinung nach verwendet werden. | Beobachten Sie die Länge der Eingabe-und Ausgabebeispiele für Ihre Trainingsdaten. Die maximal zulässige Anzahl Eingabetoken ist 256 und die maximal zulässige Anzahl Ausgabetoken ist 128. Beispiele, die die maximal zulässige Länge überschreiten, werden abgeschnitten. |
Fehlende Klassifikationsbeschriftungen in einer Klassifikationsaufgabe | Nicht genügend Beispiele für jeden Klassentyp für eine Klassifikationstask | Fügen Sie weitere Beispiele für jeden Klassentyp hinzu, den das Modell erkennen soll. |
Fehlende Textextraktionen in einer Extraktionstask | Nicht genügend Beispiele für jeden Entitätstyp für eine Extraktionstask | Fügen Sie weitere Beispiele für jeden Entitätstyp hinzu, den das Modell erkennen soll. |
Falsche Klassenbezeichnungen oder Textextraktionen für Entitätstypen | Nicht genügend Kontext zur Auswahl der richtigen Klasse oder des richtigen Entitätstyps | Fügen Sie für jeden Typ eine gleiche Anzahl von Beispielen hinzu. Überprüfen Sie die Klassen oder Entitäten, die das Modell identifizieren oder extrahieren soll, um sicherzustellen, dass sie sich voneinander unterscheiden. |
Übergeordnetes Thema: Auswertung der Ergebnisse von Tuning-Experimenten