Es gibt eine Reihe von Gründen, Ihr foundation model zu optimieren. Durch die Optimierung eines Modells an vielen beschrifteten Beispielen können Sie die Modellleistung im Vergleich zur zeitnahe Entwicklung allein verbessern. Durch die Optimierung eines Basismodells für eine ähnliche Leistung wie ein größeres Modell in derselben Modellfamilie können Sie Kosten reduzieren, indem Sie dieses kleinere Modell bereitstellen.
- Erforderliche Services
- watsonx.ai Studio
- watsonx.ai Laufzeit
Ihr grundlegender Workflow umfasst die folgenden Tasks:
- Öffnen Sie ein Projekt. Projekte sind der Ort, an dem Sie gemeinsam mit anderen mit Daten arbeiten.
- Fügen Sie dem Projekt Daten hinzu. Sie können Datendateien hochladen oder Daten aus einer fernen Datenquelle über eine Verbindung hinzufügen.
- Erstellen Sie ein Optimierungsexperiment im Projekt. Das Optimierungsexperiment verwendet Tuning Studio Experiment Builder.
- Überprüfen Sie die Ergebnisse des Experiments und das optimierte Modell. Die Ergebnisse umfassen ein Verlustfunktionsdiagramm und die Details des optimierten Modells.
- Implementieren und testen Sie Ihr optimiertes Modell. Testen Sie Ihr Modell im Prompt Lab.
Lesen Sie über das Tuning eines foundation model
Die Eingabeaufforderungsoptimierung passt den Inhalt der Eingabeaufforderung an, die an das Modell übergeben wird. Das zugrunde liegende foundation model und seine Parameter werden nicht bearbeitet. Nur die Eingabeaufforderungseingabe wird geändert. Sie tunen ein Modell mit dem Tuning Studio, um ein foundation model so zu steuern, dass es die gewünschte Ausgabe liefert.
Sehen Sie sich dieses Video an, um zu erfahren, wann und warum Sie ein foundation model abstimmen sollten.
Dieses Video bietet eine visuelle Methode zum Erlernen der Konzepte und Tasks in dieser Dokumentation.
Sehen Sie sich ein Video zum Tuning eines foundation model an
Sehen Sie sich dieses Video an, um eine Vorschau der Schritte in diesem Lernprogramm anzuzeigen. Möglicherweise gibt es geringfügige Unterschiede in der Benutzerschnittstelle, die im Video angezeigt wird. Das Video ist als Begleiter zum schriftlichen Lernprogramm gedacht.
Dieses Video bietet eine visuelle Methode zum Erlernen der Konzepte und Tasks in dieser Dokumentation.
Versuchen Sie ein Tutorial zum Abstimmen eines foundation model
In diesem Lernprogramm werden Sie die folgenden Tasks ausführen:
- Aufgabe 1: Projekt öffnen
- Aufgabe 2: Basismodell testen
- Aufgabe 3: Daten zum Projekt hinzufügen
- Aufgabe 4: Optimierungsexperiment im Projekt erstellen
- Aufgabe 5: Optimierungsexperiment konfigurieren
- Task 6: Optimiertes Modell in einem Bereitstellungsbereich implementieren
- Aufgabe 7: Optimiertes Modell testen
Tipps zum Durcharbeiten dieses Lernprogramms
Im Folgenden finden Sie einige Tipps für den erfolgreichen Abschluss dieses Lernprogramms.
Verwenden Sie das Videobild im Bild
Die folgende animierte Abbildung zeigt, wie die Funktionen für Videobilder und Inhaltsverzeichnisse verwendet werden:
Hilfe in der Community anfordern
Wenn Sie Hilfe zu diesem Tutorial benötigen, können Sie eine Frage stellen oder eine Antwort im watsonx Community Diskussionsforum finden.
Browserfenster einrichten
Damit Sie dieses Lernprogramm optimal nutzen können, öffnen Sie Cloud Pak for Data in einem Browserfenster und lassen Sie diese Lernprogrammseite in einem anderen Browserfenster geöffnet, um einfach zwischen den beiden Anwendungen zu wechseln. Es empfiehlt sich, die beiden Browserfenster nebeneinander anzuordnen, um die weitere Arbeit zu erleichtern.
Aufgabe 1: Projekt öffnen
Um eine Vorschau auf diese Aufgabe zu erhalten, sehen Sie sich das Video ab 00:04 an.
Sie benötigen ein Projekt, um das Optimierungsexperiment speichern zu können. Sehen Sie sich ein Video an, um zu sehen, wie ein Sandboxprojekt erstellt und ein Service zugeordnet wird. Führen Sie dann die Schritte aus, um zu überprüfen, ob ein Projekt vorhanden ist, oder um ein Projekt zu erstellen.
Vorhandenes Projekt überprüfen oder neues Projekt erstellen
Blättern Sie in der Hauptanzeige von watsonx zum Bereich Projekte . Wenn Sie Projekte sehen, die in der Liste aufgeführt sind, gehen Sie zu Assoziieren Sie den watsonx.ai Runtime-Dienst.
Wenn Sie keine Projekte sehen, können Sie dieses Video ansehen und dann die Schritte zum Erstellen eines Projekts ausführen.
Dieses Video bietet eine visuelle Methode zum Erlernen der Konzepte und Tasks in dieser Dokumentation.
Klicken Sie auf Sandbox-Projekt erstellen. Nach der Erstellung des Projekts wird die Sandbox im Abschnitt Projekte angezeigt.
Öffnen Sie ein vorhandenes Projekt oder das neue Sandboxprojekt.
Assoziieren Sie den watsonx.ai Runtime-Dienst mit dem Projekt
Sie verwenden watsonx.ai Runtime, um das foundation model zu tunen. Folgen Sie daher diesen Schritten, um Ihre watsonx.ai Runtime Service-Instanz mit Ihrem Projekt zu verknüpfen.
Klicken Sie im Projekt auf die Registerkarte Verwalten .
Klicken Sie auf die Seite Services & Integrationen .
Prüfen Sie, ob diesem Projekt ein watsonx.ai Runtime-Dienst zugeordnet ist. Wenn kein zugeordneter Service vorhanden ist, führen Sie die folgenden Schritte aus:
Klicken Sie auf Service zuordnen.
Markieren Sie das Kästchen neben Ihrer watsonx.ai Runtime Service-Instanz.
Klicken Sie auf Zuordnen.
Klicken Sie bei Bedarf auf Abbrechen , um zur Seite Services & Integrationen zurückzukehren.
Weitere Informationen oder ein Video finden Sie unter Erstellen eines Projekts und Hinzufügen von zugehörigen Diensten zu einem Projekt.
Überprüfen Sie Ihren Fortschritt
Die folgende Abbildung zeigt die Registerkarte Verwalten mit dem zugehörigen Service. Sie können nun das Beispielnotebook zu Ihrem Projekt hinzufügen.
Aufgabe 2: Basismodell testen
Um eine Vorschau dieser Aufgabe zu sehen, schauen Sie sich das Video ab 00:19 an.
Sie können Ihr optimiertes Modell im Eingabeaufforderungslabor testen. Führen Sie die folgenden Schritte aus, um Ihr optimiertes Modell zu testen:
Kehren Sie zur Hauptanzeige von watsonx zurück.
Überprüfen Sie, ob Ihr Sandboxprojekt ausgewählt ist.
Klicken Sie auf die Kachel Eingabeaufforderung Labor öffnen.
Wählen Sie Ihr optimiertes Modell aus.
- Klicken Sie auf die Dropdown-Liste für Modelle und wählen Sie Alle Basismodelle anzeigenaus.
- Wählen Sie das Modell granite-13b-instruct-v2.
- Klicken Sie auf Modell auswählen.
Klicken Sie auf die Registerkarte Strukturiert.
Geben Sie als Anweisung ein:
Summarize customer complaints
Geben Sie die Beispiele und die Testeingabe an.
Beispieleingabe und -ausgabe Beispieleingabe Beispielausgabe Ich vergaß in meinem Anfangsdatum, dass ich Capital One benutzte und diese Schuld war in ihren Händen und wurde nie getan. Eintreibung von Schulden, Unterprodukt: Kreditkartenschulden, Ausgabe: nahm oder bedroht negative oder rechtliche Schritte Unterausgabe Ich bin Opfer von Identitätsdiebstahl und diese Schulden gehören mir nicht. Bitte beachten Sie den Identitätsdiebstahlbericht und die rechtliche Erklärung. Forderungseinzug, Teilprodukt, ich weiß nicht, Thema. Versuche, Schulden einzutreiben, die nicht geschuldet sind. Sub-Issue Schulden war ein Ergebnis des Identitätsdiebstahls Kopieren Sie im Textfeld Try die folgende Eingabeaufforderung und fügen Sie sie ein:
After I reviewed my credit report, I am still seeing information that is reporting on my credit file that is not mine. please help me in getting these items removed from my credit file.
Klicken Sie auf Generierenund überprüfen Sie die Ergebnisse. Notieren Sie die Ausgabe für das Basismodell, damit Sie diese Ausgabe mit der Ausgabe des getunten Modells vergleichen können.
Klicken Sie auf Arbeit speichern > Speichern unter.
Wählen Sie Vorlage für Eingabeaufforderungaus.
Geben Sie als Namen
Base model prompt
ein.Wählen Sie für die Aufgabe Verdichtung.
Wählen Sie Nach dem Speichern im Projekt anzeigenaus.
Klicken Sie auf Speichern.
Überprüfen Sie Ihren Fortschritt
Die folgende Abbildung zeigt Ergebnisse im Eingabeaufforderungslabor.
Aufgabe 3: Daten zum Projekt hinzufügen
Um eine Vorschau dieser Aufgabe zu sehen, schauen Sie sich das Video ab 01:12 an.
Sie müssen die Trainingsdaten zu Ihrem Projekt hinzufügen. Auf der Seite 'Ressourcenhub' finden Sie das Dataset 'Kundenbeschwerden'. Dieses Dataset enthält fiktive Daten zu typischen Kundenbeschwerden in Bezug auf Kreditberichte. Führen Sie die folgenden Schritte aus, um das Dataset aus dem Ressourcenhub zum Projekt hinzuzufügen:
- Greifen Sie auf den Datensatz Kundenbeschwerden auf der Seite Ressourcendrehscheibe zu.
- Klicken Sie auf Zum Projekt hinzufügen.
- Wählen Sie Ihr Sandbox-Projekt aus.
- Klicken Sie auf Hinzufügen.
- Klicken Sie auf Projekt anzeigen , um das Asset in Ihrem Projekt anzuzeigen.
Überprüfen Sie Ihren Fortschritt
Die folgende Abbildung zeigt das zum Projekt hinzugefügte Datenasset. Im nächsten Schritt wird das Optimierungsexperiment erstellt.
Aufgabe 4: Tuning-Experiment im Projekt erstellen
Um eine Vorschau dieser Aufgabe zu sehen, schauen Sie sich das Video ab 01:32 an.
Jetzt können Sie ein Optimierungsexperiment in Ihrem Sandboxprojekt erstellen, das das Dataset verwendet, das Sie soeben zum Projekt hinzugefügt haben. Führen Sie die folgenden Schritte aus, um ein Optimierungsexperiment zu erstellen:
Kehren Sie zur Hauptanzeige von watsonx zurück.
Überprüfen Sie, ob Ihr Sandboxprojekt ausgewählt ist.
Klicken Sie auf Tune ein foundation model mit beschrifteten Daten.
Geben Sie als Namen Folgendes ein:
Summarize customer complaints tuned model
Geben Sie für die Beschreibung Folgendes ein:
Tuning Studio experiment to tune a foundation model to handle customer complaints.
Klicken Sie auf Erstellen. Tuning Studio wird angezeigt.
Überprüfen Sie Ihren Fortschritt
Die folgende Abbildung zeigt das in Tuning Studiogeöffnete Optimierungsexperiment. Jetzt können Sie das Optimierungsexperiment konfigurieren.
Aufgabe 5: Optimierungsexperiment konfigurieren
Um eine Vorschau dieser Aufgabe zu sehen, schauen Sie sich das Video ab 01:47 an.
In Tuning Studiokönnen Sie das Optimierungsexperiment konfigurieren. Das foundation model zum Tunen ist für Sie fertiggestellt. Führen Sie die folgenden Schritte aus, um das Optimierungsexperiment zu konfigurieren:
Klicken Sie für das abzustimmende foundation model auf Wählen Sie ein foundation model.
Wählen Sie granite-13b-instruct-v2.
Klicken Sie auf Auswählen.
Wählen Sie Text als Methode zum Initialisieren der Eingabeaufforderung aus. Es gibt zwei Optionen:
- Text: Verwendet von Ihnen angegebenen Text.
- Zufällig: Verwendet Werte, die im Rahmen des Optimierungsexperiments generiert werden.
Geben Sie im Feld Text Folgendes ein:
Summarize the complaint provided into one sentence.
Die folgende Tabelle enthält Beispieltext für jeden Tasktyp:
Titel Tasktyp Beispiel Klassifikation Klassifizieren, ob die Stimmung jedes Kommentars positiv oder negativ ist Generierung Sorgen Sie dafür, dass Mitarbeiter einige Tage in der Woche von zu Hause aus arbeiten können. Zusammenfassung Zusammenfassung der Hauptpunkte aus einer Besprechungsmitschrift Wählen Sie Zusammenfassung für den Tasktyp aus, der dem gewünschten Modell am ehesten entspricht. Es gibt drei Tasktypen:
- Zusammenfassung generiert Text, der die Hauptideen beschreibt, die in einem Texthauptteil ausgedrückt werden.
- Die Generierung generiert Text, z. B. eine Werbe-E-Mail.
- Klassifikation sagt kategoriale Beschriftungen aus Merkmalen voraus. Beispiel: Bei einer Gruppe von Kundenkommentaren können Sie jede Anweisung als Frage oder Problem beschriften. Wenn Sie die Klassifikationsaufgabe verwenden, müssen Sie die Klassenbezeichnungen auflisten, die das Modell verwenden soll. Geben Sie dieselben Bezeichnungen an, die in Ihren Trainingsdaten für die Optimierung verwendet werden.
Wählen Sie Ihre Trainingsdaten aus dem Projekt aus.
- Klicken Sie auf Aus Projekt auswählen.
- Klicken Sie auf Datenasset.
- Wählen Sie die Datei customer Beschwerden training data.json aus.
- Klicken Sie auf Asset auswählen.
- Klicken Sie auf Optimierung starten.
Überprüfen Sie Ihren Fortschritt
Die folgende Abbildung zeigt das konfigurierte Optimierungsexperiment. Als Nächstes prüfen Sie die Ergebnisse und stellen das optimierte Modell bereit.
Task 6: Optimiertes Modell in einem Bereitstellungsbereich implementieren
Um eine Vorschau auf diese Aufgabe zu erhalten, sehen Sie sich das Video ab 03:17 an.
Wenn die Ausführung des Experiments abgeschlossen ist, werden das optimierte Modell und das Diagramm der Verlustfunktion angezeigt. Die Verlustfunktion misst die Differenz zwischen vorhergesagten und tatsächlichen Ergebnissen bei jedem Trainingslauf. Führen Sie die folgenden Schritte aus, um das Verlustfunktionsdiagramm und das optimierte Modell anzuzeigen:
Überprüfen Sie das Diagramm der Verlustfunktion. Eine abfallende Kurve bedeutet, dass das Modell beim Generieren der erwarteten Ausgabe besser wird.
Klicken Sie unterhalb des Diagramms auf das optimierte Modell Kundenbeschwerden zusammenfassen .
Blättern Sie durch die Modelldetails.
Klicken Sie auf Bereitstellen.
Geben Sie den Namen ein:
Summarize customer complaints tuned model
Wählen Sie für den Einsatzcontainer den Einsatzbereich.
Wählen Sie für Zielbereitstellungsbereicheinen vorhandenen Bereitstellungsbereich aus. Wenn Sie keinen vorhandenen Bereitstellungsbereich haben, führen Sie die folgenden Schritte aus:
- Wählen Sie für Zielbereitstellungsbereich Neuen Bereitstellungsbereich erstellenaus.
- Geben Sie den Namen des Bereitstellungsraums ein:
Foundation models deployment space
- Wählen Sie einen Speicherservice aus der Liste aus.
- Wählen Sie Ihren bereitgestellten Machine Learning-Service aus der Liste aus.
- Klicken Sie auf Erstellen.
- Klicken Sie auf Schließen.
- Stellen Sie für den Zielbereitstellungsbereichsicher, dass Foundation models deployment space ausgewählt ist.
Aktivieren Sie die Option Bereitstellung im Bereitstellungsbereich nach Erstellung anzeigen .
Klicken Sie auf Erstellen.
Klicken Sie auf der Seite Implementierungen auf die Implementierung Summarize customer reklamationen tunedmodel , um die Details anzuzeigen.
Überprüfen Sie Ihren Fortschritt
Die folgende Abbildung zeigt die Bereitstellung im Bereitstellungsbereich. Sie können das bereitgestellte Modell jetzt testen.
Aufgabe 7: Optimiertes Modell testen
Um eine Vorschau dieser Aufgabe zu sehen, schauen Sie sich das Video ab 04:04 an.
Sie können Ihr optimiertes Modell im Eingabeaufforderungslabor testen. Führen Sie die folgenden Schritte aus, um Ihr optimiertes Modell zu testen:
Klicken Sie auf der Modellbereitstellungsseite auf In Eingabeaufforderungslabor öffnenund wählen Sie dann Ihr Sandboxprojekt aus. Das Eingabeaufforderungslabor wird angezeigt.
Wählen Sie Ihr optimiertes Modell aus.
- Klicken Sie auf die Dropdown-Liste für Modelle und wählen Sie Alle Basismodelle anzeigenaus.
- Wählen Sie das Modell Summarize customer beschweren tuned model aus.
- Klicken Sie auf Modell auswählen.
Geben Sie auf der Seite Strukturierter Modus die Anweisungein:
Summarize customer complaints
Geben Sie auf der Seite Strukturierter Modus die Beispiele und die Testeingabe an.
Beispieleingabe und -ausgabe Beispieleingabe Beispielausgabe Ich vergaß in meinem Anfangsdatum, dass ich Capital One benutzte und diese Schuld war in ihren Händen und wurde nie getan. Eintreibung von Schulden, Unterprodukt: Kreditkartenschulden, Ausgabe: nahm oder bedroht negative oder rechtliche Schritte Unterausgabe Ich bin Opfer von Identitätsdiebstahl und diese Schulden gehören mir nicht. Bitte beachten Sie den Identitätsdiebstahlbericht und die rechtliche Erklärung. Forderungseinzug, Teilprodukt, ich weiß nicht, Thema. Versuche, Schulden einzutreiben, die nicht geschuldet sind. Sub-Issue Schulden war ein Ergebnis des Identitätsdiebstahls Kopieren Sie im Textfeld Try die folgende Eingabeaufforderung und fügen Sie sie ein:
After I reviewed my credit report, I am still seeing information that is reporting on my credit file that is not mine. please help me in getting these items removed from my credit file.
Klicken Sie auf Generierenund überprüfen Sie die Ergebnisse. Vergleichen Sie die Ergebnisse des Basismodells mit den Ergebnissen des abgestimmten Modells.
Überprüfen Sie Ihren Fortschritt
Die folgende Abbildung zeigt Ergebnisse im Eingabeaufforderungslabor.
Nächste Schritte
Probieren Sie diese anderen Lernprogramme aus:
- Prompt ein foundation model im Prompt-Labor
- Aufforderung zu einem foundation model mit abruferweitertem Generierungsmuster
- Testen Sie die anderen Lernprogramme für watsonx.ai -Anwendungsfälle.
Weitere Ressourcen
Weitere Informationen finden Sie unter Videos.
Suchen Sie Beispieldatasets, Projekte, Modelle, Eingabeaufforderungen und Notebooks im Ressourcenhub, um praktische Erfahrungen zu sammeln:
-Notizbücher, die Sie zu Ihrem Projekt hinzufügen können, um mit der Analyse von Daten und der Erstellung von Modellen zu beginnen.
Projekte, die Sie importieren können und die Notizbücher, Datensätze, Prompts und andere Elemente enthalten.
Datensätze, die Sie zu Ihrem Projekt hinzufügen können, um Modelle zu verfeinern, zu analysieren und zu erstellen.
Eingabeaufforderungen, die Sie im Eingabeaufforderungs-Labor verwenden können, um ein foundation model einzugeben.
Stiftungsmodelle, die Sie im Prompt-Labor verwenden können.
Übergeordnetes Thema: Lernprogramme für den Schnelleinstieg