0 / 0
Torna alla versione inglese della documentazione

Miglioramento di un esperimento di prompt-tuning

Ultimo aggiornamento: 04 mar 2025
Miglioramento di un esperimento di prompt-tuning

Modificate il vostro esperimento di messa a punto dei prompt per migliorare i risultati.

È disponibile un notebook Python di esempio denominato Use watsonx.aito tune IBM granite-13b-instruct-v2 model with Car Rental Company customer satisfaction document che contiene codice per l'ottimizzazione dei modelli di base in watsonx.ai. Il notebook di esempio dispone di sezioni per ottimizzare i parametri dell'esperimento e per dedurre il modello ottimizzato. Per ulteriori informazioni, vedi Ottimizzazione di un modello di base utilizzando un notebook Python.

Regolazione dei parametri di ottimizzazione

Al termine dell'esecuzione di un esperimento di ottimizzazione, viene visualizzato un grafico della funzione di perdita. Una funzione di perdita misura la differenza tra i risultati previsti e quelli effettivi con ogni esecuzione di addestramento. Un esperimento di ottimizzazione riuscito si traduce in una funzione di perdita che ha una curva di inclinazione verso il basso.

Dove la misura della perdita diminuisce e i livelli si chiamano convergenza. Si desidera che la curva scenda o convergae che l'estremità finale della curva raggiunga il più vicino possibile a 0, perché significa che i risultati previsti sono il più simili possibile ai risultati dei dati di addestramento.

Se la funzione di perdita per il tuo esperimento assomiglia a una catena montuosa con picchi multipli, la perdita non converge mai, o la perdita converge, ma rimane a un numero molto più alto di zero, regola i tuoi parametri di sintonia.

È possibile configurare i valori dei parametri in Tuning Studio o utilizzare il blocco note degli esempi. Il notebook di esempio contiene passi che consentono di individuare i migliori valori da utilizzare per i parametri di ottimizzazione, talvolta denominati ottimizzazione degli iperparametri. Per ulteriori informazioni, consultare Utilizzo del notebook per ottimizzare i valori dei parametri di ottimizzazione.

La seguente tabella descrive i risultati dell'esperimento di ottimizzazione comuni ed elenca le azioni che potrebbero migliorare i risultati.

Tabella 1: Azioni per risolvere i difetti comuni degli esperimenti di messa a punto
Grafico della funzione di perdita Causa Azioni da provare
La curva di perdita è piatta e non scende mai
La curva di perdita è piatta e non scende mai.
L'ottimizzazione non migliora molto i risultati. Aumentare il tasso di apprendimento (di 10x) in modo che l'esperimento effettui modifiche più drastiche al vettore di prompt.
La curva di perdita scende ma si allinea troppo in alto
La curva di perdita scende ma la coda si assesta su un numero troppo alto.
L'ottimizzazione non migliora i risultati quanto potrebbe. Aumentare il tasso di apprendimento (di 5x) in modo che l'esperimento effettui modifiche maggiori al vettore di prompt.
La curva di perdita scende, ma non si avvicina il più possibile allo zero
La curva delle perdite scende, poi diminuisce costantemente ma non si stabilizza mai.
L'addestramento è terminato prima che il modello fosse completamente ottimizzato. Aumentare il numero di epoche per dare al modello più tempo per imparare.
La curva di perdita va verso l'alto e poi verso il basso, ma non va mai abbastanza in basso
La curva di perdita sale e poi scende, ma non scende mai abbastanza.
L'addestramento è instabile perché l'alto tasso di apprendimento sta facendo cambiare troppo il vettore di prompt. - Diminuire il tasso di apprendimento (di 10x) per effettuare aggiustamenti più piccoli al vettore prompt.

Per ulteriori informazioni su come modificare i parametri di regolazione e ripetere un esperimento di regolazione, vedere Tuning Studio.

Risoluzione dei problemi di qualità dei dati nell'output del modello ottimizzato

Si è certi di aver terminato l'ottimizzazione di un modello quando è possibile inviare richieste zero - shot al modello ottimizzato e ottenere gli output previsti.

La seguente tabella descrive alcuni problemi di qualità dei dati di addestramento comuni ed elenca le azioni che è possibile intraprendere per risolverli.

Tabella 2: Azioni per affrontare le carenze dei dati di formazione
Risultato Causa Azioni da provare
Gli output del modello ottimizzati non corrispondono al contenuto e formato degli esempi di output dai dati di addestramento Esempi di dati di addestramento non sufficienti Aumentare la dimensione dei dati di addestramento.
Gli output del modello ottimizzato non sono completi Il processo di ottimizzazione non utilizza gli esempi che si pensa di utilizzare Guarda la lunghezza degli esempi di input e output dei tuoi dati di addestramento. Il numero massimo di token di input consentiti è 256 e il numero massimo di token di output consentiti è 128. Gli esempi che superano la lunghezza massima consentita vengono troncati.
Etichette di classificazione mancanti in un'attività di classificazione Esempi insufficienti di ogni tipo di classe per un'attività di classificazione Aggiungere ulteriori esempi di ciascun tipo di classe che si desidera che il modello riconosca.
Estrazioni di testo mancanti in un'attività di estrazione Esempi insufficienti di ciascun tipo di entità per un'attività di estrazione Aggiungere ulteriori esempi di ciascun tipo di entità che si desidera che il modello riconosca.
Etichette di classe non accurate o estrazioni di testo del tipo di entità Contesto insufficiente per scegliere la classe o il tipo di entità corretti Aggiungere un numero uguale di esempi per ciascun tipo.
Esaminare le classi o le entità che si desidera che il modello identifichi o estragga per assicurarsi che siano distinte l'una dall'altra.

Argomento principale: Valutazione dei risultati degli esperimenti di sintonizzazione