0 / 0
Torna alla versione inglese della documentazione
Scegliere un foundation model da mettere a punto
Ultimo aggiornamento: 21 nov 2024
Scegliere un foundation model da mettere a punto

Trovate il foundation model giusto da personalizzare per la vostra attività.

Modelli di base per una pronta messa a punto

È possibile eseguire la sintonizzazione immediata dei seguenti modelli dal Tuning Studio in watsonx.ai:

  • flan-t5-xl-3b
  • granite-13b-instruct-v2

La tabella seguente mostra i modelli di fondazione da sperimentare prima di scegliere un foundation model da mettere a punto.

Tabella 1. Modelli da sperimentare prima dell'ottimizzazione
Modello per la progettazione rapida Modello per l'ottimizzazione
flan-t5 - xxl-11b
flan-ul2-20b
flan-t5-xl-3b
granite-13b-instruct-v2 granite-13b-instruct-v2

Scelta di un foundation model per la messa a punto

Per aiutarvi a scegliere il foundation model migliore da accordare, seguite questi passaggi:

  1. Considerare se sono state adottate misure per curare i dati utilizzati per addestrare il foundation model, al fine di migliorare la qualità dei risultati del foundation model.

  2. Esaminare altre considerazioni generali per la selezione di un modello.

    Per ulteriori informazioni, vedere Scelta del foundation model.

  3. Consideriamo i costi associati al foundation model, sia al momento dell'inferenza sia al momento della messa a punto. Un modello più piccolo, come un modello da 3 miliardi di parametri, costa meno per sintonizzarsi ed è un buon punto di partenza.

    L'ottimizzazione comporta costi di utilizzo delle risorse di calcolo misurati in CUH (capacity unit hours). Più grande è il modello, maggiore è il tempo necessario per ottimizzare il modello. Un foundation model quattro volte più grande richiede un tempo di messa a punto quattro volte superiore.

    Ad esempio, su un set di dati con 10.000 esempi e una dimensione di 1.25 MB, sono necessarie 3 ore e 25 minuti per mettere a punto il foundation model flan-t5-xl-3b.

    Per ulteriori informazioni sui costi CUH, vedere watsonx.ai Piani di esecuzione e utilizzo del calcolo.

  4. Sperimentare i modelli nel Prompt Lab.

    Utilizzare la versione più grande (ovvero la versione con il maggior numero di parametri) del modello nella stessa famiglia di modelli per scopi di test. Testando con un modello più grande e potente è possibile stabilire il modello di prompt migliore per ottenere l'output desiderato. Quindi, è possibile ottimizzare una versione più piccola dello stesso tipo di modello per risparmiare sui costi. Una versione ottimizzata di un modello più piccolo può generare risultati simili, se non migliori, e costa meno all'inferenza.

    Lavorare e provare le richieste fino a trovare il modello di input che genera i migliori risultati dal foundation model di grandi dimensioni.

    Per ulteriori informazioni, consultare Prompt Lab.

Argomento padre: Tuning Studio

Ricerca e risposta AI generativa
Queste risposte sono generate da un modello di lingua di grandi dimensioni in watsonx.ai basato sul contenuto della documentazione del prodotto. Ulteriori informazioni