0 / 0
Torna alla versione inglese della documentazione
Lab prompt
Ultimo aggiornamento: 03 dic 2024
Lab prompt

In Prompt Lab in IBM watsonx.ai, puoi sperimentare diversi modelli di base, esplorare i prompt di esempio e salvare e condividere i tuoi prompt migliori.

Utilizzare il Prompt Lab per ingegnerizzare i prompt effettivi che vengono inoltrati ai modelli di base distribuiti per l'inferenza. Non utilizzare Prompt Lab per creare nuovi modelli di base.

Questo video fornisce un metodo visivo per apprendere i concetti e le attività in questa documentazione.

Requisiti

Se ti sei registrato per watsonx.ai e hai un progetto sandbox, tutti i requisiti sono soddisfatti e sei pronto a utilizzare il Prompt Lab.

È necessario soddisfare questi requisiti per utilizzare Prompt Lab:

  • È necessario avere un progetto.
  • È necessario disporre del ruolo Editor o Admin nel progetto.
  • Il progetto deve avere un'istanza del servizio watsonx.ai Runtime associata. Altrimenti, potrebbe essere richiesto di associare il servizio quando si apre Prompt Lab.

Creazione ed esecuzione di un prompt

Per creare ed eseguire una nuova richiesta, completare la seguente procedura:

  1. Dalla home page watsonx.ai , scegli un progetto, quindi fai clic sul riquadro Nuova risorsa > Chat e prompt di compilazione con modelli di base .

  2. Facoltativo: scegliere una modalità di modifica differente da utilizzare, ad esempio Formato libero.

  3. Selezionare un foundation model.

    Suggerimento: per visualizzare tutti i modelli di fondazione disponibili, rimuovere tutti i filtri di ricerca applicati.
  4. Facoltativo: aggiornare i parametri del modello o aggiungere le variabili di prompt.

  5. Immettere un prompt.

  6. Fare clic sull'icona Invia Invia icona .

    In modalità Strutturata o Freeform , fare clic su Genera.

  7. È possibile annullare una richiesta di inferenza in qualsiasi momento cliccando sull'icona Stop Icona Arresta .

    I token nell'input vengono conteggiati come token utilizzati. Vengono conteggiati anche tutti i token che sono stati generati dal modello come output prima dell'annullamento della richiesta.

  8. Per conservare il proprio lavoro in modo da poter riutilizzare o condividere un prompt con i collaboratori nel progetto corrente, salvare il lavoro come un asset del progetto. Per ulteriori informazioni, consultare Salvataggio delle richieste.

Per eseguire un prompt di esempio, completare la seguente procedura:

  1. Dal menu prompt di esempio in Prompt Lab, selezionare un prompt di esempio.

    Il prompt viene aperto nell'editor e viene selezionato un modello appropriato.

  2. Fare clic su Genera.

Opzioni di modifica prompt

Il prompt viene immesso nell'editor prompt. L'editor di prompt ha le seguenti modalità di modifica:

Modalità conversazione

È possibile chattare con il foundation model per vedere come il modello gestisce le attività di dialogo o di risposta alle domande.

Iniziare la chat presentando una domanda o una richiesta a cui il foundation model deve rispondere. In alternativa, è possibile fare clic su un esempio di avvio rapido da inoltrare al modello. I campioni di avvio rapido vengono inviati al foundation model Llama. Se si desidera lavorare con un foundation model diverso, aggiungere il proprio testo di richiesta.

Ogni turno successivo nella conversazione si basa sulle informazioni che sono state scambiate in precedenza.

Nota:Non è possibile apportare modifiche mentre è in corso una conversazione. Fare clic sull'icona Cancella chat Icona Cancella conversazione per interrompere e apportare modifiche.

Prima di iniziare una chat, rivedi e modifica la scelta del modello e le impostazioni dei parametri. Per supportare lunghi scambi di dialogo, il parametro Numero massimo di token è impostato su un valore predefinito elevato. È possibile aggiungere una sequenza di arresto per evitare che il modello generi, ad esempio, output di tipo wordy.

Modelli di chat

Il testo predefinito denominato prompt di sistema viene incluso all'inizio della chat per definire le regole di base per la conversazione. Per rivedere e personalizzare il testo, fare clic sull'icona del prompt di sistema Modifica Modifica prompt di sistema .

Alcuni modelli di base consigliano modelli specifici che identifichino segmenti differenti del prompt, come l'istruzione del prompt e l'input utente. La modalità Chat regola la sintassi dell'input del prompt in modo che sia conforme al formato raccomandato da ciascun foundation model. È possibile fare clic sull'icona Visualizza testo completo del prompt Visualizza testo del prompt completo per visualizzare il testo completo del prompt che verrà inviato al foundation model .

Il radicamento richiede fatti

Per aiutare il foundation model a restituire risultati concreti, aggiungere al prompt documenti con informazioni pertinenti. Fare clic sull'icona Carica documenti Icona di caricamento dei documenti , quindi scegliere Aggiungi documenti . Per ulteriori informazioni, vedere Chattare con documenti e immagini.

Puoi anche aggiungere dati rilevanti da un negozio di vettori di terze parti. Fare clic sull'icona Messa a terra con documenti " Messa a terra con icona dei documenti e selezionare l'indice vettoriale. Per ulteriori informazioni, vedere Aggiunta di documenti vettoriali per i prompt foundation model.

Funzionalità omesse dalla modalità chat

Le seguenti funzioni sono omesse dalla modalità chat:

  • Il conteggio dell'utilizzo del token non viene mostrato in modalità chat.

    Tieni presente che la cronologia delle chat viene inviata ad ogni nuovo prompt che invii e che contribuisce al conteggio complessivo dei token.

    Puoi controllare tu stesso il numero di token utilizzando l'API. Fare clic sull'icona Visualizza testo completo del prompt Visualizza testo del prompt completo per aprire e copiare il testo completo del prompt, quindi utilizzare il metodo di tokenizzazione del testo per contare i token.

  • Non è possibile definire le variabili di prompt in modalità chat. Di conseguenza, non è possibile gestire i modelli di prompt della chat salvati.

Guarda questo video che mostra la modalità chat nel Prompt Lab.

Questo video fornisce un metodo visivo per apprendere i concetti e le attività in questa documentazione.

Modalità strutturata

La modalità strutturata è progettata per aiutare i nuovi utenti a creare prompt efficaci. Il testo dai campi viene inviato al modello in formato modello.

Si aggiungono parti del prompt nei campi appropriati:

  • Istruzione: aggiungi un'istruzione se ha senso per il tuo caso d'uso. Un'istruzione è un'istruzione imperativa, come Riepiloga il seguente articolo.

  • Esempi: aggiungi una o più coppie di esempi che contengono l'input e l'output corrispondente che desideri. La fornitura di alcune coppie di input e output di esempio nel prompt è denominata richiesta di pochi istantanei.

    Se è necessario un prefisso specifico per l'input o l'output, è possibile sostituire le etichette predefinite, "Input:" o "Output:", con le etichette che si desidera utilizzare. Ad esempio, si possono sostituire le etichette predefinite con etichette personalizzate che sono state utilizzate nei dati di addestramento quando un foundation model è stato messo a punto.

    Viene aggiunto uno spazio tra l'etichetta di esempio e il testo di esempio.

  • Verifica l'input: nell'area Prova , immetti l'input finale del tuo prompt.

Modalità in formato libero

Aggiungere il prompt in testo semplice. Il testo della richiesta viene inviato al modello esattamente come è stato immesso.

La modalità a formato libero è una buona scelta quando si desidera inoltrare un input strutturato e sapere come formattare il prompt.

Opzioni di configurazione del modello e del prompt

È necessario specificare quale modello richiedere e, facoltativamente, impostare i parametri che controllano il risultato generato.

Scelte del modello

Nel Prompt Lab, è possibile inoltrare la propria richiesta a uno qualsiasi dei modelli supportati da watsonx.ai. È possibile scegliere i modelli utilizzati di recente dall'elenco a discesa. Oppure è possibile fare clic su Visualizza tutti i modelli di base per visualizzare tutti i modelli supportati, filtrarli per attività e leggere le informazioni di alto livello sui modelli.

Se si è sintonizzato un foundation model utilizzando Tuning Studio e si è distribuito il modello sintonizzato o si è distribuito un foundation model personalizzato, il modello sintonizzato o personalizzato è disponibile anche per la richiesta di informazioni dal Prompt Lab.

Parametri del modello

Per controllare il modo in cui il modello genera l'output in risposta al prompt, è possibile specificare i parametri di decodifica e i criteri di arresto. Per ulteriori informazioni, consultare Parametri del modello per la richiesta.

Variabili prompt

Per aggiungere flessibilità ai prompt, è possibile definire le variabili di prompt. Una variabile di prompt è una parola chiave segnaposto inclusa nel testo statico del prompt al momento della creazione e sostituita dinamicamente con il testo al runtime. Per ulteriori informazioni, consultare Creazione di prompt riutilizzabili.

Visualizza testo del prompt completo

Si potrebbe voler vedere il testo completo del prompt che verrà inviato al foundation model nelle seguenti situazioni:

  • Quando le variabili di prompt sono in uso, per visualizzare i valori di variabile risolti nel contesto.
  • In modalità chat, in cui i formati di prompt consigliati per i diversi modelli di base vengono applicati automaticamente.
  • In modalità strutturata, dove si aggiungono parti della richiesta in campi separati.

Guardrail AI

Quando si imposta il commutatore AI guardrails su On, la lingua dannosa viene automaticamente rimossa dal testo del prompt di input e dall'output generato dal modello. In particolare, qualsiasi frase nell'input o nell'output che contiene una lingua dannosa viene sostituita con un messaggio che indica che il testo potenzialmente dannoso è stato rimosso.

Nota:Questa funzione è supportata solo per i modelli in lingua inglese. Se si lavora con un foundation model non inglese, disabilitare i guardrail AI.

Per ulteriori informazioni, consultare Rimozione del contenuto nocivo.

Codice di richiesta

Se si desidera eseguire la richiesta in modo programmatico, è possibile visualizzare e copiare il codice di richiesta o utilizzare la libreria Python .

Visualizza codice

Quando fai clic sull'icona Visualizza codice Visualizza codice , viene visualizzato un comando cURL che puoi chiamare dall'esterno di Prompt Lab per inviare il prompt e i parametri correnti al modello selezionato e ottenere una risposta generata.

Il comando include un segnaposto per anIBM Cloud Gettone IAM. Per informazioni sulla generazione del token di accesso, consultare Generazione di un token IBM Cloud IAM .

Alternativa programmatica al Prompt Lab

L'interfaccia grafica di Prompt Lab è un luogo ideale per sperimentare e iterare con le tue richieste. Tuttavia, puoi anche richiedere i modelli di base in watsonx.ai in modo programmatico utilizzando la libreria Python o l'API REST. Per i dettagli, vedi Coding generative AI solutions.

Richieste disponibili

Nel pannello laterale, è possibile accedere ai prompt di esempio, alla cronologia della sessione e ai prompt salvati.

Esempi

Una raccolta di prompt di esempio è disponibile in Prompt Lab. Gli esempi dimostrano il testo di prompt e i parametri del modello effettivi per le diverse attività, inclusi la classificazione, l'estrazione, la generazione del contenuto, la risposta alle domande e il riepilogo.

Quando si fa clic su un esempio, il testo del prompt viene caricato nell'editor, viene selezionato un modello appropriato e i parametri ottimali vengono configurati automaticamente.

Cronologia

Quando si sperimenta con testo di prompt, scelte di modelli e parametri differenti, i dettagli vengono acquisiti nella cronologia della sessione ogni volta che si inoltra il prompt. Per caricare un prompt precedente, selezionare la voce nella cronologia e fare clic su Ripristina.

Salvato

Dal menu Modelli di prompt salvati , è possibile caricare qualsiasi prompt salvato nel progetto corrente come asset del modello di prompt.

Quando viene eseguito il provisioning di watsonx.governance , se il modello di prompt include almeno una variabile di prompt, è possibile valutare l'efficacia delle risposte del modello. Per ulteriori informazioni, consultare Valutazione dei modelli di prompt nei progetti.

Ulteriori informazioni


Argomento principale: Sviluppo di soluzioni AI generative

Ricerca e risposta AI generativa
Queste risposte sono generate da un modello di lingua di grandi dimensioni in watsonx.ai basato sul contenuto della documentazione del prodotto. Ulteriori informazioni