Utilizza l' Prompt Lab, all'indirizzo IBM watsonx.ai, per sperimentare con diversi modelli di fondazione, per esplorare esempi di prompt e per salvare e condividere i tuoi migliori prompt.
Come iniziare con Prompt Lab
Copy link to section
Se vi siete iscritti a watsonx.ai e avete un progetto sandbox, tutti i requisiti sono soddisfatti e siete pronti a usare il Prompt Lab.
Per utilizzare il sito Prompt Lab è necessario soddisfare i seguenti requisiti:
È necessario avere un progetto.
Il progetto deve avere un'istanza del servizio watsonx.ai Runtime associata. Altrimenti, potrebbe essere richiesto di associare il servizio quando si apre il Prompt Lab.
Autorizzazioni richieste
Per eseguire i prompt, è necessario avere il ruolo di Admin o Editor in un progetto.
Con il Prompt Lab si progettano prompt efficaci da sottoporre ai modelli di base implementati per l'inferenza. Non si utilizza il Prompt Lab per creare nuovi modelli di fondazione.
Questo video fornisce un metodo visivo per apprendere i concetti e le attività in questa documentazione.
Creazione ed esecuzione di un prompt
Copy link to section
Per creare ed eseguire una nuova richiesta, completare la seguente procedura:
Dalla home page watsonx.ai , scegli un progetto, quindi fai clic sul riquadro Nuova risorsa > Chat e prompt di compilazione con modelli di base .
Facoltativo: scegliere una modalità di modifica differente da utilizzare, ad esempio Formato libero.
Selezionare un modello di fondazione.
Suggerimento: per visualizzare tutti i modelli di fondazione disponibili, rimuovere tutti i filtri di ricerca applicati.
Facoltativo: aggiornare i parametri del modello o aggiungere le variabili di prompt.
Immettere un prompt.
Fare clic sull'icona Invia.
In modalità Strutturata o Freeform , fare clic su Genera.
È possibile annullare una richiesta di inferenza in qualsiasi momento facendo clic sull'icona Stop.
I token nell'input vengono conteggiati come token utilizzati. Vengono conteggiati anche tutti i token che sono stati generati dal modello come output prima dell'annullamento della richiesta.
Per conservare il proprio lavoro in modo da poter riutilizzare o condividere un prompt con i collaboratori nel progetto corrente, salvare il lavoro come un asset del progetto. Per ulteriori informazioni, consultare Salvataggio delle richieste.
Per eseguire un prompt di esempio, completare la seguente procedura:
Dal menu dei prompt di esempio nel Prompt Lab, selezionate un prompt di esempio.
Il prompt viene aperto nell'editor e viene selezionato un modello appropriato.
Fare clic su Genera.
Opzioni di modifica prompt
Copy link to section
Il prompt viene immesso nell'editor prompt. L'editor di prompt ha le seguenti modalità di modifica:
Puoi chattare con il modello della fondazione per vedere come gestisce le attività di dialogo o di risposta alle domande.
Avvia la chat inviando una domanda o una richiesta a cui il modello di fondazione deve rispondere. In alternativa, è possibile fare clic su un esempio di avvio rapido da inoltrare al modello. Campioni di avvio rapido vengono inviati al modello della fondazione Llama. Se si desidera lavorare con un modello di base diverso, aggiungere il proprio testo di prompt.
Ogni turno successivo nella conversazione si basa sulle informazioni che sono state scambiate in precedenza.
Nota:Non è possibile apportare modifiche mentre è in corso una conversazione. Fare clic sull'icona Cancella chat per interrompere e apportare le modifiche.
Prima di iniziare una chat, rivedi e modifica la scelta del modello e le impostazioni dei parametri. Per supportare lunghi scambi di dialogo, il parametro Numero massimo di token è impostato su un valore predefinito elevato. È possibile aggiungere una sequenza di arresto per evitare che il modello generi, ad esempio, output di tipo wordy.
Modelli di chat
Copy link to section
Il testo predefinito denominato prompt di sistema viene incluso all'inizio della chat per definire le regole di base per la conversazione. Per rivedere e personalizzare il testo, fare clic sull'icona Modifica prompt di sistema.
Alcuni modelli di base consigliano modelli specifici che identifichino segmenti differenti del prompt, come l'istruzione del prompt e l'input utente. La modalità chat regola la sintassi dell'input del prompt per conformarsi al formato raccomandato da ciascun modello di base. È possibile fare clic sull'icona Visualizza testo completo del prompt per vedere il testo completo del prompt che verrà inviato al modello di fondazione.
Il radicamento richiede fatti
Copy link to section
Per aiutare il modello di base a restituire risultati realistici, aggiungere documenti con informazioni pertinenti al prompt. Fare clic sull'icona Carica documenti, quindi scegliere Aggiungi documenti. Per ulteriori informazioni, vedere Chattare con documenti e immagini.
Le seguenti funzioni sono omesse dalla modalità chat:
Il conteggio dell'utilizzo del token non viene mostrato in modalità chat.
Tieni presente che la cronologia delle chat viene inviata ad ogni nuovo prompt che invii e che contribuisce al conteggio complessivo dei token.
Puoi controllare tu stesso il numero di token utilizzando l'API. Fare clic sull'icona Visualizza testo completo del prompt per aprire e copiare il testo completo del prompt, quindi utilizzare il metodo di tokenizzazione del testo per contare i token.
Non è possibile definire le variabili di prompt in modalità chat. Di conseguenza, non è possibile gestire i modelli di prompt della chat salvati.
Guardate questo video che mostra la modalità Chat nel Prompt Lab.
Questo video fornisce un metodo visivo per apprendere i concetti e le attività in questa documentazione.
Modalità strutturata
Copy link to section
La modalità strutturata è progettata per aiutare i nuovi utenti a creare prompt efficaci. Il testo dai campi viene inviato al modello in formato modello.
Si aggiungono parti del prompt nei campi appropriati:
Istruzione: aggiungi un'istruzione se ha senso per il tuo caso d'uso. Un'istruzione è un'istruzione imperativa, come Riepiloga il seguente articolo.
Esempi: aggiungi una o più coppie di esempi che contengono l'input e l'output corrispondente che desideri. La fornitura di alcune coppie di input e output di esempio nel prompt è denominata richiesta di pochi istantanei.
Se è necessario un prefisso specifico per l'input o l'output, è possibile sostituire le etichette predefinite, "Input:" o "Output:", con le etichette che si desidera utilizzare. Ad esempio, è possibile sostituire le etichette predefinite con etichette personalizzate che sono state utilizzate nei dati di addestramento quando un modello di base è stato ottimizzato in modo guidato.
Viene aggiunto uno spazio tra l'etichetta di esempio e il testo di esempio.
Verifica l'input: nell'area Prova , immetti l'input finale del tuo prompt.
Modalità in formato libero
Copy link to section
Aggiungere il prompt in testo semplice. Il testo della richiesta viene inviato al modello esattamente come è stato immesso.
La modalità a formato libero è una buona scelta quando si desidera inoltrare un input strutturato e sapere come formattare il prompt.
Opzioni di configurazione del modello e del prompt
Copy link to section
È necessario specificare quale modello richiedere e, facoltativamente, impostare i parametri che controllano il risultato generato.
Scelte del modello
Copy link to section
Nel Prompt Lab è possibile inviare la richiesta a uno qualsiasi dei modelli supportati da watsonx.ai È possibile scegliere i modelli utilizzati di recente dall'elenco a discesa. Oppure è possibile fare clic su Visualizza tutti i modelli di base per visualizzare tutti i modelli supportati, filtrarli per attività e leggere le informazioni di alto livello sui modelli.
Se hai ottimizzato un modello di fondazione utilizzando l' Tuning Studio, e hai distribuito il modello ottimizzato, oppure hai distribuito un modello di fondazione personalizzato, il modello ottimizzato o personalizzato è disponibile anche per la richiesta dall' Prompt Lab.
Parametri del modello
Copy link to section
Per controllare il modo in cui il modello genera l'output in risposta al prompt, è possibile specificare i parametri di decodifica e i criteri di arresto. Per ulteriori informazioni, consultare Parametri del modello per la richiesta.
Variabili prompt
Copy link to section
Per aggiungere flessibilità ai prompt, è possibile definire le variabili di prompt. Una variabile di prompt è una parola chiave segnaposto inclusa nel testo statico del prompt al momento della creazione e sostituita dinamicamente con il testo al runtime. Per ulteriori informazioni, consultare Creazione di prompt riutilizzabili.
Visualizza testo del prompt completo
Copy link to section
Potresti voler vedere il testo completo del prompt che verrà inviato al modello di fondazione nelle seguenti situazioni:
Quando le variabili di prompt sono in uso, per visualizzare i valori di variabile risolti nel contesto.
In modalità chat, in cui i formati di prompt consigliati per i diversi modelli di base vengono applicati automaticamente.
In modalità strutturata, dove si aggiungono parti della richiesta in campi separati.
Guardrail AI
Copy link to section
Quando si imposta il commutatore AI guardrails su On, la lingua dannosa viene automaticamente rimossa dal testo del prompt di input e dall'output generato dal modello. In particolare, qualsiasi frase nell'input o nell'output che contiene una lingua dannosa viene sostituita con un messaggio che indica che il testo potenzialmente dannoso è stato rimosso.
Nota:Questa funzione è supportata solo per i modelli in lingua inglese. Se si lavora con un modello di base non in inglese, disabilitare i guardrail AI.
Se si desidera eseguire la richiesta in modo programmatico, è possibile visualizzare e copiare il codice di richiesta o utilizzare la libreria Python .
Visualizza codice
Copy link to section
Quando si fa clic sull'icona Visualizza codice, viene visualizzato un comando cURL che può essere richiamato dall'esterno di Prompt Lab per inviare il prompt e i parametri correnti al modello selezionato e ottenere una risposta generata.
Il comando include un segnaposto per anIBM Cloud Gettone IAM. Per informazioni sulla generazione del token di accesso, consultare Generazione di un token IBM Cloud IAM .
Alternativa programmatica al Prompt Lab
Copy link to section
L'interfaccia grafica di Prompt Lab è un luogo ideale per sperimentare e iterare con i vostri prompt. Tuttavia, è possibile richiedere i modelli di fondazione in watsonx.ai anche in modo programmatico, utilizzando la libreria Python o l'API REST. Per i dettagli, vedi Coding generative AI solutions.
Richieste disponibili
Copy link to section
Nel pannello laterale, è possibile accedere ai prompt di esempio, alla cronologia della sessione e ai prompt salvati.
Esempi
Copy link to section
Una raccolta di esempi di prompt è disponibile nel Prompt Lab. Gli esempi dimostrano il testo di prompt e i parametri del modello effettivi per le diverse attività, inclusi la classificazione, l'estrazione, la generazione del contenuto, la risposta alle domande e il riepilogo.
Quando si fa clic su un esempio, il testo del prompt viene caricato nell'editor, viene selezionato un modello appropriato e i parametri ottimali vengono configurati automaticamente.
Cronologia
Copy link to section
Quando si sperimenta con testo di prompt, scelte di modelli e parametri differenti, i dettagli vengono acquisiti nella cronologia della sessione ogni volta che si inoltra il prompt. Per caricare un prompt precedente, selezionare la voce nella cronologia e fare clic su Ripristina.
Salvato
Copy link to section
Dal menu Modelli di prompt salvati , è possibile caricare qualsiasi prompt salvato nel progetto corrente come asset del modello di prompt.
Quando viene eseguito il provisioning di watsonx.governance , se il modello di prompt include almeno una variabile di prompt, è possibile valutare l'efficacia delle risposte del modello. Per ulteriori informazioni, consultare Valutazione dei modelli di prompt nei progetti.
Informazioni sui cookie del presente sitoPer il corretto funzionamento, i nostri siti Web richiedono alcuni cookie (richiesto). Inoltre, con il suo consenso, potrebbero essere utilizzati altri cookie per l'analisi dell'utilizzo del sito, per migliorare l'esperienza utente e per scopi pubblicitari.Per ulteriori informazioni, consultare le Preferenze cookie. Visitando il nostro sito web, accettate il trattamento delle informazioni da parte nostra come descritto nelladichiarazione sulla privacy di IBM.Per consentire una corretta navigazione, le preferenze per i cookie dell'utente verranno condivise sui domini Web IBM qui elencati.