Utilizzare i modelli di incorporazione per creare integrazioni di testo che catturino il significato di una frase o di un passaggio per facilitare il richiamo delle attività di generazione aumentate.
La generazione aumentata dal recupero (RAG) è una tecnica in cui il prompt di un foundation model viene aumentato con conoscenze provenienti da fonti esterne. È possibile utilizzare le incorporazioni di testo per trovare informazioni pertinenti di qualità superiore da includere nel prompt per aiutare il foundation model a rispondere in modo fattuale.
Il seguente diagramma illustra il pattern di creazione incrementato del richiamo con il supporto di integrazione.
Il modello di generazione incrementato dal richiamo con il supporto di integrazione richiede le seguenti operazioni:
- Converti il tuo contenuto in inserimenti di testo e memorizzali in un archivio dati vettoriale.
- Utilizzare lo stesso modello di integrazione per convertire l'input utente in integrazioni di testo.
- Eseguire una ricerca semantica o di similarità nella propria knowledge base per il contenuto correlato alla domanda di un utente.
- Inserire i risultati di ricerca più pertinenti nel prompt come contesto e aggiungere un'istruzione, ad esempio "Rispondi alla seguente domanda utilizzando solo le informazioni dai seguenti passaggi".
- Inviare il testo combinato del prompt (istruzione + risultati della ricerca + domanda) al foundation model.
- Il foundation model utilizza le informazioni contestuali del prompt per generare una risposta fattuale.
Aumentare l'input foundation model dal Prompt Lab
Prompt Lab dispone di una funzione integrata in modalità chat che ti aiuta a implementare un caso d'uso RAG. Per iniziare, associ i documenti rilevanti a un prompt. I documenti che aggiungi vengono vettorizzati e archiviati in un database vettoriale. Quando si invia una query alla chat, il database viene interrogato e i relativi risultati vengono inclusi nell'input inviato al foundation model. Per ulteriori informazioni, vedere 'Fondare i prompt di 'foundation model su informazioni contestuali.
Notebook di esempio
Il quaderno di esempio Use watsonx Granite Model Series, Chroma e LangChain to answer questions (RAG) illustra i passaggi da seguire per migliorare un caso d'uso RAG con gli embeddings.
Ulteriori informazioni
- Modelli di integrazione supportati
- Generazione aumentata di recupero
- Vettorializzare il testo utilizzando l'API
- Tecniche per superare le limitazioni di lunghezza del contesto
- Riferimento API per le incorporazioni di testo
Argomento principale: Generazione aumentata dal recupero