0 / 0
Torna alla versione inglese della documentazione
Utilizzo del testo vettorizzato con attività di generazione aumentate di richiamo
Ultimo aggiornamento: 28 nov 2024
Utilizzo del testo vettorizzato con attività di generazione aumentate di richiamo

Utilizzare i modelli di incorporazione per creare integrazioni di testo che catturino il significato di una frase o di un passaggio per facilitare il richiamo delle attività di generazione aumentate.

La generazione aumentata dal recupero (RAG) è una tecnica in cui il prompt di un foundation model viene aumentato con conoscenze provenienti da fonti esterne. È possibile utilizzare le incorporazioni di testo per trovare informazioni pertinenti di qualità superiore da includere nel prompt per aiutare il foundation model a rispondere in modo fattuale.

Il seguente diagramma illustra il pattern di creazione incrementato del richiamo con il supporto di integrazione.

Diagramma che mostra l'aggiunta dei risultati della ricerca derivati da un archivio di vettori all'input per la generazione aumentata del richiamo

Il modello di generazione incrementato dal richiamo con il supporto di integrazione richiede le seguenti operazioni:

  1. Converti il tuo contenuto in inserimenti di testo e memorizzali in un archivio dati vettoriale.
  2. Utilizzare lo stesso modello di integrazione per convertire l'input utente in integrazioni di testo.
  3. Eseguire una ricerca semantica o di similarità nella propria knowledge base per il contenuto correlato alla domanda di un utente.
  4. Inserire i risultati di ricerca più pertinenti nel prompt come contesto e aggiungere un'istruzione, ad esempio "Rispondi alla seguente domanda utilizzando solo le informazioni dai seguenti passaggi".
  5. Inviare il testo combinato del prompt (istruzione + risultati della ricerca + domanda) al foundation model.
  6. Il foundation model utilizza le informazioni contestuali del prompt per generare una risposta fattuale.

Aumentare l'input foundation model dal Prompt Lab

Prompt Lab dispone di una funzione integrata in modalità chat che ti aiuta a implementare un caso d'uso RAG. Per iniziare, associ i documenti rilevanti a un prompt. I documenti che aggiungi vengono vettorizzati e archiviati in un database vettoriale. Quando si invia una query alla chat, il database viene interrogato e i relativi risultati vengono inclusi nell'input inviato al foundation model. Per ulteriori informazioni, vedere 'Fondare i prompt di 'foundation model su informazioni contestuali.

Notebook di esempio

Il quaderno di esempio Use watsonx Granite Model Series, Chroma e LangChain to answer questions (RAG) illustra i passaggi da seguire per migliorare un caso d'uso RAG con gli embeddings.

Ulteriori informazioni

Argomento principale: Generazione aumentata dal recupero

Ricerca e risposta AI generativa
Queste risposte sono generate da un modello di lingua di grandi dimensioni in watsonx.ai basato sul contenuto della documentazione del prodotto. Ulteriori informazioni