0 / 0
Torna alla versione inglese della documentazione
Rischio di riqualificazione a valle per l'AI

Rischio di riqualificazione a valle per l'AI

Rischi associati all'input
Fase di formazione e messa a punto
Allineamento valore
Nuovo per l'AI generativa

Descrizione

Utilizzare l'output indesiderato (ad esempio, contenuto inaccurato, inappropriato, dell'utente) dalle applicazioni a valle per scopi di riqualificazione.

Perché la riqualificazione a valle è una preoccupazione per i modelli di base?

Riproporre l'output a valle per riqualificare un modello senza implementare un adeguato controllo umano aumenta le possibilità che i risultati indesiderati vengano incorporati nei dati di addestramento o di messa a punto del modello. Questo, a sua volta, può generare un output ancora più indesiderabile. Un comportamento improprio del modello può comportare che le entità aziendali affrontano conseguenze legali o danni per la reputazione. Il mancato rispetto delle leggi sul trasferimento dei dati potrebbe comportare multe e altre conseguenze legali.

Immagine di sfondo per i rischi associati all'input
Esempio

Compressione del modello a causa dell'addestramento utilizzando il contenuto generato dall'intelligenza artificiale

Come affermato nell'articolo di fonte, un gruppo di ricercatori del Regno Unito e del Canada ha esaminato il problema di utilizzare i contenuti generati dall'IA per la formazione anziché i contenuti generati dall'uomo. Hanno scoperto che i grandi modelli linguistici dietro la tecnologia potrebbero potenzialmente essere addestrati su altri contenuti generati dall'IA. Mentre i dati generati continuano a diffondersi in rete, possono risultare in un fenomeno che hanno coniato come "collasso del modello".

Argomento principale: Atlas rischio AI

Ricerca e risposta AI generativa
Queste risposte sono generate da un modello di lingua di grandi dimensioni in watsonx.ai basato sul contenuto della documentazione del prodotto. Ulteriori informazioni