Rischio di riqualificazione a valle per l'AI
Descrizione
Utilizzare l'output indesiderato (ad esempio, contenuto inaccurato, inappropriato, dell'utente) dalle applicazioni a valle per scopi di riqualificazione.
Perché la riqualificazione a valle è una preoccupazione per i modelli di base?
Riproporre l'output a valle per riqualificare un modello senza implementare un adeguato controllo umano aumenta le possibilità che i risultati indesiderati vengano incorporati nei dati di addestramento o di messa a punto del modello. Questo, a sua volta, può generare un output ancora più indesiderabile. Un comportamento improprio del modello può comportare che le entità aziendali affrontano conseguenze legali o danni per la reputazione. Il mancato rispetto delle leggi sul trasferimento dei dati potrebbe comportare multe e altre conseguenze legali.
Compressione del modello a causa dell'addestramento utilizzando il contenuto generato dall'intelligenza artificiale
Come affermato nell'articolo di fonte, un gruppo di ricercatori del Regno Unito e del Canada ha esaminato il problema di utilizzare i contenuti generati dall'IA per la formazione anziché i contenuti generati dall'uomo. Hanno scoperto che i grandi modelli linguistici dietro la tecnologia potrebbero potenzialmente essere addestrati su altri contenuti generati dall'IA. Mentre i dati generati continuano a diffondersi in rete, possono risultare in un fenomeno che hanno coniato come "collasso del modello".
Argomento principale: Atlas rischio AI
Forniamo esempi trattati dalla stampa per aiutare a spiegare molti dei rischi dei modelli di fondazione. Molti di questi eventi trattati dalla stampa sono ancora in evoluzione o sono stati risolti, e il loro riferimento può aiutare il lettore a comprendere i potenziali rischi e a lavorare per mitigare. L'evidenziazione di questi esempi è solo a scopo illustrativo.