Descrizione
L'utilizzo di output indesiderati (ad esempio, contenuti imprecisi, inappropriati e dell'utente) a scopo di riqualificazione può determinare un comportamento inaspettato del modello.
Perché la riqualificazione impropria è un problema per i modelli di fondazione?
La riproposizione dell'output generato per la riqualificazione di un modello senza l'implementazione di un'adeguata verifica umana aumenta le possibilità che output indesiderati vengano incorporati nei dati di addestramento o di messa a punto del modello. A sua volta, questo modello può generare un output ancora più indesiderato.
Compressione del modello a causa dell'addestramento utilizzando il contenuto generato dall'intelligenza artificiale
Come affermato nell'articolo di fonte, un gruppo di ricercatori del Regno Unito e del Canada ha esaminato il problema di utilizzare i contenuti generati dall'IA per la formazione anziché i contenuti generati dall'uomo. Hanno scoperto che i grandi modelli linguistici dietro la tecnologia potrebbero potenzialmente essere addestrati su altri contenuti generati dall'IA. I dati generati continuano a diffondersi in massa su Internet e questo può portare a un fenomeno che è stato definito "collasso del modello"
Argomento principale: Atlas rischio AI
Forniamo esempi trattati dalla stampa per aiutare a spiegare molti dei rischi dei modelli di fondazione. Molti di questi eventi trattati dalla stampa sono ancora in evoluzione o sono stati risolti, e il loro riferimento può aiutare il lettore a comprendere i potenziali rischi e a lavorare per mitigare. L'evidenziazione di questi esempi è solo a scopo illustrativo.