Descrizione
I modelli di IA generativa potrebbero essere utilizzati intenzionalmente per imitare le persone attraverso deepfakes, utilizzando video, immagini, audio o altre modalità senza il loro consenso.
Perché l'uso non consensuale è una preoccupazione per i modelli di fondazione?
Deepfakes può diffondere la disinformazione su una persona, causando probabilmente un impatto negativo sulla reputazione della persona. Un modello che ha questo potenziale deve essere governato correttamente.
Allarme dell'FBI sui Deepfakes
L'FBI ha recentemente avvisato il pubblico di attori malintenzionati che creano contenuti sintetici ed espliciti "allo scopo di molestare le vittime o programmi di sextortion". Hanno notato che i progressi nell'intelligenza artificiale hanno reso questo contenuto di qualità superiore, più personalizzabile e più accessibile che mai.
Audio Deepfakes
Secondo l'articolo della fonte, la Commissione federale delle comunicazioni ha bandito i robocali che contengono voci generate dall'intelligenza artificiale. L'annuncio è arrivato dopo che i robocall generati dall'IA hanno imitato la voce del presidente per scoraggiare le persone dal votare nelle prime primarie dello stato.
Argomento principale: Atlas rischio AI
Forniamo esempi trattati dalla stampa per aiutare a spiegare molti dei rischi dei modelli di fondazione. Molti di questi eventi trattati dalla stampa sono ancora in evoluzione o sono stati risolti, e il loro riferimento può aiutare il lettore a comprendere i potenziali rischi e a lavorare per mitigare. L'evidenziazione di questi esempi è solo a scopo illustrativo.