Descrizione
Il contenuto potrebbe non essere chiaramente indicato come generato dall'IA.
Perché la non divulgazione è una preoccupazione per i modelli di fondazione?
Gli utenti devono essere avvisati quando interagiscono con un sistema di intelligenza artificiale. La mancata divulgazione dei contenuti creati dall'IA può comportare una mancanza di trasparenza.
Interazione AI non divulgata
Secondo l'articolo di fonte, un servizio di chat di supporto emotivo online ha eseguito uno studio per aumentare o scrivere risposte a circa 4.000 utenti utilizzando GPT-3 senza informare gli utenti. Il co - fondatore ha affrontato un'immensa reazione pubblica sul potenziale di danno causato dalle chat generate dall'IA agli utenti già vulnerabili. Ha affermato che lo studio era "esente" dalla legge sul consenso informato.
Argomento principale: Atlas rischio AI
Forniamo esempi trattati dalla stampa per aiutare a spiegare molti dei rischi dei modelli di fondazione. Molti di questi eventi trattati dalla stampa sono ancora in evoluzione o sono stati risolti, e il loro riferimento può aiutare il lettore a comprendere i potenziali rischi e a lavorare per mitigare. L'evidenziazione di questi esempi è solo a scopo illustrativo.