0 / 0
Torna alla versione inglese della documentazione
Rischio di non divulgazione per AI
Ultimo aggiornamento: 12 dic 2024
Rischio di non divulgazione per AI
Utilizzo non corretto Icona che rappresenta i rischi di abuso.
Rischi associati alla produzione
Utilizzo non corretto
Nuovo per l'AI generativa

Descrizione

Il contenuto potrebbe non essere chiaramente indicato come generato dall'IA.

Perché la non divulgazione è una preoccupazione per i modelli di fondazione?

Gli utenti devono essere avvisati quando interagiscono con un sistema di intelligenza artificiale. La mancata divulgazione dei contenuti creati dall'IA può comportare una mancanza di trasparenza.

Immagine di sfondo per i rischi associati all'input
Esempio

Interazione AI non divulgata

Secondo l'articolo di fonte, un servizio di chat di supporto emotivo online ha eseguito uno studio per aumentare o scrivere risposte a circa 4.000 utenti utilizzando GPT-3 senza informare gli utenti. Il co - fondatore ha affrontato un'immensa reazione pubblica sul potenziale di danno causato dalle chat generate dall'IA agli utenti già vulnerabili. Ha affermato che lo studio era "esente" dalla legge sul consenso informato.

Argomento principale: Atlas rischio AI

Forniamo esempi trattati dalla stampa per aiutare a spiegare molti dei rischi dei modelli di fondazione. Molti di questi eventi trattati dalla stampa sono ancora in evoluzione o sono stati risolti, e il loro riferimento può aiutare il lettore a comprendere i potenziali rischi e a lavorare per mitigare. L'evidenziazione di questi esempi è solo a scopo illustrativo.

Ricerca e risposta AI generativa
Queste risposte sono generate da un modello di lingua di grandi dimensioni in watsonx.ai basato sul contenuto della documentazione del prodotto. Ulteriori informazioni