0 / 0
Torna alla versione inglese della documentazione
Rischio di distorsione output per AI

Rischio di distorsione output per AI

Rischi associati alla produzione
Equità
Nuovo per l'AI generativa

Descrizione

Il contenuto generato potrebbe rappresentare ingiustamente determinati gruppi o individui.

Perché il bias di output è una preoccupazione per i modelli di base?

La distorsione può danneggiare gli utenti dei modelli di intelligenza artificiale e aumentare i comportamenti discriminatori esistenti. Le entità di business potrebbero subire danni di reputazione, interruzioni delle attività e altre conseguenze.

Immagine di sfondo per i rischi associati all'input
Esempio

Immagini generate con distorsione

Lensa AI è un'applicazione mobile con caratteristiche generative che sono addestrati su Diffusione Stabile che può generare "Avatar Magici" basati su immagini che gli utenti caricano di loro stessi. Secondo il rapporto di origine, alcuni utenti hanno scoperto che gli avatar generati sono sessualizzati e razzializzati.

Argomento principale: Atlas rischio AI

Forniamo esempi trattati dalla stampa per aiutare a spiegare molti dei rischi dei modelli di fondazione. Molti di questi eventi trattati dalla stampa sono ancora in evoluzione o sono stati risolti, e il loro riferimento può aiutare il lettore a comprendere i potenziali rischi e a lavorare per mitigare. L'evidenziazione di questi esempi è solo a scopo illustrativo.

Ricerca e risposta AI generativa
Queste risposte sono generate da un modello di lingua di grandi dimensioni in watsonx.ai basato sul contenuto della documentazione del prodotto. Ulteriori informazioni