0 / 0

Rischio di distorsione output per AI

Ultimo aggiornamento: 27 mag 2025
Rischio di distorsione output per AI
Equità Icona che rappresenta i rischi di equità.
Equità
Rischi di uscita
Specifico dell'IA generativa

Descrizione

Il contenuto generato potrebbe rappresentare ingiustamente determinati gruppi o individui.

Perché il bias di output è una preoccupazione per i modelli di base?

La distorsione può danneggiare gli utenti dei modelli di intelligenza artificiale e aumentare i comportamenti discriminatori esistenti.

Immagine di sfondo per i rischi associati all'output
Esempio

Immagini generate con distorsione

Lensa AI è un'applicazione mobile con caratteristiche generative che sono addestrati su Diffusione Stabile che può generare "Avatar Magici" basati su immagini che gli utenti caricano di loro stessi. Secondo il rapporto di origine, alcuni utenti hanno scoperto che gli avatar generati sono sessualizzati e razzializzati.

Argomento principale: Atlas rischio AI

Forniamo esempi trattati dalla stampa per aiutare a spiegare molti dei rischi dei modelli di fondazione. Molti di questi eventi trattati dalla stampa sono ancora in evoluzione o sono stati risolti, e fare riferimento ad essi può aiutare il lettore a comprendere i rischi potenziali e a lavorare per mitigarli. L'evidenziazione di questi esempi è solo a scopo illustrativo.