0 / 0
Torna alla versione inglese della documentazione
Rischio di distorsione della decisione per AI
Ultimo aggiornamento: 12 dic 2024
Rischio di distorsione della decisione per AI
Equità Icona che rappresenta i rischi di equità.
Rischi associati alla produzione
Equità
Rischio di intelligenza artificiale tradizionale

Descrizione

Il pregiudizio decisionale si verifica quando un gruppo è ingiustamente avvantaggiato rispetto a un altro a causa delle decisioni del modello. Questo potrebbe essere causato da distorsioni nei dati e anche amplificato come risultato dell'addestramento del modello.

Perché la distorsione decisionale è una preoccupazione per i modelli di base?

I pregiudizi possono danneggiare le persone interessate dalle decisioni del modello.

Immagine di sfondo per i rischi associati all'input
Esempio

Gruppi ingiustamente avvantaggiati

Lo studio del 2018 Gender Shades ha dimostrato che gli algoritmi di apprendimento automatico possono discriminare in base a classi come razza e genere. I ricercatori hanno valutato i sistemi commerciali di classificazione di genere venduti da aziende come Microsoft, IBMe Amazon e hanno dimostrato che le donne con la pelle scura sono il gruppo più classificato in modo errato (con tassi di errore fino al 35%). In confronto, i tassi di errore per la pelle più chiara non erano superiori all ' 1%.

Argomento principale: Atlas rischio AI

Forniamo esempi trattati dalla stampa per aiutare a spiegare molti dei rischi dei modelli di fondazione. Molti di questi eventi trattati dalla stampa sono ancora in evoluzione o sono stati risolti, e il loro riferimento può aiutare il lettore a comprendere i potenziali rischi e a lavorare per mitigare. L'evidenziazione di questi esempi è solo a scopo illustrativo.

Ricerca e risposta AI generativa
Queste risposte sono generate da un modello di lingua di grandi dimensioni in watsonx.ai basato sul contenuto della documentazione del prodotto. Ulteriori informazioni