0 / 0
Torna alla versione inglese della documentazione
Rischio di distorsione della decisione per AI

Rischio di distorsione della decisione per AI

Equità Icona che rappresenta i rischi di equità.
Rischi associati alla produzione
Equità
Rischio di intelligenza artificiale tradizionale

Descrizione

Quando un gruppo è ingiustamente avvantaggiato rispetto ad un altro a causa delle decisioni del modello.

Perché la distorsione decisionale è una preoccupazione per i modelli di base?

La distorsione può danneggiare le persone interessate dalle decisioni del modello. Le entità di business potrebbero subire multe, danni di reputazione, interruzioni delle attività e altre conseguenze legali.

Immagine di sfondo per i rischi associati all'input
Esempio

Gruppi ingiustamente avvantaggiati

Lo studio del 2018 Gender Shades ha dimostrato che gli algoritmi di apprendimento automatico possono discriminare in base a classi come razza e genere. I ricercatori hanno valutato i sistemi commerciali di classificazione di genere venduti da aziende come Microsoft, IBMe Amazon e hanno dimostrato che le donne con la pelle scura sono il gruppo più classificato in modo errato (con tassi di errore fino al 35%). In confronto, i tassi di errore per la pelle più chiara non erano superiori all ' 1%.

Argomento principale: Atlas rischio AI

Forniamo esempi trattati dalla stampa per aiutare a spiegare molti dei rischi dei modelli di fondazione. Molti di questi eventi trattati dalla stampa sono ancora in evoluzione o sono stati risolti, e il loro riferimento può aiutare il lettore a comprendere i potenziali rischi e a lavorare per mitigare. L'evidenziazione di questi esempi è solo a scopo illustrativo.

Ricerca e risposta AI generativa
Queste risposte sono generate da un modello di lingua di grandi dimensioni in watsonx.ai basato sul contenuto della documentazione del prodotto. Ulteriori informazioni