0 / 0
Torna alla versione inglese della documentazione
Rischio di distorsione della decisione per AI

Rischio di distorsione della decisione per AI

Rischi associati alla produzione
Equità
Rischio di intelligenza artificiale tradizionale

Descrizione

Quando un gruppo è ingiustamente avvantaggiato rispetto ad un altro a causa delle decisioni del modello.

Perché la distorsione decisionale è una preoccupazione per i modelli di base?

La distorsione può danneggiare le persone interessate dalle decisioni del modello. Le entità di business potrebbero subire multe, danni di reputazione, interruzioni delle attività e altre conseguenze legali.

Immagine di sfondo per i rischi associati all'input
Esempio

Gruppi ingiustamente avvantaggiati

Lo studio del 2018 Gender Shades ha dimostrato che gli algoritmi di apprendimento automatico possono discriminare in base a classi come razza e genere. I ricercatori hanno valutato i sistemi commerciali di classificazione di genere venduti da aziende come Microsoft, IBMe Amazon e hanno dimostrato che le donne con la pelle scura sono il gruppo più classificato in modo errato (con tassi di errore fino al 35%). In confronto, i tassi di errore per la pelle più chiara non erano superiori all ' 1%.

Argomento principale: Atlas rischio AI

Forniamo esempi trattati dalla stampa per aiutare a spiegare molti dei rischi dei modelli di fondazione. Molti di questi eventi trattati dalla stampa sono ancora in evoluzione o sono stati risolti, e il loro riferimento può aiutare il lettore a comprendere i potenziali rischi e a lavorare per mitigare. L'evidenziazione di questi esempi è solo a scopo illustrativo.

Ricerca e risposta AI generativa
Queste risposte sono generate da un modello di lingua di grandi dimensioni in watsonx.ai basato sul contenuto della documentazione del prodotto. Ulteriori informazioni