0 / 0
Torna alla versione inglese della documentazione
Rischio di distorsione dei dati per AI

Rischio di distorsione dei dati per AI

Rischi associati all'input
Fase di formazione e messa a punto
Equità
Amplificato da AI generative

Descrizione

Le distorsioni storiche, rappresentative e sociali presenti nei dati utilizzati per addestrare e ottimizzare il modello possono influire negativamente sul comportamento del modello.

Perché la distorsione dei dati è una preoccupazione per i modelli di base?

L'addestramento di un sistema di intelligenza artificiale sui dati con pregiudizio, come la distorsione storica o rappresentativa, potrebbe portare a output distorti o distorti che possono rappresentare ingiustamente o discriminare in altro modo contro determinati gruppi o individui. Oltre agli impatti negativi sulla società, le entità commerciali potrebbero subire conseguenze giuridiche o danni per la reputazione derivanti da risultati modello distorti.

Immagine di sfondo per i rischi associati all'input
Esempio

Bias sanitario

Secondo l'articolo di ricerca sul rafforzamento delle disparità in medicina utilizzando dati e applicazioni di IA per trasformare il modo in cui le persone ricevono assistenza sanitaria è solo forte come i dati dietro lo sforzo. Ad esempio, l'utilizzo di dati di formazione con scarsa rappresentanza delle minoranze o che riflettono ciò che è già un'assistenza disuguale può portare ad un aumento delle disuguaglianze sanitarie.

Argomento principale: Atlas rischio AI

Ricerca e risposta AI generativa
Queste risposte sono generate da un modello di lingua di grandi dimensioni in watsonx.ai basato sul contenuto della documentazione del prodotto. Ulteriori informazioni