0 / 0
Torna alla versione inglese della documentazione
Rischio di distorsione dei dati per l'IA
Ultimo aggiornamento: 12 dic 2024
Rischio di distorsione dei dati per l'IA
Equità Icona che rappresenta i rischi di equità.
Rischi associati all'input
Fase di formazione e messa a punto
Equità
Amplificato dall'intelligenza artificiale generativa

Descrizione

I pregiudizi storici e sociali presenti nei dati vengono utilizzati per addestrare e perfezionare il modello.

Perché la distorsione dei dati è un problema per i modelli di fondazione?

L'addestramento di un sistema di intelligenza artificiale su dati con pregiudizi, come quelli storici o sociali, può portare a risultati distorti o falsati che possono rappresentare ingiustamente o discriminare in altro modo determinati gruppi o individui.

Immagine di sfondo per i rischi associati all'input
Esempio

Pregiudizi sanitari

Secondo l'articolo di ricerca sul rafforzamento delle disparità in medicina, l'utilizzo di dati e applicazioni di IA per trasformare il modo in cui le persone ricevono l'assistenza sanitaria è forte solo quanto i dati alla base dello sforzo. Ad esempio, l'utilizzo di dati di formazione con una scarsa rappresentazione delle minoranze o che riflettono un'assistenza già diseguale può portare a un aumento delle disuguaglianze sanitarie.

Argomento principale: Atlante del rischio AI

Facciamo degli esempi che sono stati trattati dalla stampa per aiutare a spiegare molti dei rischi dei modelli di fondazione. Molti di questi eventi trattati dalla stampa sono ancora in evoluzione o sono stati risolti, e fare riferimento ad essi può aiutare il lettore a comprendere i rischi potenziali e a lavorare per mitigarli. L'evidenziazione di questi esempi è solo a scopo illustrativo.

Ricerca e risposta AI generativa
Queste risposte sono generate da un modello di lingua di grandi dimensioni in watsonx.ai basato sul contenuto della documentazione del prodotto. Ulteriori informazioni