0 / 0
Torna alla versione inglese della documentazione
Rischio di intossicazione dei dati per l'IA

Rischio di intossicazione dei dati per l'IA

Rischi associati all'input
Fase di formazione e messa a punto
Affidabilità
Rischio di intelligenza artificiale tradizionale

Descrizione

Un tipo di attacco contraddittorio in cui un aggressore o un insider doloso inserisce intenzionalmente campioni corrotti, falsi, fuorvianti o non corretti nel dataset di addestramento o di ottimizzazione.

Perché l'avvelenamento dei dati è una preoccupazione per i modelli di base?

I dati di avvelenamento possono rendere il modello sensibile a un modello di dati dannoso e produrre l'output desiderato dell'avversario. Può creare un rischio di sicurezza in cui gli avversari possono forzare il comportamento del modello a proprio vantaggio. Oltre a produrre risultati non intenzionali e potenzialmente dannosi, un disallineamento del modello da avvelenamento dei dati può comportare che le entità aziendali affrontano conseguenze legali o danni di reputazione.

Argomento principale: Atlas rischio AI

Ricerca e risposta AI generativa
Queste risposte sono generate da un modello di lingua di grandi dimensioni in watsonx.ai basato sul contenuto della documentazione del prodotto. Ulteriori informazioni