0 / 0
Torna alla versione inglese della documentazione
Rischio di eccessiva o scarsa dipendenza dall'IA
Ultimo aggiornamento: 12 dic 2024
Rischio di eccessiva o scarsa dipendenza dall'IA
Allineamento Icona che rappresenta i rischi di allineamento.
Rischi associati alla produzione
Allineamento valore
Amplificato da AI generative

Descrizione

Nei compiti decisionali assistiti dall'IA, la fiducia misura quanto una persona si fida (e potenzialmente agisce) dei risultati di un modello. L'eccessiva fiducia si verifica quando una persona ripone troppa fiducia in un modello, accettandone i risultati quando è probabile che questi siano errati. La sottofiducia è l'opposto, quando la persona non si fida del modello ma dovrebbe farlo.

Perché l'eccessiva o la scarsa dipendenza è un problema per i modelli di fondazione?

Nei compiti in cui gli esseri umani compiono scelte basate su suggerimenti dell'IA, l'eccessivo o insufficiente affidamento può portare a decisioni sbagliate a causa della fiducia mal riposta nel sistema di IA, con conseguenze negative che aumentano con l'importanza della decisione.

Argomento principale: Atlas rischio AI

Facciamo degli esempi che sono stati trattati dalla stampa per spiegare molti dei rischi dei modelli di fondazione. Molti di questi eventi trattati dalla stampa sono ancora in evoluzione o sono stati risolti, e fare riferimento ad essi può aiutare il lettore a comprendere i rischi potenziali e a lavorare per mitigarli. L'evidenziazione di questi esempi è solo a scopo illustrativo.

Ricerca e risposta AI generativa
Queste risposte sono generate da un modello di lingua di grandi dimensioni in watsonx.ai basato sul contenuto della documentazione del prodotto. Ulteriori informazioni