0 / 0
Torna alla versione inglese della documentazione
Mancanza di rischi per la trasparenza dei dati per l'IA
Ultimo aggiornamento: 12 dic 2024
Mancanza di rischi per la trasparenza dei dati per l'IA
Governo Icona che rappresenta i rischi di governance.
Rischi non tecnici
Governo
Amplificato da AI generative

Descrizione

La mancanza di trasparenza dei dati è dovuta a una documentazione insufficiente dei dettagli dei dataset di formazione o di messa a punto

Perché la mancanza di trasparenza dei dati è una preoccupazione per i modelli di base?

La trasparenza è importante per il rispetto della legge e l'etica dell'intelligenza artificiale. Le informazioni sulla raccolta e la preparazione dei dati di addestramento, compreso il modo in cui sono stati etichettati e da chi, sono necessarie per comprendere il comportamento e l'idoneità del modello. I dettagli su come sono stati determinati, misurati e mitigati i rischi dei dati sono importanti per valutare l'affidabilità dei dati e dei modelli. La mancanza di dettagli sui dati potrebbe rendere più difficile la valutazione dei danni alla rappresentazione, della proprietà dei dati, della provenienza e di altri rischi legati ai dati. La mancanza di requisiti standardizzati potrebbe limitare la divulgazione, in quanto le organizzazioni proteggono i segreti commerciali e cercano di impedire ad altri di copiare i loro modelli.

Argomento principale: Atlas rischio AI

Facciamo degli esempi che sono stati trattati dalla stampa per spiegare molti dei rischi dei modelli di fondazione. Molti di questi eventi trattati dalla stampa sono ancora in evoluzione o sono stati risolti, e fare riferimento ad essi può aiutare il lettore a comprendere i rischi potenziali e a lavorare per mitigarli. L'evidenziazione di questi esempi è solo a scopo illustrativo.

Ricerca e risposta AI generativa
Queste risposte sono generate da un modello di lingua di grandi dimensioni in watsonx.ai basato sul contenuto della documentazione del prodotto. Ulteriori informazioni