0 / 0
Torna alla versione inglese della documentazione
Rischio di trasparenza dei dati per l'intelligenza artificiale

Rischio di trasparenza dei dati per l'intelligenza artificiale

Rischi associati all'input
Fase di formazione e messa a punto
Trasparenza
Amplificato da AI generative

Descrizione

Senza una documentazione accurata su come i dati di un modello sono stati raccolti, curati e utilizzati per addestrare un modello, potrebbe essere più difficile spiegare in modo soddisfacente il comportamento del modello rispetto ai dati.

Perché la trasparenza dei dati è una preoccupazione per i modelli di base?

La trasparenza dei dati è importante per la conformità legale e l'etica dell'IA. Le informazioni mancanti limitano la possibilità di valutare i rischi associati ai dati. La mancanza di requisiti standardizzati potrebbe limitare la divulgazione in quanto le organizzazioni proteggono i segreti commerciali e cercano di impedire ad altri di copiare i loro modelli.

Immagine di sfondo per i rischi associati all'input
Esempio

Divulgazione metadati di dati e modelli

Il report tecnico di OpenAIè un esempio della dicotomia relativa alla divulgazione di dati e metadati del modello. Mentre molti sviluppatori di modelli vedono il valore nell'abilitare la trasparenza per i consumatori, la divulgazione pone reali problemi di sicurezza e potrebbe aumentare la possibilità di utilizzare in modo improprio i modelli. Nel report tecnico GPT-4 , gli autori affermano: "Dato il panorama competitivo e le implicazioni per la sicurezza dei modelli su larga scala come GPT-4, questo report non contiene ulteriori dettagli sull'architettura (inclusa la dimensione del modello), l'hardware, il calcolo di addestramento, la costruzione del dataset, il metodo di addestramento o simili."

Argomento principale: Atlas rischio AI

Ricerca e risposta AI generativa
Queste risposte sono generate da un modello di lingua di grandi dimensioni in watsonx.ai basato sul contenuto della documentazione del prodotto. Ulteriori informazioni