0 / 0
Torna alla versione inglese della documentazione
Mancanza di rischio di trasparenza del modello per l'IA
Ultimo aggiornamento: 12 dic 2024
Mancanza di rischio di trasparenza del modello per l'IA
Governo Icona che rappresenta i rischi di governance.
Rischi non tecnici
Governo
Rischio di intelligenza artificiale tradizionale

Descrizione

La mancanza di trasparenza del modello è dovuta all'insufficiente documentazione del processo di progettazione, sviluppo e valutazione del modello e all'assenza di informazioni sul suo funzionamento interno.

Perché la mancanza di trasparenza del modello è una preoccupazione per i modelli di fondazione?

La trasparenza è importante per la conformità legale, l'etica dell'intelligenza artificiale e l'uso appropriato dei modelli. Le informazioni mancanti potrebbero rendere più difficile la valutazione dei rischi, la modifica o il riutilizzo del modello La conoscenza di chi ha costruito un modello può anche essere un fattore importante per decidere se fidarsi di esso. Inoltre, la trasparenza sul modo in cui i rischi del modello sono stati determinati, valutati e mitigati svolge un ruolo importante nella determinazione dei rischi del modello, nell'identificazione dell'idoneità del modello e nella regolamentazione dell'uso del modello.

Immagine di sfondo per i rischi associati all'input
Esempio

Divulgazione metadati di dati e modelli

OpenAI‘s è un esempio della dicotomia tra divulgazione dei dati e metadati del modello. Mentre molti sviluppatori di modelli vedono il valore nell'abilitare la trasparenza per i consumatori, la divulgazione pone reali problemi di sicurezza e potrebbe aumentare la possibilità di utilizzare in modo improprio i modelli. Nella relazione tecnica GPT-4, gli autori dichiarano: "Dato il panorama competitivo e le implicazioni per la sicurezza di modelli su larga scala come GPT-4, questa relazione non contiene ulteriori dettagli sull'architettura (comprese le dimensioni del modello), sull'hardware, sul calcolo dell'addestramento, sulla costruzione dell'insieme di dati, sul metodo di addestramento o simili"

Argomento principale: Atlas rischio AI

Forniamo esempi trattati dalla stampa per aiutare a spiegare molti dei rischi dei modelli di fondazione. Molti di questi eventi trattati dalla stampa sono ancora in evoluzione o sono stati risolti, e il loro riferimento può aiutare il lettore a comprendere i potenziali rischi e a lavorare per mitigare. L'evidenziazione di questi esempi è solo a scopo illustrativo.

Ricerca e risposta AI generativa
Queste risposte sono generate da un modello di lingua di grandi dimensioni in watsonx.ai basato sul contenuto della documentazione del prodotto. Ulteriori informazioni