0 / 0
Torna alla versione inglese della documentazione
Rischio di perdita immediato per l'intelligenza artificiale

Rischio di perdita immediato per l'intelligenza artificiale

Rischi associati all'input
Inferenza
Affidabilità
Amplificato da AI generative

Descrizione

Un attacco di perdita di prompt tenta di estrarre un prompt di sistema del modello (noto anche come messaggio di sistema).

Perché si sta trapelando rapidamente una preoccupazione per i modelli di fondazione?

Un attacco riuscito copia il prompt di sistema utilizzato nel modello. A seconda del contenuto di tale prompt, l'aggressore potrebbe ottenere l'accesso a informazioni preziose, come informazioni personali sensibili o proprietà intellettuale, e potrebbe essere in grado di replicare alcune delle funzionalità del modello.

Argomento principale: Atlas rischio AI

Ricerca e risposta AI generativa
Queste risposte sono generate da un modello di lingua di grandi dimensioni in watsonx.ai basato sul contenuto della documentazione del prodotto. Ulteriori informazioni