0 / 0
Torna alla versione inglese della documentazione
Rischio per i diritti sulla privacy dei dati per AI

Rischio per i diritti sulla privacy dei dati per AI

Rischi associati all'input
Fase di formazione e messa a punto
Privacy<
Amplificato da AI generative

Descrizione

Sfida per la capacità di fornire i diritti dell'interessato come l'opt - out, il diritto di accesso, il diritto all'oblio.

Perché i diritti sulla privacy dei dati sono una preoccupazione per i modelli di base?

L'identificazione o l'uso improprio dei dati potrebbe portare alla violazione delle leggi sulla privacy. Un utilizzo improprio o una richiesta di rimozione dei dati potrebbe forzare le organizzazioni a riaddestrare il modello, che è costoso. Inoltre, le entità aziendali potrebbero subire multe, danni di reputazione, interruzioni delle attività e altre conseguenze legali se non rispettano le norme e le normative sulla privacy dei dati.

Immagine di sfondo per i rischi associati all'input
Esempio

Diritto di essere dimenticati (RTBF)

Le leggi in diverse località, tra cui l'Europa (GDPR), concedono agli interessati il diritto di richiedere la cancellazione dei dati personali da parte delle organizzazioni ("Diritto di essere dimenticati", o RTBF). Tuttavia, i sistemi software emergenti e sempre più popolari basati sul modello di linguaggio esteso (LLM) presentano nuove sfide per questo diritto. Secondo la ricerca di Data61di CSIRO, gli interessati possono identificare l'utilizzo delle loro informazioni personali in un LLM "ispezionando il set di dati di formazione originale o forse richiedendo il modello". Tuttavia, i dati di formazione potrebbero non essere pubblici o le aziende non li divulgano, citando la sicurezza e altre preoccupazioni. Guardrails potrebbe anche impedire agli utenti di accedere alle informazioni tramite richiesta. A causa di queste barriere, gli interessati potrebbero non essere in grado di avviare procedure RTBF e le aziende che implementano LLM potrebbero non essere in grado di soddisfare le leggi RTBF.

Immagine di sfondo per i rischi associati all'input
Esempio

A proposito di LLM Unlearning

Secondo il rapporto, è stata intentata una causa contro Google che sostiene l'utilizzo di materiale di copyright e informazioni personali come dati di formazione per i suoi sistemi di intelligenza artificiale, che include il suo chatbot Bard. I diritti di opt-out e cancellazione sono diritti garantiti per i residenti in California sotto il CCPA e i bambini negli Stati Uniti sotto i 13 anni con COPPA. I querelanti sostengono che, poiché non c'è modo per Bard di "digerire" o rimuovere completamente tutti i PI raschiati, è stato alimentato. I querelanti notano che l'informativa sulla privacy di Bard afferma che le conversazioni Bard non possono essere cancellate dall'utente dopo che sono state esaminate e annotate dalla società e potrebbero essere conservate fino a 3 anni. P sostengono che tali pratiche contribuiscono ulteriormente al mancato rispetto di tali leggi.

Argomento principale: Atlas rischio AI

Forniamo esempi trattati dalla stampa per aiutare a spiegare molti dei rischi dei modelli di fondazione. Molti di questi eventi trattati dalla stampa sono ancora in evoluzione o sono stati risolti, e il loro riferimento può aiutare il lettore a comprendere i potenziali rischi e a lavorare per mitigare. L'evidenziazione di questi esempi è solo a scopo illustrativo.

Ricerca e risposta AI generativa
Queste risposte sono generate da un modello di lingua di grandi dimensioni in watsonx.ai basato sul contenuto della documentazione del prodotto. Ulteriori informazioni