0 / 0

I diritti di privacy dei dati sono a rischio per l'IA

Ultimo aggiornamento: 08 mag 2025
creato: "2025-01-30 10:32:12.577815 " titolo: "Allineamento dei diritti di privacy dei dati a rischio per l'IA" data: "[oggetto Oggetto]" fname: " ai-risk-atlas\data-privacy-rights.liquid.md "

creato: "2025-01-30 10:32:12.577815 " titolo: "Allineamento dei diritti di privacy dei dati a rischio per l'IA" data: "[oggetto Oggetto]" fname: " ai-risk-atlas\data-privacy-rights.liquid.md "

Privacy< Icona che rappresenta i rischi per la privacy.
Privacy<
Rischi dei dati di formazione
Amplificato da AI generative

Descrizione

Le leggi esistenti potrebbero prevedere diritti dell'interessato come l'opt-out, il diritto di accesso e il diritto all'oblio.

Perché l'allineamento dei diritti di privacy dei dati è un problema per i modelli di fondazione?

Un uso improprio o una richiesta di rimozione dei dati potrebbe costringere le organizzazioni a riqualificare il modello, con costi elevati.

Immagine di sfondo per i rischi associati ai dati di formazione
Esempio

Diritto di essere dimenticati (RTBF)

Le leggi in diverse località, tra cui l'Europa (GDPR), concedono agli interessati il diritto di richiedere la cancellazione dei dati personali da parte delle organizzazioni ("Diritto di essere dimenticati", o RTBF). Tuttavia, i sistemi software emergenti e sempre più popolari basati sul modello di linguaggio esteso (LLM) presentano nuove sfide per questo diritto. Secondo la ricerca di Data61di CSIRO, gli interessati possono identificare l'utilizzo delle loro informazioni personali in un LLM "ispezionando il set di dati di formazione originale o forse richiedendo il modello". Tuttavia, i dati di formazione potrebbero non essere pubblici o le aziende non li divulgano, citando la sicurezza e altre preoccupazioni. Guardrails potrebbe anche impedire agli utenti di accedere alle informazioni tramite richiesta. A causa di queste barriere, gli interessati potrebbero non essere in grado di avviare procedure RTBF e le aziende che implementano LLM potrebbero non essere in grado di soddisfare le leggi RTBF.

Immagine di sfondo per i rischi associati ai dati di formazione
Esempio

A proposito di LLM Unlearning

Secondo il rapporto, è stata intentata una causa contro Google che sostiene l'utilizzo di materiale di copyright e informazioni personali come dati di formazione per i suoi sistemi di intelligenza artificiale, che include il suo chatbot Bard. I diritti di opt-out e cancellazione sono diritti garantiti per i residenti in California sotto il CCPA e i bambini negli Stati Uniti sotto i 13 anni con COPPA. I querelanti sostengono che, poiché non c'è modo per Bard di "digerire" o rimuovere completamente tutti i PI raschiati, è stato alimentato. I querelanti notano che l'informativa sulla privacy di Bard afferma che le conversazioni Bard non possono essere cancellate dall'utente dopo che sono state esaminate e annotate dalla società e potrebbero essere conservate fino a 3 anni. I querelanti sostengono che queste pratiche contribuiscono ulteriormente al mancato rispetto di queste leggi.

Argomento principale: Atlas rischio AI

Forniamo esempi trattati dalla stampa per aiutare a spiegare molti dei rischi dei modelli di fondazione. Molti di questi eventi trattati dalla stampa sono ancora in evoluzione o sono stati risolti, e il loro riferimento può aiutare il lettore a comprendere i potenziali rischi e a lavorare per mitigare. L'evidenziazione di questi esempi è solo a scopo illustrativo.