0 / 0
Torna alla versione inglese della documentazione
Informazioni personali nel rischio di dati per l'IA

Informazioni personali nel rischio di dati per l'IA

Rischi associati all'input
Fase di formazione e messa a punto
Privacy<
Rischio di intelligenza artificiale tradizionale

Descrizione

L'inclusione o la presenza di PII (personal identifiable information) e SPI (sensitive personal information) nei dati utilizzati per la formazione o l'ottimizzazione del modello potrebbe comportare la divulgazione indesiderata di tali informazioni.

Perché le informazioni personali nei dati sono una preoccupazione per i modelli di base?

Se non viene sviluppato correttamente per proteggere i dati sensibili, il modello potrebbe esporre le informazioni personali nell'output generato. Inoltre, i dati personali o sensibili devono essere revisionati e gestiti rispetto alle leggi e ai regolamenti sulla privacy, in quanto le entità aziendali potrebbero subire multe, danni reputazionali e altre conseguenze legali se riscontrate in violazione.

Immagine di sfondo per i rischi associati all'input
Esempio

Formazione sulle informazioni private

Secondo l'articolo, Google e la sua società madre Alphabet sono stati accusati in una class action di aver abusato di una grande quantità di informazioni personali e materiale protetto da copyright. Le informazioni sono state prese da centinaia di milioni di utenti di Internet per formare i suoi prodotti commerciali di intelligenza artificiale, che includono Bard, il suo chatbot di intelligenza artificiale generativa conversazionale. Questo caso segue cause simili intentate contro Meta Platforms, Microsoft e OpenAI per il loro presunto uso improprio di dati personali.

Argomento principale: Atlas rischio AI

Ricerca e risposta AI generativa
Queste risposte sono generate da un modello di lingua di grandi dimensioni in watsonx.ai basato sul contenuto della documentazione del prodotto. Ulteriori informazioni