0 / 0
Volver a la versión inglesa de la documentación
Información personal en riesgo de datos para IA

Información personal en riesgo de datos para IA

Riesgos asociados con la entrada
Fase de entrenamiento y ajuste
Privacidad
Riesgo de IA tradicional

Descripción

La inclusión o presencia de información identificable personal (PII) e información personal sensible (SPI) en los datos utilizados para entrenar o ajustar el modelo puede dar lugar a una divulgación no deseada de dicha información.

¿Por qué la información personal en los datos es una preocupación para los modelos de base?

Si no se desarrolla correctamente para proteger los datos confidenciales, el modelo puede exponer información personal en la salida generada. Adicionalmente, los datos personales o sensibles deben ser revisados y tratados con respecto a las leyes y regulaciones de privacidad, ya que las entidades empresariales podrían enfrentar multas, daños a la reputación y otras consecuencias legales si se encuentran en violación.

Imagen de fondo para riesgos asociados con la entrada
Ejemplo

Formación sobre información privada

De acuerdo con el artículo, Google y su empresa matriz Alphabet fueron acusados en una demanda colectiva de abuso de una gran cantidad de información personal y material con derechos de autor. La información fue tomada de cientos de millones de usuarios de Internet para entrenar sus productos comerciales de IA, que incluyen Bard, su chatbot de inteligencia artificial generativo conversacional. Este caso sigue a demandas similares que se presentan contra Meta Platforms, Microsoft y OpenAI por su presunto uso indebido de datos personales.

Tema principal: Atlas de riesgo de IA

Búsqueda y respuesta de IA generativa
Estas respuestas las genera un modelo de lenguaje grande en watsonx.ai que se basa en el contenido de la documentación del producto. Más información