0 / 0
Volver a la versión inglesa de la documentación
Riesgo de derechos de privacidad de datos para IA

Riesgo de derechos de privacidad de datos para IA

Riesgos asociados con la entrada
Fase de entrenamiento y ajuste
Privacidad
Amplificado por IA generativa

Descripción

Retos en torno a la capacidad de proporcionar derechos de los interesados, como la exclusión voluntaria, el derecho de acceso y el derecho al olvido.

¿Por qué los derechos de privacidad de datos son una preocupación para los modelos de fundación?

La identificación o el uso inadecuado de los datos puede conducir a la violación de las leyes de privacidad. Un uso incorrecto o una solicitud de eliminación de datos puede forzar a las organizaciones a volver a entrenar el modelo, lo cual es costoso. Además, las entidades empresariales podrían enfrentarse a multas, daños a la reputación, interrupción de las operaciones y otras consecuencias legales si no cumplen con las normas y regulaciones de privacidad de datos.

Imagen de fondo para riesgos asociados con la entrada
Ejemplo

Derecho al olvido (RTBF)

Las leyes en varios entornos locales, incluida Europa (GDPR), otorgan a los interesados el derecho a solicitar que las organizaciones eliminen los datos personales ("Derecho al olvido" o RTBF). Sin embargo, los sistemas de software habilitados para el modelo de lenguaje grande (LLM) emergentes y cada vez más populares presentan nuevos retos para este derecho. Según una investigación de Data61de CSIRO, los interesados pueden identificar el uso de su información personal en un LLM "inspeccionando el conjunto de datos de entrenamiento original o quizás solicitando el modelo". Sin embargo, es posible que los datos de formación no sean públicos, o que las empresas no los revelen, alegando seguridad y otras preocupaciones. Los guardaraíles también pueden impedir que los usuarios accedan a la información solicitando. Debido a estas barreras, los interesados podrían no ser capaces de iniciar procedimientos de RTBF y las empresas que despliegan LLM podrían no ser capaces de cumplir con las leyes de RTBF.

Imagen de fondo para riesgos asociados con la entrada
Ejemplo

Demanda sobre el desaprendizaje de LLM

Según el informe, se presentó una demanda contra Google que alega el uso de material de derechos de autor e información personal como datos de entrenamiento para sus sistemas de IA, que incluye su chatbot Bard. Los derechos de cancelación y cancelación son derechos garantizados para los residentes de California bajo la CCPA y los niños en los Estados Unidos menores de 13 años con COPPA. Los demandantes alegan que debido a que no hay manera de que Bard "desaprenda" o quite completamente todo el IP raspado, ha sido alimentado. Los demandantes señalan que el aviso de privacidad de Bard indica que las conversaciones de Bard no pueden ser eliminadas por el usuario después de que hayan sido revisadas y anotadas por la compañía y podrían mantenerse hasta 3 años. P alegan que estas prácticas contribuyen además al incumplimiento de estas leyes.

Tema principal: Atlas de riesgo de IA

Proporcionamos ejemplos cubiertos por la prensa para ayudar a explicar muchos de los riesgos de los modelos básicos. Muchos de estos eventos cubiertos por la prensa están todavía en evolución o se han resuelto, y hacer referencia a ellos puede ayudar al lector a comprender los riesgos potenciales y trabajar hacia las mitigaciones. El resaltado de estos ejemplos sólo tiene fines ilustrativos.

Búsqueda y respuesta de IA generativa
Estas respuestas las genera un modelo de lenguaje grande en watsonx.ai que se basa en el contenido de la documentación del producto. Más información