0 / 0
Volver a la versión inglesa de la documentación
Riesgo de alineación de los derechos de privacidad de datos para la IA
Última actualización: 12 dic 2024
Riesgo de alineación de los derechos de privacidad de datos para la IA
Privacidad Icono que representa los riesgos para la privacidad.
Riesgos asociados con la entrada
Fase de entrenamiento y ajuste
Privacidad
Amplificado por IA generativa

Descripción

La legislación vigente podría incluir la concesión de derechos a los interesados, como la exclusión voluntaria, el derecho de acceso y el derecho al olvido.

¿Por qué la alineación de los derechos de privacidad de datos es una preocupación para los modelos de fundación?

Un uso inadecuado o una solicitud de eliminación de datos podría obligar a las organizaciones a volver a entrenar el modelo, lo que resulta caro.

Imagen de fondo para riesgos asociados con la entrada
Ejemplo

Derecho al olvido (RTBF)

Las leyes en varios entornos locales, incluida Europa (GDPR), otorgan a los interesados el derecho a solicitar que las organizaciones eliminen los datos personales ("Derecho al olvido" o RTBF). Sin embargo, los sistemas de software habilitados para el modelo de lenguaje grande (LLM) emergentes y cada vez más populares presentan nuevos retos para este derecho. Según una investigación de Data61de CSIRO, los interesados pueden identificar el uso de su información personal en un LLM "inspeccionando el conjunto de datos de entrenamiento original o quizás solicitando el modelo". Sin embargo, es posible que los datos de formación no sean públicos, o que las empresas no los revelen, alegando seguridad y otras preocupaciones. Los guardaraíles también pueden impedir que los usuarios accedan a la información solicitando. Debido a estas barreras, los interesados podrían no ser capaces de iniciar procedimientos de RTBF y las empresas que despliegan LLM podrían no ser capaces de cumplir con las leyes de RTBF.

Imagen de fondo para riesgos asociados con la entrada
Ejemplo

Demanda sobre el desaprendizaje de LLM

Según el informe, se presentó una demanda contra Google que alega el uso de material de derechos de autor e información personal como datos de entrenamiento para sus sistemas de IA, que incluye su chatbot Bard. Los derechos de cancelación y cancelación son derechos garantizados para los residentes de California bajo la CCPA y los niños en los Estados Unidos menores de 13 años con COPPA. Los demandantes alegan que debido a que no hay manera de que Bard "desaprenda" o quite completamente todo el IP raspado, ha sido alimentado. Los demandantes señalan que el aviso de privacidad de Bard indica que las conversaciones de Bard no pueden ser eliminadas por el usuario después de que hayan sido revisadas y anotadas por la compañía y podrían mantenerse hasta 3 años. Los demandantes alegan que estas prácticas contribuyen aún más al incumplimiento de estas leyes.

Tema principal: Atlas de riesgo de IA

Proporcionamos ejemplos cubiertos por la prensa para ayudar a explicar muchos de los riesgos de los modelos básicos. Muchos de estos eventos cubiertos por la prensa están todavía en evolución o se han resuelto, y hacer referencia a ellos puede ayudar al lector a comprender los riesgos potenciales y trabajar hacia las mitigaciones. El resaltado de estos ejemplos sólo tiene fines ilustrativos.

Búsqueda y respuesta de IA generativa
Estas respuestas las genera un modelo de lenguaje grande en watsonx.ai que se basa en el contenido de la documentación del producto. Más información