0 / 0
Volver a la versión inglesa de la documentación
Riesgo de ataque de inferencia de atributo para IA
Última actualización: 12 dic 2024
Riesgo de ataque de inferencia de atributo para IA
Privacidad Icono que representa los riesgos para la privacidad.
Riesgos asociados con la entrada
Inferencia
Privacidad
Amplificado por IA generativa

Descripción

Un ataque de inferencia de atributos consulta repetidamente un modelo para detectar si se pueden inferir ciertas características sensibles sobre los individuos que participaron en el entrenamiento de un modelo. Estos ataques se producen cuando un adversario tiene algún conocimiento previo sobre los datos de entrenamiento y utiliza ese conocimiento para inferir los datos confidenciales.

¿Por qué el ataque de inferencia de atributos es una preocupación para los modelos de base?

Con un ataque exitoso, el atacante puede obtener información valiosa como información personal sensible o propiedad intelectual.

Tema principal: Atlas de riesgo de IA

Proporcionamos ejemplos cubiertos por la prensa para ayudar a explicar muchos de los riesgos de los modelos de fundación. Muchos de estos sucesos de los que se ha hecho eco la prensa siguen evolucionando o ya se han resuelto, y hacer referencia a ellos puede ayudar al lector a comprender los riesgos potenciales y a trabajar para mitigarlos. Resaltar estos ejemplos son sólo para fines ilustrativos.

Búsqueda y respuesta de IA generativa
Estas respuestas las genera un modelo de lenguaje grande en watsonx.ai que se basa en el contenido de la documentación del producto. Más información