0 / 0
Volver a la versión inglesa de la documentación
Riesgo de ataque de extracción para IA
Última actualización: 12 dic 2024
Riesgo de ataque de extracción para IA
Robustez Icono que representa los riesgos de robustez.
Riesgos asociados con la entrada
Inferencia
Solidez
Amplificado por IA generativa

Descripción

Se utiliza un ataque de inferencia de atributos para detectar si se pueden inferir ciertas características sensibles sobre los individuos que participaron en el entrenamiento de un modelo. Estos ataques se producen cuando un adversario tiene algún conocimiento previo sobre los datos de entrenamiento y utiliza ese conocimiento para inferir los datos sensibles.

¿Por qué el ataque de extracción es una preocupación para los modelos de fundación?

Si el ataque de extracción tiene éxito, el atacante puede realizar otros ataques adversarios para obtener información valiosa, como datos personales confidenciales o propiedad intelectual.

Tema principal: Atlas de riesgo de IA

Proporcionamos ejemplos cubiertos por la prensa para ayudar a explicar muchos de los riesgos de los modelos de fundación. Muchos de estos sucesos de los que se ha hecho eco la prensa siguen evolucionando o ya se han resuelto, y hacer referencia a ellos puede ayudar al lector a comprender los riesgos potenciales y a trabajar para mitigarlos. Resaltar estos ejemplos son sólo para fines ilustrativos.

Búsqueda y respuesta de IA generativa
Estas respuestas las genera un modelo de lenguaje grande en watsonx.ai que se basa en el contenido de la documentación del producto. Más información