Volver a la versión inglesa de la documentación
Riesgo de ataque de inferencia de pertenencia para IA
Riesgo de ataque de inferencia de pertenencia para IA
Descripción
Dado un modelo entrenado y una muestra de datos, un atacante muestrea adecuadamente el espacio de entrada, observando salidas para deducir si esa muestra formaba parte del entrenamiento del modelo. Esto se conoce como un ataque de inferencia de pertenencia.
¿Por qué la inferencia de pertenencia es una preocupación para los modelos de fundación?
La identificación de si se ha utilizado una muestra de datos para los datos de entrenamiento puede revelar qué datos se han utilizado para entrenar un modelo, posiblemente proporcionando a los competidores información sobre cómo se ha entrenado un modelo y la oportunidad de replicar el modelo o manipularlo.
Tema principal: Atlas de riesgo de IA