0 / 0
Volver a la versión inglesa de la documentación
Riesgo de ataque de inferencia de pertenencia para IA

Riesgo de ataque de inferencia de pertenencia para IA

Riesgos asociados con la entrada
Inferencia
Privacidad
Riesgo de IA tradicional

Descripción

Dado un modelo entrenado y una muestra de datos, un atacante muestrea adecuadamente el espacio de entrada, observando salidas para deducir si esa muestra formaba parte del entrenamiento del modelo. Esto se conoce como un ataque de inferencia de pertenencia.

¿Por qué la inferencia de pertenencia es una preocupación para los modelos de fundación?

La identificación de si se ha utilizado una muestra de datos para los datos de entrenamiento puede revelar qué datos se han utilizado para entrenar un modelo, posiblemente proporcionando a los competidores información sobre cómo se ha entrenado un modelo y la oportunidad de replicar el modelo o manipularlo.

Tema principal: Atlas de riesgo de IA

Búsqueda y respuesta de IA generativa
Estas respuestas las genera un modelo de lenguaje grande en watsonx.ai que se basa en el contenido de la documentación del producto. Más información