Riesgo de transparencia de datos para IA
Descripción
Sin una documentación precisa sobre cómo se recopilaron, curaron y utilizaron los datos de un modelo para entrenar un modelo, podría ser más difícil explicar satisfactoriamente el comportamiento del modelo con respecto a los datos.
¿Por qué la transparencia de datos es una preocupación para los modelos de base?
La transparencia de datos es importante para el cumplimiento legal y la ética de la IA. La falta de información limita la capacidad de evaluar los riesgos asociados con los datos. La falta de requisitos estandarizados podría limitar la divulgación a medida que las organizaciones protegen los secretos comerciales y tratan de limitar que otros copien sus modelos.
![Imagen de fondo para riesgos asociados con la entrada](images/background-input-example.jpg)
Divulgación de metadatos de modelo y datos
El informe técnico de OpenAIes un ejemplo de la dicotomía en torno a la divulgación de datos y metadatos de modelo. Mientras que muchos desarrolladores de modelos ven valor en la habilitación de la transparencia para los consumidores, la divulgación plantea problemas de seguridad reales y podría aumentar la capacidad de hacer un mal uso de los modelos. En el informe técnico GPT-4 , los autores afirman: "Dado tanto el panorama competitivo como las implicaciones de seguridad de modelos a gran escala como GPT-4, este informe no contiene más detalles sobre la arquitectura (incluido el tamaño del modelo), hardware, cálculo de entrenamiento, construcción de conjuntos de datos, método de entrenamiento o similar".
Tema principal: Atlas de riesgo de IA
Proporcionamos ejemplos cubiertos por la prensa para ayudar a explicar muchos de los riesgos de los modelos básicos. Muchos de estos eventos cubiertos por la prensa están todavía en evolución o se han resuelto, y hacer referencia a ellos puede ayudar al lector a comprender los riesgos potenciales y trabajar hacia las mitigaciones. El resaltado de estos ejemplos sólo tiene fines ilustrativos.