0 / 0
Volver a la versión inglesa de la documentación
Riesgo de transparencia de datos para IA

Riesgo de transparencia de datos para IA

Riesgos asociados con la entrada
Fase de entrenamiento y ajuste
Transparencia
Amplificado por IA generativa

Descripción

Sin una documentación precisa sobre cómo se recopilaron, curaron y utilizaron los datos de un modelo para entrenar un modelo, podría ser más difícil explicar satisfactoriamente el comportamiento del modelo con respecto a los datos.

¿Por qué la transparencia de datos es una preocupación para los modelos de base?

La transparencia de datos es importante para el cumplimiento legal y la ética de la IA. La falta de información limita la capacidad de evaluar los riesgos asociados con los datos. La falta de requisitos estandarizados podría limitar la divulgación a medida que las organizaciones protegen los secretos comerciales y tratan de limitar que otros copien sus modelos.

Imagen de fondo para riesgos asociados con la entrada
Ejemplo

Divulgación de metadatos de modelo y datos

El informe técnico de OpenAIes un ejemplo de la dicotomía en torno a la divulgación de datos y metadatos de modelo. Mientras que muchos desarrolladores de modelos ven valor en la habilitación de la transparencia para los consumidores, la divulgación plantea problemas de seguridad reales y podría aumentar la capacidad de hacer un mal uso de los modelos. En el informe técnico GPT-4 , los autores afirman: "Dado tanto el panorama competitivo como las implicaciones de seguridad de modelos a gran escala como GPT-4, este informe no contiene más detalles sobre la arquitectura (incluido el tamaño del modelo), hardware, cálculo de entrenamiento, construcción de conjuntos de datos, método de entrenamiento o similar".

Tema principal: Atlas de riesgo de IA

Búsqueda y respuesta de IA generativa
Estas respuestas las genera un modelo de lenguaje grande en watsonx.ai que se basa en el contenido de la documentación del producto. Más información