0 / 0
Volver a la versión inglesa de la documentación
Falta de datos de formación: riesgo de transparencia para la IA
Última actualización: 12 dic 2024
Falta de datos de formación: riesgo de transparencia para la IA
Transparencia Icono que representa los riesgos de transparencia.
Riesgos asociados con la entrada
Fase de entrenamiento y ajuste
Transparencia
Amplificado por IA generativa

Descripción

Sin una documentación precisa sobre cómo se recopilaron, curaron y utilizaron los datos de un modelo para entrenar un modelo, podría ser más difícil explicar satisfactoriamente el comportamiento del modelo con respecto a los datos.

¿Por qué preocupa la falta de transparencia de los datos de formación en los modelos de fundación?

La falta de documentación de los datos limita la capacidad de evaluar los riesgos asociados a los mismos. No basta con tener acceso a los datos de formación. Si no se registra cómo se limpiaron, modificaron o generaron los datos, el comportamiento del modelo es más difícil de entender y de corregir. La falta de transparencia de los datos también afecta a la reutilización de los modelos, ya que es difícil determinar la representatividad de los datos para el nuevo uso sin esa documentación.

Imagen de fondo para riesgos asociados con la entrada
Ejemplo

Divulgación de metadatos de modelo y datos

OpenAI‘s es un ejemplo de la dicotomía en torno a la divulgación de datos y metadatos del modelo. Mientras que muchos desarrolladores de modelos ven valor en la habilitación de la transparencia para los consumidores, la divulgación plantea problemas de seguridad reales y podría aumentar la capacidad de hacer un mal uso de los modelos. En el informe técnico GPT-4, los autores afirman: "Dado tanto el panorama competitivo como las implicaciones de seguridad de los modelos a gran escala como GPT-4, este informe no contiene más detalles sobre la arquitectura (incluido el tamaño del modelo), el hardware, el cálculo de entrenamiento, la construcción del conjunto de datos, el método de entrenamiento o similares."

Tema principal: Atlas de riesgo de IA

Proporcionamos ejemplos cubiertos por la prensa para ayudar a explicar muchos de los riesgos de los modelos básicos. Muchos de estos eventos cubiertos por la prensa están todavía en evolución o se han resuelto, y hacer referencia a ellos puede ayudar al lector a comprender los riesgos potenciales y trabajar hacia las mitigaciones. El resaltado de estos ejemplos sólo tiene fines ilustrativos.

Búsqueda y respuesta de IA generativa
Estas respuestas las genera un modelo de lenguaje grande en watsonx.ai que se basa en el contenido de la documentación del producto. Más información