0 / 0
Volver a la versión inglesa de la documentación
Riesgo de no divulgación para IA
Última actualización: 12 dic 2024
Riesgo de no divulgación para IA
Uso incorrecto Icono que representa los riesgos de uso indebido.
Riesgos asociados a la producción
Uso incorrecto
Novedad en la IA generativa

Descripción

Los contenidos pueden no estar claramente identificados como generados por IA.

¿Por qué la no divulgación es una preocupación para los modelos de fundación?

Los usuarios deben ser notificados cuando interactúan con un sistema de IA. No revelar el contenido creado por la IA puede dar lugar a una falta de transparencia.

Imagen de fondo para riesgos asociados con la entrada
Ejemplo

Interacción de IA no divulgada

Según el artículo de la fuente, un servicio de chat de apoyo emocional en línea realizó un estudio para aumentar o escribir respuestas a unos 4.000 usuarios utilizando GPT-3 sin informar a los usuarios. El cofundador enfrentó una inmensa reacción pública sobre el potencial de daño que causan los chats generados por IA a los usuarios ya vulnerables. Alegó que el estudio estaba "exento" de la ley de consentimiento informado.

Tema principal: Atlas de riesgo de IA

Proporcionamos ejemplos cubiertos por la prensa para ayudar a explicar muchos de los riesgos de los modelos básicos. Muchos de estos eventos cubiertos por la prensa están todavía en evolución o se han resuelto, y hacer referencia a ellos puede ayudar al lector a comprender los riesgos potenciales y trabajar hacia las mitigaciones. El resaltado de estos ejemplos sólo tiene fines ilustrativos.

Búsqueda y respuesta de IA generativa
Estas respuestas las genera un modelo de lenguaje grande en watsonx.ai que se basa en el contenido de la documentación del producto. Más información