Descripción
Determinar quién es responsable de un modelo de IA es un reto sin una buena documentación y procesos de gobernanza.
¿Por qué la responsabilidad legal es una preocupación para los modelos de fundación?
Si la propiedad para el desarrollo del modelo es incierta, los reguladores y otros podrían tener preocupaciones sobre el modelo. No estaría claro quién sería responsable y responsable de los problemas con él o podría responder a las preguntas al respecto. Los usuarios de modelos sin una propiedad clara pueden encontrar retos con el cumplimiento de la futura normativa de IA.
Determinar la responsabilidad de los resultados generados
Revistas importantes como Science y Nature prohibieron que ChatGPT figurara como autor, ya que la autoría responsable exige rendir cuentas y las herramientas de IA no pueden asumir esa responsabilidad.
Tema principal: Atlas de riesgo de IA
Proporcionamos ejemplos cubiertos por la prensa para ayudar a explicar muchos de los riesgos de los modelos de fundación. Muchos de estos sucesos de los que se ha hecho eco la prensa siguen evolucionando o ya se han resuelto, y hacer referencia a ellos puede ayudar al lector a comprender los riesgos potenciales y a trabajar para mitigarlos. Resaltar estos ejemplos son sólo para fines ilustrativos.