Descripción
Los modelos generativos de IA podrían utilizarse con la única intención de perjudicar a las personas.
¿Por qué el uso peligroso es una preocupación para los modelos de fundación?
Los grandes modelos lingüísticos se entrenan a menudo con grandes cantidades de información disponible públicamente, que puede incluir información sobre daños a terceros. Un modelo que tenga este potencial debe ser evaluado cuidadosamente en cuanto a su contenido y gobernado adecuadamente.
Ciberataques basados en IA
Según el artículo fuente, los hackers están experimentando cada vez más con ChatGPT y otras herramientas de IA, lo que permite a un mayor número de actores llevar a cabo ciberataques y estafas. Microsoft ha advertido de que hackers respaldados por el Estado han estado utilizando OpenAI’s para mejorar sus ciberataques, perfeccionando scripts y mejorando sus técnicas dirigidas. El artículo también menciona sobre un caso en el que Microsoft y OpenAI dicen haber detectado intentos de atacantes y un fuerte aumento de ciberataques dirigidos a oficinas gubernamentales.
Ataques biológicos basados en IA
Según el artículo fuente, los grandes modelos lingüísticos podrían ayudar en la planificación y ejecución de un ataque biológico. Se mencionan varios escenarios de prueba, como el uso de LLM para identificar agentes biológicos y sus posibilidades relativas de daño a la vida humana. El artículo también destacaba la cuestión abierta que es el nivel de amenaza que presentan los LLM más allá de la información perjudicial que se puede obtener fácilmente en Internet.
Tema principal: Atlas de riesgo de IA
Proporcionamos ejemplos cubiertos por la prensa para ayudar a explicar muchos de los riesgos de los modelos de fundación. Muchos de estos sucesos de los que se ha hecho eco la prensa siguen evolucionando o ya se han resuelto, y hacer referencia a ellos puede ayudar al lector a comprender los riesgos potenciales y a trabajar para mitigarlos. Resaltar estos ejemplos son sólo para fines ilustrativos.