0 / 0
Volver a la versión inglesa de la documentación
Riesgo de uso peligroso para IA
Última actualización: 12 dic 2024
Riesgo de uso peligroso para IA
Uso incorrecto Icono que representa los riesgos de uso indebido.
Riesgos asociados a la producción
Uso incorrecto
Novedad en la IA generativa

Descripción

Los modelos generativos de IA podrían utilizarse con la única intención de perjudicar a las personas.

¿Por qué el uso peligroso es una preocupación para los modelos de fundación?

Los grandes modelos lingüísticos se entrenan a menudo con grandes cantidades de información disponible públicamente, que puede incluir información sobre daños a terceros. Un modelo que tenga este potencial debe ser evaluado cuidadosamente en cuanto a su contenido y gobernado adecuadamente.

Imagen de fondo de los riesgos asociados a la entrada
Ejemplo

Ciberataques basados en IA

Según el artículo fuente, los hackers están experimentando cada vez más con ChatGPT y otras herramientas de IA, lo que permite a un mayor número de actores llevar a cabo ciberataques y estafas. Microsoft ha advertido de que hackers respaldados por el Estado han estado utilizando OpenAI’s para mejorar sus ciberataques, perfeccionando scripts y mejorando sus técnicas dirigidas. El artículo también menciona sobre un caso en el que Microsoft y OpenAI dicen haber detectado intentos de atacantes y un fuerte aumento de ciberataques dirigidos a oficinas gubernamentales.

Imagen de fondo de los riesgos asociados a la entrada
Ejemplo

Ataques biológicos basados en IA

Según el artículo fuente, los grandes modelos lingüísticos podrían ayudar en la planificación y ejecución de un ataque biológico. Se mencionan varios escenarios de prueba, como el uso de LLM para identificar agentes biológicos y sus posibilidades relativas de daño a la vida humana. El artículo también destacaba la cuestión abierta que es el nivel de amenaza que presentan los LLM más allá de la información perjudicial que se puede obtener fácilmente en Internet.

Tema principal: Atlas de riesgo de IA

Proporcionamos ejemplos cubiertos por la prensa para ayudar a explicar muchos de los riesgos de los modelos de fundación. Muchos de estos sucesos de los que se ha hecho eco la prensa siguen evolucionando o ya se han resuelto, y hacer referencia a ellos puede ayudar al lector a comprender los riesgos potenciales y a trabajar para mitigarlos. Resaltar estos ejemplos son sólo para fines ilustrativos.

Búsqueda y respuesta de IA generativa
Estas respuestas las genera un modelo de lenguaje grande en watsonx.ai que se basa en el contenido de la documentación del producto. Más información