Descripción
Los modelos generativos de IA podrían utilizarse intencionadamente para imitar a personas mediante deepfakes utilizando vídeo, imágenes, audio u otras modalidades sin su consentimiento.
¿Por qué el uso no consensuado es una preocupación para los modelos fundacionales?
Deepfakes puede propagar desinformación sobre una persona, lo que posiblemente resulte en un impacto negativo en la reputación de la persona. Un modelo que tiene este potencial debe ser gobernado adecuadamente.
Aviso del FBI en Deepfakes
El FBI advirtió recientemente al público de actores maliciosos que crean contenido sintético y explícito "con el propósito de acosar a las víctimas o esquemas de sextorsión". Señalaron que los avances en IA hicieron que este contenido fuera de mayor calidad, más personalizable y más accesible que nunca.
Deepfakes de audio
Según el artículo de la fuente, la Comisión Federal de Comunicaciones ilegalizó los robos que contienen voces que son generadas por la inteligencia artificial. El anuncio se produjo después de que los robos generados por IA imitaran la voz del Presidente para desalentar a la gente de votar en las primeras primarias del estado en la nación.
Tema principal: Atlas de riesgo de IA
Proporcionamos ejemplos cubiertos por la prensa para ayudar a explicar muchos de los riesgos de los modelos básicos. Muchos de estos eventos cubiertos por la prensa están todavía en evolución o se han resuelto, y hacer referencia a ellos puede ayudar al lector a comprender los riesgos potenciales y trabajar hacia las mitigaciones. El resaltado de estos ejemplos sólo tiene fines ilustrativos.