Risque de recyclage inapproprié pour l'IA

Dernière mise à jour : 06 févr. 2025
Risque de recyclage inapproprié pour l'IA
Alignement des valeurs
Risques liés aux données de formation
Amplifié par l'IA générative

Descriptif

L'utilisation d'un résultat indésirable (par exemple, un contenu inexact, inapproprié ou utilisateur) à des fins de recyclage peut entraîner un comportement inattendu du modèle.

Pourquoi un recyclage inadéquat est-il un problème pour les modèles de fondation ?

La réaffectation des résultats générés pour le recyclage d'un modèle sans mise en œuvre d'un contrôle humain approprié augmente les risques d'incorporation de résultats indésirables dans les données de formation ou de réglage du modèle. À son tour, ce modèle peut générer des résultats encore plus indésirables.

Image de fond pour les risques associés aux données de formation
Exemple

Effondrement du modèle dû à la formation à l'aide de contenus générés par l'IA

Comme l'indique l'article source, un groupe de chercheurs du Royaume-Uni et du Canada s'est penché sur le problème de l'utilisation de contenus générés par l'IA pour la formation au lieu de contenus générés par l'homme. Ils ont constaté que les grands modèles linguistiques qui sous-tendent la technologie pourraient potentiellement être formés sur d'autres contenus générés par l'IA. Les données générées continuant à se répandre en masse sur l'internet, il peut en résulter un phénomène qu'ils ont baptisé "effondrement du modèle"

Sujet parent : Atlas des risques liés à l'IA

Nous fournissons des exemples couverts par la presse afin d'expliquer de nombreux risques liés aux modèles de fondation. Nombre de ces événements couverts par la presse sont encore en cours ou ont été résolus, et le fait d'y faire référence peut aider le lecteur à comprendre les risques potentiels et à s'efforcer de les atténuer. La mise en évidence de ces exemples n'a qu'un but illustratif.