0 / 0

Risque de recyclage inapproprié pour l'IA

Dernière mise à jour : 12 déc. 2024
Risque de recyclage inapproprié pour l'IA
Alignement Icône représentant les risques d'alignement.
Risques associés à l'entrée
Phase de formation et d'optimisation
Alignement des valeurs
Amplifié par l'IA générative

Descriptif

L'utilisation d'un résultat indésirable (par exemple, un contenu inexact, inapproprié ou utilisateur) à des fins de recyclage peut entraîner un comportement inattendu du modèle.

Pourquoi un recyclage inadéquat est-il un problème pour les modèles de fondation ?

La réaffectation des résultats générés pour le recyclage d'un modèle sans mise en œuvre d'un contrôle humain approprié augmente les risques d'incorporation de résultats indésirables dans les données de formation ou de réglage du modèle. À son tour, ce modèle peut générer des résultats encore plus indésirables.

Image d'arrière-plan des risques associés à l'entrée
Exemple

Réduction du modèle en raison de l'entraînement à l'aide de contenu généré par l'IA

Comme l'indique l'article source, un groupe de chercheurs du Royaume-Uni et du Canada a étudié le problème de l'utilisation du contenu généré par l'IA pour la formation au lieu du contenu généré par l'humain. Ils ont constaté que les grands modèles de langue derrière la technologie pourraient potentiellement être entraînés sur d'autres contenus générés par l'IA. Les données générées continuant à se répandre en masse sur l'internet, il peut en résulter un phénomène qu'ils ont baptisé "effondrement du modèle"

Rubrique parent: Atlas des risques liés à l'IA

Nous fournissons des exemples couverts par la presse pour vous aider à expliquer les risques de nombreux modèles de base. Un grand nombre de ces événements couverts par la presse sont en constante évolution ou ont été résolus, et leur référencement peut aider le lecteur à comprendre les risques potentiels et à s'orienter vers des mesures d'atténuation. La mise en évidence de ces exemples est fournie à des fins d'illustration uniquement.