0 / 0
Retourner à la version anglaise de la documentation
Risque de nouvel entraînement en aval pour l'IA

Risque de nouvel entraînement en aval pour l'IA

Risques associés à l'entrée
Phase de formation et d'optimisation
Alignement des valeurs
Nouveautés de l'IA générative

Descriptif

Utilisation de sorties indésirables (par exemple, inexactes, inappropriées, contenu de l'utilisateur) à partir d'applications en aval à des fins de recyclage.

Pourquoi le recyclage en aval est-il une préoccupation pour les modèles de fondations?

La réutilisation de la sortie en aval pour le recyclage d'un modèle sans mise en oeuvre d'un contrôle humain approprié augmente les chances que des sorties indésirables soient incorporées dans les données d'apprentissage ou d'ajustement du modèle. Cela, à son tour, peut générer encore plus de résultats indésirables. Un comportement de modèle inapproprié peut entraîner des conséquences juridiques ou des dommages à la réputation pour les entités métier. Le non-respect des lois sur le transfert de données peut entraîner des amendes et d'autres conséquences juridiques.

Image d'arrière-plan des risques associés à l'entrée
Exemple

Réduction du modèle en raison de l'entraînement à l'aide de contenu généré par l'IA

Comme l'indique l'article source, un groupe de chercheurs du Royaume-Uni et du Canada a étudié le problème de l'utilisation du contenu généré par l'IA pour la formation au lieu du contenu généré par l'humain. Ils ont constaté que les grands modèles de langue derrière la technologie pourraient potentiellement être entraînés sur d'autres contenus générés par l'IA. Comme les données générées continuent de se propager en masse sur Internet, elles peuvent résulter d'un phénomène qu'elles ont forgé comme un "effondrement du modèle".

Rubrique parent: Atlas des risques liés à l'IA

Recherche et réponse à l'IA générative
Ces réponses sont générées par un modèle de langue de grande taille dans watsonx.ai en fonction du contenu de la documentation du produit. En savoir plus