0 / 0
Retourner à la version anglaise de la documentation
Risque de données non représentatives pour l'IA
Dernière mise à jour : 12 déc. 2024
Risque de données non représentatives pour l'IA
Risques liés à la saisie
Phase de formation et de mise au point
Précision
Risque traditionnel lié à l'IA

Descriptif

On parle de données non représentatives lorsque les données d'apprentissage ou de mise au point ne sont pas suffisamment représentatives de la population sous-jacente ou ne mesurent pas le phénomène en question.

Pourquoi les données non représentatives sont-elles un problème pour les modèles de fondation ?

Si les données ne sont pas représentatives, le modèle ne fonctionnera pas comme prévu.

Thème parent: Atlas des risques de l'IA

Nous fournissons des exemples couverts par la presse pour expliquer de nombreux risques liés aux modèles de fondation. Nombre de ces événements couverts par la presse sont encore en cours ou ont été résolus, et le fait d'y faire référence peut aider le lecteur à comprendre les risques potentiels et à s'efforcer de les atténuer. La mise en évidence de ces exemples n'a qu'un but illustratif.

Recherche et réponse à l'IA générative
Ces réponses sont générées par un modèle de langue de grande taille dans watsonx.ai en fonction du contenu de la documentation du produit. En savoir plus