Risque de données non représentatives pour l'IA

Dernière mise à jour : 10 févr. 2025
Risque de données non représentatives pour l'IA
Alignement Icône représentant les risques d'alignement.
Précision
Risques liés aux données de formation
Risque traditionnel lié à l'IA

Descriptif

On parle de données non représentatives lorsque les données d'apprentissage ou de mise au point ne sont pas suffisamment représentatives de la population sous-jacente ou ne mesurent pas le phénomène en question.

Pourquoi les données non représentatives sont-elles un problème pour les modèles de fondation ?

Si les données ne sont pas représentatives, le modèle ne fonctionnera pas comme prévu.

Thème parent: Atlas des risques de l'IA

Nous fournissons des exemples couverts par la presse pour expliquer de nombreux risques liés aux modèles de fondation. Nombre de ces événements couverts par la presse sont encore en cours ou ont été résolus, et le fait d'y faire référence peut aider le lecteur à comprendre les risques potentiels et à s'efforcer de les atténuer. La mise en évidence de ces exemples n'a qu'un but illustratif.