0 / 0
Retourner à la version anglaise de la documentation
Risque de données d'entraînement inaccessible pour l'IA
Dernière mise à jour : 12 déc. 2024
Risque de données d'entraînement inaccessible pour l'IA
Explicabilité Icône représentant les risques d'explicabilité.
Risques associés à la sortie
Explicabilité
Amplifié par l'IA générative

Descriptif

Sans accès aux données d'apprentissage, les types d'explications qu'un modèle peut fournir sont limités et plus susceptibles d'être incorrects.

Pourquoi les données d'entraînement inaccessibles sont-elles un problème pour les modèles de base?

Des explications de mauvaise qualité sans données source rendent difficile pour les utilisateurs, les valideurs de modèle et les auditeurs de comprendre et de faire confiance au modèle.

Rubrique parent: Atlas des risques liés à l'IA

Nous fournissons des exemples couverts par la presse pour expliquer de nombreux risques liés aux modèles de fondation. Nombre de ces événements couverts par la presse sont encore en cours ou ont été résolus, et le fait d'y faire référence peut aider le lecteur à comprendre les risques potentiels et à s'efforcer de les atténuer. La mise en évidence de ces exemples n'a qu'un but illustratif.

Recherche et réponse à l'IA générative
Ces réponses sont générées par un modèle de langue de grande taille dans watsonx.ai en fonction du contenu de la documentation du produit. En savoir plus