0 / 0
Retourner à la version anglaise de la documentation
Manque de risque de transparence du modèle pour l'IA
Dernière mise à jour : 12 déc. 2024
Manque de risque de transparence du modèle pour l'IA
Gouvernance Icône représentant les risques de gouvernance.
Risques non techniques
Gouvernance
Risque d'IA traditionnel

Descriptif

Le manque de transparence des modèles est dû à une documentation insuffisante des processus de conception, d'élaboration et d'évaluation des modèles et à l'absence d'informations sur le fonctionnement interne du modèle.

Pourquoi le manque de transparence des modèles est-il une préoccupation pour les modèles de base?

La transparence est importante pour la conformité juridique, l'éthique de l'IA et l'utilisation appropriée des modèles. Les informations manquantes peuvent rendre plus difficile l'évaluation des risques, la modification du modèle ou sa réutilisation La connaissance de la personne qui a construit un modèle peut également être un facteur important dans la décision de lui faire confiance. En outre, la transparence concernant la manière dont les risques du modèle ont été déterminés, évalués et atténués joue également un rôle dans la détermination des risques du modèle, l'identification de l'adéquation du modèle et la gestion de l'utilisation du modèle.

Image d'arrière-plan des risques associés à l'entrée
Exemple

Divulgation des métadonnées de données et de modèles

OpenAI‘s est un exemple de la dichotomie entre la divulgation des données et les métadonnées du modèle. Alors que de nombreux développeurs de modèles voient de l'intérêt à favoriser la transparence pour les consommateurs, la divulgation pose de réels problèmes de sécurité et pourrait augmenter la capacité d'utiliser à mauvais escient les modèles. Dans le rapport technique GPT-4, les auteurs déclarent : "Compte tenu du paysage concurrentiel et des implications pour la sécurité des modèles à grande échelle comme GPT-4, ce rapport ne contient pas d'autres détails sur l'architecture (y compris la taille du modèle), le matériel, le calcul d'entraînement, la construction d'ensembles de données, la méthode d'entraînement, ou autres."

Rubrique parent: Atlas des risques liés à l'IA

Nous fournissons des exemples couverts par la presse pour vous aider à expliquer les risques de nombreux modèles de base. Un grand nombre de ces événements couverts par la presse sont en constante évolution ou ont été résolus, et leur référencement peut aider le lecteur à comprendre les risques potentiels et à s'orienter vers des mesures d'atténuation. La mise en évidence de ces exemples est fournie à des fins d'illustration uniquement.

Recherche et réponse à l'IA générative
Ces réponses sont générées par un modèle de langue de grande taille dans watsonx.ai en fonction du contenu de la documentation du produit. En savoir plus