Le moteur d'évaluation des risques des modèles mesure les risques des modèles de base en calculant des mesures liées aux dimensions du risque pour vous aider à identifier les meilleurs modèles qui atteignent vos objectifs de tolérance au risque.
Le moteur d'évaluation des risques du modèle est un module du ibm-watsonx-gov
SDK Python qui peut vous aider à comprendre les risques liés à l'IA générative et à établir des méthodes efficaces pour mesurer et atténuer les risques. Ce module permet de fournir des évaluations quantitatives des risques des modèles de base et prend en charge les évaluations des modèles de langage à grande échelle d' watsonx.ai, ainsi que des modèles externes d'autres fournisseurs.
Les évaluations calculent des mesures pour les dimensions de risque suivantes :
- Rejets toxiques
- Production nocive
- Fuite rapide
- Libre
- Injection rapide
- Jailbreaking
- Biais de sortie
- Génération de code nuisible
Les dimensions de risque sont un ensemble de risques qui peuvent survenir lors de l'utilisation d'actifs d'IA générative et de modèles d'apprentissage automatique. Pour plus d'informations, consultez l'Atlas des risques de l'IA. Les dimensions de risque disponibles sont un sous-ensemble des risques disponibles dans l'Atlas des risques.
Vous devez fournir des informations d' watsonx.ai s pour calculer les mesures des risques de jailbreak, de fuite de prompt, de génération de code nuisible et d'injection de prompt. Pour chaque dimension du risque, un ou plusieurs ensembles de données standardisées sont utilisés pour évaluer le niveau de risque.
Une fois les évaluations des risques terminées, vous pouvez enregistrer les résultats dans la console de gouvernance ou les exporter sous forme de rapport PDF qui résume les mesures calculées.
Vous pouvez utiliser le moteur d'évaluation des risques du modèle pour effectuer les tâches suivantes :
- Calculer des métriques avec watsonx.ai comme moteur d'inférence.
- Calculer les mesures de risque pour les modèles de base dans l' watsonx.ai.
- Calculer des métriques pour les modèles de base qui ne sont pas dans l' watsonx.ai, en implémentant votre propre fonction de notation pour n'importe quel modèle et en l'évaluant.
- Stocker les métriques calculées dans la console de gouvernance ( OpenPages ).
- Récupérer les métriques calculées à partir de la console de gouvernance ( OpenPages ).
- Générer un rapport PDF des mesures calculées.
- Affichez les mesures dans une cellule de carnet de notes sous forme de tableau ou de graphique.
Entrée
Vous pouvez spécifier les paramètres d'entrée suivants lorsque vous utilisez le moteur d'évaluation du risque de modèle :
Paramètre | Descriptif |
---|---|
wx_gc_configuration (facultatif) |
La configuration de la console de gouvernance pour stocker le résultat des mesures calculées. Le stockage du résultat de l'évaluation dans la console de gouvernance évite de recalculer les mesures lors de l'évaluation suivante. Le moteur d'évaluation récupère à la place les mesures enregistrées. |
foundation_model_name |
Le nom du modèle de fondation en cours d'évaluation. |
risk_dimensions (facultatif) |
Une liste des risques à évaluer. A défaut, tous les risques disponibles seront évalués. |
max_sample_size (facultatif) |
Le nombre maximum d'instances de données à utiliser pour l'évaluation. Spécifiez une valeur plus petite (par exemple, 50) pour accélérer l'évaluation, ou définissez-la sur Aucun pour utiliser toutes les données pour l'évaluation, ce qui prend plus de temps mais garantit des résultats significatifs. |
model_details |
Le modèle de fondation en détail. La valeur peut être WxAIFoundationModel ou CustomFoundationModel où WxAIFoundationModel est un objet qui représente la logique permettant d'invoquer l'inférence pour watsonx.ai, et CustomFoundationModel est un objet qui contient la logique permettant d'invoquer la logique pour un LLM externe. |
pdf_report_output_path (facultatif) |
Le chemin d'accès spécifié par l'utilisateur où le rapport PDF généré sera enregistré. |
Sortie
Le moteur d'évaluation des risques de modèle peut vous aider à calculer des mesures pour chaque dimension de risque en tant que résultat. Ce résultat peut être enregistré dans une cellule du bloc-notes, stocké dans l OpenPages,, ou exporté sous forme de rapport PDF. Le moteur d'évaluation du risque de modèle calcule des mesures pour les dimensions de risque suivantes :
Risque | Descriptif |
---|---|
Rejets toxiques | Le modèle produit un contenu haineux, injurieux et grossier (HIG) ou obscène. |
Production nocive | Le modèle peut générer un langage qui conduit à des dommages physiques ou un langage qui inclut des déclarations ouvertement violentes, secrètement dangereuses ou indirectement dangereuses. |
Libre | Contenu factuellement inexact ou mensonger concernant les données ou les entrées de formation du modèle. Ce risque est aussi parfois appelé manque de loyauté ou manque de fondement. |
Injection rapide | Attaque qui force un modèle génératif qui prend une invite en entrée à produire une sortie inattendue en manipulant la structure, les instructions ou les informations contenues dans son invite. |
Jailbreaking | Attaque qui tente de franchir les barrières de sécurité établies dans le modèle pour effectuer des actions restreintes. |
Biais de sortie | Le contenu généré peut représenter injustement certains groupes ou individus. |
Fuite rapide | Tentative d'extraction de l'invite système d'un modèle |
Génération de code nuisible | Les modèles peuvent générer du code qui cause des dommages ou affecte involontairement d'autres systèmes. |
Exemples
Vous pouvez exécuter des évaluations et générer des résultats avec le moteur d'évaluation des risques du modèle, comme le montrent les exemples suivants :
Étape 1 : configuration
Créer une configuration de moteur d'évaluation des risques de modèle :
from ibm_watsonx_gov.config.model_risk_configuration import ModelRiskConfiguration, WxGovConsoleConfiguration
configuration = ModelRiskConfiguration(
model_details = model_details,
risk_dimensions=risk_dimensions,
max_sample_size=max_sample_size,
pdf_report_output_path=pdf_report_output_path,
# wx_gc_configuration=wx_gc_configuration, # uncomment this line if the result should be pushed to Governance Console (OpenPages)
)
Étape 2 : lancer l'évaluation
Réaliser une évaluation pour mesurer les risques :
from ibm_watsonx_gov.evaluate import evaluate_model_risk
evaluation_results = evaluate_model_risk(
configuration=configuration,
credentials=credentials,
)
print(evaluation_results.risks)
Étape 3 : générer un rapport PDF
Exportez les données et les mesures évaluées sous forme de rapport PDF :
from ibm_wos_utils.joblib.utils.notebook_utils import create_download_link_for_file
pdf_file = create_download_link_for_file(evaluation_results.output_file_path)
display((pdf_file))
Pour plus d'informations, consultez le carnet de notes du moteur d'évaluation des risques de modèle.
Sujet parent : Calcul des métriques à l'aide du kit de développement logiciel ( Python )