Retourner à la version anglaise de la documentation

Créer des actifs de services d'IA

Dernière mise à jour : 21 nov. 2024
Créer des actifs de services d'IA

Pour déployer un service d'IA, vous devez créer un référentiel dans watsonx.ai Runtime qui contient le service d'IA et télécharger le fichier Python dans le référentiel.

Exigences relatives à la création de ressources de services d'IA

Lorsque vous utilisez un environnement de développement intégré (IDE) tel que VSCode, Eclipse, PyCharm, ou autre pour créer votre application d'IA générative, vous devez créer un fichier Python pour stocker votre service d'IA. Une fois la fonction définie, vous devez compresser le service AI pour créer une archive " gzip " (format de fichier.gz ).

Lorsque vous utilisez la bibliothèque client Python watsonx.ai pour créer votre service d'IA, la bibliothèque stocke automatiquement la fonction dans l'archive " gzip pour vous. Toutefois, lorsque vous créez un service d'IA à l'aide de l'API REST, vous devez suivre le processus de compression manuelle de votre fichier Python dans une archive " gzip.

Vous devez utiliser la spécification logicielle " runtime-24.1-py3.11 pour créer et déployer un service d'IA codé en Python.

Création d'actifs de services d'IA avec la bibliothèque client Python

Vous pouvez utiliser la fonction " store_ai_service de la bibliothèque client Python watsonx.ai pour créer un service d'IA.

L'exemple de code suivant montre comment créer un service d'IA à l'aide de la bibliothèque client Python:

documentation_request = {
    "application/json": {
        "$schema": "http://json-schema.org/draft-07/schema#",
        "type": "object",
        "properties": {
            "query": {"type": "string"},
            "parameters": {
                "properties": {
                    "max_new_tokens": {"type": "integer"},
                    "top_p": {"type": "number"},
                },
                "required": ["max_new_tokens", "top_p"],
            },
        },
        "required": ["query"],
    }
}

documentation_response = {
    "application/json": {
        "$schema": "http://json-schema.org/draft-07/schema#",
        "type": "object",
        "properties": {"query": {"type": "string"}, "result": {"type": "string"}},
        "required": ["query", "result"],
    }
}


meta_props = {
    client.repository.AIServiceMetaNames.NAME: "AI service example",
    client.repository.AIServiceMetaNames.DESCRIPTION: "This is AI service function",
    client.repository.AIServiceMetaNames.SOFTWARE_SPEC_ID: client.software_specifications.get_id_by_name(
        "runtime-24.1-py3.11"
    ),
    client.repository.AIServiceMetaNames.REQUEST_DOCUMENTATION: documentation_request,
    client.repository.AIServiceMetaNames.RESPONSE_DOCUMENTATION: documentation_response,
}

stored_ai_service_details = client.repository.store_ai_service(
    basic_generate_demo, meta_props
)

ai_service_id = client.repository.get_ai_service_id(stored_ai_service_details)
print("The AI service asset id:", ai_service_id)
Remarque :
  • Les paramètres " REQUEST_DOCUMENTATION et " RESPONSE_DOCUMENTATION sont facultatifs. Vous pouvez utiliser ces paramètres pour stocker le schéma de la demande et de la réponse des fonctions " generate et " generate_stream
  • L'appel de fonction " client.repository.store_ai_service enregistre la fonction de service AI " basic_generate_demo dans un fichier " gzip en interne.

Pour plus d'informations, consultez la documentation de la bibliothèque client Pythonwatsonx.ai sur la création d'un service d'IA.

Création d'un service d'IA avec l'API REST

Vous pouvez utiliser le point de terminaison de l'API REST " /ml/v4/ai_services pour créer la ressource des services d'IA dans le référentiel watsonx.ai Runtime. Pour plus d'informations, voir la documentation de l'API REST dewatsonx.ai

En savoir plus

Sujet parent : Déployer des services d'IA avec le codage direct