KI-Dienste bieten Online-Inferencing-Funktionen, die Sie für Echtzeit-Inferencing auf neue Daten nutzen können. Für Anwendungsfälle, die eine Batch-Bewertung erfordern, können Sie einen Batch-Bereitstellungsauftrag ausführen, um Ihre KI-Service-Bereitstellung zu testen.
Methoden zum Testen von KI-Diensteinsätzen
Copy link to section
KI-Dienste bieten Online-Inferencing-Funktionen, die Sie für Echtzeit-Inferencing auf neue Daten nutzen können. Diese Fähigkeit zur Inferenz ist für Anwendungen nützlich, die Echtzeitvorhersagen erfordern, wie Chatbots, Empfehlungssysteme und Betrugserkennungssysteme.
Für Anwendungsfälle, die eine Batch-Bewertung erfordern, erstellen Sie einen Batch-Bereitstellungsauftrag und führen ihn aus. Sie können eine beliebige gültige JSON-Eingabe als Nutzlast für den REST-API-Endpunkt zur Inferenzierung bereitstellen. Weitere Informationen finden Sie unter Testen von Batch-Bereitstellungen für AI-Dienste.
Erprobung von KI-Diensten für die Online-Wertung
Copy link to section
Sie können Ihren KI-Dienst online bereitstellen, indem Sie die watsonx.ai, die REST-API oder die watsonx.ai Python verwenden.
Inferencing über die Benutzeroberfläche
Copy link to section
Sie können die Benutzeroberfläche zum Inferencing Ihrer KI-Dienste verwenden, indem Sie eine beliebige gültige JSON-Eingabe-Nutzlast bereitstellen, die mit Ihrem Modellschema übereinstimmt. Befolgen Sie die folgenden Schritte zur Inferenzierung Ihrer KI-Dienstbereitstellung:
Öffnen Sie in Ihrem Bereitstellungsbereich oder Ihrem Projekt die Registerkarte Bereitstellungen und klicken Sie auf den Namen der Bereitstellung.
Klicken Sie auf die Registerkarte Test, um einen Aufforderungstext einzugeben und eine Antwort von dem bereitgestellten Asset zu erhalten.
Geben Sie Testdaten im JSON-Format ein, um eine Ausgabe im JSON-Format zu erzeugen.
Einschränkung:
Sie können keine Eingabedaten im Textformat eingeben, um Ihren KI-Diensteinsatz zu testen. Sie müssen das JSON-Format für die Tests verwenden.
Inferencing mit Python
Copy link to section
Verwenden Sie die Funktion " run_ai_service, um einen KI-Dienst auszuführen, indem Sie eine Nutzlast für die Bewertung bereitstellen:
Verwenden Sie den REST-Endpunkt " /ml/v4/deployments/{id_or_name}/ai_service für die Inferenz von KI-Diensten für die Online-Wertung (KI-Dienste, die die Funktion " generate() enthalten):
# Any valid json is accepted in POST request to /ml/v4/deployments/{id_or_name}/ai_service
payload = {
"mode": "json-custom-header",
't1': 12345 ,
't2': ["hello", "wml"],
't3': {
"abc": "def",
"ghi": "jkl"
}
}
response = requests.post(
f'{HOST}/ml/v4/deployments/{dep_id}/ai_service?version={VERSION}',
headers=headers,
verify=False,
json=payload
)
print(f'POST {HOST}/ml/v4/deployments/{dep_id}/ai_service?version={VERSION}', response.status_code)
from json.decoder import JSONDecodeError
try:
print(json.dumps(response.json(), indent=2))
except JSONDecodeError:
print(f"response text >>\n{response.text}")
print(f"\nThe user customized content-type >> '{response.headers['Content-Type']}'")
Copy to clipboardIn die Zwischenablage kopiertShow more
Testen von KI-Dienstimplementierungen für Streaming-Anwendungen
Copy link to section
Mit der watsonx.ai REST API oder der watsonx.ai Python Client-Bibliothek können Sie Ihren KI-Service online für Streaming-Anwendungen bereitstellen.
Inferencing mit Python
Copy link to section
Verwenden Sie die Funktion " run_ai_service_stream, um einen KI-Dienst für Streaming-Anwendungen auszuführen, indem Sie eine Nutzlast für die Bewertung bereitstellen.
ai_service_payload = {"sse": ["Hello", "WatsonX", "!"]}
for data in client.deployments.run_ai_service_stream(deployment_id, ai_service_payload):
print(data)
Verwenden Sie den REST-Endpunkt " /ml/v4/deployments/{id_or_name}/ai_service_stream für die Inferenz von AI-Diensten für Streaming-Anwendungen (AI-Dienste, die die Funktion " generate_stream() enthalten):
Sie können die watsonx.ai, die Python oder die REST-API verwenden, um einen Batch-Bereitstellungsauftrag zu erstellen und auszuführen, wenn Sie eine Batch-Bereitstellung für Ihren KI-Dienst erstellt haben (KI-Dienst-Asset, das die Funktion " generate_batch() enthält).
Voraussetzungen
Sie müssen die Anmeldeinformationen für Ihre Aufgabe einrichten, um einen Batch-Bereitstellungsauftrag für Ihren KI-Dienst auszuführen. Weitere Informationen finden Sie unter Verwalten von Berechtigungsnachweisen für Aufgaben.
Testen mit Benutzeroberfläche
Copy link to section
Weitere Informationen zum Erstellen und Ausführen eines Batch-Bereitstellungsauftrags für Ihren KI-Dienst über die Benutzeroberfläche des Bereitstellungsbereichs finden Sie unter Erstellen von Aufträgen in Bereitstellungsbereichen.
Testen mit Python
Copy link to section
Gehen Sie folgendermaßen vor, um Ihre Batch-Bereitstellung zu testen, indem Sie einen Auftrag erstellen und ausführen:
Erstellen Sie einen Auftrag, um die Batch-Bereitstellung Ihres KI-Dienstes zu testen: