Zurück zur englischen Version der DokumentationEinsatz von Modellen zur Verarbeitung natürlicher Sprache
Einsatz von Modellen zur Verarbeitung natürlicher Sprache
Letzte Aktualisierung: 22. Nov. 2024
Sie können ein Natural Language Processing-Modell in watsonx.ai Runtime mit Hilfe von Python oder Python einsetzen. Sowohl Online-als auch Stapelbereitstellungen werden unterstützt.
- Sie können eine Python Funktion für Online- und Inline-Batchbereitstellungen und ein Python Skript für Batch-Datenreferenzbereitstellungen bereitstellen.
- Die von
<model>.run()
zurückgegebene Vorhersageausgabe ist ein Objekt einer Klasse, die für die Vorhersageklasse des betreffenden Datenmodells spezifisch ist (z. B.watson_nlp.data_model.syntax.SyntaxPrediction
). Solche Objekte können nicht in das JSON-Format serialisiert werden, daher muss die Vorhersageausgabe mithilfe der Methoden<prediction output>.to_dict()
(empfohlen) oder<prediction output>.to_json()
entweder in den Python Wörterbuchtyp oder in JSON konvertiert werden. Wenn Sie die Ausgabe nicht konvertieren, geben Scoring-API-Anfragen einen Fehler zurück. Siehe Beispiel für die Handhabung der Vorhersageausgabe eines NLP-Modells . - Sie können auf den Speicherort vortrainierter Watson NLP-Modelle im Python Funktionscode zugreifen, indem Sie die Umgebungsvariable
LOAD_PATH
verwenden. - Die Eingabenutzdaten für die Vorhersage und die Vorhersageantwort, die von
score()
zurückgegeben werden, müssen die Anforderungen erfüllen, die in der API-Dokumentation für Online-Scoring und Jobsaufgelistet sind. - Scoring-Anforderungen für NLP-Modelle können mit einem
Out of Memory
-Fehler fehlschlagen, der von der zugrunde liegenden JVM-Laufzeit gemeldet wird. Wenn ein Fehler gemeldet wird, korrigieren Sie die Implementierung, um eine Hardwarespezifikation mit mehr verfügbarem Speicher zu verwenden.
Voraussetzungen
Sie müssen Ihre Anmeldedaten für die Aufgabe einrichten, indem Sie einen API-Schlüssel erstellen. Weitere Informationen finden Sie unter Verwalten von Berechtigungsnachweisen für Aufgaben.
Verwendungsbeispiele
Ausführen einer Syntaxanalyse für einen Textausschnitt
import watson_nlp
# Load the syntax model for English
syntax_model = watson_nlp.load('syntax_izumo_en_stock')
# Run the syntax model and print the result
syntax_prediction = syntax_model.run('Welcome to IBM!')
print(syntax_prediction)
Extrahieren von Entitäten aus einem Textausschnitt
import watson_nlp
entities_workflow = watson_nlp.load('entity-mentions_transformer-workflow_multilingual_slate.153m.distilled')
entities = entities_workflow.run('IBM\'s CEO Arvind Krishna is based in the US', language_code="en")
print(entities.get_mention_pairs())
Beispiel für den Umgang mit der Vorhersageausgabe eines NLP-Modells
for input_data in input_data_row:
targets_sentiments = targets_sentiment_model.run(input_data)
scoring_prediction_row.append(targets_sentiments.to_dict())
Unterstützte Softwarespezifikationen
Liste der Softwarespezifikationen, die die Implementierung von NLP-Modellen unterstützen:
runtime-23.1-py3.10
- Angepasste Softwarespezifikationen auf der Basis von
runtime-23.1-py3.10
runtime-24.1-py3.11
- Angepasste Softwarespezifikationen auf der Basis von
runtime-24.1-py3.11
Informationen zum Anpassen von Software-Spezifikationen finden Sie unter Anpassen von watsonx.ai Runtime-Deployment-Laufzeiten.
Beispiele für die Bereitstellung von NLP-Modellen
Beispiele finden Sie in diesem Jupyter Notebook :
Übergeordnetes Thema: Vorhersagebereitstellungen verwalten