0 / 0
Zurück zur englischen Version der Dokumentation
Einsatz von Modellen zur Verarbeitung natürlicher Sprache
Letzte Aktualisierung: 22. Nov. 2024
Einsatz von Modellen zur Verarbeitung natürlicher Sprache

Sie können ein Natural Language Processing-Modell in watsonx.ai Runtime mit Hilfe von Python oder Python einsetzen. Sowohl Online-als auch Stapelbereitstellungen werden unterstützt.

  • Sie können eine Python Funktion für Online- und Inline-Batchbereitstellungen und ein Python Skript für Batch-Datenreferenzbereitstellungen bereitstellen.
  • Die von <model>.run() zurückgegebene Vorhersageausgabe ist ein Objekt einer Klasse, die für die Vorhersageklasse des betreffenden Datenmodells spezifisch ist (z. B. watson_nlp.data_model.syntax.SyntaxPrediction ). Solche Objekte können nicht in das JSON-Format serialisiert werden, daher muss die Vorhersageausgabe mithilfe der Methoden <prediction output>.to_dict() (empfohlen) oder <prediction output>.to_json() entweder in den Python Wörterbuchtyp oder in JSON konvertiert werden. Wenn Sie die Ausgabe nicht konvertieren, geben Scoring-API-Anfragen einen Fehler zurück. Siehe Beispiel für die Handhabung der Vorhersageausgabe eines NLP-Modells .
  • Sie können auf den Speicherort vortrainierter Watson NLP-Modelle im Python Funktionscode zugreifen, indem Sie die Umgebungsvariable LOAD_PATH verwenden.
  • Die Eingabenutzdaten für die Vorhersage und die Vorhersageantwort, die von score() zurückgegeben werden, müssen die Anforderungen erfüllen, die in der API-Dokumentation für Online-Scoring und Jobsaufgelistet sind.
  • Scoring-Anforderungen für NLP-Modelle können mit einem Out of Memory -Fehler fehlschlagen, der von der zugrunde liegenden JVM-Laufzeit gemeldet wird. Wenn ein Fehler gemeldet wird, korrigieren Sie die Implementierung, um eine Hardwarespezifikation mit mehr verfügbarem Speicher zu verwenden.

Voraussetzungen

Sie müssen Ihre Anmeldedaten für die Aufgabe einrichten, indem Sie einen API-Schlüssel erstellen. Weitere Informationen finden Sie unter Verwalten von Berechtigungsnachweisen für Aufgaben.

Verwendungsbeispiele

Ausführen einer Syntaxanalyse für einen Textausschnitt

import watson_nlp

# Load the syntax model for English
syntax_model = watson_nlp.load('syntax_izumo_en_stock')

# Run the syntax model and print the result
syntax_prediction = syntax_model.run('Welcome to IBM!')
print(syntax_prediction)

Extrahieren von Entitäten aus einem Textausschnitt

import watson_nlp
entities_workflow = watson_nlp.load('entity-mentions_transformer-workflow_multilingual_slate.153m.distilled')
entities = entities_workflow.run('IBM\'s CEO Arvind Krishna is based in the US', language_code="en")
print(entities.get_mention_pairs())

Beispiel für den Umgang mit der Vorhersageausgabe eines NLP-Modells

    for input_data in input_data_row:
        targets_sentiments = targets_sentiment_model.run(input_data)
        scoring_prediction_row.append(targets_sentiments.to_dict())

Unterstützte Softwarespezifikationen

Liste der Softwarespezifikationen, die die Implementierung von NLP-Modellen unterstützen:

  • runtime-23.1-py3.10
  • Angepasste Softwarespezifikationen auf der Basis von runtime-23.1-py3.10
  • runtime-24.1-py3.11
  • Angepasste Softwarespezifikationen auf der Basis von runtime-24.1-py3.11

Informationen zum Anpassen von Software-Spezifikationen finden Sie unter Anpassen von watsonx.ai Runtime-Deployment-Laufzeiten.

Beispiele für die Bereitstellung von NLP-Modellen

Beispiele finden Sie in diesem Jupyter Notebook :

Übergeordnetes Thema: Vorhersagebereitstellungen verwalten

Generative KI-Suche und -Antwort
Diese Antworten werden von einem großen Sprachmodell in watsonx.ai basierend auf dem Inhalt der Produktdokumentation generiert. Weitere Informationen