資料の 英語版 に戻る自然言語処理モデルの展開
自然言語処理モデルの展開
最終更新: 2024年11月22日
Python関数やPythonスクリプトを使用することで、watsonx.aiRuntime に自然言語処理モデルをデプロイできます。 オンライン・デプロイメントとバッチ・デプロイメントの両方がサポートされます。
- オンラインおよびインラインのバッチデプロイメントにはPython関数を、バッチデータ参照デプロイメントにはPythonスクリプトをデプロイできます。
<model>.run()
から返される予測出力は、当該データモデルの予測クラス固有のクラスのオブジェクトです(例えば 'watson_nlp.data_model.syntax.SyntaxPrediction
)。このようなオブジェクトは JSON 形式にシリアライズできないので、予測出力は '<prediction output>.to_dict()
(推奨) または '<prediction output>.to_json()
メソッドを使用してPython辞書型か JSON に変換する必要があります。 出力を変換しない場合、スコアリング API 要求はエラーを返します。 自然言語処理モデルの予測出力の取り扱い例を参照してください。- 環境変数 '
LOAD_PATH
を使用することで、Python関数コード内で事前にトレーニングされたWatsonNLP モデルの場所にアクセスできます。 score()
から返される予測入力ペイロードおよび予測応答は、 オンライン・スコアリングおよびジョブ API の資料にリストされている要件を満たしている必要があります。- NLP モデルの評価要求は、基礎となる JVM ランタイムによって報告される
Out of Memory
エラーで失敗する可能性があります。 エラーが報告された場合は、より多くの使用可能メモリーを持つハードウェア仕様を使用するようにデプロイメントにパッチを適用してください。
前提条件
APIキーを生成して、タスクの認証情報を設定する必要があります。 詳細については、タスク資格情報の管理を参照のこと。
使用法の例
テキストスニペットに対する構文解析の実行
import watson_nlp
# Load the syntax model for English
syntax_model = watson_nlp.load('syntax_izumo_en_stock')
# Run the syntax model and print the result
syntax_prediction = syntax_model.run('Welcome to IBM!')
print(syntax_prediction)
テキストスニペットからのエンティティの抽出
import watson_nlp
entities_workflow = watson_nlp.load('entity-mentions_transformer-workflow_multilingual_slate.153m.distilled')
entities = entities_workflow.run('IBM\'s CEO Arvind Krishna is based in the US', language_code="en")
print(entities.get_mention_pairs())
自然言語処理モデルの予測出力の取り扱い例
for input_data in input_data_row:
targets_sentiments = targets_sentiment_model.run(input_data)
scoring_prediction_row.append(targets_sentiments.to_dict())
サポートされるソフトウェア仕様
NLP モデルのデプロイメントをサポートするソフトウェア仕様のリスト:
runtime-23.1-py3.10
runtime-23.1-py3.10
に基づくカスタム・ソフトウェア仕様runtime-24.1-py3.11
runtime-24.1-py3.11
に基づくカスタム・ソフトウェア仕様
ソフトウェア仕様をカスタマイズする方法については、 watsonx.aiRuntime のデプロイメント・ランタイムのカスタマイズを参照してください。
NLPモデルの展開例
例については、このJupyter Notebookを参照されたい:
親トピック: 予測デプロイメントの管理