Go back to the English version of the documentation部署自然语言处理模型
部署自然语言处理模型
Last updated: 2024年11月22日
您可以使用Python函数或Python脚本在watsonx.aiRuntime 中部署自然语言处理模型。 同时支持联机和批处理部署。
- 您可以为在线和内联批量部署部署一个Python函数,为批量数据引用部署部署一个Python脚本。
- 从 "
<model>.run()
返回的预测输出是相关数据模型预测类的特定类对象(例如 "watson_nlp.data_model.syntax.SyntaxPrediction
)。此类对象无法序列化为 JSON 格式,因此必须使用 "<prediction output>.to_dict()
(推荐)或 "<prediction output>.to_json()
方法将预测输出转换为Python字典类型或 JSON 格式。 如果不转换输出,那么评分 API 请求将返回错误。 请参阅处理 NLP 模型预测输出的示例。 - 你可以使用 "
LOAD_PATH
环境变量访问Python函数代码中预训练的WatsonNLP 模型的位置。 - 从
score()
返回的预测输入有效内容和预测响应必须满足 联机评分和作业 API 文档中列出的需求。 - 针对 NLP 模型的评分请求可能因底层 JVM 运行时报告的
Out of Memory
错误而失败。 如果报告错误,请修补部署以使用具有更多可用内存的硬件规范。
先决条件
您必须通过生成 API 密钥来设置任务凭证。 有关更多信息,请参阅管理任务凭证。
用法示例
对文本片段进行语法分析
import watson_nlp
# Load the syntax model for English
syntax_model = watson_nlp.load('syntax_izumo_en_stock')
# Run the syntax model and print the result
syntax_prediction = syntax_model.run('Welcome to IBM!')
print(syntax_prediction)
从文本片段中提取实体
import watson_nlp
entities_workflow = watson_nlp.load('entity-mentions_transformer-workflow_multilingual_slate.153m.distilled')
entities = entities_workflow.run('IBM\'s CEO Arvind Krishna is based in the US', language_code="en")
print(entities.get_mention_pairs())
处理 NLP 模型预测输出的示例
for input_data in input_data_row:
targets_sentiments = targets_sentiment_model.run(input_data)
scoring_prediction_row.append(targets_sentiments.to_dict())
支持的软件规范
支持部署 NLP 模型的软件规范列表:
runtime-23.1-py3.10
- 基于
runtime-23.1-py3.10
的定制软件规范 runtime-24.1-py3.11
- 基于
runtime-24.1-py3.11
的定制软件规范
有关如何自定义软件规格的信息,请参阅自定义watsonx.aiRuntime 部署运行时。
NLP 模型部署实例
有关示例,请参阅本Jupyter Notebook:
父主题: 管理预测性部署