0 / 0
Go back to the English version of the documentation
部署自然语言处理模型
Last updated: 2024年11月22日
部署自然语言处理模型

您可以使用Python函数Python脚本在watsonx.aiRuntime 中部署自然语言处理模型。 同时支持联机和批处理部署。

  • 您可以为在线和内联批量部署部署一个Python函数,为批量数据引用部署部署一个Python脚本。
  • 从 "<model>.run()返回的预测输出是相关数据模型预测类的特定类对象(例如 "watson_nlp.data_model.syntax.SyntaxPrediction)。此类对象无法序列化为 JSON 格式,因此必须使用 "<prediction output>.to_dict()(推荐)或 "<prediction output>.to_json()方法将预测输出转换为Python字典类型或 JSON 格式。 如果不转换输出,那么评分 API 请求将返回错误。 请参阅处理 NLP 模型预测输出的示例
  • 你可以使用 "LOAD_PATH环境变量访问Python函数代码中预训练的WatsonNLP 模型的位置。
  • score() 返回的预测输入有效内容和预测响应必须满足 联机评分和作业 API 文档中列出的需求。
  • 针对 NLP 模型的评分请求可能因底层 JVM 运行时报告的 Out of Memory 错误而失败。 如果报告错误,请修补部署以使用具有更多可用内存的硬件规范。

先决条件

您必须通过生成 API 密钥来设置任务凭证。 有关更多信息,请参阅管理任务凭证

用法示例

对文本片段进行语法分析

import watson_nlp

# Load the syntax model for English
syntax_model = watson_nlp.load('syntax_izumo_en_stock')

# Run the syntax model and print the result
syntax_prediction = syntax_model.run('Welcome to IBM!')
print(syntax_prediction)

从文本片段中提取实体

import watson_nlp
entities_workflow = watson_nlp.load('entity-mentions_transformer-workflow_multilingual_slate.153m.distilled')
entities = entities_workflow.run('IBM\'s CEO Arvind Krishna is based in the US', language_code="en")
print(entities.get_mention_pairs())

处理 NLP 模型预测输出的示例

    for input_data in input_data_row:
        targets_sentiments = targets_sentiment_model.run(input_data)
        scoring_prediction_row.append(targets_sentiments.to_dict())

支持的软件规范

支持部署 NLP 模型的软件规范列表:

  • runtime-23.1-py3.10
  • 基于 runtime-23.1-py3.10 的定制软件规范
  • runtime-24.1-py3.11
  • 基于 runtime-24.1-py3.11 的定制软件规范

有关如何自定义软件规格的信息,请参阅自定义watsonx.aiRuntime 部署运行时

NLP 模型部署实例

有关示例,请参阅本Jupyter Notebook:

父主题: 管理预测性部署

Generative AI search and answer
These answers are generated by a large language model in watsonx.ai based on content from the product documentation. Learn more