0 / 0
Go back to the English version of the documentation
管理预测性部署
Last updated: 2024年12月09日
管理预测性部署

要进行正确部署,必须设置部署空间,然后选择并配置特定部署类型。 部署资产后,可以对其进行管理和更新,以确保其性能良好并监视其准确性。

要能够从空间部署资产,您必须具有已供应并与该空间相关联的机器学习服务实例。

联机和批处理部署提供了创建联机评分端点或对模型执行批处理评分的简单方法。

如果要实现定制逻辑:

  • 创建用于创建联机端点的 Python 函数
  • 编写用于批量评分的 Notebook 或脚本
注: 如果创建 Notebook 或脚本以执行批处理评分,那么此类资产将作为平台作业运行,而不是作为批处理部署运行。

可部署资产

以下是您可以从watsonx.aiRuntime 空间部署的资产列表,以及适用的部署类型信息:

可以部署的资产的列表
资产类型 批量部署 联机部署
函数
模型
脚本 False

注:

  • 部署作业是运行批量部署的一种方式,也是在watsonx.aiRuntime 中运行流程等独立资产的一种方式。 您可以选择作业的输入和输出,并选择手动或按调度运行该作业。 有关更多信息,请参阅 创建部署作业
  • 您可以使用Python函数或Python脚本部署自然语言处理模型。 支持在线部署和批量部署。
  • 笔记本和流使用笔记本环境。 您可以在部署空间中运行它们,但它们不可部署。

有关更多信息,请参阅:

部署资产后,可以对其进行管理和更新,以确保其性能良好并监视其准确性。 管理或更新部署的一些方法如下所示:

  • 管理部署作业。 创建一个或多个作业后,可以从部署空间的作业选项卡查看和管理这些作业。

  • 更新部署。 例如,可以将模型替换为性能更好的版本,而不必创建新部署。

  • 扩展部署以通过创建部署的副本来提高可用性和吞吐量。

  • 删除部署以移除部署和释放资源。

配置 API 网关以提供稳定的端点

watsonx.aiRuntime 提供稳定的端点,防止停机。 但是,如果移至新的 Cloud Pak for Data 实例或添加实例,那么可能会迂到停机时间。

API 网关提供可与 Watson Machine Learning API 端点配合使用的稳定 URL。 您可以将 API 网关 (在 Cloud Pak for Integration中提供) 与部署端点配合使用,以处理在以下情况下发生的停机时间:

  • 如果在高可用性配置中有多个 Cloud Pak for Data 实例,并且其中一个可用实例失败。 在这种情况下,您可以使用 API 网关自动切换到另一个实例,从而防止完全失败。
  • 如果您有多个使用相同端点的应用程序,并且部署端点不可用。 例如,如果您意外删除部署。 在这种情况下,您可以更新 API 网关中的端点,以确保应用程序继续使用该端点。

为部署运行时启用 GPU 和 MIG 支持

如果部署的预测性机器学习模型需要强大的处理能力进行推理,则可以选择为部署运行时配置 GPU。

如果要部署不需要 GPU 全部功能的应用程序,也可以启用 MIG 对 GPU 的支持。 如果要为 GPU 加速工作负载配置 MIG,则所有启用 GPU 的节点都应遵守先前配置步骤中确定的单一策略。 这样就能确保集群中所有支持 GPU 的节点行为一致。 要配置 MIG 支持,请参阅Nvidia 指南配置 MIG 支持

了解更多信息

父主题: 部署资产

Generative AI search and answer
These answers are generated by a large language model in watsonx.ai based on content from the product documentation. Learn more