以下限制和已知问题适用于 Cloud Pak for Data as a Service。
- 区域限制
- IBM Knowledge Catalog
- 屏蔽流
- Data Virtualization
- watsonx.ai工作室
- Data Refinery
- 可视化
- watsonx.ai运行时
- Watson OpenScale
- SPSS Modeler
- 连接
- 编排管道
- Cloud Object Storage 问题
IBM Knowledge Catalog 问题列表
- 数据可视化中不支持掩码数据
- 在某些项目工具中未屏蔽数据
- 预定义的监管工件可能不可用
- 添加具有小写电子邮件地址的合作者
- 对象存储器连接限制
- 多个并发连接操作可能失败
- 无法在创建目录后启用策略
- 如果评估失败,那么将阻止资产
- 仅元数据扩充结果中的数据类过滤器区分大小写
- 资产的扩充项详细信息可能未反映在最新扩充项运行上应用的设置
- 无法直接访问元数据扩充资产中的个别页面
- 在某些情况下,您可能看不到在 UI 中运行的元数据扩充作业的完整日志
- 过滤扩充项结果时可能缺少模式信息
- 元数据扩充资产的 "资产" 选项卡上的搜索问题
- 将元数据扩充输出写入 3.0.0之前版本的 Apache Hive
- 扩充项结果中的业务术语过滤器可能不会立即反映分配更改
- 对于来自 SAP OData 源的资产,元数据丰富结果不显示表格类型
- 删除后,连接资产类型不会被永久删除
- Microsoft Excel 插件的问题
掩码流问题列表
Data Virtualization问题清单
watsonx.ai工作室问题列表
- 复制 Notebook 不会在新项目 UI 中创建唯一名称
- 无法在较旧的帐户中创建资产
- 登录期间出错
- 启动watsonx.aiStudio 时收到 500 内部服务器错误信息
- 未能在 Jupyter Notebook 编辑器中将 Notebook 导出到 HTML
- 不支持手动安装某些张量库
- 运行代码单元格后,连接到 Notebook 内核所花费的时间超出预期
- 在多个 Notebook 中使用预定义的 sqlContext 对象会导致错误
- 连接失败消息
- 指向 Notebook 部分的超链接在预览方式下不起作用
- 无法连接到 Notebook 内核
- 打开或编辑 Notebook 时发生可用资源不足错误
watsonx.aiStudio 限制列表
Data Refinery已知问题列表
Data Refinery限制列表
可视化问题清单
机器学习问题列表
机器学习限制列表
Watson OpenScale 问题列表
SPSS Modeler 问题列表
SPSS Modeler限制列表
连接问题列表
Cloud Object Storage 的问题
- 机器学习问题列表
- 在指定启用Key Protect的Cloud Object Storage的项目中,使用watsonx.aiRuntime 的资产出现错误。
- 自动 AI
- 联合学习
- 管道
- SPSS Modeler 问题列表
- 在启用了 Key Protect 的情况下,无法将模型保存到指定 Cloud Object Storage 的项目中。
- 笔记本问题列表
- 在启用了 Key Protect 的情况下,无法将模型保存到指定 Cloud Object Storage 的项目中。
IBM Knowledge Catalog
如果使用 IBM Knowledge Catalog,在使用目录时可能会遇到这些已知问题和限制。
删除后不会永久删除连接资产类型
即使在目录用户界面中将资产移除配置设置为移除时自动清除资产,资产类型 Connection
也不会在移除后立即被删除,而是显示在垃圾桶中。
目录资产搜索不支持特殊字符
如果搜索关键字包含以下特殊字符,则搜索过滤器不会返回最准确的结果。
搜索关键词
. + - && || ! ( ) { } [ ] ^ " ~ * ? : \
解决方法要获得最准确的结果,只搜索特殊字符后的关键词。 例如,搜索 SF_CUSTOMER,而不是 AUTO_DV1.SF_CUSTOMER 。
数据可视化中不支持掩码数据
数据可视化中不支持掩码数据。 如果尝试在项目中数据资产的 可视化 选项卡中生成图表时使用屏蔽数据,那么会收到以下错误消息: Bad Request: Failed to retrieve data from server. Masked data is not supported
。
在某些项目工具中未屏蔽数据
将包含屏蔽列的已连接数据资产从目录添加到项目后,查看数据以及在 Data Refinery 工具中优化数据时,这些列会保持屏蔽。 但是,项目中的其他工具通过连接访问数据时不会保留屏蔽。 例如,在 Notebook , DataStage 流,仪表板或其他项目工具中装入已连接的数据时,可以通过直接连接和旁路屏蔽来访问数据。
预定义的监管工件可能不可用
如果未看到任何预定义的分类或数据类,请使用以下 API 调用重新初始化租户:
curl -X POST "https://api.dataplatform.cloud.ibm.com/v3/glossary_terms/admin/initialize_content" -H "Authorization: Bearer $BEARER_TOKEN" -k
添加具有小写电子邮件地址的合作者
将合作者添加到目录时,请输入全小写字母的电子邮件地址。 不支持混合大小写电子邮件地址。
对象存储器连接限制
当查看 Cloud Object Storage (S3 API) 或 Cloudant 连接时,文件夹本身将列为子级资产。
多个并发连接操作可能失败
当多个用户同时运行连接操作时,可能会遇到错误。 错误消息可能会有所不同。
无法在创建目录后启用数据保护规则实施
创建目录后,无法启用数据保护规则的实施。 要将数据保护规则应用于目录中的资产,在创建目录期间必须启用实施。
如果评估失败,那么将阻止资产
以下限制适用于实施了策略的目录中的数据资产: 具有标题的基于文件的数据资产不能具有重复的列名,句点 (.) 或列名中的单引号 (')。
如果评估失败,那么将对资产所有者以外的所有用户阻止该资产。 所有其他用户都将看到一条错误消息,指示无法查看数据资产,因为评估失败且资产受阻。
仅元数据扩充结果中的数据类过滤器区分大小写
在 列 选项卡上过滤元数据扩充结果时,只有 数据类 条目区分大小写。 无论值的实际大小写如何, 业务术语, 模式和 资产 过滤器中的条目都是小写的。
资产的扩充项详细信息可能未反映在最新扩充项运行上应用的设置
编辑至少运行一次的元数据扩充项的扩充项后,资产详细信息可能会显示已更新的选项,而不是最新扩充项运行中应用的选项。
无法直接访问元数据扩充资产中的个别页面
如果元数据扩充资产中的资产或列数跨多个页面,那么无法直接转至特定页面。 页码下拉列表已禁用。 请改为使用 下一页 和 上一页 按钮。
在某些情况下,您可能看不到在 UI 中运行的元数据扩充作业的完整日志
如果元数据扩充项运行中的错误列表过长,那么 UI 中可能仅显示作业日志的一部分。
变通方法: 下载整个日志并在外部编辑器中对其进行分析。
过滤扩充项结果时可能缺少模式信息
根据源信息对扩充项结果中的资产或列进行过滤时,模式信息可能不可用。
变通方法: 重新运行扩充作业,然后再次应用 源 过滤器。
在元数据扩充资产的 "资产" 选项卡上搜索时发生问题
在元数据扩充资产的 资产 选项卡上搜索资产时,可能不会返回任何结果。 请考虑以下限制:
- 搜索区分大小写。
- 结果仅包含与精确搜索短语匹配的记录或以该短语开头的记录。
将元数据扩充输出写入比 3.0.0 更低版本的 Apache Hive
如果要将元数据扩充生成的数据质量输出写入比 3.0.0更早的软件版本的 Apache Hive 数据库,请在 Apache Hive Server 中设置以下配置参数:
set hive.support.concurrency=true;
set hive.exec.dynamic.partition.mode=nonstrict;
set hive.txn.manager=org.apache.hadoop.hive.ql.lockmgr.DbTxnManager;
set hive.enforce.bucketing=true; # (not required for version 2)
set hive.compactor.initiator.on=true;
set hive.compactor.cleaner.on=true; # might not be available depending on the version
set hive.compactor.worker.threads=1;
有关更多信息,请参阅 Hive 事务。
扩充项结果中的业务术语过滤器可能不会立即反映分配更改
手动分配或取消分配业务术语时,业务术语过滤器可能不会立即反映这些更改。
解决方法:点击刷新图标 " 刷新页面。
对于来自 SAP OData 源的资产,元数据丰富结果不显示表格类型
一般来说,元数据丰富结果会显示每个丰富后的数据资产是表还是视图。 对于来自 SAP OData 数据源的数据资产,无法检索到此信息,因此不会显示在丰富结果中。
Microsoft Excel 插件的问题
Microsoft Excel 的审查元数据插件存在以下已知问题:
打开下拉列表分配业务术语或数据类别时,第一个条目显示的是独特名称。 如果您选择了该条目,它就会显示在栏中,但没有任何作用。
目前不支持更新或覆盖电子表格中的现有数据。 每次检索数据时,都必须使用空模板文件。
如果在您编辑电子表格时,其他用户正在处理元数据丰富结果,那么当您上传电子表格中您所做的更改时,其他用户的更改可能会丢失。
只有已分配的数据类别和业务术语会从电子表格的已分配/建议的数据类别列和已分配/建议的业务术语列复制到相应的条目列。 如果指定了多个业务术语,则每个术语都会复制到单独一列。
屏蔽流
如果使用 "屏蔽" 流程,那么在私有化数据时可能会迂到这些已知问题和限制。
屏蔽流作业可能会失败
在屏蔽流作业期间,Spark 可能会尝试将所有数据源读取到内存中。 当没有足够的内存来支持作业时,可能会发生错误。 可放入部署的最大 Spark 处理节点的最大数据量大约为 12GB。
watsonx.ai工作室
在开始接触和使用笔记本时,您可能会遇到其中一些问题:
复制 Notebook 不会在新项目 UI 中创建唯一名称
在新项目 UI 中复制 Notebook 时,不会使用唯一名称创建重复的 Notebook。
无法在较旧的帐户中创建资产
如果您在 2017 年 11 月之前激活的watsonx.aiStudio 实例中工作,可能无法创建操作资产,如笔记本。 如果 "创建 "按钮保持灰色并禁用,您必须从 "服务 "目录中将watsonx.aiStudio 服务添加到您的账户。
启动watsonx.aiStudio 时收到 500 内部服务器错误信息
在启动watsonx.aiStudio 时,偶尔可能会收到HTTP内部服务器错误 (500)。 这可能是由于为浏览器存储的过期 cookie 造成的。 要确认错误是由过期 cookie 引起的,请尝试在私人浏览会话(隐身)或使用其他浏览器启动watsonx.aiStudio。 如果可以在新浏览器中成功启动,即表示错误是由过期 cookie 引起的。 您可以选择以下解决方法:
- 完全退出浏览器应用程序以重置 cookie。 您必须关闭并重新启动应用程序,而不仅仅是关闭浏览器窗口。 重启浏览器应用程序并启动watsonx.aiStudio,重置会话 cookie。
- 清除浏览数据中的IBMcookies,然后启动watsonx.aiStudio。 查看浏览器中的浏览数据或安全选项以清除 cookie。 请注意,清除所有 IBM cookie 可能会影响其他 IBM 应用程序。
如果在执行上述解决方案之一后仍出现 500 错误,请检查影响watsonx.aiStudio 的IBM Cloud事件的状态页面。 此外,您还可以在 IBM Cloud 支持门户网站中建立支持案例。
登录期间出错
在尝试登录watsonx.aiStudio 时,您可能会收到以下错误信息:"由于意外错误,访问管理器WebSEAL无法完成您的请求" 请重新尝试登录。 通常,第二次尝试时便可以成功登录。
在 Jupyter Notebook 编辑器中未能将 Notebook 导出到 HTML
当您使用watsonx.aiStudio 以外的工具创建Jupyter Notebook时,可能无法将笔记本导出为 HTML。 当单元输出公开时,会发生此问题。
变通方法
在 Jupyter Notebook UI 中,转至 编辑 ,然后单击 编辑 Notebook 元数据。
除去以下元数据:
"widgets": { "state": {}, "version": "1.1.2" }
单击编辑。
保存 Notebook。
不支持手动安装某些张量库
已经预先安装了某些张量流程库,但如果您尝试自己安装额外的张量流程库,那么会发生错误。
运行代码单元格后,连接到 Notebook 内核所花费的时间超出预期
如果尝试重新连接到内核并立即运行代码单元 (或者如果在代码执行期间发生了内核重新连接) ,那么 Notebook 不会重新连接到内核,并且不会显示代码单元的输出。 您需要通过单击 内核 > 重新连接来手动重新连接到内核。 内核已就绪时,您可以尝试重新运行代码单元格。
在多个 Notebook 中使用预定义的 sqlContext 对象会导致错误
如果在多个 Notebook 中使用预定义的 sqlContext 对象,那么您可能会遇到 Apache Spark 错误。 请为每个 Notebook 创建新的 sqlContext 对象。 请参阅此堆栈溢出说明。
连接失败消息
如果内核已停止,那么 Notebook 将不再自动保存。 要保存它,请手动单击 文件 > 保存 ,您应该会在内核信息区域中看到 Notebook 已保存 消息,该消息显示在 Spark 版本之前。 如果收到内核失败的消息,要将 Notebook 重新连接到内核,请单击 内核 > 重新连接。 如果不需要重新启动内核而无法保存 Notebook ,那么可以通过单击 文件 > 下载为 > Notebook (.ipynb)来下载该 Notebook 以保存更改。 然后,您需要根据下载的 Notebook 文件创建新 Notebook 。
指向笔记本部分的超链接在预览方式下不起作用
例如,如果 Notebook 包含您从 Notebook 顶部的介绍性部分链接到的部分,当在 Firefox 中以仅查看模式打开 Notebook 时,指向这些部分的链接将无法正常使用。 但是,如果以编辑方式打开 Notebook,这些链接将可以正常使用。
无法连接到 Notebook 内核
如果尝试运行 Notebook ,并看到消息 Connecting to Kernel
,后跟 Connection failed. Reconnecting
,最后显示连接失败错误消息,那么原因可能是防火墙阻止 Notebook 运行。
如果watsonx.aiStudio 安装在防火墙后面,则必须在防火墙设置中添加WebSocket连接 "wss://dataplatform.cloud.ibm.com
。 使用笔记本和RStudio 时需要启用WebSocket连接。
通过watsonx.aiStudio用户界面上传的文件未进行潜在恶意内容的验证或扫描
您通过watsonx.aiStudio用户界面上传的文件不会被验证或扫描是否含有潜在恶意内容。 强烈建议您在上传文件前对所有文件运行安全软件,如防病毒程序,以确保内容的安全。
Data Refinery已知问题
在Data Refinery流程中使用更新选项时,目标表丢失和作业失败
对关系数据源(如Db2)的写模式目标属性使用更新选项会替换原始目标表,Data Refinery任务可能会失败。
解决方法使用合并选项作为**写入**模式,并使用追加作为表操作。
Data Refinery限制
数据列标题不能包含特殊字符
列标题包含特殊字符的数据可能会导致 Data Refinery 作业失败,并给出错误 Supplied values don't match positional vars to interpolate
。
解决方法:删除列标题中的特殊字符。
Data Refinery不支持Satellite连接器
不能使用Satellite连接器连接到带有Data Refinery的数据库
使用个人凭据连接打开Data Refinery流程时出错
打开使用基于个人凭证连接的数据资产的Data Refinery流程时,可能会出现错误。
工作原理:要打开具有使用个人凭证连接的资产的Data Refinery流程,必须解锁连接。 您可以通过编辑连接并输入个人凭据来解锁连接,或者在项目中预览资产,系统会提示您输入个人凭据。 解锁连接后,就可以打开Data Refinery流程。
可视化问题
在项目中使用数据资产中的可视化选项卡时,您可能会遇到其中一些问题。
连接的数据资产的列级配置文件信息中,有一列类型为 DATE,但不显示行
在列类型为 DATE 的已连接数据资产的列级配置文件信息中,单击选项卡 数据类、格式 或 类型中的 显示行时,不会显示任何行。
watsonx.ai运行时问题
在使用watsonx.aiRuntime 时,您可能会遇到这些问题。
地区性要求
只有当 "watsonx.ai运行时服务实例和 "watsonx.aiStudio 实例位于同一区域时,才能将 "watsonx.ai运行时服务实例与项目关联。
在将服务与项目关联时创建服务实例时访问链接
在将watsonx.aiRuntime 服务与项目关联时,您可以选择创建一个新的服务实例。 如果选择创建新服务,那么服务页面上的链接可能不起作用。 要访问服务条款, API 和文档,请右键单击链接以在新窗口中打开这些链接。
无法在新项目 UI 中的所有资产,搜索结果或过滤结果中搜索联合学习资产
无法从 所有资产 视图,搜索结果或项目的过滤器结果中搜索 Federated Learning 资产。
变通方法: 单击 Federated Learning 资产以打开工具。
部署问题
- 对于在一定时间(免费套餐为 24 小时,付费套餐为 120 小时)内不活动(无评分)的部署,将自动休眠。 提交新评分请求时,将重新激活部署并响应评分请求。 根据模型框架的不同,预计在激活后对第一个评分请求会有 1 到 60 秒的短暂延迟。
- 对于某些框架(例如,SPSS 建模器),在休眠后对已部署模型的第一个评分请求可能会导致 504 错误。 如果出现此错误,请再次提交请求;随后的请求会成功。
在部署空间中阻止预览屏蔽的数据资产 **
数据资产预览失败时可能会显示以下信息: This asset contains masked data and is not supported for preview in the Deployment Space
部署空间当前不支持屏蔽数据,因此屏蔽资产的预览已被阻止,以防止数据泄露。
使用大型内联有效内容的批处理部署作业可能会陷入 starting
或 running
状态
如果为内联批处理部署提供大型异步有效内容,那么可能会导致运行时管理器进程耗尽堆内存。
在以下示例中, 92 MB 有效内容内联传递到批处理部署,导致堆耗尽内存。
Uncaught error from thread [scoring-runtime-manager-akka.scoring-jobs-dispatcher-35] shutting down JVM since 'akka.jvm-exit-on-fatal-error' is enabled for ActorSystem[scoring-runtime-manager]
java.lang.OutOfMemoryError: Java heap space
at java.base/java.util.Arrays.copyOf(Arrays.java:3745)
at java.base/java.lang.AbstractStringBuilder.ensureCapacityInternal(AbstractStringBuilder.java:172)
at java.base/java.lang.AbstractStringBuilder.append(AbstractStringBuilder.java:538)
at java.base/java.lang.StringBuilder.append(StringBuilder.java:174)
...
这可能会导致并发作业卡在 "starting
或 "running
状态。 只有在删除部署并创建新部署时,才能清除 "starting
状态。 可以在不删除部署的情况下清除 running
状态。
作为变通方法,对于提供给批处理部署的巨大有效内容,请使用数据引用而不是内联。
watsonx.ai运行时限制
AutoAI 已知限制
目前,AutoAI 试验不支持双字节字符集。 AutoAI仅支持包含 ASCII 字符的 CSV 文件。 用户必须转换文件名或内容中的任何非 ASCII 字符,并以 CSV 形式提供输入数据,如此 CSV 标准中所定义。
要以编程方式与 AutoAI 模型交互,请使用 REST API 而不是 Python 客户机。 支持AutoAI所需的Python客户端 API 目前尚未普遍提供。
在 IBM Federated Learning 中找不到数据模块
IBM Federated Learning 的数据处理程序正在尝试从 FL 库中抽取数据模块,但找不到该模块。 您可能会看到以下错误消息:
ModuleNotFoundError: No module named 'ibmfl.util.datasets'
此问题可能是由于使用过时的 DataHandler所致。 检查并更新DataHandler,使其符合最新规范。 以下是最新MNIST 数据处理器的链接,请确保您的样本版本是最新的。
在 conda yaml 文件中设置环境变量对于部署不起作用
在 conda yaml 文件中设置环境变量对于部署不起作用。 这意味着在watsonx.aiRuntime 中部署资产时,不能覆盖现有的环境变量,例如 "LD_LIBRARY_PATH
。
作为变通方法,如果您正在使用 Python 函数,请考虑设置缺省参数。 有关详细信息,请参阅 部署 Python 函数。
通过部署空间用户界面上传的文件未经验证或扫描,无法识别潜在的恶意内容
您通过部署空间用户界面上传的文件不会被验证或扫描是否存在潜在恶意内容。 建议您在上传文件前在所有文件上运行安全软件,如防病毒程序,以确保内容的安全。
Watson OpenScale 问题
您可能会在 Watson OpenScale中迂到以下问题:
漂移配置已启动,但从未完成
漂移配置已启动,但从未完成,并且继续显示微调框图标。 如果您看到微调框运行超过 10 分钟,那么系统可能处于不一致状态。 此行为存在变通方法:编辑漂移配置。 然后,进行保存。 系统可能会退出此状态并完成配置。 如果漂移重新配置无法纠正情况,请联系 IBM 支持人员。
SPSS Modeler 问题
在 SPSS Modeler 中工作时,您可能会遇到以下一些问题。
SPSS Modeler 运行时限制
在秘鲁、厄瓜多尔、哥伦比亚和委内瑞拉,watsonx.aiStudio 不包含SPSS功能。
时间戳记数据 (以微秒为单位)
如果您具有以微秒为单位度量的时间戳记数据,那么可以在流中使用更精确的数据。 但是,您只能从支持 SQL 回推的连接器导入以微秒为单位的数据。 有关哪些连接器支持 SQL 回送的更多信息,请参阅 SPSS Modeler支持的数据源。
SPSS Modeler的局限性
文本分析支持的语言
SPSS Modeler中的文本分析功能支持以下语言:
- 荷兰语
- 英语
- 法语
- 德语
- 意大利语
- 日语
- 葡萄牙语
- 西班牙语
SPSS Modeler不支持Satellite连接器
您不能使用SatelliteConnector 连接到SPSS Modeler 的数据库。
合并节点和 Unicode 字符
合并节点会将以下相似的日语字符视为同一个字符。
连接问题
使用连接时可能会迂到此问题。
Apache Impala 连接无法使用 LDAP 身份验证
如果创建了到 Apache Impala 数据源的连接,并且 Apache Impala 服务器设置为 LDAP 身份验证,则 Cloud Pak for Data as a Service 中的用户名和密码身份验证方法将不起作用。
变通方法: 在 Impala 服务器上禁用 启用 LDAP 认证 选项。 请参阅Cloudera文档中的配置 LDAP 身份验证。
编排管道已知问题
这些问题与 Orchestration Pipeline 相关。
资产浏览器并不总是反映资产类型的总数
从资产浏览器中选择资产 (例如,选择 Copy 节点的源) 时,您会看到某些资产列出了该资产类型的可用总数,但 Notebook 没有列出。
无法删除管道版本
当前,您无法删除已保存的不再需要的管道版本。 删除管道时,所有版本都会被删除。
在某些条件下,删除 AutoAI 试验失败
使用删除 AutoAI 试验节点以删除从项目 UI 创建的 AutoAI 试验将不会删除 AutoAI 资产。 但是,流程的其余部分可成功完成。
高速缓存显示为已启用但未启用
如果 复制资产 Pipeline 节点的 复制方式 设置为 Overwrite
,那么高速缓存将显示为已启用但仍处于禁用状态。
管道无法保存某些 SQL 语句
在脚本或用户变量中传递带有括号的 SQL 语句时,管道无法保存。
要解决此问题,请将所有括号实例替换为其各自的 ASCII 代码 ((
替换为 #40
, )
替换为 #41
) ,并在将其设置为用户变量时替换该代码。
例如,运行 Bash 脚本节点中的语句 "select CAST(col1 as VARCHAR(30)) from dbo.table
会导致错误。 请改为使用语句 select CAST#40col1 as VARCHAR#4030#41#41 from dbo.table
,并在将其设置为用户变量时替换实例。
达到注释限制时中止协调流水线
管道表达式需要注释,而注释在 Kubernetes 中有限制。 如果达到此限制,管道将终止而不显示日志。
编排管道限制
这些限制适用于 Orchestration Pipeline。
单个管道限制
这些限制适用于单一管道,无论其配置如何。
- 任何单个管道不能包含超过 120 个标准节点
- 任何具有循环的管道都不能在所有迭代中包含超过 600 个节点 (例如, 60 个迭代-每个迭代 10 个节点)
输入和输出大小限制
输入和输出值 (包括管道参数,用户变量以及通用节点输入和输出) 不能超过 10 KB 的数据。
批量输入仅限于数据资产
当前,批量部署作业的输入仅限于数据资产。 这意味着不支持某些类型的部署 (需要 JSON 输入或多个文件作为输入)。 例如,不支持需要多个文件作为输入的 SPSS 模型和 Decision Optimization 解决方案。
Bash 脚本使用 curl 命令抛出错误
如果在管道中实现 curl 命令,那么管道中的 Bash 脚本可能会导致错误。 要防止此问题,请将 curl 命令设置为参数。 要保存在保存时导致错误的管道,请尝试导出 isx 文件并将其导入到新项目中。
Cloud Object Storage 的问题
这些问题也适用于使用Cloud Object Storage。
启用 Key Protect 时 Cloud Object Storage 的问题
在使用watsonx.aiRuntime 资产时,不支持使用Cloud Object Storage进行Key Protect。 如果使用Key Protect,在watsonx.aiStudio 中处理资产时可能会遇到这些问题。
- 训练或保存这些watsonx.aiRuntime 资产可能会失败:
- 自动 AI
- 联合学习
- 管道
- 您可能无法将 SPSS 模型或 Notebook 模型保存到项目
watsonx.governance 的问题
与 OpenPages 集成的限制
当 AI Factsheets 与 OpenPages, 在字段组 MRG-UserFacts-Model
或 MRG-UserFact-Model
和 MRG-UserFacts-ModelEntry
或 MRG-UserFact-ModelUseCase
中创建的字段将同步到 modelfacts_user_op
和 model_entry_user_op
资产类型定义。 但是,在 OpenPages 应用程序中创建字段时,应避免将字段指定为必填字段,也不要指定值范围。 如果将它们标记为必填项或指定值范围,同步将失败。
在概况介绍中显示提示模板部署数据的延迟
为提示模板创建部署时,不会立即将部署的事实添加到 factsheet 中。 您必须首先评估部署或查看生命周期跟踪页面,以将事实添加到构面表中。
Factsheet 中的冗余附件链接
Factsheet 在生命周期的所有阶段中跟踪资产的所有事件。 附件会显示在每个阶段中,从而在 factsheet 中创建一些冗余。
未在导入或导出时保存提示模板的附件
如果 AI 用例包含提示模板的附件,那么当提示模板资产从项目导出或导入到项目或空间中时,不会保留这些附件。 您必须在导入操作后重新附加任何文件。