0 / 0
Volver a la versión inglesa de la documentación
Limitaciones y problemas conocidos

Limitaciones y problemas conocidos

Las siguientes limitaciones y problemas conocidos se aplican a Cloud Pak for Data como servicio.

Lista de problemas de IBM Knowledge Catalog

Lista de problemas de flujo de enmascaramiento

Lista de problemas de Data Virtualization

Lista de problemas de cuadernos

Lista de problemas de aprendizaje automático

Lista de limitaciones de aprendizaje automático

Lista de problemas de Cognos Dashboard Embedded

Lista de problemas de Watson OpenScale

Lista de problemas de SPSS Modeler

Lista de problemas de conexión

Problemas con Cloud Object Storage

  • Lista de problemas de aprendizaje automático
    • Error con activos que utilizan Watson Machine Learning en proyectos que especifican Cloud Object Storage con Key Protect habilitado.
    • Auto AI
    • Federar aprendizaje
    • Watson Pipelines
  • Lista de problemas de SPSS Modeler
    • No se puede guardar el modelo en el proyecto especificando Cloud Object Storage con Key Protect habilitado.
  • Lista de problemas de cuadernos
    • No se puede guardar el modelo en el proyecto especificando Cloud Object Storage con Key Protect habilitado.

IBM Knowledge Catalog

Si utiliza IBM Knowledge Catalog, es posible que se encuentre con estos problemas conocidos y restricciones cuando utilice catálogos.

No se pueden utilizar activos enmascarados en Data Refinery

Para los activos enmascarados, los trabajos de Data Refinery fallan. Si tiene acceso a los activos de datos iniciales antes del enmascaramiento, la solución temporal es utilizar Data Refinery con activos sin enmascarar.

Los datos enmascarados no están soportados en las visualizaciones de datos

Los datos enmascarados no están soportados en las visualizaciones de datos. Si intenta trabajar con datos enmascarados al generar un gráfico en la pestaña Visualizaciones de un activo de datos en un proyecto, se recibe el siguiente mensaje de error: Bad Request: Failed to retrieve data from server. Masked data is not supported.

Los datos no están enmascarados en algunas herramientas del proyecto

Cuando añade un activo de datos conectado que contiene columnas enmascaradas de un catálogo a un proyecto, las columnas permanecen enmascaradas cuando visualiza los datos y cuando refina los datos en la herramienta Data Refinery. No obstante, otras herramientas de los proyectos no conservan la máscara cuando acceden a datos desde una conexión. Por ejemplo, cuando carga datos conectados en un cuaderno, un flujo de DataStage , un panel de instrumentos u otras herramientas de proyecto, puede acceder a los datos a través de una conexión directa y eludir el enmascaramiento.

Es posible que los artefactos de gobierno predefinidos no estén disponibles

Si no ve ninguna clasificación o clases de datos predefinidas, vuelva a inicializar el arrendatario utilizando la siguiente llamada de API:

curl -X POST "https://api.dataplatform.cloud.ibm.com/v3/glossary_terms/admin/initialize_content" -H "Authorization: Bearer $BEARER_TOKEN" -k

Añadir colaboradores con direcciones de correo electrónico en minúsculas

Cuando añade colaboradores al catálogo, especifique las direcciones de correo electrónico con todas las letras en minúsculas. Las direcciones de correo electrónico con minúsculas y mayúsculas no están soportadas.

Restricciones de las conexiones con Object Storage

Cuando visualiza una conexión de con Cloud Object Storage (API S3) o Cloudant, la carpeta se lista como un activo hijo.

Varias opciones de conexión simultáneas pueden fallar

Es posible que se genere un error cuando varios usuarios están ejecutando operaciones de conexión al mismo tiempo. El mensaje de error puede variar.

No se puede habilitar la aplicación de reglas de protección de datos tras la creación del catálogo

No puede habilitar la aplicación de las reglas de protección de datos después de crear un catálogo. Para aplicar las reglas de protección de datos a los activos de un catálogo, debe habilitar su aplicación durante la creación del catálogo.

Los activos se bloquean si falla la evaluación

Se aplican las restricciones siguientes a los activos de datos de un catálogo con las políticas aplicadas: Los activos de datos basados en archivos que tienen una cabecera no pueden tener nombres de columna duplicados, un punto (.) o una comilla simple (') en el nombre de columna.

Si falla la evaluación, se bloque el activo para todos los usuarios, excepto para el propietario del activo. Todos los otros usuarios verán un mensaje de error indicando que no se puede ver el activo de datos porque ha fallado la evaluación y el activo está bloqueado.

Sólo el filtro de clase de datos en los resultados de enriquecimiento de metadatos distingue entre mayúsculas y minúsculas

Cuando filtra los resultados de enriquecimiento de metadatos en la pestaña Columna, sólo las entradas de Clase de datos distinguen entre mayúsculas y minúsculas. Las entradas de los filtros Términos empresariales, Esquemas y Activos están todas en minúsculas independientemente de la carcasa real del valor.

Es posible que los detalles de enriquecimiento para un activo no reflejen los valores aplicados en la última ejecución de enriquecimiento

Después de editar las opciones de enriquecimiento para un enriquecimiento de metadatos que se ha ejecutado al menos una vez, los detalles del activo pueden mostrar las opciones actualizadas en lugar de las opciones aplicadas en la última ejecución de enriquecimiento.

No se puede acceder directamente a páginas individuales en un activo de enriquecimiento de metadatos

Si el número de activos o columnas de un activo de enriquecimiento de metadatos abarca varias páginas, no puede ir directamente a una página específica. La lista desplegable de números de página está inhabilitada. En su lugar, utilice los botones Página siguiente y Página anterior.

En algunos casos, es posible que no vea el registro completo de un trabajo de enriquecimiento de metadatos ejecutado en la interfaz de usuario

Si la lista de errores en una ejecución de enriquecimiento de metadatos es excepcionalmente larga, sólo se puede visualizar una parte del registro de trabajo en la interfaz de usuario.

Solución temporal: Descargue todo el registro y analícelo en un editor externo.

Es posible que falte información de esquema al filtrar los resultados de enriquecimiento

Cuando filtra activos o columnas en los resultados de enriquecimiento en la información de origen, es posible que la información de esquema no esté disponible.

Solución temporal: Vuelva a ejecutar el trabajo de enriquecimiento y aplique de nuevo el filtro Origen .

Las reglas ejecutadas en columnas de tiempo de tipo en activos de datos del origen de datos Amazon Redshift no devuelven los resultados adecuados

Para activos de datos de orígenes de datos Amazon Redshift , las columnas de tipo hora se importan con indicación de fecha y hora de tipo. No puede aplicar reglas de calidad de datos específicas del tiempo a dichas columnas.

Escritura de la salida de enriquecimiento de metadatos en una versión anterior de Apache Hive que 3.0.0

Si desea escribir la salida de calidad de datos generada por el enriquecimiento de metadatos en una base de datos Apache Hive en una versión de software anterior a 3.0.0, establezca los siguientes parámetros de configuración en el servidor Apache Hive :

set hive.support.concurrency=true;
set hive.exec.dynamic.partition.mode=nonstrict;
set hive.txn.manager=org.apache.hadoop.hive.ql.lockmgr.DbTxnManager;
set hive.enforce.bucketing=true;   # (not required for version 2)

set hive.compactor.initiator.on=true;
set hive.compactor.cleaner.on=true;   # might not be available depending on the version
set hive.compactor.worker.threads=1;

Para obtener más información, consulte Transacciones deHive.

Flujo de enmascaramiento

Si utiliza el flujo de enmascaramiento, es posible que encuentre estos problemas conocidos y restricciones al privatizar datos.

No se pueden utilizar activos enmascarados en Data Refinery

Para obtener más información, consulte No se pueden utilizar activos enmascarados en Data Refinery.

Es posible que fallen los trabajos de enmascaramiento

Durante un trabajo de flujo de enmascaramiento, Spark puede intentar leer un origen de datos completo en la memoria. Pueden producirse errores cuando no hay suficiente memoria para dar soporte al trabajo. El volumen de datos más alto que puede ajustarse al nodo de proceso de Spark desplegado de mayor tamaño es de aproximadamente 12GB.

Problemas del cuaderno

Es posible que se encuentre con algunos de estos problemas al empezar a utilizar los cuadernos.

La duplicación de un cuaderno no crea un nombre exclusivo en la nueva interfaz de usuario de proyectos

Cuando duplica un cuaderno en la interfaz de usuario de proyectos nuevos, el cuaderno duplicado no se crea con un nombre exclusivo.

No se pueden crear activos en cuentas antiguas

Si está trabajando en una instancia de Watson Studio que se activó antes de noviembre de 2017, es posible que no pueda crear activos operativos, como cuadernos. Si el botón Crear permanece gris e inhabilitado, debe añadir el servicio Watson Studio a su cuenta desde el catálogo de servicios.

Se han recibido 500 errores del servidor interno al iniciar Watson Studio

En raras ocasiones, puede recibir un error del servidor interno HTTP (500) al iniciar Watson Studio. Esto puede ser debido a una cookie caducada almacenada para el navegador. Para confirmar que la causa del error es una cookie obsoleta, intente iniciar Watson Studio en una sesión de navegación privada (incógnito) o utilizando un navegador diferente. Si puede iniciarlo de forma correcta en el nuevo navegador, el error ha sido debido a una cookie caducada. Tiene una selección de resoluciones:

  1. Salga por completo de la aplicación de navegador para restablecer la cookie. Debe cerrar y reiniciar la aplicación, no solo cerrar la ventana del navegador. Reinicie la aplicación de navegador e inicie Watson Studio para restablecer la cookie de sesión.
  2. Borre las cookies de IBM de los datos de navegación e inicie Watson Studio. Consulte los datos de navegación o las opciones de seguridad del navegador para borrar las cookies. Tenga en cuenta que borrar todas las cookies de IBM puede afectar a otras aplicaciones de IBM.

Si el error de 500 persiste después de realizar una de estas resoluciones, consulte la página de estado para las incidencias de IBM Cloud que afectan a Watson Studio. Además, puede abrir un caso de soporte en el portal de soporte de IBM Cloud.

Error durante el inicio de sesión

Es posible que reciba este mensaje error cuando intente iniciar una sesión en Watson Studio: "Access Manager WebSEAL no ha podido completar su solicitud debido a un error imprevisto". Intente iniciar la sesión de nuevo. Normalmente, el segundo intento de inicio de sesión funciona.

No se ha podido exportar un cuaderno a HTML en el editor de Jupyter Notebook

Cuando trabaje con un Jupyter Notebook creado en una herramienta que no sea Watson Studio, es posible que no pueda exportar el cuaderno a HTML. Este problema se produce cuando se expone la salida de célula.

Solución temporal

  1. En la interfaz de usuario de Jupyter Notebook , vaya a Editar y pulse Editar metadatos de cuaderno.

  2. Elimine los metadatos siguientes:

    "widgets": {
       "state": {},
       "version": "1.1.2"
    }
    
  3. Pulse Editar.

  4. Guarde el cuaderno.

La instalación manual de algunas bibliotecas de tensor no está soportada

Algunas bibliotecas de flujo de tensor están preinstaladas, pero si intenta instalar bibliotecas de flujos de tensor adicionales, aparece un error.

La conexión con el kernel del cuaderno tarda más de lo previsto después de ejecutar una celda de código

Si intenta volver a conectarse al kernel y ejecutar inmediatamente una celda de código (o si la reconexión del kernel se ha producido durante la ejecución del código), el cuaderno no se vuelve a conectar al kernel y no se muestra ninguna salida para la celda de código. Debe volver a conectarse manualmente al kernel pulsando Kernel > Volver a conectar. Cuando el kernel esté listo, intente volver a ejecutar la celda de código.

Si se utiliza el objeto sqlContext predefinido en varios cuadernos, se genera un error

Es posible que reciba un error de Apache Spark si utiliza el objeto sqlContext predefinido en varios cuadernos. Cree un nuevo objeto sqlContext para cada cuaderno. Consulte esta explicación del desbordamiento de pila.

Mensaje de error de conexión

Si el kernel se detiene, el cuaderno ya no se guarda automáticamente. Para guardarlo, pulse Archivo > Guardar manualmente y debe obtener un mensaje Cuaderno guardado en el área de información del kernel, que aparece antes de la versión de Spark. Si recibe un mensaje que indica que el kernel ha fallado, para volver a conectar el cuaderno al kernel, pulse Kernel > Volver a conectar. Si nada de lo que hace reinicia el kernel y no se puede guardar el cuaderno, puede descargarlo para guardar los cambios pulsando Archivo > Descargar como > Cuaderno (.ipynb). A continuación, debe crear un nuevo cuaderno basado en el archivo del cuaderno que ha descargado.

No se puede conectar con el kernel del cuaderno

Si intenta ejecutar un cuaderno y ve el mensaje Connecting to Kernel, seguido de Connection failed. Reconnecting y finalmente un mensaje de error de conexión fallida, es posible que el cortafuegos esté bloqueando la ejecución del cuaderno.

Si Watson Studio se instala detrás de un cortafuegos, debe añadir la conexión WebSocket wss://dataplatform.cloud.ibm.com a los valores del cortafuegos. La habilitación de esta conexión WebSocket es necesaria cuando se utilizan cuadernos y RStudio.

Error de recursos insuficientes disponibles al abrir o editar un cuaderno

Si ve el mensaje siguiente al abrir o editar un cuaderno, el tiempo de ejecución del entorno asociado con el cuaderno tiene problemas de recursos:

Insufficient resources available
A runtime instance with the requested configuration can't be started at this time because the required hardware resources aren't available.
Try again later or adjust the requested sizes.

Para encontrar la causa, intente comprobar la página de estado de las incidencias de IBM Cloud que afectan a Watson Studio. Además, puede abrir un caso de soporte en el portal de soporte de IBM Cloud .

Problemas de aprendizaje automático

Es posible que se encuentre con algunos de estos problemas al trabajar con herramientas de aprendizaje automático.

Requisitos de la región

Sólo puede asociar una instancia de servicio de Watson Machine Learning con el proyecto cuando la instancia de servicio de Watson Machine Learning y la instancia de Watson Studio se encuentran en la misma región.

Acceso a enlaces si crea una instancia de servicio al asociar un servicio con un proyecto

Mientras asocia un servicio de Watson Machine Learning a un proyecto, tiene la opción de crear una nueva instancia de servicio. Si elige crear un nuevo servicio, es posible que los enlaces de la página de servicio no funcionen. Para acceder a los términos de servicio, las API y la documentación, pulse con el botón derecho del ratón en los enlaces para abrirlos en nuevas ventanas.

Los activos de Aprendizaje federado no se pueden buscar en Todos los activos, los resultados de búsqueda o los resultados de filtro en la nueva interfaz de usuario de proyectos

No puede buscar activos de aprendizaje federado desde la vista Todos los activos , los resultados de la búsqueda o los resultados de filtro del proyecto.

Solución temporal: Pulse el activo de aprendizaje federado para abrir la herramienta.

Problemas de despliegue

  • Si un despliegue está inactivo (sin puntuaciones) durante un periodo de tiempo establecido (24 horas para el plan gratuito o 120 horas para un plan de pago), se hiberna automáticamente. Cuando se envía una nueva solicitud de puntuación, el despliegue se vuelve a activar y se responde a la solicitud de puntuación. Después de la activación, espere de 1 a 60 segundos antes de la primera solicitud de puntuación, en función de la infraestructura del modelo.
  • En algunas infraestructuras, por ejemplo, en el modelador SPSS, la primera solicitud de puntuación de un modelo desplegado después de la hibernación puede generar un error 504. Si esto sucede, vuelva a enviar la solicitud. Las solicitudes siguientes se ejecutarán correctamente.

La vista previa de activos de datos enmascarados está bloqueada en el espacio de despliegue * *

Una vista previa de activo de datos puede fallar con este mensaje: This asset contains masked data and is not supported for preview in the Deployment Space

Los espacios de despliegue actualmente no dan soporte al enmascaramiento de datos, por lo que la vista previa de los activos enmascarados se ha bloqueado para evitar fugas de datos.

Los trabajos de despliegue por lotes que utilizan una carga útil en línea grande pueden atascarse en el estado starting o running

Si proporciona una carga útil asíncrona grande para el despliegue por lotes en línea, puede dar como resultado que el proceso del gestor de tiempo de ejecución se salga de la memoria de almacenamiento dinámico.

En el ejemplo siguiente, se han pasado 92 MB de carga útil en línea al despliegue por lotes, lo que ha dado como resultado que el almacenamiento dinámico se quedara sin memoria.

Uncaught error from thread [scoring-runtime-manager-akka.scoring-jobs-dispatcher-35] shutting down JVM since 'akka.jvm-exit-on-fatal-error' is enabled for ActorSystem[scoring-runtime-manager]
java.lang.OutOfMemoryError: Java heap space
	at java.base/java.util.Arrays.copyOf(Arrays.java:3745)
	at java.base/java.lang.AbstractStringBuilder.ensureCapacityInternal(AbstractStringBuilder.java:172)
	at java.base/java.lang.AbstractStringBuilder.append(AbstractStringBuilder.java:538)
	at java.base/java.lang.StringBuilder.append(StringBuilder.java:174)
   ...

Esto podría provocar que los trabajos simultáneos se atasquen en el estado starting o running . El estado starting sólo se puede borrar una vez que se ha suprimido el despliegue y se ha creado un nuevo despliegue. El estado running se puede borrar sin suprimir el despliegue.

Como solución temporal, utilice referencias de datos en lugar de en línea para grandes cargas útiles que se proporcionan a los despliegues por lotes.

Limitaciones de Watson Machine Learning

Limitaciones conocidas de AutoAI

  • Actualmente, los experimentos de AutoAI no dan soporte a los juegos de caracteres de doble byte. AutoAI solo da soporte a archivos CSV con caracteres ASCII. Los usuarios deben convertir cualquier carácter no ASCII en el nombre o contenido del archivo y proporcionar datos de entrada como CSV tal como se define en este estándar CSV.

  • Para interactuar mediante programación con un modelo AutoAI, utilice la API REST, en lugar del cliente Python. Las API del cliente Python necesarias para dar soporte a AutoAI no están disponibles globalmente en este momento.

No se ha encontrado el módulo de datos en IBM Federated Learning

El manejador de datos para IBM Federated Learning está intentando extraer un módulo de datos de la biblioteca FL, pero no puede encontrarlo. Es posible que vea el siguiente mensaje de error:

ModuleNotFoundError: No module named 'ibmfl.util.datasets'

Es posible que el problema se deba al uso de un DataHandler obsoleto. Revise y actualice el DataHandler para que se ajuste a la especificación más reciente. Este es el enlace al manejador de datos MNIST más reciente o asegúrese de que las versiones de ejemplo estén actualizadas.

El establecimiento de variables de entorno en un archivo conda yaml no funciona para los despliegues

El establecimiento de variables de entorno en un archivo conda yaml no funciona para despliegues. Esto significa que no puede alterar temporalmente las variables de entorno existentes, por ejemplo LD_LIBRARY_PATH, al desplegar activos en Watson Machine Learning.

Como solución temporal, si está utilizando una función Python , considere la posibilidad de establecer parámetros predeterminados. Para obtener más detalles, consulte Despliegue de funciones de Python.

Problemas de Cognos Dashboard Embedded

Es posible que surjan algunos de estos problemas cuando trabaja con Cognos Dashboard Embedded.

Los archivos CSV que contienen nombres de columna duplicados no están soportados

Cognos Dashboard Embedded no da soporte a los archivos CSV que contienen nombres de columna duplicados. Los duplicados no distinguen entre mayúsculas y minúsculas. Por ejemplo, BRANCH_NAME, branch_namey Branch_Name se consideran nombres de columna duplicados.

Los paneles de control de Cognos solo pueden utilizar conexiones de datos creadas con credenciales de nombre de usuario y contraseña

Cognos Dashboard Embedded requiere que las conexiones de base de datos y los activos de datos conectados añadidos como orígenes de datos a un panel de control incluyan credenciales de nombre de usuario y contraseña.

Si estas credenciales no se especifican en la conexión y en su lugar se utiliza una señal o una clave de API, Cognos Dashboard Embedded no puede utilizar esa conexión o activo de datos conectado como origen de datos.

Se muestra un tipo de datos incorrecto para los activos de datos refinados

Después de importar un archivo CSV, si pulsa en el archivo importado en la página visión general del activo, es posible que los tipos de algunas columnas no se muestren correctamente. Por ejemplo, un conjunto de datos de un informe de empresa con una columna denominada Ingresos que contiene los ingresos de la empresa puede aparecer como de tipo Serie, en lugar de un tipo de datos de orientación numérica, lo que sería más lógico.

Caracteres especiales no soportados en archivos CSV

El nombre del archivo CSV de origen puede contener caracteres no alfanuméricos. Sin embargo, el nombre de archivo CSV no puede contener los caracteres especiales / : & < . \ ". Si el nombre de archivo contiene estos caracteres, se eliminan del nombre de tabla.

Importante: Los nombres de columna de tabla en el archivo CSV de origen no pueden contener ninguno de los caracteres especiales no soportados. Estos caracteres no se pueden eliminar porque el nombre del módulo de datos debe coincidir con el nombre de la columna del archivo de origen. En este caso, elimine los caracteres especiales de los nombres de columna para que se puedan utilizar sus datos en un panel de control.

Los valores de serie en los archivos CSV están limitados a 128 caracteres

Los valores de serie de una columna en el archivo CSV de origen solo pueden tener una longitud de 128 caracteres. Si su archivo CSV tiene columnas de serie con valores de una mayor longitud, se muestra un mensaje de error.

Limitaciones del formato de fecha en los archivos CSV

Hay limitaciones de formato de fecha para archivos CSV utilizados en visualizaciones. Para obtener más detalles, consulte Resolución de problemas cuando se utilizan datos de archivos CSV en Cognos Dashboard Embedded.

No se puede sustituir una tabla de datos en una visualización

Cuando añade una visualización a un panel de control, no puede añadir una tabla de datos a la visualización si anteriormente ha añadido y, a continuación, ha eliminado los campos de datos de otra tabla de datos. Esta restricción se aplica a Db2, tablas CSV y otros orígenes de datos.

Características de Cognos Analytics que no están soportadas

Las siguientes funciones de IBM Cognos Analytics no están soportadas en los paneles de control:

  • Agrupación de datos
  • Paletas de colores personalizadas
  • Visualizaciones personalizadas
  • Asistente
  • Previsiones
  • Detalles en visualización
  • Visualización de cuaderno Jupyter
  • Análisis avanzado de datos

Problemas de Watson OpenScale

Puede encontrar los problemas siguientes en Watson OpenScale:

La configuración de la desviación se inicia pero no termina nunca

La configuración de la desviación se inicia pero nunca termina y sigue mostrando el icono giratorio. Si observa que el icono giratorio se ejecuta durante más de 10 minutos, es posible que el sistema haya quedado en un estado incoherente. Hay un método alternativo para este comportamiento: editar la configuración de la desviación. A continuación, guárdelo. El sistema podrá salir de ese estado y se completará la configuración. Si la reconfiguración de la desviación no rectifica la situación, póngase en contacto con el soporte de IBM.

Problemas de SPSS Modeler

Es posible que encuentre algunos de estos problemas cuando comienza a trabajar con SPSS Modeler.

Restricciones de tiempo de ejecución de SPSS Modeler

Watson Studio no incluye funciones SPSS en Perú, Ecuador, Colombia y Venezuela.

Fusionar caracteres de nodo y unicode

El nodo Fusionar trata los siguientes caracteres japoneses muy similares como el mismo carácter.
caracteres japoneses

problemas de conexión

Es posible que se encuentre con este problema al trabajar con conexiones.

La conexión Cloudera Impala no funciona con la autenticación LDAP

Si crea una conexión con un origen de datos Cloudera Impala y el servidor Cloudera Impala está configurado para la autenticación LDAP, el método de autenticación de nombre de usuario y contraseña en Cloud Pak for Data as a Service no funcionará.

Solución temporal: Inhabilite la opción Habilitar autenticación LDAP en el servidor Impala . Consulte Configuración de la autenticación LDAP en la documentación de Cloudera .

Problemas conocidos de Watson Pipelines

Los problemas pertenecen a Watson Pipelines.

La anidación de bucles de más de 2 niveles puede dar como resultado un error de interconexión

La anidación de bucles de más de 2 niveles puede dar como resultado un error al ejecutar la interconexión, como por ejemplo Error al recuperar la ejecución. La revisión de los registros puede mostrar un error como, por ejemplo, text in text not resolved: neither pipeline_input nor node_output. Si está realizando un bucle con la salida de un script Bash, el registro puede listar un error como el siguiente: PipelineLoop can't be run; it has an invalid spec: non-existent variable in $(params.run-bash-script-standard-output). Para resolver el problema, no anide los bucles más de 2 niveles.

El navegador de activos no siempre refleja el recuento de números totales de tipo de activo

Al seleccionar un activo en el navegador de activos, como por ejemplo elegir un origen para un nodo de copia, verá que algunos de los activos listan el número total de ese tipo de activo disponible, pero los cuadernos no. Esa es una limitación actual.

No se pueden suprimir las versiones de interconexión

Actualmente, no puede suprimir las versiones guardadas de las interconexiones que ya no necesita.

La supresión de un experimento de AutoAI falla en algunas condiciones

Cuando se utiliza un nodo Suprimir experimento AutoAI para suprimir un experimento de AutoAI creado desde la interfaz de usuario de proyectos no se suprime el activo de AutoAI. No obstante, el resto del flujo se puede completar correctamente.

La memoria caché aparece habilitada pero no está habilitada

Si la Modalidad de copia del nodo Copiar activos se establece en Overwrite, la memoria caché se muestra como habilitada pero permanece inhabilitada.

Limitaciones de Watson Pipelines

Estas limitaciones se aplican a Watson Pipelines.

Límites de conducto único

Esta limitación se aplica a una única interconexión, independientemente de la configuración.

  • Cualquier interconexión individual no puede contener más de 120 nodos estándar
  • Cualquier interconexión con un bucle no puede contener más de 600 nodos en todas las iteraciones (por ejemplo, 60 iteraciones-10 nodos cada una)

Limitaciones por tamaño de configuración

Configuración pequeña

Una configuración SMALL admite 600 nodos estándar (en todas las interconexiones activas) o 300 nodos ejecutados en un bucle. Por ejemplo:

  • 30 interconexiones estándar con 20 nodos ejecutados en paralelo = 600 nodos estándar
  • 3 interconexiones que contienen un bucle con 10 iteraciones y 10 nodos en cada iteración = 300 nodos en un bucle

Configuración media

Una configuración MEDIUM da soporte a 1200 nodos estándar (en todas las interconexiones activas) o 600 nodos ejecutados en un bucle. Por ejemplo:

  • 30 interconexiones estándar con 40 nodos ejecutados en paralelo = 1200 nodos estándar
  • 6 interconexiones que contienen un bucle con 10 iteraciones y 10 nodos en cada iteración = 600 nodos en un bucle

Configuración grande

Una configuración LARGE admite 4800 nodos estándar (en todas las interconexiones activas) o 2400 nodos ejecutados en un bucle. Por ejemplo:

  • 80 interconexiones estándar con 60 nodos ejecutados en paralelo = 4800 nodos estándar
  • 24 interconexiones que contienen un bucle con 10 iteraciones y 10 nodos en cada iteración = 2400 nodos en un bucle

Límites de tamaño de entrada y salida

Los valores de entrada y salida, que incluyen parámetros de interconexión, variables de usuario y entradas y salidas de nodo genérico, no pueden superar los 10 KB de datos.

Entrada por lotes limitada a activos de datos

Actualmente, la entrada de los trabajos de despliegue por lotes está limitada a activos de datos. Esto significa que determinados tipos de despliegues, que requieren entrada JSON o varios archivos como entrada, no están soportados. Por ejemplo, los modelos SPSS y las soluciones de Decision Optimization que requieren varios archivos como entrada no están soportados.

Problemas con Cloud Object Storage

Este problema se aplica al trabajo con Cloud Object Storage.

Problemas con Cloud Object Storage cuando Key Protect está habilitado

Key Protect junto con Cloud Object Storage no está soportado para trabajar con activos de Watson Machine Learning . Si está utilizando Key Protect, es posible que se encuentre con estos problemas cuando trabaje con activos en Watson Studio.

  • El entrenamiento o el guardado de estos activos de Watson Machine Learning puede fallar:
    • Auto AI
    • Federated Learning
    • Watson Pipelines
  • Es posible que no pueda guardar un modelo SPSS o un modelo de cuaderno en un proyecto

Problemas con watsonx.governance

Retardo al mostrar datos de despliegue de plantilla de solicitud en una hoja de datos

Cuando se crea un despliegue para una plantilla de solicitud, los hechos del despliegue no se añaden a la hoja de datos inmediatamente. Primero debe evaluar el despliegue o ver la página de seguimiento del ciclo de vida para añadir los hechos a la hoja de datos.

Enlaces de archivos adjuntos redundantes en la hoja de datos

Una hoja de datos realiza un seguimiento de todos los sucesos de un activo en todas las fases del ciclo de vida. Los archivos adjuntos se muestran en cada etapa, creando cierta redundancia en la hoja de datos.

Búsqueda y respuesta de IA generativa
Estas respuestas las genera un modelo de lenguaje grande en watsonx.ai que se basa en el contenido de la documentación del producto. Más información