0 / 0
Volver a la versión inglesa de la documentación

Novedades de watsonx as a Service en IBM Cloud

Última actualización: 21 mar 2025
Novedades de watsonx as a Service en IBM Cloud

Vuelva cada semana para conocer las nuevas funciones y actualizaciones de IBM watsonx.ai y IBM watsonx.governance en IBM Cloud.

Para obtener información sobre IBM watsonx.governance en AWS, consulte Las novedades de IBM watsonx.governance en AWS.

Sugerencia: En ocasiones, debe realizar una acción específica después de una actualización. Para ver todas las acciones necesarias, busque "Acción necesaria" en esta página.

Semana que finaliza el 21 de marzo de 2025

Trabajar con nuevos modelos de despliegue bajo demanda especializados para las lenguas europeas en watsonx.ai

21 de marzo de 2025

Ahora puede inferir los siguientes modelos de bases de despliegue bajo demanda de IBM watsonx.ai especializados en 24 idiomas europeos y 11 idiomas internacionales:

  • eurollm-1-7b-instruct
  • eurollm-9b-instruct

Para obtener más información sobre precios, consulte Modelos de bases compatibles. Para obtener más información sobre cómo implementar un modelo de base bajo demanda, consulte Implementación de modelos de base bajo demanda.

Coincidir con el idioma de entrada

20 de marzo de 2025

AutoAI ahora detectará automáticamente el idioma utilizado en las indicaciones y ordenará a los modelos que respondan en el mismo idioma. Los modelos que no admiten la lengua de entrada tienen menos prioridad en la búsqueda del patrón RAG. Puede desactivar esta configuración del experimento si desea que AutoAI tenga en cuenta todos los modelos disponibles y genere respuestas sólo en inglés. Para más detalles, consulte Personalización de la configuración de AutoAI RAG.

El modelo de base granite-8b-japanese está obsoleto

19 de marzo de 2025

El siguiente modelo de base granite-8b-japanese está obsoleto y se retirará el 6 de agosto de 2025. Revisa las indicaciones que utilicen estos modelos básicos.

  • Fecha de depreciación: 19 de marzo de 2025
  • Fecha de retirada: 6 de agosto de 2025
  • Modelo alternativo: granite-3-8b-instruct

Para obtener más información sobre la eliminación y la retirada, consulte Ciclo de vida del modelo de fundamentación. Para más información sobre modelos alternativos, consulte Modelos de fundación compatibles.

Semana que finaliza el 7 de marzo de 2025

Inferencia: despliegue bajo demanda y modelos de base personalizados de la región de Frankfurt

6 de marzo de 2025

Ahora tiene más formas de trabajar con modelos de bases de datos de proyectos alojados en el centro de datos de Fráncfort.

  • Cargar e implementar modelos de bases personalizados.
  • Elija entre un conjunto de modelos de bases de datos populares para implementarlos en hardware dedicado para el uso exclusivo de su organización.

Para obtener más información, lea los siguientes recursos:

Trabajar con nuevos modelos de implementación bajo demanda en watsonx.ai

5 de marzo de 2025

Ahora puede inferir los siguientes modelos de base de despliegue bajo demanda de IBM watsonx.ai:

  • granite-8b-japanese
  • granite-20b-multilingual
  • allam-1-13b-instruct

Para obtener más información sobre precios, consulte Modelos de bases compatibles. Para obtener más información sobre cómo implementar un modelo de base bajo demanda, consulte Implementación de modelos de base bajo demanda.

Los fragmentos de código ya están disponibles en Decision Optimization experiments

5 de marzo de 2025

Al crear modelos de e Decision Optimization s en la interfaz de usuario del experimento, ahora puede utilizar fragmentos de código para modelos de e Python s DOcplex u OPL. El uso de fragmentos de código puede acelerar la creación de modelos, ya que permite añadir y editar código sin tener que introducir todas las líneas de código desde cero.

Para más información, consulte Fragmentos de código para crear modelos.

Semana que finaliza el 28 de febrero de 2025

Implementar AutoAI para experimentos RAG Chroma como servicio de IA

27 de febrero de 2025

AutoAI los patrones RAG que se crean utilizando la base de datos Chroma en memoria ahora se pueden implementar como un servicio de IA. Utilice este método de implementación para guardar un patrón RAG como un activo implementable, promocionarlo a un espacio y crear la implementación en una sola operación. A continuación, puede probar el patrón RAG y acceder al punto final de inferencia.

Para más detalles, consulte Automatizar un patrón RAG con AutoAI.

Eliminación de Runtime 23.1

27 de febrero de 2025

Soporte para IBM Runtime 23.1 en watsonx.ai Runtime y watsonx.ai Studio se eliminarán el 17 de abril de 2025. Para garantizar una experiencia fluida y aprovechar las últimas funciones y mejoras, cambie a IBM Runtime 24.1.

Inferencia de los modelos Granite 3.2 Instruct y Vision en la región de Dallas

26 de febrero de 2025

El modelo de razonamiento de la fundación granite-3-2-8b-instruct es un modelo de razonamiento con potentes capacidades, como citar sus fuentes y detectar alucinaciones. Puede controlar si la modelo comparte su proceso de pensamiento en el resultado para equilibrar el rendimiento y la transparencia. Este modelo es la versión disponible en general del modelo de base de previsualización tecnológica de granite-3-2-8b-instruct-preview-rc.

El modelo de base de datos de la Fundación de la Web ( granite-vision-3-2-2b ) es el primer modelo de base de datos de la Web ( Granite ) multimodal creado para casos de uso empresarial. El modelo de base de imagen a texto es capaz de asimilar imágenes y texto para tareas como la comprensión de tablas, diagramas, gráficos y más.

Para obtener más información, consulte Modelos de base soportados.

Desuso de la biblioteca project-lib

24 de febrero de 2025

La biblioteca project-lib está obsoleta. A partir de Runtime 25.1, la biblioteca no se incluirá en ninguna nueva versión de Runtime. Aunque las versiones existentes en tiempo de ejecución a través de 24.1 seguirán incluyendo la biblioteca obsoleta, considere reescribir su código para utilizar la biblioteca ibm-watson-studio-lib.

Para obtener información sobre cómo migrar su código, consulte:

Semana que finaliza el 21 de febrero de 2025

Implementar modelos de bases personalizadas con especificaciones de hardware extrapequeñas

20 de febrero de 2025

Para ahorrar recursos, puede implementar modelos de cimientos personalizados con especificaciones de hardware extrapequeñas. Utiliza la especificación de hardware gpu_xs para el parámetro hardware_request cuando implementes tu modelo de base personalizado con la API REST. Para obtener más información, consulte Creación de una implementación para un modelo de base personalizado.

El modelo de base de parámetros de 3000 millones de dólares de la Fundación de la Iniciativa de Transparencia de la Cadena de Suministro ( Granite Code ) está disponible para que lo despliegue bajo demanda

20 de febrero de 2025

El modelo de base de maquillaje granite-3b-code-instruct de IBM está disponible como modelo de base de maquillaje desplegable bajo demanda. Para obtener más información, consulte Modelos de bases compatibles.

Para obtener más información sobre cómo implementar un modelo de base bajo demanda, consulte Implementación de modelos de base bajo demanda.

Semana que finaliza el 14 de febrero de 2025

Inferencia: despliegue de modelos de base personalizados y bajo demanda de la región de Toronto

13 de febrero de 2025

Ahora tiene más formas de trabajar con modelos de fundación de proyectos que se alojan en la región de Toronto.

  • Cargar e implementar modelos de bases personalizados.
  • Elija entre un conjunto de modelos de bases de datos populares para implementarlos en hardware dedicado para el uso exclusivo de su organización.

Para obtener más información, lea los siguientes recursos:

Integre una implementación alojada existente de IBM OpenPages con watsonx.governance

13 de febrero de 2024

Además de integrar opcionalmente watsonx.governance con la consola de gobernanza implementada con OpenPages como servicio, ahora puede integrar watsonx.governance con una implementación alojada de IBM OpenPages,, ya sea en una nube gestionada o en una implementación local tradicional. La integración con una versión alojada de OpenPages requiere el plan Essentials para watsonx.governance.

Implementar modelos convertidos de scikit-learn y XGBoost al formato ONNX

13 de febrero de 2024

Ahora puede implementar modelos de aprendizaje automático y de IA generativa que se convierten de scikit-learn y XGBoost al formato ONNX y utilizar el punto final para la inferencia. Para más información, consulte Despliegue de modelos con formato ONNX.

Trabajar con nuevos modelos de implementación bajo demanda Granite Code en watsonx.ai

13 de febrero de 2025

Utilice los siguientes modelos de base de código Granite Code de IBM para tareas de codificación como escribir, convertir y corregir código programático:

  • granite-8b-code-instruct
  • granite-20b-code-instruct
  • granite-34b-code-instruct

Para obtener más información sobre precios, consulte Modelos de bases compatibles. Para obtener más información sobre cómo implementar un modelo de base bajo demanda, consulte Implementación de modelos de base bajo demanda.

Vídeos tutoriales actualizados de SPSS Modeler

11 de febrero de 2025

Vea y aprenda sobre SPSS Modeler viendo los vídeos actualizados en los tutoriales de SPSS Modeler.

Semana que finaliza el 7 de febrero de 2025

Vea el último modelo de base de maquillaje de IBM Granite en la región de Dallas

7 de febrero de 2025

Pruebe una vista previa técnica del modelo de base de maquillaje granite-3-2-8b-instruct-preview-rc, ahora disponible en la región de Dallas. El modelo de previsualización 3.2 de Granite añade nuevas capacidades de razonamiento de una forma novedosa. La función de razonamiento es configurable, lo que significa que puede habilitar el razonamiento solo para tareas en las que la información explicativa sea útil en el resultado.

La previsión de datos con modelos de series temporales de base e IBM Granite es ya está disponible de forma general

6 de febrero de 2025

Utilice el método de previsión de series temporales de la API de la Biblioteca de Procesamiento de Datos ( watsonx.ai ) para pasar observaciones de datos históricos a un modelo de base de series temporales de la Biblioteca de Procesamiento de Datos ( IBM Granite ) que puede pronosticar valores futuros con inferencia de tiro cero.

IBM watsonx.ai está disponible en la región de Toronto

6 de febrero de 2025

Watsonx.ai está ahora disponible de forma general en el centro de datos de Toronto y Toronto puede seleccionarse como región preferida al registrarse. Utilizar un subconjunto de los modelos de base proporcionados para inferir e incrustar modelos para generar incrustaciones de texto y reordenar pasajes.

Para obtener más información sobre los modelos de fundaciones y las características de los productos que están disponibles en la región de Toronto, consulte Disponibilidad regional de servicios y características.

Inferencia de despliegue bajo demanda y modelos de base personalizados de la región de Sídney

6 de febrero de 2025

Ahora tiene más formas de trabajar con modelos de base de proyectos alojados en la región de Sydney.

  • Cargar e implementar modelos de bases personalizados.
  • Elija entre un conjunto de modelos de bases de datos populares para implementarlos en hardware dedicado para el uso exclusivo de su organización.

Para obtener más información, lea los siguientes recursos:

Mistral Large 2 el modelo de base está disponible para que lo despliegue bajo demanda

6 de febrero de 2025

El modelo de base de maquillaje mistral-large-instruct-2407 de Mistral AI está disponible como modelo de base de maquillaje desplegable bajo demanda. Se aplica una tarifa adicional por hora al acceder a este modelo. Para obtener más información sobre precios, consulte Modelos de bases compatibles.

Para obtener más información sobre cómo implementar un modelo de base bajo demanda, consulte Implementación de modelos de base bajo demanda.

Despliegue e infiera nuevos modelos destilados de e DeepSeek-R1 a bajo demanda en watsonx.ai

3 de febrero de 2025

DeepSeek-R1 Ahora puede implementar variantes destiladas de modelos de e-commerce a demanda en watsonx.ai en IBM Cloud. Las variantes del modelo de aprendizaje profundo ( DeepSeek-R1 ) se basan en modelos de aprendizaje profundo (deep learning) que se ajustan mediante el uso de datos de entrenamiento generados por el modelo de aprendizaje profundo ( DeepSeek-R1 ).

Para más detalles, consulte Modelos de cimentación soportados .

Para obtener más información sobre cómo implementar un modelo de base bajo demanda desde el centro de recursos o la API REST, consulte Implementación de modelos de base bajo demanda.

Inventario predeterminado reemplaza Catálogo de activos de la plataforma en watsonx.governance

3 de febrero de 2025

Ahora hay disponible un inventario predeterminado para almacenar artefactos de inteligencia artificial ( watsonx.governance ), incluidos casos de uso de IA, modelos de terceros, archivos adjuntos e informes. El inventario predeterminado sustituye cualquier dependencia previa en el catálogo de acceso a la plataforma o en IBM Knowledge Catalog para almacenar artefactos de gobernanza.

Para obtener más información, consulte Configuración del inventario predeterminado.

Estudio de evaluación disponible en el centro de datos de Sydney

3 de febrero de 2025

Con Evaluation Studio, puede evaluar y comparar sus activos de IA generativa con métricas cuantitativas y criterios personalizables que se adapten a sus casos de uso. Evalúe el rendimiento de varios activos simultáneamente y vea análisis comparativos de los resultados para identificar las mejores soluciones.

Para obtener más información, consulte Comparación de activos AI con Evaluation Studio.

Semana que finaliza el 31 de enero de 2025

Cree e implemente agentes de IA en el nuevo Laboratorio de agentes (beta)

30 de enero de 2025

Ahora puede crear e implementar agentes de IA para que sus aplicaciones sean más flexibles y dinámicas mediante la interfaz de usuario de Agent Lab. Puede configurar el agente para que tome decisiones y realice tareas utilizando un marco de trabajo de agente, un modelo base y herramientas externas que usted especifique en la configuración del agente.

Para más información, consulte el Laboratorio de Agentes.

Cuando utiliza Agent Lab para crear sus aplicaciones de IA en watsonx.ai, sus aplicaciones se implementan como servicios de IA. Puede optar por implementar su solución directamente desde la interfaz de usuario o exportarla a un cuaderno editable en un Python, que implementa el servicio de IA.

Para más información, consulte Despliegue de servicios de IA.

Un nuevo y potente modelo de base de maquillaje e Mistral Large 2 , disponible para que lo utilices cuando lo necesites

30 de enero de 2025

Implemente el modelo de base de datos mistral-large-instruct-2411 desde Mistral AI en hardware dedicado para uso exclusivo de su organización. Mistral-Large-Instruct-2407 Este último modelo de base mejora el modelo de base de datos de la base de datos de la base de datos de la base de datos de la base de datos de la base de datos de la base de datos de la base de datos de la base de datos de la base de datos de la base de datos de la base de datos de la base de datos de la base de datos de la base de datos de la base de datos de la base de datos

A diferencia de otros modelos de bases de datos desplegadas bajo demanda, hay una tarifa adicional por hora para acceder al modelo de base de datos alojada en mistral-large-instruct-2411. Para obtener más información sobre precios, consulte Modelos de bases compatibles.

Para obtener más información sobre cómo implementar un modelo de base bajo demanda desde el centro de recursos o la API REST, consulte Implementación de modelos de base bajo demanda.

Inferencia del modelo de base Mistral Small 3 en la región de Frankfurt

30 de enero de 2025

El modelo de base de datos mistral-small-24b-instruct-2501 de Mistral AI está disponible y alojado en hardware multiusuario listo para su uso. El modelo de base Mistral Small 3 es una gran elección para los flujos de trabajo de chat debido a estas características:

  • Capacidades de agente con llamada de función nativa y generación de salida JSON.
  • Capacidades de conversación y razonamiento de vanguardia.
  • Mantiene una fuerte adhesión y apoyo a las indicaciones del sistema.
  • Admite docenas de idiomas, incluidos inglés, francés, alemán, español, italiano, chino, japonés, coreano, portugués, holandés y polaco.

Para obtener más información, consulte Modelos de base soportados.

Despliegue e infiera modelos destilados de DeepSeek-R1 encia con watsonx.ai

29 de enero de 2025

Ahora puede utilizar las variantes destiladas de DeepSeek-R1, un potente modelo de razonamiento de código abierto, para implementar e inferir de forma segura modelos de razonamiento DeepSeek-R1 con watsonx.ai en IBM Cloud, lo que permite a los desarrolladores acelerar el desarrollo de soluciones basadas en IA. DeepSeek-R1 el modelo puede utilizarse como modelo de base personalizado con watsonx.ai.

Para obtener más información, consulte Implementación de modelos de base personalizados.

Precio más bajo para inferir el Llama 3.3 70b Instrucciones para el modelo de base

29 de enero de 2025

El precio para inferir el modelo de fundación de llama-3-3-70b-instruct a partir de Meta disminuyó de 0.0018 a 0.00071 USD por 1000 tokens. El cambio de precio se aplica a todas las regiones en las que está disponible el modelo de base.

Para obtener más información, consulte Modelos de base soportados.

Semana que finaliza el 24 de enero de 2025

Disponibilidad general de AutoAI para experimentos de GAR

23 de enero de 2025

AutoAI para RAG es ahora totalmente compatible para automatizar la búsqueda de un patrón de generación optimizado de recuperación-aumentada para sus aplicaciones. Esta actualización incluye las siguientes novedades:

  • Explore AutoAI para RAG utilizando datos de muestra y una visita guiada para aprender el proceso.
  • Si crea un experimento utilizando un almacén de vectores Milvus, ahora puede desplegar un patrón RAG como un servicio AI para poder acceder al punto final desde un espacio de despliegue para realizar inferencias.

Para más detalles, consulte Automatizar un patrón RAG con AutoAI.

La ejecución de los experimentos RAG de AutoAI conlleva los siguientes gastos de facturación:

  • La Unidad de Capacidad por Hora (CUH) cobra por el tiempo de ejecución de los experimentos.
  • Unidad de Recurso (RU) cobrada por todas las llamadas de incrustación e inferencia del modelo de IA generativa realizadas durante la ejecución del experimento. Una Unidad de Recursos (UR) equivale a 1.000 fichas.

Para obtener información sobre planes y detalles de facturación, consulte watsonx.ai Planes de tiempo de ejecución.

Implantar servicios de IA con CPDCTL

23 de enero de 2024

Ahora puede utilizar la interfaz de línea de comandos Cloud Pak for Data (CPDCTL) para implantar sus soluciones de IA generativa con servicios de IA mediante programación. CPDCTL es una herramienta de línea de comandos para desplegar y gestionar servicios de IA en la plataforma IBM Cloud Pak for Data (CPD). Proporciona una forma sencilla y racionalizada de desplegar servicios de IA, eliminando la necesidad de configuración manual y reduciendo el riesgo de errores.

Para obtener más información, consulte Despliegue de servicios AI con la interfaz de línea de comandos Cloud Pak for Data (CPDCTL).

Implante servicios de IA con AutoAI para RAG

23 de enero de 2024

Cuando utilice AutoAI para crear una solución de IA generativa que utilice un patrón RAG, ahora puede desplegar su solución directamente desde el constructor de experimentos de AutoAI como un servicio de IA. Para obtener más información, consulte Despliegue de servicios de IA con herramientas.

Implantación de modelos convertidos de CatBoost y LightGBM al formato ONNX

23 de enero de 2024

Ahora puede desplegar modelos de aprendizaje automático y de IA generativa convertidos de CatBoost y LightGBM al formato ONNX y utilizar el endpoint para inferencias. Estos modelos también pueden adaptarse a ejes dinámicos. Para más información, consulte Despliegue de modelos con formato ONNX.

Varios modelos de cimientos Llama están ahora disponibles en más regiones

22 de enero de 2025

Los siguientes modelos de base de Meta están disponibles en más regiones:

  • llama-3-3-70b-instruct: Ahora disponible desde Tokio y Londres, además de Dallas y Fráncfort.
  • llama-3-2-11b-vision-instruct: Ahora disponible desde Fráncfort y Londres, además de Dallas, Tokio y Sídney.

Para más información sobre la disponibilidad regional de los modelos de cimentación, consulte Disponibilidad regional en IBM Cloud.

Los modelos de cimientos Llama 3.1 Instruct 70b y 8b están obsoletos

22 de enero de 2025

Los siguientes modelos de base de Meta quedan obsoletos. Revisa las indicaciones que utilicen estos modelos básicos.

  • llama-3-1-70b-instruct

    • Fecha de caducidad: 22 de enero de 2025
    • Fecha de retirada: 30 de mayo de 2025
    • Modelo alternativo: llama-3-3-70b-instruct o llama-3-2-90b-vision-instruct
  • llama-3-1-8b-instruct

    • Fecha de caducidad: 22 de enero de 2025
    • Fecha de retirada: 30 de mayo de 2025
    • Modelo alternativo: llama-3-2-11b-vision-instruct

Para obtener más información sobre la eliminación y la retirada, consulte Ciclo de vida del modelo de fundamentación. Para más información sobre modelos alternativos, consulte Modelos de fundación compatibles.

Si desea seguir trabajando con estos modelos de base, puede desplegar los modelos bajo demanda para su uso exclusivo. Para obtener más información, consulte Despliegue de modelos de cimientos bajo demanda.

Semana que finaliza el 17 de enero de 2025

Utilizar nuevos modelos de incrustación de IBM Granite en watsonx.ai

16 de enero de 2025

Ahora puede utilizar los siguientes modelos de incrustación de Granite proporcionados por IBM en watsonx.ai:

  • granite-embedding-107m-multilingual
  • granite-embedding-278m-multilingual

Utilice los nuevos modelos de incrustación para generar incrustaciones de texto de alta calidad para entradas en forma de consulta, pasaje o documento en varios idiomas. Para más detalles, consulte Modelos de codificadores compatibles y Vectorización de texto.

Se ha introducido una modificación en los modelos Granite Guardian

16 de enero de 2025

Ya puede inferir la última versión de los modelos de la base Granite Guardian de IBM en watsonx.ai en los centros de datos de Dallas y Sídney.

Las últimas versiones 3.1 de los modelos admiten ahora una longitud de contexto de 128.000 tokens y se han entrenado con datos sintéticos adicionales para mejorar el rendimiento de los riesgos relacionados con la alucinación y el jailbreak. Para más detalles, consulte Modelos de cimentación soportados .

Los modelos de base granite-20b-multilingual y codellama-34b-instruct-hf quedan obsoletos

15 de enero de 2025

Los siguientes modelos de cimientos están obsoletos. Revisa las indicaciones que utilicen estos modelos básicos.

  • granite-20b-multilingual

    • Fecha de depreciación: 15 de enero de 2025
    • Fecha de retirada: 16 de abril de 2025
    • Modelo alternativo: granite-3-8b-instruct
  • codellama-34b-instruct-hf

    • Fecha de depreciación: 15 de enero de 2025
    • Fecha de retirada: 31 de marzo de 2025
    • Modelo alternativo: llama-3-3-70b-instruct

Para obtener más información sobre la eliminación y la retirada, consulte Ciclo de vida del modelo de fundamentación. Para más información sobre modelos alternativos, consulte Modelos de fundación compatibles.

Nuevas arquitecturas de modelos disponibles para implantar modelos de cimientos personalizados

15 de enero de 2024

Ahora puede desplegar modelos de base personalizados con las siguientes arquitecturas en watsonx.ai:

  • exaone
  • gemma
  • gemma2
  • granite
  • mt5
  • nemotron
  • olmo
  • persimmon
  • phi
  • phi3
  • qwen
  • qwen2

Para obtener más información, consulte Planificación de la implementación de un modelo de base personalizado.

Beta finalizada para los experimentos RAG AutoAI el 23 de enero de 2025

13 de enero de 2025

Una vez concluida la fase beta, la ejecución de experimentos RAG AutoAI conllevará los siguientes gastos de facturación:

  • La Unidad de Capacidad por Hora (CUH) cobra por el tiempo de ejecución de los experimentos.
  • Unidad de Recursos (RU) encargada de incrustar el documento de base y de inferir los modelos generativos de IA. Una Unidad de Recurso (RU) equivale a 1.000 fichas.

Para obtener información sobre planes y detalles de facturación, consulte watsonx.ai Planes de tiempo de ejecución.

Semana que finaliza el 20 de diciembre de 2024

Despliegue de modelos convertidos al formato ONNX

20 de diciembre de 2024

Ahora puede desplegar modelos de aprendizaje automático y de IA generativa convertidos al formato ONNX y utilizar el endpoint para inferencias. Estos modelos también pueden adaptarse a ejes dinámicos. Para más información, consulte Despliegue de modelos con formato ONNX.

Despliegue de flujos SPSS Modeler multifuente

20 de diciembre de 2024

Ahora puede crear implementaciones para flujos de SPSS Modeler que utilicen múltiples flujos de entrada para proporcionar datos al modelo. Para obtener más información, consulte Despliegue de flujos SPSS Modeler multifuente.

Semana que finaliza el 13 de diciembre de 2024

Se introducen modificaciones en los modelos de cimientos Granite 3 Instruct

13 de diciembre de 2024

Se han introducido modificaciones en los siguientes modelos de cimientos de IBM :

  • granite-3-2b-instruct
  • granite-3-8b-instruct

Con las últimas modificaciones, los modelos de la base Granite 3.1 Instruct ofrecen ahora un mejor soporte para la codificación de tareas y funciones intrínsecas para los agentes. La longitud de la ventana de contexto admitida para estos modelos de fundación aumentó de 4.096 a 131.072 tokens. Aunque los ID de los modelos Granite Instruct siguen siendo los mismos, se actualizan las ponderaciones de los modelos.

Para obtener más información, consulte Modelos de base soportados.

Solución sin código para buscar un patrón RAG con AutoAI (beta)

12 de diciembre de 2024

Ahora puede automatizar la búsqueda del patrón RAG óptimo para su caso de uso desde la interfaz de usuario AutoAI. Cargue la colección de documentos y las preguntas de prueba, elija una base de datos vectorial y ejecute el experimento para un enfoque de ruta rápida para encontrar un patrón RAG. También puede revisar y modificar los ajustes de configuración del experimento. Compare los patrones generados por el experimento y guarde el mejor patrón como cuaderno autogenerado o cuadernos guardados en su proyecto.

Para más detalles, consulte Automatizar un patrón RAG con AutoAI.

Implantar servicios de IA con plantillas

12 de diciembre de 2024

Puede desplegar sus servicios de IA utilizando plantillas predefinidas. Las plantillas de servicios de IA proporcionan una forma estandarizada de desplegar servicios de IA al ofrecer una estructura y configuración predefinidas para desplegar modelos de IA. Estas plantillas son unidades de código preconstruidas y desplegables que encapsulan la lógica de programación de las aplicaciones de IA generativa.

Las plantillas de servicios de IA automatizan tareas como la creación de despliegues, la generación de metadatos y la creación de extensiones, lo que permite a los desarrolladores centrarse en la lógica central de su aplicación. Proporcionan una forma flexible de desplegar servicios de IA, admitiendo múltiples entradas y personalización.

Para obtener más información, consulte Despliegue de servicios de IA con plantillas.

El último modelo de base de llama está disponible para que lo despliegue bajo demanda

12 de diciembre de 2024

Puede implementar el Meta Llama 3.3 70B Instruya el modelo de base multilingüe en hardware dedicado para el uso exclusivo de su organización. El modelo de base más reciente de Meta tiene capacidades similares al modelo más grande de llama-3-405b-instruct, pero es más pequeño y es experto en codificación, razonamiento paso a paso y, en particular, en la llamada de herramientas. Puede implementar el modelo completo ( llama-3-3-70b-instruct-hf ) o una versión cuantificada ( llama-3-3-70b-instruct ) que requiere menos recursos para alojar.

Para obtener más información sobre cómo implementar un modelo de base bajo demanda desde el centro de recursos o la API REST, consulte Implementación de modelos de base bajo demanda.

Despliegue de modelos de la Fundación a petición con la biblioteca cliente Python

12 de diciembre de 2024

Ahora puede desplegar sus modelos de cimentación a petición utilizando la biblioteca de clientes watsonx.ai Python. Gracias a este enfoque, podrá acceder a las capacidades de estos potentes modelos de cimentación sin necesidad de grandes recursos computacionales. Los modelos Foundation que se despliegan a petición se alojan en un espacio de despliegue dedicado en el que se pueden utilizar estos modelos para inferencias.

Para obtener más información, consulte Despliegue de modelos de la Fundación a petición.

Tutoriales actualizados SPSS Modeler

11 de diciembre de 2024

Obtenga experiencia práctica con SPSS Modeler probando las 15 versiones actualizadas de SPSS Modeler tutoriales.

Comparación de activos de IA con Evaluation Studio

12 de diciembre de 2024

Con Evaluation Studio, puede evaluar y comparar sus activos de IA generativa con métricas cuantitativas y criterios personalizables que se adapten a sus casos de uso. Evalúe el rendimiento de varios activos simultáneamente y vea análisis comparativos de los resultados para identificar las mejores soluciones.

Para obtener más información, consulte Comparación de activos AI con Evaluation Studio.

Mejoras en la consola de Gobernanza

12 de diciembre de 2024

Mejoras en la solución watsonx.governance Model Risk Governance

Esta versión incluye las siguientes mejoras:

  • La nueva plantilla del cuestionario de identificación de riesgos en la incorporación de modelos de IA se utiliza durante el proceso de incorporación de modelos para ayudar a identificar los riesgos asociados a un modelo. Esta plantilla de cuestionario se utiliza en el flujo de trabajo Foundation Model Onboarding.
  • La nueva plantilla del cuestionario de identificación de riesgos de casos de uso de IA se utiliza para ayudar a identificar los riesgos asociados a los casos de uso de IA. Esta plantilla de cuestionario se utiliza en el flujo de trabajo de Revisión de Casos de Uso. Este nuevo cuestionario está destinado a sustituir al Cuestionario de Identificación de Riesgos AI
  • La nueva plantilla del cuestionario de identificación de riesgos de casos de uso y modelos de IA se utiliza para ayudar a identificar los riesgos asociados a la combinación de un caso de uso y un modelo de IA. Esta plantilla de cuestionario se utiliza en el flujo de trabajo de Desarrollo de Casos de Uso y Documentación.
  • El flujo de trabajo de evaluación de la IA está ahora desactivado por defecto. Se sustituye por el Flujo de trabajo de evaluación de cuestionarios. Ahora puede establecer plantillas de cuestionarios directamente en el flujo de trabajo de casos de uso.
  • Se actualizaron los flujos de trabajo, las vistas y los cuadros de mando.

Para obtener más información, consulte Componentes de la solución en la consola Gobernanza.

Correcciones de errores y de seguridad

Se han aplicado correcciones de errores y de seguridad.

Para más información, consulte Nuevas funciones en 9.0.0.5.

IBM watsonx.governance governance está disponible en la región de Sydney

9 de diciembre de 2024

IBM watsonx.governance ya está disponible de forma general en el centro de datos de Sídney. Puede seleccionar Sídney como región preferida al inscribirse.

Para obtener más información sobre las funciones del producto disponibles en la región de Sídney, consulte Disponibilidad regional de servicios y funciones.

Semana que finaliza el 6 de diciembre de 2024

Despliegue de modelos de cimientos bajo demanda en la región de Dallas

6 de diciembre de 2024

Elija entre una colección seleccionada de modelos de base que puede implantar en hardware dedicado para uso exclusivo de su organización. Un despliegue dedicado se traduce en interacciones más ágiles a la hora de inferir modelos de base. Los modelos de cimentación a la carta se facturan por horas. Para obtener más información, consulte Modelos de base admitidos y Detalles de facturación de los activos de IA generativa.

Para obtener más información sobre cómo implementar un modelo de base bajo demanda desde el centro de recursos o la API REST, consulte Implementación de modelos de base bajo demanda.

Inferencia el último modelo de base de Llama de Meta en las regiones de Dallas y Frankfurt

6 de diciembre de 2024

Meta . Llama 3. 3. 70B. El modelo de fundación multilingüe de Instruct está disponible para las regiones de Dallas y Frankfurt. El modelo de la fundación llama-3-3-70b-instruct es experto en codificación, razonamiento paso a paso y llamada a herramientas. Con un rendimiento que rivaliza con el del modelo e 405b, la actualización del modelo de base e Llama 3.3 es una gran elección para los desarrolladores. Vea el anuncio de IBM.

Para obtener más información, consulte Modelos de base soportados.

Revisar los puntos de referencia para comparar los modelos de fundación

5 de diciembre de 2024

Revise los puntos de referencia de los modelos de bases de maquillaje para conocer las capacidades de los modelos de bases de maquillaje disponibles antes de probarlos. Compare el rendimiento de varios modelos de cimientos en las tareas más importantes para su caso de uso. Para más información, consulte los puntos de referencia del modelo de la Fundación.

Los archivos de Microsoft Excel están obsoletos para los modelos OPL en Decision Optimization

5 de diciembre de 2024

Los archivos de libros de Microsoft Excel (.xls y .xlsx) están ahora obsoletos para la entrada y salida directa en los modelos OPL de Decision Optimization. Para conectarse a archivos Excel, utilice en su lugar un conector de datos. El conector de datos transforma tu archivo Excel en un archivo .csv. Para más información, véase Datos de referencia.

Nuevos cuadernos de muestras para desplegar modelos convertidos al formato ONNX

3 de diciembre de 2024

Ahora puede desplegar modelos de aprendizaje automático y de IA generativa convertidos al formato ONNX y utilizar el endpoint para inferencias. Estos modelos también pueden adaptarse a ejes dinámicos. Consulte los siguientes cuadernos de muestra:

Para obtener más información, consulte watsonx.ai Runtime Python client samples and examples.

Los modelos de base llama-3-8b-instruct y llama-3-70b-instruct están obsoletos

2 de diciembre de 2024

Los siguientes modelos de cimientos están obsoletos. Revisa las indicaciones que utilicen estos modelos básicos.

  • llama-3-8b-instruct

    • Fecha de amortización: 2 de diciembre de 2024
    • Fecha de retirada: 3 de febrero de 2025
    • Modelo alternativo: llama-3-1-8b-instruct, llama-3-2-11b-vision-instruct
  • llama-3-70b-instruct

    • Fecha de amortización: 2 de diciembre de 2024
    • Fecha de retirada: 3 de febrero de 2025 (31 de marzo de 2025 en Sydney)
    • Modelo alternativo: llama-3-2-90b-vision-instruct

Para obtener más información sobre la eliminación y la retirada, consulte Ciclo de vida del modelo de fundamentación. Para más información sobre modelos alternativos, consulte Modelos de fundación compatibles.

Semana que finaliza el 29 de noviembre de 2024

Mejora de la documentación sobre las opciones de escritura de Data Refinery

28 de noviembre de 2024

Las opciones de escritura y las opciones de tabla para exportar flujos de datos dependen de su conexión. A continuación se explican estas opciones para orientarle mejor a la hora de seleccionar las opciones de su mesa de destino. Para obtener más información, consulte Opciones de conexión de destino para Data Refinery.

Semana que finaliza el 22 de noviembre de 2024

Nuevo centro de desarrollo watsonx para empezar a programar rápidamente

21 de octubre de 2024

Eche un vistazo al nuevo centro de desarrollo para encontrar todo lo que necesita para codificar su solución de IA generativa:

  • Realice su primera solicitud de API para inferir un modelo de base en watsonx.ai.
  • Encuentre los modelos básicos y las bibliotecas de código adecuados para sus aplicaciones de IA.
  • Comprender las capacidades de watsonx.ai y copiar fragmentos de código en Curl, Node.js o Python.
  • Aprenda a crear aplicaciones y soluciones de IA generativa con guías detalladas.
  • Únete a comunidades para encontrar recursos, respuestas y relacionarte con otros usuarios.

Vaya a watsonx Developer Hub.

Los servicios de componentes de IBM watsonx.ai pasaron a llamarse

21 de noviembre de 2024

Se ha cambiado el nombre de los siguientes servicios:

  • Watson Machine Learning ' se llama ahora watsonx.ai Runtime
  • Watson Studio ' se llama ahora watsonx.ai Studio

Es posible que algunos vídeos, cuadernos y ejemplos de código sigan refiriéndose a estos servicios por sus nombres anteriores.

IBM watsonx.ai está disponible en la región de Sídney

21 de noviembre de 2024

Watsonx.ai ya está disponible de forma general en el centro de datos de Sídney y se puede seleccionar Sídney como región preferida al registrarse.

Para obtener más información sobre los modelos de base y las características de los productos disponibles en la región de Sídney, consulte Disponibilidad regional de servicios y características.

Utilizar modelos de series temporales de base de datos ( IBM Granite ) y la API de datos de tiempo real ( watsonx.ai ) para pronosticar valores futuros (beta)

21 de noviembre de 2024

Utilice la API de series temporales para pasar observaciones de datos históricos a un modelo de base de series temporales e IBM Granite e que puede pronosticar valores futuros con inferencia de tiro cero. El método de previsión de series temporales de la API de watsonx.ai está disponible como función beta. Para obtener más información, consulte Pronosticar valores de datos futuros.

Utilizar los modelos de incrustación de texto de watsonx.ai desde la API de inferencia Elasticsearch

21 de noviembre de 2024

La versión 8.16.0 de la versión 1.0 de Elasticsearch añadió soporte para la creación de un punto final de inferencia que utiliza un modelo de base de datos relacional ( watsonx.ai ) para tareas de incrustación de texto.

Para más información, consulte Vectorizar texto mediante la API.

Promover flujos de SPSS Modeler a espacios de despliegue

19 de noviembre de 2024

Ahora puede promover directamente flujos de SPSS Modeler de proyectos a espacios de implantación sin tener que exportar el proyecto y luego importarlo al espacio de implantación. Para obtener más información, consulte Promover flujos y modelos SPSS Modeler.

Semana que finaliza el 15 de noviembre de 2024

Utilice la aplicación de chat de demostración IBM watsonx.ai sin restricciones de prueba vinculando cuentas

15 de noviembre de 2024

Ahora puede utilizar su aplicación de chat de cuenta de demostración ' IBM ' watsonx.ai sin restricciones de uso de tokens ni de límite de tiempo vinculando su cuenta de demostración a su cuenta de pago ' IBM Cloud ' watsonx.ai. Para más detalles, véase " Vinculación de las cuentas de demostración " IBM " watsonx.ai " y " watsonx.ai .

El paquete watsonx.ai Node.js está disponible en LangChain

11 de noviembre de 2024

El paquete watsonx.ai Node.js está disponible para su uso en la biblioteca comunitaria LangChain JavaScript. La integración es compatible con funciones de watsonx.ai como la inferencia de modelos de cimientos, la generación de incrustaciones de texto y la gestión de intercambios de chat que incluyen funciones de imagen a texto y llamada de herramientas. Con la integración LangChain, puede llamar a estas capacidades de watsonx.ai utilizando interfaces coherentes que facilitan el intercambio entre proveedores para comparar ofertas y encontrar la mejor solución para sus necesidades.

Para obtener más información, consulte Node.js SDK.

Ahora se requieren credenciales de tarea para desplegar activos y ejecutar trabajos desde un espacio de despliegue

11 de noviembre de 2024

Para mejorar la seguridad de los trabajos de despliegue en ejecución, debe introducir sus credenciales de tarea para desplegar los siguientes activos desde un espacio de despliegue:

  • Plantillas de solicitud
  • Servicios de IA
  • Modelos de
  • Funciones de Python
  • Scripts

Además, debe introducir sus credenciales de tarea para crear las siguientes implantaciones desde su espacio de implantación:

  • En línea
  • Despliegue

También debe utilizar sus credenciales de tarea para crear y gestionar trabajos de despliegue desde su espacio de despliegue.

Para saber cómo configurar sus credenciales de tarea y generar una clave API, consulte Añadir credenciales de tarea.

Semana que finaliza el 8 de noviembre de 2024

Implantar aplicaciones de IA generativa con servicios de IA

7 de noviembre de 2024

Ahora puede utilizar los servicios de IA en watsonx.ai para desplegar sus aplicaciones. Un servicio de IA es una unidad de código desplegable que puede utilizar para capturar la lógica de sus casos de uso de IA generativa. Mientras que las funciones Python son la forma tradicional de desplegar activos de aprendizaje automático, los servicios de IA ofrecen una opción más flexible para desplegar código para aplicaciones de IA generativa, como el streaming. Cuando sus servicios de IA se desplieguen correctamente, podrá utilizar el endpoint para inferir desde su aplicación.

Para más información, consulte Despliegue de servicios de IA.

Los modelos de base granite-13b-chat-v2, llama2-13b-dpo-v7 y mt0-xxl-13b están obsoletos

4 de noviembre de 2024

Los siguientes modelos de cimientos están obsoletos. Revisa las indicaciones que utilicen estos modelos básicos.

granite-13b-chat-v2

  • Fecha de depreciación: 4 de noviembre de 2024
  • Fecha de retirada: 3 de febrero de 2025
  • Modelo alternativo: granite-3-8b-instruct

llama2-13b-dpo-v7

  • Fecha de depreciación: 4 de noviembre de 2024
  • Fecha de retirada: 4 de diciembre de 2024
  • Modelo alternativo: llama-3-1-8b-instruct

mt0-xxl-13b

  • Fecha de depreciación: 4 de noviembre de 2024
  • Fecha de retirada: 4 de diciembre de 2024
  • Modelos alternativos: llama-3-2-11b-vision-instruct

Para obtener más información sobre la eliminación y la retirada, consulte Ciclo de vida del modelo de fundamentación. Para más información sobre modelos alternativos, consulte Modelos de fundación compatibles.

Semana que finaliza el 1 de noviembre de 2024

El nuevo modelo de incrustación de terceros all-minilm-l6-v2 está disponible en watsonx.ai

29 de octubre de 2024

El modelo de incrustación de texto all-minilm-l6-v2 de la comunidad de procesamiento del lenguaje natural (PLN) y visión por ordenador (CV) de código abierto ya está disponible para su uso desde el método de incrustación de texto de la API watsonx.ai. Utilice el modelo para convertir el texto en vectores de incrustación de texto adecuados para su uso en tareas de correspondencia y recuperación de texto. Para más detalles sobre el modelo, consulte los siguientes temas:

Precio más bajo por inferir el modelo de la fundación Mistral Large

29 de octubre de 2024

El precio de las aportaciones que envíe al modelo de fundación Mistral Large ha disminuido de 1.000 $ 0.01 a 1.000 $ 0.003 USD. El precio de la salida que genera el modelo de fundación no ha cambiado; el precio de los tokens de salida sigue siendo de 1 $ ( 0.01 ) por token de USD/1,000. El cambio de precio se aplica a todas las regiones en las que está disponible el modelo de base de la colección mistral-large.

Para obtener más información, consulte Modelos de base soportados.

Supresión de IBM Runtime 23.1

28 de octubre de 2024

IBM Runtime 23.1 está obsoleto. A partir del 21 de noviembre de 2024, no se podrán crear nuevos cuadernos o entornos personalizados utilizando tiempos de ejecución 23.1. Además, no se pueden crear nuevas implantaciones con especificaciones de software basadas en el tiempo de ejecución 23.1. Para garantizar una experiencia fluida y aprovechar las últimas funciones y mejoras, cambie a IBM Runtime 24.1.

Simplifique los documentos empresariales complejos con la API de extracción de texto

28 de octubre de 2024

El método de extracción de texto ya está disponible de forma general en la API REST de watsonx.ai. Aproveche la tecnología de comprensión de documentos desarrollada por IBM para simplificar sus complejos documentos empresariales de modo que puedan ser procesados por modelos de base como parte de un flujo de trabajo de IA generativa. La API de extracción de texto extrae texto de estructuras de documentos como imágenes, diagramas y tablas que los modelos de base no suelen poder interpretar correctamente. Para obtener más información, consulte Extracción de texto de documentos.

La API está disponible en todas las regiones para los usuarios de planes de pago. Para más información sobre precios, consulte la tabla de tarifas de extracción de texto de documentos.

Semana que finaliza el 25 de octubre de 2024

Comparar tablas en experimentos de Decision Optimization para ver las diferencias entre escenarios

23 de octubre de 2024

Ahora puede comparar tablas en un experimento de Decision Optimization en la vista Preparar datos o Explorar solución. Esta comparación puede ser útil para ver las diferencias de valor de los datos entre los escenarios mostrados uno al lado del otro. Captura de pantalla de la comparación de tablas en la Decision Optimization
Para más información, consulte Comparar tablas de escenarios.

Los nuevos modelos Granite 3.0 están disponibles en watsonx.ai

21 de octubre de 2024

Ahora puede inferir los siguientes modelos de la fundación Granite de generación 3.0 proporcionados por IBM desde watsonx.ai:

  • Modelos Granite Instruct en todas las regiones: Utilice los nuevos modelos lingüísticos de código abierto, ligeros y ajustados a Instruct para tareas de resumen, resolución de problemas, traducción de textos, razonamiento, codificación y llamada de funciones. Funciona con las siguientes variantes de modelos:
    • granite-3-2b-instruct
    • granite-3-8b-instruct
  • Modelos Granite Guardian en la región de Dallas: Utilice los nuevos modelos Granite Guardian, que son modelos Granite Instruct perfeccionados, diseñados para detectar riesgos en las indicaciones y respuestas. Funciona con las siguientes variantes de modelos:
    • granite-guardian-3-2b
    • granite-guardian-3-8b

Para más detalles, consulte Modelos de cimentación soportados .

Mejore las tareas de búsqueda y recuperación con la API de clasificación de textos

21 de octubre de 2024

El método text rerank está generalmente disponible en la API REST de watsonx.ai. Utilice este nuevo método de la API, junto con los modelos de base del reordenador, como el modelo ms-marco-minilm-l-12-v2 recientemente admitido, para reordenar un conjunto de pasajes de documentos en función de su similitud con una consulta especificada. La reclasificación es una forma útil de añadir precisión a los flujos de trabajo de recuperación de respuestas. Para obtener más información, consulte Reranking de pasajes de documentos.

El nuevo modelo Pixtral 12B está disponible en las regiones de Frankfurt y Londres

21 de octubre de 2024

Ahora puede utilizar el modelo de cimientos Pixtral- 12B, de Mistral AI, en watsonx.ai en los centros de datos de Fráncfort y Londres.

Pixtral 12B es un modelo multimodal nativo con capacidades de imagen a texto y de texto a texto que se entrenó con datos de imagen y texto intercalados. El modelo básico admite tamaños de imagen variables y destaca en tareas de seguimiento de instrucciones. Para más detalles, consulte Modelos de cimentación soportados .

Semana que finaliza el 18 de octubre de 2024

El alcance de los recursos de la cuenta está activado por defecto

17 de octubre de 2024

El ajuste " Resource scope " de su cuenta se establece ahora en " ON por defecto. Sin embargo, si previamente ha establecido el valor para el ajuste Ámbito de recursos en ' ON o ' OFF, el ajuste actual no se modifica.

Cuando el ámbito de recursos está habilitado, no puede acceder a proyectos que no estén en su cuenta de IBM Cloud seleccionada actualmente. Si pertenece a más de una cuenta IBM Cloud, es posible que no vea todos sus proyectos juntos. Por ejemplo, es posible que no vea todos sus proyectos en la página Todos los proyectos. Debe cambiar de cuenta para ver los proyectos en las otras cuentas.

Hay un modelo de base de código de Granite disponible en la región de Frankfurt

15 de octubre de 2024

El modelo de base de datos granite-20b-code-instruct de IBM está diseñado para responder a instrucciones relacionadas con la codificación. Puede utilizar el modelo de base en proyectos alojados en el centro de datos de Fráncfort para ayudarle con las tareas de codificación y para crear asistentes de codificación. Para obtener más información sobre el modelo, consulte Modelos de cimentación admitidos.

Semana que finaliza el 11 de octubre de 2024

Nuevo beneficio de licencia

10 de octubre de 2024

Ahora puede traer su propia licencia (BYOL) para aplicar los beneficios de las licencias locales a IBM watsonx.ai e IBM watsonx.governance.

Para obtener más información, consulte Activación de Bring Your Own License (BYOL) a SaaS.

Analice datos de texto en japonés en SPSS Modeler con Text Analytics

9 de octubre de 2024

Ahora puede utilizar los nodos de Análisis de texto en SPSS Modeler, como el nodo de Análisis de enlaces de texto y el nodo de Minería de texto, para analizar datos de texto escritos en japonés.

Cree flujos de trabajo conversacionales con la API de chat watsonx.ai

8 de octubre de 2024

Utilice la API de chat watsonx.ai para añadir capacidades de IA generativa, incluidas las llamadas dirigidas por agentes a herramientas y servicios de terceros, en sus aplicaciones.

Para obtener más información, consulte los siguientes temas:

Nueva especificación de software para modelos de cimentación personalizados

7 de octubre de 2024

Ahora puede utilizar una nueva especificación de software, watsonx-cfm-caikit-1.1 , con sus implementaciones de modelos de bases personalizadas. La especificación se basa en la biblioteca de la Iniciativa de Descripción de Lenguaje Natural ( vLLM ) y se adapta mejor a los últimos modelos de lenguaje de gran tamaño que solo utilizan decodificadores. Para obtener más información sobre la biblioteca de especificaciones ( vLLM ), consulte vLLM Para obtener información sobre cómo utilizar la especificación con un modelo de base personalizado, consulte Planificación de la implementación de un modelo de base personalizado.

Los modelos de cimentación granite-7b-lab y llama3-llava-next-8b-hf han quedado obsoletos

7 de octubre de 2024

El modelo de base de la Fundación Internacional de la Sordera ( granite-7b-lab ) está obsoleto y se retirará el 7 de enero de 2025. Revisar cualquier mensaje que utilice este modelo de base.

  • Fecha de depreciación: 7 de octubre de 2024
  • Fecha de retirada: 7 de enero de 2025
  • Modelo alternativo: granite-3-8b-instruct

El modelo de cimientos multimodal de la Fundación de la Comunidad de la Información ( llama3-llava-next-8b-hf ) también está en desuso y se retirará el 7 de noviembre de 2024. Ahora puede utilizar uno de los modelos de visión 2. Llama 3, recientemente lanzados, para tareas de generación de imagen a texto.

  • Fecha de depreciación: 7 de octubre de 2024
  • Fecha de retirada: 7 de noviembre de 2024
  • Modelo alternativo: llama-3-2-11b-vision-instruct

Para obtener más información sobre la eliminación y la retirada, consulte Ciclo de vida del modelo de fundamentación. Para más información sobre modelos alternativos, consulte Modelos de fundación compatibles.

Semana que finaliza el 4 de octubre de 2024

Entornos y especificaciones de software actualizados

3 de octubre de 2024

Las bibliotecas Tensorflow y Keras que se incluyen en IBM Runtime 23.1 ya están actualizadas a sus versiones más recientes. Esto puede tener un impacto en cómo se ejecuta el código en tus cuadernos. Para obtener más información, consulte Paquetes de bibliotecas incluidos en los tiempos de ejecución de watsonx.ai Studio (anteriormente Watson Studio).

El Runtime 23.1 dejará de utilizarse en favor del Runtime 24.1 de IBM a finales de este año. Para evitar interrupciones repetidas, le recomendamos que cambie ahora a IBM Runtime 24.1 y utilice las especificaciones de software relacionadas para los despliegues.

Disponibilidad del plan watsonx.governance en la región de Fráncfort y supresión del plan heredado OpenScale

3 de octubre de 2024

El plan heredado watsonx.governance para aprovisionar Watson OpenScale en la región de Fráncfort queda obsoleto. IBM Watson OpenScale dejará de estar disponible para nuevas suscripciones o para aprovisionar nuevas instancias. Para las funciones OpenScale, suscríbase al plan watsonx.governance Essentials, que ya está disponible en Fráncfort y Dallas.

Notas:

  • Las instancias existentes del plan heredado seguirán funcionando y recibirán asistencia hasta la fecha de fin de asistencia, que aún está por determinar.
  • Los clientes existentes en IBM Watson OpenScale pueden seguir abriendo tickets de soporte utilizando IBM Watson OpenScale.

Nuevos términos de menú para abrir la página de conexiones de la Plataforma

3 de octubre de 2024

Anteriormente, la ruta a la Conexiones de plataformas página en el menú de navegación era Datos > Conexiones de plataformas. La nueva ruta es Datos > Conectividad. La página Conectividad tiene una pestaña para las conexiones de la Plataforma.

Semana que finaliza el 27 de septiembre de 2024

Llama 3.2 modelos de cimentación, incluidos los modelos multimodales 11B y 90B

25 de septiembre de 2024

El lanzamiento de hoy hace que los siguientes modelos de cimientos de Meta AI estén disponibles en la región de Dallas:

Llama 3.2 instruir modelos
Modelos lingüísticos versátiles de gran tamaño que admiten entradas de gran tamaño (128.000 tokens de longitud de ventana de contexto) y son lo suficientemente ligeros y eficientes, con 1B y 3B parámetros de tamaño, como para caber en un dispositivo móvil. Puede utilizar estos modelos para crear agentes altamente personalizados en el dispositivo.
Llama 3.2 modelos de visión
Modelos perfeccionados creados para casos de uso de entrada de imágenes y salida de texto, como la comprensión a nivel de documento, la interpretación de tablas y gráficos y el subtitulado de imágenes.
Modelo de visión de la Guardia de la Llama
Potente modelo de barrera diseñado para filtrar contenidos nocivos.

Para obtener más información, consulte Modelos de base soportados.

Mejoras en la consola de Gobernanza

25 de septiembre de 2024

Esta versión incluye mejoras y correcciones de errores.

Pestañas personalizadas en el panel de control

El salpicadero ahora puede contener hasta tres pestañas personalizadas.

Gráficos de barras apiladas

Ahora puede configurar un gráfico de barras apiladas en el cuadro de mandos y en el Diseñador de vistas.

Utilización de expresiones para establecer valores de campo basados en las respuestas de un encuestado

Ahora puede introducir una expresión para el valor de un campo. Por ejemplo, puede introducir [$TODAY$] para la fecha actual,[$END_USER$] para el nombre del usuario registrado, o [$System Fields:Description$] para establecer el campo en el valor del campo Descripción del objeto.

Mejoras en la solución watsonx.governance Model Risk Governance

Esta versión incluye las siguientes mejoras:

  • El nuevo tipo de objeto Grupo de modelos permite agrupar modelos similares. Por ejemplo, las versiones de un modelo que utilizan un enfoque similar para resolver un problema de negocio podrían en un Grupo de Modelos.
  • El nuevo cálculo de puntuación de riesgos de casos de uso agrega métricas por estado de infracción en puntuaciones de riesgo para ofrecer una visión general del rendimiento de los modelos subyacentes de un caso de uso.
  • La nueva entidad de negocio Biblioteca de IA descubierta proporciona un lugar predeterminado para almacenar cualquier despliegue de IA que no siga las prácticas de gobierno sancionadas dentro de una organización (también conocida como "IA en la sombra").
  • Se actualizaron los flujos de trabajo, las vistas y los cuadros de mando.

Para obtener más información, consulte Componentes de la solución en la consola Gobernanza.

Correcciones de errores y de seguridad

Se han aplicado correcciones de errores y de seguridad.

Para obtener más información, consulte Nuevas funciones en 9.0.0.4.

Automatizar patrones RAG con AutoAI SDK (beta)

23 de septiembre de 2024

Utilice el AutoAI Python SDK para automatizar y acelerar el diseño y despliegue de un patrón optimizado de generación aumentada por recuperación (RAG) basado en sus datos y caso de uso. RAG incluye muchos parámetros de configuración, como el modelo lingüístico de gran tamaño que debe elegirse, la forma de trocear los documentos de base y el número de documentos que deben recuperarse. AutoAI automatiza la exploración y evaluación completa de un conjunto restringido de opciones de configuración y produce un conjunto de canalizaciones de patrones clasificados por rendimiento frente a la métrica de optimización.

Nota: Mientras esta función esté en fase beta, no se cobra por ejecutar el experimento y no se consumen tokens. Sin embargo, las llamadas a patrones GAR y sus derivados realizadas una vez finalizado el experimento consumen recursos e incurren en gastos de facturación según las tarifas estándar.

Consulte Automatización de un patrón RAG con el AutoAI SDK(Beta) para obtener detalles sobre la función y notas de uso para codificar un experimento RAG AutoAI.

Eliminación del tiempo de ejecución de Spark 3.3

23 de septiembre de 2024

La compatibilidad con el tiempo de ejecución de Spark 3.3 en IBM Analytics Engine se eliminará el 29 de octubre de 2024 y la versión predeterminada se cambiará al tiempo de ejecución de Spark 3.4. Para garantizar una experiencia fluida y aprovechar las últimas funciones y mejoras, cambie a Spark 3.4.

A partir del 29 de octubre de 2024, no se podrán crear ni ejecutar cuadernos o entornos personalizados mediante tiempos de ejecución de Spark 3.3. Además, no puede crear ni ejecutar despliegues con especificaciones de software que se basen en el tiempo de ejecución de Spark 3.3.

Semana que finaliza el 20 de septiembre de 2024

Inferencia de un modelo de base multimodal a partir de la Prompt Lab

19 de septiembre de 2024

Ahora puede añadir una imagen en Prompt Lab y hablar sobre ella mediante un modelo de base multimodal en modo chat. Además de los documentos de referencia, ahora puede cargar imágenes y preguntar a un modelo de base que admita tareas de imagen a texto sobre el contenido visual de la imagen. Para obtener más información, consulte Chatear con documentos e imágenes.

Nuevo modelo llama3-llava-next-8b-hf disponible en la región de Dallas

19 de septiembre de 2024

Ahora puede utilizar el nuevo modelo multimodal de fundación de llama3-llava-next-8b-hf en IBM watsonx.ai para ayudarle con las tareas de imagen a texto.

El asistente de visión y lenguaje de gran tamaño (LLaVa) combina un modelo de lenguaje de gran tamaño preentrenado con un codificador de visión preentrenado para casos de uso de chatbot multimodales. LLaVA NeXT Llama3 se entrena con datos de imagen y texto más diversos y de mayor calidad. Para más detalles, consulte Modelos de cimentación soportados .

Utiliza el SDK watsonx.ai Node.js para codificar aplicaciones de IA generativa

18 de septiembre de 2024

Inferencia y ajuste de modelos de cimientos en IBM watsonx as a Service mediante programación utilizando el paquete watsonx.ai Node.js. Para obtener más información, consulte Node.js SDK.

Comprender las políticas de indemnización por propiedad intelectual para los modelos de fundación

18 de septiembre de 2024

Ahora puede entender mejor la política de indemnización por propiedad intelectual de IBM y ver qué modelos de la fundación tienen cobertura de indemnización por propiedad intelectual en watsonx.ai. Para más información, consulte Tipos de modelo e indemnización por IP.

Semana que finaliza el 13 de septiembre de 2024

Crear trabajos por lotes para flujos de e SPSS Modeler encia en el espacio de implementación

10 de septiembre de 2024

Ahora puede crear trabajos por lotes para flujos SPSS Modeler en espacios de despliegue. Los flujos le ofrecen la flexibilidad de decidir qué nodos terminales ejecutar cada vez que cree un trabajo por lotes a partir de un flujo. Cuando se programan trabajos por lotes para flujos, el trabajo por lotes utiliza las fuentes de datos y los destinos de salida especificados en el flujo. La asignación de estas fuentes de datos y salidas es automática si las fuentes de datos y los destinos también se encuentran en su espacio de despliegue. Para obtener más información sobre la creación de trabajos por lotes a partir de flujos, consulte Creación de trabajos de implementación para SPSS Modeler.

Para obtener más información sobre flujos y modelos en espacios de despliegue, consulte Despliegue de SPSS Modeler.

Semana que finaliza el 6 de septiembre de 2024

Traiga su propio modelo de base para la inferencia de watsonx.ai en la región de Dallas

3 de septiembre de 2024

Además de trabajar con modelos de base curados por IBM, ahora puede cargar y desplegar sus propios modelos de base. Una vez que los modelos se hayan desplegado y registrado en watsonx.ai, cree avisos que inferencien los modelos personalizados mediante programación o desde el Prompt Lab. Esta función sólo está disponible en la región de Dallas.

Para obtener más información sobre la carga de modelos de cimientos personalizados, consulte Despliegue de modelos de cimientos personalizados. Para obtener información sobre planes y detalles de facturación para modelos de cimientos personalizados, consulte los planes de tiempo de ejecución dewatsonx.ai.

Simplifique los documentos empresariales complejos con la API de extracción de texto de documentos

3 de septiembre de 2024

Aplique la tecnología de comprensión de documentos desarrollada por IBM para simplificar sus complejos documentos empresariales, de modo que puedan ser procesados por modelos fundacionales como parte de un flujo de trabajo de IA generativa. La API de extracción de texto de documentos extrae texto de estructuras de documentos como imágenes, diagramas y tablas que los modelos de base a menudo no pueden interpretar correctamente. El método de extracción de texto de la API REST de watsonx.ai es una función beta.

Para obtener más información, consulte Extracción de texto de documentos.

Granite Modificación y actualizaciones del modelo de base de código disponibles

3 de septiembre de 2024

El modelo de base de datos de la Fundación de la Universidad de Stanford ( granite-20b-code-instruct ) se modificó a la versión 1.1.0. La última modificación se entrena con una mezcla de datos de alta calidad procedentes de dominios de código y lenguaje natural para mejorar las capacidades de razonamiento y seguimiento de instrucciones del modelo.

Los siguientes modelos de fundaciones se actualizaron para aumentar el tamaño de la longitud de la ventana de contexto admitida (entrada + salida) para los avisos de 8192 a 128.000:

  • granite-3b-code-instruct
  • granite-8b-code-instruct

Para obtener más información, consulte Modelos de base soportados.

Semana que finaliza el 30 de agosto de 2024

Los modelos llama-2-13b-chat y llama-2-70b-chat han quedado obsoletos

26 de agosto de 2024

Los modelos de base llama-2-13b-chat y llama-2-70b-chat están obsoletos y se retirarán el 25 de septiembre de 2024. Revisa las indicaciones que utilicen estos modelos básicos.

llama-2-13b-chat
  • Fecha de caducidad: 26 de agosto de 2024
  • Fecha de retirada: 25 de septiembre de 2024
  • Modelo alternativo: llama-3.1-8b-instruct
llama-2-70b-chat
  • Fecha de caducidad: 26 de agosto de 2024
  • Fecha de retirada: 25 de septiembre de 2024
  • Modelo alternativo: llama-3.1-70b-instruct

Las solicitudes de inferencia enviadas a los modelos llama-2-13b-chat y llama-2-70b-chat mediante la API siguen generando resultados, pero incluyen un mensaje de advertencia sobre la próxima retirada del modelo. A partir del 25 de septiembre de 2024, las solicitudes de API para inferir los modelos no generarán resultados.

Para obtener más información sobre la eliminación y la retirada, consulte Ciclo de vida del modelo de fundamentación.

Semana que finaliza el 23 de agosto de 2024

Añadir grupos de usuarios como colaboradores en proyectos y espacios

22 de agosto de 2024

Ahora puede añadir grupos de usuarios en proyectos y espacios si su cuenta IBM Cloud contiene grupos de acceso IAM. El administrador de su cuenta IBM Cloud puede crear grupos de acceso, que luego estarán disponibles como grupos de usuarios en los proyectos. Para obtener más información, consulte Trabajar con grupos de acceso IAM.

Finalización del soporte de la función de predicción de anomalías para los experimentos de series temporales de AutoAI

19 de agosto de 2024

La función para predecir anomalías (valores atípicos) en AutoAI, actualmente en beta, está obsoleta y se eliminará el 23 de septiembre de 2024.. Los experimentos de series temporales estándar AutoAI siguen siendo totalmente compatibles. Para más detalles, consulte Construcción de un experimento de series temporales.

Semana que finaliza el 16 de agosto de 2024

Los nuevos modelos de incrustación de pizarra de IBM están disponibles en todas las regiones

15 de agosto de 2024

IBM Los modelos de incrustación de pizarra proporcionan a las empresas la capacidad de generar incrustaciones para diversas entradas, como consultas, pasajes o documentos. Los nuevos modelos slate-125m-english-rtrvr-v2 y slate-30m-english-rtrvr-v2 presentan mejoras significativas respecto a sus homólogos v1. Si actualmente utiliza los modelos slate-125m-english-rtrvr y slate-30m-english-rtrvr, cambie a los nuevos modelos v2 Slate para aprovechar las mejoras del modelo.

Para obtener más información, consulte Modelos de bases de encóder compatibles.

Configurar las barreras de seguridad de IA para la entrada de datos del usuario y la salida del modelo de base por separado en Prompt Lab

15 de agosto de 2024

Ajusta la sensibilidad de las barreras de seguridad de IA que encuentran y eliminan contenido perjudicial cuando experimentas con las indicaciones del modelo de base en Prompt Lab. Puede establecer distintos niveles de sensibilidad de filtrado para la entrada del usuario y el texto de salida del modelo, y puede guardar los ajustes efectivos de las barreras de protección de la IA en plantillas de avisos.

Para obtener más información, consulte Eliminación de contenido dañino.

Semana que finaliza el 9 de agosto de 2024

Seleccionar datos de prueba de proyectos para evaluaciones rápidas de plantillas

8 de agosto de 2024

Al evaluar plantillas de avisos en proyectos, ahora puede elegir activos de proyecto para seleccionar datos de prueba para las evaluaciones. Para obtener más información, consulte Evaluación de plantillas de avisos en proyectos.

El nuevo modelo llama-3-1-70b-instruct ya está disponible en IBM watsonx.ai

7 de agosto de 2024

Ahora puede utilizar los últimos modelos de base de maquillaje Llama 3.1 de Meta en el tamaño de parámetro de 70 mil millones en IBM watsonx.ai.

La serie Llama 3.1 de modelos de fundamentos son modelos lingüísticos de gran tamaño y alto rendimiento con capacidades de razonamiento de primer nivel. Los modelos pueden utilizarse para tareas complejas de razonamiento multilingüe, como la comprensión de textos, la transformación y la generación de código. Admiten inglés, alemán, francés, italiano, portugués, hindi, español y tailandés. Para más detalles, consulte Modelos de cimentación soportados .

Preguntas y respuestas actualizadas con el acelerador RAG

6 de agosto de 2024

El proyecto de ejemplo Q&A con acelerador RAG 1.2 incluye las siguientes mejoras:

  • Obtenga ayuda con la siguiente fase de la implementación de la generación mejorada de recuperación (RAG): recopilación de comentarios de los usuarios y análisis de la calidad de las respuestas. Incluye análisis con detección de temas no supervisada para mostrar los temas más populares, la satisfacción del usuario con las respuestas generadas por tema y las puntuaciones de búsqueda de recuperación por tema.

  • Nuevas plantillas de mensajes que están optimizadas para los modelos de base IBM granite-7b-lab y Meta Llama 3.1.

  • Código optimizado que utiliza utilidades RAG de la biblioteca watsonx.ai Python y filtros de búsqueda vectorial específicos para buscar por producto, zona, etc.

Véase Q&A con el acelerador RAG.

Nota: Si no puede crear el proyecto de ejemplo, pruebe a sustituir el texto del campo de descripción.

Semana que finaliza el 2 de agosto de 2024

El nuevo modelo llama-3-1-8b-instruct ya está disponible en IBM watsonx.ai

1 de agosto de 2024

Ahora puede utilizar los últimos modelos de base de maquillaje Llama 3.1 de Meta en el tamaño de parámetro de 8 mil millones en IBM watsonx.ai.

La serie Llama 3.1 de modelos de fundamentos son modelos lingüísticos de gran tamaño y alto rendimiento con capacidades de razonamiento de primer nivel. Los modelos pueden utilizarse para tareas complejas de razonamiento multilingüe, como la comprensión de textos, la transformación y la generación de código. Admiten inglés, alemán, francés, italiano, portugués, hindi, español y tailandés. Para más detalles, consulte Modelos de cimentación soportados .

Asociar espacios de trabajo con casos de uso de IA

1 de agosto de 2024

El flujo de creación de un caso de uso de IA se modifica para ajustarse más al ciclo de vida de la IA. Una vez definidos los elementos esenciales de un caso de uso de IA, asocie espacios de trabajo para organizar los activos de modo que se ajusten a las fases de una solución de IA. Por ejemplo, asociar un proyecto o espacio para los activos en las fases de Desarrollo o Validación, y asociar un espacio para los activos en la fase de Operación.

Para obtener más información, consulte Asociación de espacios de trabajo con un caso de uso de IA.

Semana que finaliza el 26 de julio de 2024

Anuncio de apoyo a Python 3.11 y R4.3 Marcos y especificaciones de software en tiempo de ejecución. 24.1

25 de julio de 2024

Ahora puede utilizar IBM Runtime 24.1, que incluye los últimos marcos de ciencia de datos basados en Python 3.11 y R 4.3, para ejecutar cuadernos Jupyter y scripts R, y entrenar modelos. A partir del 29 de julio, también podrás realizar despliegues. Actualice sus activos y despliegues para utilizar los marcos de trabajo y las especificaciones de software de IBM Runtime 24.1.

Versión mejorada de Jupyter Notebook el editor ya está disponible

25 de julio de 2024

Si está ejecutando su computadora portátil en entornos basados en Runtime 24.1, puede utilizar estas mejoras para trabajar con su código:

  • Depura automáticamente tu código
  • Genere automáticamente una tabla de contenidos para su cuaderno
  • Alternar números de línea al lado de su código
  • Contraiga el contenido de las celdas y utilice la vista en paralelo para el código y la salida, para mejorar la productividad.

Para más información, ver Editor de cuadernos Jupyter.

Modelos de integración de transformadores de procesador de lenguaje natural compatibles con Runtime 24.1

25 de julio de 2024

En el nuevo tiempo de ejecución 24.1 En este entorno, ahora puede utilizar modelos de incrustación de transformadores de procesamiento de lenguaje natural (NLP) para crear incrustaciones de texto que capturen el significado de una oración o pasaje para ayudar con las tareas de generación de recuperación aumentada. Para más información, ver Incrustaciones.

Nuevos modelos especializados de PNL están disponibles en Runtime 24.1

25 de julio de 2024

Los siguientes modelos nuevos y especializados de PNL ahora se incluyen en Runtime 24.1 ambiente:

Extraiga información detallada de grandes colecciones de textos mediante el resumen de puntos clave

25 de julio de 2024

Ahora puede utilizar el resumen de puntos clave en blocs de notas para extraer información detallada y procesable de grandes colecciones de textos que representan opiniones de personas (como reseñas de productos, respuestas a encuestas o comentarios en redes sociales). El resultado se entrega de forma organizada y jerárquica que es fácil de procesar. Para más información, ver Resumen de puntos clave

Actualización de la versión RStudio

25 de julio de 2024

Para ofrecer una experiencia de usuario coherente en nubes privadas y públicas, el IDE de RStudio para IBM watsonx se actualizará a RStudio Server 2024.04.1 y R 4.3.1 el 29 de julio de 2024. La nueva versión de RStudio ofrece una serie de mejoras y correcciones de seguridad. Consulte las notas de la versión 2024.04.1 RStudio Server para obtener más información. Si bien no se prevén problemas importantes de compatibilidad, los usuarios deben estar al tanto de los cambios de versión de algunos paquetes que se describen en la siguiente tabla.

Cuando inicie el IDE de RStudio desde un proyecto después de la actualización, restablezca el espacio de trabajo RStudio para asegurarse de que la ruta de biblioteca para los paquetes de R 4.3.1 es recogida por el servidor de RStudio.

Una nueva versión del modelo Mistral Large ya está disponible en IBM watsonx.ai en las regiones de Dallas, Frankfurt y Londres

24 julio 2024

Ahora puede utilizar el modelo de cimientos de la fundación Mistral Large 2 de Mistral AI en IBM watsonx.ai en los centros de datos de Dallas, Fráncfort y Londres.

El modelo Mistral Large 2 admite 11 idiomas y es competente en comprensión de textos, generación de código y razonamiento avanzado. Para más detalles, consulte Modelos de cimentación soportados .

Nuevo llama-3-405b-instruct El modelo está disponible en la región de Dallas.

23 julio 2024

Ahora puede utilizar el modelo de base llama-3-405b-instruct de Meta en IBM watsonx.ai en el centro de datos de Dallas.

El modelo llama-3-405B-instruct (v3.1) proporciona a las empresas un modelo de lenguaje de gran tamaño y alto rendimiento con capacidades de razonamiento de primer nivel, y es el mayor modelo de código abierto publicado hasta la fecha. Este modelo de base puede utilizarse para tareas complejas de razonamiento multilingüe, como la comprensión de textos, la transformación y la generación de código. Para más detalles, consulte Modelos de cimentación soportados .

El merlinite-7b el modelo está en desuso

22 julio 2024

El modelo de base de datos de la Fundación de la Comunidad de Tiffany ( merlinite-7b ) está obsoleto y se retirará el 22 de agosto de 2024. Revisar cualquier mensaje que utilice este modelo de base.

  • Fecha de desuso: 22 de julio de 2024
  • Fecha de retirada: 22 de agosto de 2024
  • Modelo alternativo: mixtral-8x7b-instruct-v01

Solicitudes de inferencia que se presentan al merlinite-7b El modelo que utiliza la API continúa generando resultados, pero incluye un mensaje de advertencia sobre el próximo retiro del modelo. A partir del 22 de agosto de 2024, las solicitudes de la API para inferir el modelo no generarán resultados.

Para obtener más información sobre el desuso y la retirada, consulte Ciclo de vida del modelo de fundación.

Semana que finaliza el 12 de julio de 2024

El nuevo modelo Mistral Large Large está disponible en las regiones de Frankfurt y Dallas

9 de julio de 2024

Ahora puede utilizar el modelo de cimientos de la fundación Mistral Large de Mistral AI en IBM watsonx.ai en los centros de datos de Fráncfort y Dallas.

Mistral Large proporciona a las empresas un modelo lingüístico de gran tamaño y alto rendimiento con capacidades de razonamiento de primer nivel. Este modelo de base puede utilizarse para tareas complejas de razonamiento multilingüe, como la comprensión de textos, la transformación y la generación de código. Para más detalles, consulte Modelos de cimentación soportados .

Semana que finaliza el 5 de julio de 2024

Conectores agrupados por tipo de fuente de datos

5 de julio de 2024

Cuando crea una conexión, los conectores ahora se agrupan por tipo de fuente de datos para que sean más fáciles de encontrar y seleccionar. Por ejemplo, el tipo de origen de datos MongoDB incluye los conectores IBM Cloud Databases for MongoDB y MongoDB.

Además, un nuevo Recientes La categoría muestra los seis últimos conectores que utilizó para crear una conexión.

Para obtener instrucciones, consulte Agregar conexiones a fuentes de datos en un proyecto .

Añadir información contextual a las indicaciones del modelo de base en Prompt Lab

4 julio 2024

Ayude a un modelo de fundación a generar respuestas objetivas y actualizadas en casos de uso de generación aumentada por recuperación (RAG) añadiendo información contextual relevante a su mensaje como datos de base. Puede cargar rápidamente documentos relevantes o conectarse a una tienda de vectores de terceros con datos relevantes. Cuando se envía una nueva pregunta, la pregunta se utiliza para consultar los datos fundamentados en busca de hechos relevantes. Los principales resultados de búsqueda, además de la pregunta original, se envían como entrada de modelo para ayudar al modelo de la fundación a incorporar hechos relevantes en su salida.

Para obtener más información, consulte las indicaciones del modelo de base de conexión a tierra en la información contextual.

Cambios aCloud Object Storage Planes ligeros

1 de julio de 2024

A partir del 1 de julio de 2024, elCloud Object Storage Plan Lite que se aprovisiona automáticamente cuando te registras para una prueba de 30 días dewatsonx.ai ywatsonx.governance caduca una vez finalizada la prueba. Puedes actualizar tuCloud Object Storage Instancia Lite al plan Estándar con la opción de capa gratuita en cualquier momento durante la prueba de 30 días.

ExistenteCloud Object Storage las instancias de servicio con planes Lite que haya aprovisionado antes del 1 de julio de 2024 se conservarán hasta el 15 de diciembre de 2024. Debes actualizar tuCloud Object Storage servicio a un plan Estándar antes del 15 de diciembre de 2024.

VerCloud Object Storage planes de servicio .

Semana finalizada el 21 de junio de 2024

Crear despliegues desconectados para las solicitudes de gobierno para modelos de lenguaje grande (LLM) externos

21 de junio de 2024

Una plantilla de mensaje independiente es un nuevo activo para evaluar una plantilla de mensaje para un LLM alojado por un proveedor externo, comoGoogle IA de vértice,AzureOpenAI, oAWS Base. La inferencia que genera la salida para la plantilla de solicitud se realiza en el modelo remoto, pero puede evaluar la salida de la plantilla de solicitud utilizando métricas de watsonx.governance . También puede realizar un seguimiento del despliegue desconectado y de la plantilla de solicitud desconectada en un caso de uso de IA como parte de la solución de gobierno.

Para obtener más información, consulte:

Las credenciales de tarea serán necesarias para las solicitudes de trabajo de despliegue

19 de junio de 2024

Para mejorar la seguridad para ejecutar trabajos de despliegue, el usuario que solicita el trabajo deberá proporcionar credenciales de tarea en forma de clave de API. El requisito se aplicará a partir del 15 de agosto de 2024. Consulte Adición de credenciales de tarea para obtener detalles sobre la generación de la clave de API.

Captura de pantalla que muestra cómo crear credenciales de tarea a partir de Perfil y valores

Evalúe los casos de uso para la aplicabilidad de la Ley de IA de la UE

19 de junio de 2024

Al utilizar la nueva evaluación de aplicabilidad de la Ley de IA de la UE, puede completar un cuestionario simple para evaluar sus casos de uso de IA y determinar si están dentro del ámbito de la Ley de IA de la UE. La evaluación también puede ayudarle a identificar la categoría de riesgo a la que se alinean los casos de uso: prohibido, alto, limitado o mínimo. Para obtener más información, consulte Evaluación de aplicabilidad en Componentes de la solución en la consola de gobierno.

Semana finalizada el 7 de junio de 2024

Administre las actividades de riesgo y cumplimiento con la consola de Gobernanza ( IBM OpenPages)

7 de junio de 2024

Watsonx.governance ahora admite la integración opcional con la consola de gobierno. Si ha instalado el módulo Model Risk Governance de IBM OpenPages, puede configurar casos de uso de IA para sincronizar datos de gobernanza con la consola de gobernanza. Desde la consola de Gobernanza, puede crear casos de uso, ver actividades de gobernanza, administrar tareas e implementar flujos de trabajo como parte de sus procesos de gobernanza y cumplimiento. Para obtener más información, consulte:

Semana finalizada el 31 de mayo de 2024

IBM Watson Pipelines es ahora IBM Orchestration Pipelines

30 de mayo de 2024

El nuevo nombre de servicio refleja las prestaciones para orquestar partes del ciclo de vida de IA en flujos repetibles.

Etiquetar proyectos para una recuperación fácil

31 de mayo de 2024

Ahora puede asignar etiquetas a proyectos para que sean más fáciles de agrupar o recuperar. Asigne etiquetas cuando cree un proyecto nuevo o de la lista de todos los proyectos. Filtre la lista de proyectos por código para recuperar un conjunto relacionado de proyectos. Para obtener más información, consulte Creación de un proyecto.

Conectarse a una nueva fuente de datos: Milvus

31 de mayo de 2024

Utilice la conexión Milvus para almacenar y confirmar la exactitud de sus credenciales y detalles de conexión para acceder a un almacén de vectores Milvus. Para más información, consulte la conexión Milvus.

Semana finalizada el 24 de mayo de 2024

Nuevo tutorial y vídeo

23 de mayo de 2024

Pruebe la nueva guía de aprendizaje para ver cómo evaluar un despliegue de modelo utilizando la funcionalidad de Watson OpenScale en un espacio de despliegue.

Guía de aprendizaje Descripción Experiencia para guía de aprendizaje
Evaluar un despliegue en espacios Despliegue un modelo, configure supervisores para el modelo desplegado y evalúe el modelo en un espacio de despliegue. Configure los supervisores y evalúe un modelo en un espacio de despliegue.

El modelo de cimentación e allam-1-13b-instruct e está disponible en la región de Frankfurt

21 de mayo de 2024

El modelo de base de datos árabe allam-1-13b-instruct de la Autoridad Saudí de Datos e Inteligencia Artificial y proporcionado por IBM está disponible en watsonx.ai en el centro de datos de Fráncfort. Puede utilizar el modelo de base de datos allam-1-13b-instruct para tareas de uso general, como preguntas y respuestas, resumen, clasificación, generación, extracción y traducción al árabe. Para obtener más información, consulte Modelos de base soportados.

Desplegar activos de IA tradicionales y generativos con la biblioteca de cliente watsonx.ai Python

21 de mayo de 2024

La biblioteca de cliente Watson Machine Learning Python ahora forma parte de una biblioteca ampliada, la biblioteca de cliente watsonx.ai Python . Utilice la biblioteca watsonx.ai Python para trabajar con el aprendizaje automático tradicional y los activos de IA generativa. La biblioteca Watson Machine Learning persistirá, pero no se actualizará con nuevas características. Para obtener más información, consulte Biblioteca dePython.

Semana finalizada el 17 de mayo de 2024

Los modelos de inclusión de texto de terceros están disponibles en watsonx.ai

16 de mayo de 2024

Los siguientes modelos de inclusión de texto de terceros están ahora disponibles además de los modelos de IBM Slate para la coincidencia y recuperación de texto mejorada:

  • all-minilm-l12-v2
  • multilingual-e5-large

Envíe frases o pasajes a uno de los modelos de inclusión soportados utilizando la biblioteca watsonx.ai Python o la API REST para convertir texto de entrada en vectores para comparar y recuperar de forma más precisa texto similar.

Para obtener más información sobre estos modelos, consulte Modelos de bases de encóder compatibles.

Para obtener más información sobre la conversión de texto, consulte Generación de inclusión de texto.

Semana finalizada el 10 de mayo de 2024

Los nuevos modelos de cimientos Granite Code están disponibles en la región de Dallas

9 de mayo de 2024

Ahora puede inferir los siguientes modelos de Granite Code foundation proporcionados por IBM desde watsonx.ai:

  • granite-3b-code-instruct
  • granite-8b-code-instruct
  • granite-20b-code-instruct
  • granite-34b-code-instruct

Utilice los nuevos modelos de la base Granite Code para las tareas de codificación programática. Los modelos de base están ajustados en una combinación de datos de instrucción para mejorar las capacidades de seguimiento de instrucción, incluyendo el razonamiento lógico y la resolución de problemas.

Para obtener más información, consulte Modelos de base soportados.

Los modelos base de InstructLab están disponibles en watsonx.ai

7 de mayo de 2024

InstructLab es una iniciativa de código abierto de Red Hat y IBM que proporciona una plataforma para aumentar las capacidades de un modelo de fundación. Los siguientes modelos de base apoyan los conocimientos y habilidades que se aportan de InstructLab:

  • granite-7b-lab
  • granite-13-chat-v2
  • granite-20b-multilingual
  • merlinite-7b

Puede explorar las contribuciones de la comunidad de código abierto desde la página de taxonomía del modelo de fundación.

Para más información, verInstructLab-compatible modelos de fundacion .

Semana finalizada el 3 de mayo de 2024

Organizar activos de proyecto en carpetas

2 de mayo de 2024

Ahora puede crear carpetas en los proyectos para organizar activos. Un administrador del proyecto debe habilitar las carpetas, y los administradores y editores pueden crearlas y gestionarlas. Las carpetas están en versión beta y todavía no están soportadas para su uso en entornos de producción. Para obtener más información, consulte Organización de activos con carpetas (beta).

La pestaña Activos con carpetas

Semana finalizada el 26 de abril de 2024

IBM watsonx.ai está disponible en la región de Londres

25 de abril de 2023

Watsonx.ai ahora está disponible de forma general en el centro de datos de Londres y Londres se puede seleccionar como la región preferida al registrarse.

  • Los modelos de fundamentos que son totalmente compatibles en Dallas también están disponibles para la inferencia en el centro de datos de Londres desde el Prompt Lab o mediante el uso de la API. Las excepciones son el modelo de base mt0-xxl-13b y el modelo de base llama-2-70b-chat, que ha sido sustituido por el modelo de base llama-3-70b-instruct, que ya está disponible.
  • Ajuste los tres modelos de base ajustables desde Tuning Studio o utilizando la API.
  • Se da soporte a los dos modelos de incorporación de IBM y a la API de incorporación.

Para obtener más información, consulte Disponibilidad regional para servicios y características.

Iniciar un chat en Prompt Lab directamente desde la página de inicio

25 de abril de 2023

Ahora puede iniciar una conversación con una modelo de la fundación desde la página de inicio de IBM watsonx.ai. Introduzca una pregunta para enviar a una modelo de la fundación en modo chat o haga clic en Abrir Prompt Lab para elegir una modelo de la fundación y los parámetros de la modelo antes de enviar la entrada de la modelo.

Semana finalizada el 19 de abril de 2024

Meta, los nuevos modelos de base de maquillaje de Llama 3, ya están disponibles

18 de abril de 2024

Los siguientes modelos de la fundación Llama 3 proporcionados por Meta están disponibles para inferencias de watsonx.ai:

  • llama-3-8b-instruct
  • llama-3-70b-instruct

Los nuevos modelos de base Llama 3 son modelos de lenguaje afinados de instrucción que pueden dar soporte a diversos casos de uso.

Este último lanzamiento de Llama está entrenado con más fichas y aplica nuevos procedimientos post-entrenamiento. El resultado son modelos de base con mejor comprensión del lenguaje, razonamiento, generación de código y capacidades de seguimiento de instrucción.

Para obtener más información, consulte Modelos de base soportados.

Introducción al soporte de incorporación de IBM para mejorar la coincidencia y recuperación de texto

18 de abril de 2024

Ahora puede utilizar la API de incorporaciones de IBM y los modelos de incorporación de IBM para transformar el texto de entrada en vectores para comparar y recuperar de forma más precisa texto similar.

Están disponibles los siguientes modelos de incorporación de IBM Slate:

  • slate.125m.english.rtrvr
  • slate.30m.english.rtrvr

Para obtener más información, consulte Generación de inclusión de texto.

Para más información sobre precios, consulte los planes de tiempo de ejecución dewatsonx.ai.

IBM watsonx.governance se incluye al registrarse en IBM watsonx.ai

18 de abril de 2024

Si se registra para watsonx.ai en la región de Dallas, watsonx.governance se incluye ahora automáticamente. Consulte Registro en IBM watsonx as a Service.

Evaluar despliegues de aprendizaje automático en espacios

18 de abril de 2024

Configure las evaluaciones de watsonx.governance en los espacios de despliegue para obtener información sobre el rendimiento del modelo de aprendizaje automático. Por ejemplo, evalúe un despliegue para sesgo o supervise un despliegue para desviación. Al configurar evaluaciones, puede analizar los resultados de la evaluación y modelar registros de transacciones directamente en los espacios.

Para obtener más información, consulte Evaluación de despliegues en espacios.

Hay disponible un modelo de base en coreano en la región de Tokio

18 de abril de 2024

El modelo de fundación e llama2-13b-dpo-v7, proporcionado por Minds & Company y basado en el modelo de fundación e Llama 2, de Meta , está disponible en la región de Tokio.

El modelo de la fundación llama2-13b-dpo-v7 está especializado en tareas de conversación en coreano e inglés. También puede utilizar el modelo de base de datos llama2-13b-dpo-v7 para tareas de propósito general en idioma coreano.

Para obtener más información, consulte Modelos de base soportados.

Hay disponible un modelo de base de datos de inferencia ( mixtral-8x7b-instruct-v01 )

18 de abril de 2024

El modelo de la fundación mixtral-8x7b-instruct-v01 de Mistral AI está disponible para inferencias en watsonx.ai. El modelo de base de datos mixtral-8x7b-instruct-v01 es un modelo generativo preentrenado que utiliza una red de mezcla de expertos dispersos para generar texto de manera más eficiente.

Puede utilizar el modelo mixtral-8x7b-instruct-v01 para tareas de uso general, incluyendo clasificación, resumen, generación de código, traducción de idioma, etc. Para obtener más información, consulte Modelos de base soportados.

El modelo de base de datos de la Fundación de la Comunidad de Tiffany ( mixtral-8x7b-instruct-v01-q ) está obsoleto y se retirará el 20 de junio de 2024. Revisar cualquier mensaje que utilice este modelo de base.

  • Fecha de desuso: 19 de abril de 2024
  • Fecha de retirada: 20 de junio de 2024
  • Modelo alternativo: mixtral-8x7b-instruct-v01

Las solicitudes de inferencia que se envían al modelo mixtral-8x7b-instruct-v01-q utilizando la API continúan generando salida, pero incluyen un mensaje de aviso sobre la próxima retirada del modelo. A partir del 20 de junio de 2024, las solicitudes de API para inferir los modelos no generarán salida.

Para obtener más información sobre el desuso y la retirada, consulte Ciclo de vida del modelo de fundación.

Se introduce una modificación en el modelo de fundación de la Fundación de la Comunidad de Tiffany ( granite-20b-multilingual )

18 de abril de 2024

La última versión de granite-20b-multilingual es 1.1.0. La modificación incluye mejoras que se han obtenido al aplicar una nueva técnica de alineación de IA al modelo de la versión 1.0 . La alineación de IA implica el uso de técnicas de aprendizaje de ajuste y refuerzo para guiar al modelo para devolver salidas que sean lo más útiles, veraces y transparentes posibles.

Para obtener más información sobre este modelo de base, consulte Modelos de bases compatibles.

Semana finalizada el 12 de abril de 2024

Ajustar rápidamente el modelo de base de maquillaje granite-13b-instruct-v2

11 de abril de 2024

Tuning Studio, ahora permite ajustar el modelo de base de maquillaje " granite-13b-instruct-v2 ", además de los modelos de base " flan-t5-xl-3b " y " llama-2-13b-chat ". Para más información, consulte Ajustar un modelo de base.

Los ajustes de configuración del experimento para ajustar el modelo de base de datos de la Fundación de la Comunidad de Tiffany ( granite-13b-instruct-v2 ) cambian para aplicar los mejores valores predeterminados en función de su tarea. Las directrices de evaluación de ajuste le ayudan a analizar los resultados del experimento y ajustar los valores de configuración del experimento basándose en los resultados. Para obtener más información, consulte Evaluación de los resultados de un experimento de ajuste.

Hay un modelo de fundación en lengua árabe disponible en la región de Frankfurt

11 de abril de 2024

El modelo de base de datos de aprendizaje profundo ( jais-13b-chat ) proporcionado por Inception, la Universidad Mohamed bin Zayed de Inteligencia Artificial y Cerebras Systems está disponible en la región de Fráncfort.

El modelo de la fundación jais-13b-chat está especializado en tareas conversacionales en árabe e inglés. También puede utilizar el modelo de base de datos jais-13b-chat para tareas de propósito general en lengua árabe, incluida la traducción entre el árabe y el inglés.

Para obtener más información, consulte Modelos de base soportados.

Ver el texto completo de una pregunta en Prompt Lab

11 de abril de 2024

Ahora puede revisar el texto completo del prompt que se enviará al modelo de la fundación, lo cual es útil cuando su prompt incluye variables de prompt o cuando está trabajando en modo estructurado o en modo chat.

Para más información, consulte Prompt Lab.

Se han retirado los modelos Granite versión 1 en desuso

11 de abril de 2024

Ahora se han retirado los siguientes modelos de base:

  • granite-13b-chat-v1
  • granite-13b-instruct-v1

Revisa cualquier mensaje que utilice estos modelos de base para usar los modelos de base de IBM Granite v2. Para obtener más información sobre la descontinuación y retirada del modelo de base, consulte Ciclo de vida del modelo de base.

Semana finalizada el 5 de abril de 2024

Utilizar tablas dinámicas para visualizar datos agregados en experimentos de Decision Optimization

5 de abril de 2024

Ahora puede utilizar tablas dinámicas para visualizar los datos de entrada y salida agregados en la vista Visualización en los experimentos de Decision Optimization . Para obtener más información, consulte Widgets de visualización en experimentos de Decision Optimization.

Nuevo tutorial y vídeo de watsonx.ai

04 Abr 2024

Pruebe el nuevo tutorial para ver cómo utilizar watsonx.ai en un caso de uso de principio a fin, desde la preparación de datos hasta la ingeniería rápida.

Guía de aprendizaje Descripción Experiencia para guía de aprendizaje
Pruebe el caso de uso de extremo a extremo de watsonx.ai Siga un caso de uso desde la preparación de los datos hasta la ingeniería inmediata. Utilizar diversas herramientas, como cuadernos y Prompt Lab.

Semana finalizada el 15 de marzo de 2024

La API watsonx.ai está disponible

14 de marzo de 2024

La API watsonx.ai está disponible a nivel general. Utilice la API watsonx.ai para trabajar con modelos de base mediante programación. Para más información, consulte la referencia de la API.

La versión de la API es 2024-03-14.

Puede seguir utilizando la biblioteca Python que está disponible para trabajar con modelos de base desde un cuaderno. Para obtener más información, consulte Biblioteca dePython.

Los nuevos modelos de fundación están disponibles en Dallas, Frankfurt y Tokio

14 de marzo de 2024

Los siguientes modelos base están ahora disponibles para la inferencia desde watsonx.ai:

  • granite-20b-multilingual: Un modelo de base de la familia de lenguajes de programación ( IBM Granite ) que puede utilizar para diversas tareas generativas en inglés, alemán, español, francés y portugués.

  • codellama-34b-instruct-hf: Un modelo de generación de código programático de Code Llama que se basa en Llama 2 de Meta. Puede utilizar codellama-34b-instruct-hf para crear mensajes que generen código basados en entradas de lenguaje natural, y para completar y depurar código.

Para obtener más información, consulte Modelos de base soportados.

Semana finalizada el 8 de marzo de 2024

Tuning Studio está disponible en Frankfurt

7 de marzo de 2024

Ahora Tuning Studio está disponible para los usuarios de planes de pago en la región de Frankfurt. Tuning Studio le ayuda a guiar a un modelo de base para que devuelva resultados útiles. Puede ajustar los modelos de base flan-t5-xl-3b y llama-2-70b-chat cuando utilice el Tuning Studio en Frankfurt.

Para obtener más información, consulte Tuning Studio.

Ajustar rápidamente el modelo de cimientos e llama-2-13b-chat es en la región de Tokio

7 de marzo de 2024

Tuning Studio, ahora admite el ajuste del modelo de cimientos e llama-2-13b-chat, en la región de Tokio. Primero, el ingeniero solicita el modelo de llama-2-70b-chat más grande en el Prompt Lab para encontrar entradas de aviso efectivas para su caso de uso. A continuación, sintonice la versión más pequeña del modelo de Llama 2 para generar resultados comparables, si no mejores, con indicaciones de disparo cero.

Para obtener más información, consulte Tuning Studio.

Precio más bajo para el modelo Mixtral8x7b

5 de marzo de 2024

El modelo de base mixtral-8x7b-instruct-v01-q se reclasifica de la clase 2: Unidad de inferencia ( $0.0018/Resource ) a la clase 1: Unidad de razonamiento ( $0.0006/Resource ), lo que hace que sea más rentable ejecutar tareas de inferencia con este modelo. La reclasificación se aplica a todas las regiones en las que está disponible mixtral-8x7b-instruct-v01-q.

Para obtener más información, consulte Modelos de base soportados.

Para más información sobre precios, consulte los planes de tiempo de ejecución dewatsonx.ai.

El atlas de riesgo de IA se actualiza y mejora

5 de marzo de 2024

Ahora puede encontrar el siguiente contenido nuevo y mejorado en el atlas de riesgos de IA:

  • Una nueva categoría de riesgos no técnicos que abarca la gobernanza, la conformidad jurídica y los riesgos de impacto social
  • Nuevos ejemplos de riesgos
  • Definiciones más claras de riesgos

Consulte AI risk atlas.

Nuevos casos de uso para watsonx

5 de marzo de 2024

Los casos de uso de watsonx están disponibles para ayudarle a ver cómo puede utilizar nuestros productos, servicios y herramientas:

  • Caso de uso de watsonx.ai : este caso de uso describe cómo puede transformar sus procesos de negocio con soluciones basadas en IA integrando machine learning e IA generativa en su infraestructura operativa.
  • Caso de uso de watsonx.governance : este caso de uso describe cómo puede definir flujos de trabajo de IA responsables, transparentes y explicables con un sistema integrado para realizar el seguimiento, la supervisión y volver a entrenar modelos de IA.

Consulte Casos de uso dewatsonx.

Semana finalizada el 1 de marzo de 2024

El modo chat está disponible en Prompt Lab

29 de febrero de 2024

El modo chat de Prompt Lab es una sencilla interfaz de chat que facilita la experimentación con modelos de cimentación. La modalidad de conversación aumenta las modalidades estructuradas y de formato libre ya disponibles que son útiles cuando se crean solicitudes de pocas o muchas para tareas como la extracción, el resumen y la clasificación. Utilice el modo Chat para simular interacciones conversacionales o de respuesta a preguntas para casos de uso de chatbot y asistente virtual.

Para más información, consulte Prompt Lab.

Hay disponible un modelo de Granite en japonés en la región de Tokio

29 de febrero de 2024

El modelo de cimientos e granite-8b-japanese es proporcionado por IBM y está disponible en watsonx.ai en la región de Tokio. El modelo de la fundación granite-8b-japanese se basa en el modelo de la fundación Instruct ( IBM Granite ) y está capacitado para comprender y generar texto en japonés.

Puede utilizar el modelo de base de datos granite-8b-japanese para tareas de propósito general en idioma japonés, como clasificación, extracción, preguntas y respuestas, y para la traducción de idiomas entre japonés e inglés.

Para obtener más información, consulte Modelos de base soportados.

Semana finalizada el 23 de febrero de 2024

Precio más bajo para los modelos Granite-13b

21 de febrero de 2024

Los modelos Granite-13b se reclasifican de Clase 2: $0.0018/Resource Unidad a Clase 1: $0.0006/Resource Unidad, lo que hace que sea más rentable ejecutar tareas de inferencia en estos modelos. La reclasificación se aplica a los modelos siguientes en todas las regiones en las que están disponibles:

  • granite-13b-chat-v2
  • granite-13b-chat-v1
  • granite-13b-instruct-v2
  • granite-13b-instruct-v1

Para obtener más información sobre estos modelos, consulte Modelos de base soportados.

Para más información sobre precios, consulte los planes de tiempo de ejecución dewatsonx.ai.

Semana finalizada el 16 de febrero de 2024

Nuevo acceso directo para empezar a trabajar en tareas comunes

15 de febrero de 2024

Ahora puede iniciar una tarea común en el proyecto pulsando un mosaico en la sección Empezar a trabajar de la pestaña Visión general . Utilice estos accesos directos para empezar a añadir colaboradores y datos, y para experimentar y crear modelos. Pulse Ver todo para ir a una selección de herramientas.

Nuevo modelo de base de datos de mixtral-8x7b-instruct-v01-q, para tareas de uso general

15 de febrero de 2024

El modelo de base e mixtral-8x7b-instruct-v01-q, proporcionado por Mistral AI y cuantificado por IBM, está disponible en watsonx.ai. El modelo de base de datos mixtral-8x7b-instruct-v01-q es una versión cuantizada del modelo de base de datos Mixtral 8x7B Instruct de Mistral AI.

Puede utilizar este nuevo modelo para tareas de uso general, incluyendo clasificación, resumen, generación de código, traducción de idioma, etc. Para obtener más información, consulte Modelos de base soportados.

Los modelos siguientes están en desuso y se retirarán pronto. Revisa cualquier mensaje que utilice estos modelos de base para usar otro modelo de base, como mixtral-8x7b-instruct-v01-q.

Modelos de fundación en desuso
Modelo en desuso Fecha de desuso Fecha de retirada Modelo alternativo
gpt-neox-20b 15 de febrero de 2024 21 de marzo de 2024 mixtral-8x7b-instruct-v01-q
mpt-7b-instruct2 15 de febrero de 2024 21 de marzo de 2024 mixtral-8x7b-instruct-v01-q
starcoder-15.5b 15 de febrero de 2024 11 de abril de 2024 mixtral-8x7b-instruct-v01-q

Las solicitudes de inferencia que se envían a estos modelos utilizando la API siguen generando salida, pero incluyen un mensaje de aviso sobre la próxima retirada del modelo. Cuando se alcanza la fecha de retirada, las solicitudes de API para inferir los modelos no generarán salida.

Para obtener más información sobre el desuso y la retirada, consulte Ciclo de vida del modelo de fundación.

Hay disponible una modificación del modelo de cimentación e granite-13b-chat-v2

15 de febrero de 2024

La versión más reciente de granite-13b-chat-v2 es 2.1.0. La modificación incluye mejoras que se han obtenido aplicando una nueva técnica de alineación de IA al modelo de la versión 2.0.0 . La alineación de IA implica el uso de técnicas de aprendizaje de ajuste y refuerzo para guiar al modelo para devolver salidas que sean lo más útiles, veraces y transparentes posibles. Para más información, consulte la sección ¿Qué es la alineación AI? publicación de blog de IBM Research.

Nuevo tutorial y vídeo de watsonx

15 de febrero de 2024

Pruebe la nueva guía de aprendizaje de watsonx.governance para ayudarle a aprender a evaluar un modelo de aprendizaje automático para obtener equidad, precisión, desviación y explicabilidad con Watson OpenScale.

Nuevas guías de aprendizaje
Guía de aprendizaje Descripción Experiencia para guía de aprendizaje
Evaluar un modelo de aprendizaje automático Despliegue un modelo, configure supervisores para el modelo desplegado y evalúe el modelo. Ejecute un cuaderno para configurar los modelos y utilice Watson OpenScale para evaluar.

Semana finalizada el 09 de febrero de 2024

Documentación de Decision Optimization más orientada a tareas

9 de febrero de 2024

Ahora puede encontrar más fácilmente la información correcta para crear y configurar experimentos de Decision Optimization . Consulte Experimentos deDecision Optimization y sus subsecciones.

La conexión IBM Cloud Data Engine está obsoleta

8 de febrero de 2022

La conexión IBM Cloud Data Engine está obsoleta y dejará de utilizarse en una futura versión. Consulte las fechas y los detalles importantes en la sección "Eliminación del motor de datos ".

Nuevo entorno de Spark 3.4 para ejecutar trabajos de flujo de Data Refinery

9 de febrero de 2024

Cuando selecciona un entorno para un trabajo de flujo de Data Refinery , ahora puede seleccionar Spark predeterminado 3.4 & R 4.2, que incluye mejoras de Spark.

Entornos de Spark de Data Refinery

El entorno Spark predeterminado 3.3 & R 4.2 está en desuso y se eliminará en una actualización futura.

Actualice los trabajos de flujo de Data Refinery para utilizar el nuevo entorno Spark predeterminado 3.4 & R 4.2 . Para obtener detalles, consulte Calcular opciones de recursos para Data Refinery en proyectos.

Semana finalizada el 2 de febrero de 2024

Colección de ejemplos renombrada como concentrador de recursos

2 de febrero de 2024

La colección de ejemplos se ha renombrado como concentrador de recursos para reflejar mejor el contenido. El concentrador de recursos contiene modelos de base y proyectos de ejemplo, conjuntos de datos y cuadernos. Consulte Concentrador de recursos.

IBM Cloud Databases for DataStax se ha interrumpido

2 de febrero de 2024

Se ha eliminado la conexión IBM Cloud Databases for DataStax de IBM watsonx.ai.

La conexión de Dremio requiere actualizaciones

2 de febrero de 2024

Anteriormente, la conexión Dremio utilizaba un controlador JDBC . Ahora la conexión utiliza un controlador basado en Arrow Flight.

Importante: actualice las propiedades de conexión. Se aplican cambios diferentes a una conexión para una instancia de Dremio Software (local) o una instancia de Dremio Cloud.

Dremio Software: actualice el número de puerto.

El nuevo número de puerto predeterminado que utiliza Flight es 32010. Puede confirmar el número de puerto en el archivo dremio.conf . Consulte Configuración a través de dremio.conf para obtener más información.

Además, Dremio ya no admite conexiones con IBM Cloud Satellite.

Dremio Cloud: actualice el método de autenticación y el nombre de host.

  1. Inicie sesión en Dremio y genere una señal de acceso personal. Para obtener instrucciones, consulte Fichas de acceso personal.
  2. En IBM watsonx en el formulario Crear conexión: Dremio , cambie el tipo de autenticación a Señal de acceso personal y añada la información de señal. (La autenticación de Nombre de usuario y contraseña ya no se puede utilizar para conectarse a una instancia de Dremio Cloud.)
  3. Seleccione El puerto está habilitado para SSL.

Si utiliza el nombre de host predeterminado para una instancia de Dremio Cloud, debe cambiarlo:

  • Cambie sql.dremio.cloud por data.dremio.cloud
  • Cambie sql.eu.dremio.cloud por data.eu.dremio.cloud

Ajustar rápidamente el modelo de base de maquillaje llama-2-13b-chat

1 de febrero de 2024

Tuning Studio, ahora permite ajustar el modelo de base de la piel ( llama-2-13b-chat ). Primero, el ingeniero solicita el modelo de llama-2-70b-chat más grande en el Prompt Lab para encontrar entradas de aviso efectivas para su caso de uso. A continuación, sintonice la versión más pequeña del modelo de Llama 2 para generar resultados comparables, si no mejores, con indicaciones de disparo cero. llama-2-13b-model, disponible para sintonización inmediata en la región de Dallas. Para obtener más información, consulte Tuning Studio.

Semana finalizada el 26 de enero de 2024

AutoAI da soporte a datos ordenados para todos los experimentos

25 de enero de 2024

Ahora puede especificar datos ordenados para todos los experimentos de AutoAI en lugar de solo experimentos de series temporales. Especifique si los datos de entrenamiento se ordenan secuencialmente, según un índice de fila. Cuando los datos de entrada son secuenciales, el rendimiento del modelo se evalúa en los registros más recientes en lugar de en un muestreo aleatorio, y los datos reservados utilizan los últimos n registros del conjunto en lugar de n registros aleatorios. Los datos secuenciales son necesarios para los experimentos de series temporales, pero son opcionales para los experimentos de clasificación y regresión.

Preguntas y respuestas con acelerador RAG

26 de enero de 2024

Ahora puede implementar una solución de pregunta y respuesta que utilice la generación aumentada de recuperación importando un proyecto de ejemplo. El proyecto de ejemplo contiene cuadernos y otros activos que convierten documentos de HTML o PDF en texto sin formato, importan segmentos de documento en un índice de vector Elasticsearch , despliegan una función Python que consulta el índice de vector, recuperan los N primeros resultados, ejecutan la inferencia LLM para generar una respuesta a la pregunta y comprueban si hay alucinaciones en la respuesta.

Pruebe Q & A con acelerador RAG.

Establecer en tema oscuro

25 de enero de 2024

Ahora puede establecer la interfaz de usuario de watsonx en tema oscuro. Pulse su avatar y seleccione Perfil y valores para abrir su perfil de cuenta. A continuación, active el conmutador de tema oscuro. El tema oscuro no está soportado en RStudio y Jupyter notebooks. Para obtener información sobre la gestión del perfil, consulte Gestión de los valores.

IBM watsonx.ai está disponible en la región de Tokio

25 de enero de 2024

Watsonx.ai ahora está disponible de forma general en el centro de datos de Tokio y se puede seleccionar como la región preferida al registrarse. La inferencia de modelos de Prompt Lab y foundation son compatibles en la región de Tokio para estos modelos:

  • elyza-japanese-llama-2-7b-instruct
  • flan-t5-xl-3b
  • flan-t5-xxl-11b
  • flan-ul2-20b
  • granite-13b-chat-v2
  • granite-13b-instruct-v2
  • llama-2-70b-chat
  • llama-2-13b-chat

También disponible en la región de Tokio:

  • Sintonización rápida del modelo de base de datos flan-t5-xl-3b con el Tuning Studio
  • Generación de datos tabulares con el Synthetic Data Generator para utilizar para modelos de entrenamiento

Para obtener más información sobre los modelos soportados, consulte Modelos base soportados disponibles con watsonx.ai.

Un modelo Llama 2 en japonés está disponible en la región de Tokio

25 de enero de 2024

El modelo de base de datos elyza-japanese-llama-2-7b-instruct proporcionado por ELYZA, Inc. está disponible desde instancias watsonx.ai en el centro de datos de Tokio. El modelo elyza-japanese-llama-2-7b-instruct es una versión del modelo Llama 2 de Meta que fue entrenado para comprender y generar texto japonés.

Puede utilizar este nuevo modelo para tareas de finalidad general. Funciona bien para la clasificación y extracción en japonés y para la traducción entre japonés e inglés.

Semana finalizada el 12 de enero de 2024

Soporte para IBM Runtime 22.2 obsoleto en watsonx.ai Runtime (anteriormente Watson Machine Learning)

11 de enero de 2024

IBM Runtime 22.2 está en desuso y se eliminará el 11 de abril de 2024. A partir del 7 de marzo de 2024, no puede crear cuadernos o entornos personalizados utilizando los tiempos de ejecución 22.2 . Además, no puede entrenar modelos nuevos con especificaciones de software basadas en el tiempo de ejecución 22.2 . Actualice los activos y despliegues para utilizar IBM Runtime 23.1 antes del 7 de marzo de 2024.

IBM Granite v1 los modelos de base están en desuso

11 de enero de 2024

Los modelos de base de datos de 13 mil millones de parámetros de IBM Granite, v1, están obsoletos y se retirarán el 11 de abril de 2024. Si está utilizando la versión 1 de los modelos, cambie a la versión 2 de los modelos en su lugar.

Modelos base de IBM en desuso
Modelo en desuso Fecha de desuso Fecha de retirada Modelo alternativo
granite-13b-chat-v1 11 de enero de 2024 11 de abril de 2024 granite-13b-chat-v2
granite-13b-instruct-v1 11 de enero de 2024 11 de abril de 2024 granite-13b-instruct-v2

Las solicitudes de inferencia que se envían a los modelos de la versión 1 utilizando la API siguen generando salida, pero incluyen un mensaje de aviso sobre la próxima retirada del modelo. A partir del 11 de abril de 2024, las solicitudes de API para inferir los modelos no generarán salida.

Para más información sobre los modelos de base de IBM Granite, consulte Modelos de base fabricados por IBM. Para obtener más información sobre la desestimación y la retirada, consulte el ciclo de vida del modelo de la Fundación.