Novedades de watsonx as a Service en IBM Cloud
Vuelva cada semana para conocer las nuevas funciones y actualizaciones de IBM watsonx.ai y IBM watsonx.governance en IBM Cloud.
Para obtener información sobre IBM watsonx.governance en AWS, consulte Las novedades de IBM watsonx.governance en AWS.
Semana que finaliza el 21 de marzo de 2025
Trabajar con nuevos modelos de despliegue bajo demanda especializados para las lenguas europeas en watsonx.ai
21 de marzo de 2025
Ahora puede inferir los siguientes modelos de bases de despliegue bajo demanda de IBM watsonx.ai especializados en 24 idiomas europeos y 11 idiomas internacionales:
- eurollm-1-7b-instruct
- eurollm-9b-instruct
Para obtener más información sobre precios, consulte Modelos de bases compatibles. Para obtener más información sobre cómo implementar un modelo de base bajo demanda, consulte Implementación de modelos de base bajo demanda.
Coincidir con el idioma de entrada
20 de marzo de 2025
AutoAI ahora detectará automáticamente el idioma utilizado en las indicaciones y ordenará a los modelos que respondan en el mismo idioma. Los modelos que no admiten la lengua de entrada tienen menos prioridad en la búsqueda del patrón RAG. Puede desactivar esta configuración del experimento si desea que AutoAI tenga en cuenta todos los modelos disponibles y genere respuestas sólo en inglés. Para más detalles, consulte Personalización de la configuración de AutoAI RAG.
El modelo de base granite-8b-japanese está obsoleto
19 de marzo de 2025
El siguiente modelo de base granite-8b-japanese está obsoleto y se retirará el 6 de agosto de 2025. Revisa las indicaciones que utilicen estos modelos básicos.
- Fecha de depreciación: 19 de marzo de 2025
- Fecha de retirada: 6 de agosto de 2025
- Modelo alternativo: granite-3-8b-instruct
Para obtener más información sobre la eliminación y la retirada, consulte Ciclo de vida del modelo de fundamentación. Para más información sobre modelos alternativos, consulte Modelos de fundación compatibles.
Semana que finaliza el 7 de marzo de 2025
Inferencia: despliegue bajo demanda y modelos de base personalizados de la región de Frankfurt
6 de marzo de 2025
Ahora tiene más formas de trabajar con modelos de bases de datos de proyectos alojados en el centro de datos de Fráncfort.
- Cargar e implementar modelos de bases personalizados.
- Elija entre un conjunto de modelos de bases de datos populares para implementarlos en hardware dedicado para el uso exclusivo de su organización.
Para obtener más información, lea los siguientes recursos:
Trabajar con nuevos modelos de implementación bajo demanda en watsonx.ai
5 de marzo de 2025
Ahora puede inferir los siguientes modelos de base de despliegue bajo demanda de IBM watsonx.ai:
- granite-8b-japanese
- granite-20b-multilingual
- allam-1-13b-instruct
Para obtener más información sobre precios, consulte Modelos de bases compatibles. Para obtener más información sobre cómo implementar un modelo de base bajo demanda, consulte Implementación de modelos de base bajo demanda.
Los fragmentos de código ya están disponibles en Decision Optimization experiments
5 de marzo de 2025
Al crear modelos de e Decision Optimization s en la interfaz de usuario del experimento, ahora puede utilizar fragmentos de código para modelos de e Python s DOcplex u OPL. El uso de fragmentos de código puede acelerar la creación de modelos, ya que permite añadir y editar código sin tener que introducir todas las líneas de código desde cero.
Para más información, consulte Fragmentos de código para crear modelos.
Semana que finaliza el 28 de febrero de 2025
Implementar AutoAI para experimentos RAG Chroma como servicio de IA
27 de febrero de 2025
AutoAI los patrones RAG que se crean utilizando la base de datos Chroma en memoria ahora se pueden implementar como un servicio de IA. Utilice este método de implementación para guardar un patrón RAG como un activo implementable, promocionarlo a un espacio y crear la implementación en una sola operación. A continuación, puede probar el patrón RAG y acceder al punto final de inferencia.
Para más detalles, consulte Automatizar un patrón RAG con AutoAI.
Eliminación de Runtime 23.1
27 de febrero de 2025
Soporte para IBM Runtime 23.1 en watsonx.ai Runtime y watsonx.ai Studio se eliminarán el 17 de abril de 2025. Para garantizar una experiencia fluida y aprovechar las últimas funciones y mejoras, cambie a IBM Runtime 24.1.
- Para obtener información sobre cómo cambiar de entorno, consulte Cambiar de entorno de portátil.
- Para obtener detalles sobre las infraestructuras de despliegue, consulte Gestión de infraestructuras y especificaciones de software.
Inferencia de los modelos Granite 3.2 Instruct y Vision en la región de Dallas
26 de febrero de 2025
El modelo de razonamiento de la fundación granite-3-2-8b-instruct es un modelo de razonamiento con potentes capacidades, como citar sus fuentes y detectar alucinaciones. Puede controlar si la modelo comparte su proceso de pensamiento en el resultado para equilibrar el rendimiento y la transparencia. Este modelo es la versión disponible en general del modelo de base de previsualización tecnológica de granite-3-2-8b-instruct-preview-rc.
El modelo de base de datos de la Fundación de la Web ( granite-vision-3-2-2b ) es el primer modelo de base de datos de la Web ( Granite ) multimodal creado para casos de uso empresarial. El modelo de base de imagen a texto es capaz de asimilar imágenes y texto para tareas como la comprensión de tablas, diagramas, gráficos y más.
Para obtener más información, consulte Modelos de base soportados.
Desuso de la biblioteca project-lib
24 de febrero de 2025
La biblioteca project-lib está obsoleta. A partir de Runtime 25.1, la biblioteca no se incluirá en ninguna nueva versión de Runtime. Aunque las versiones existentes en tiempo de ejecución a través de 24.1 seguirán incluyendo la biblioteca obsoleta, considere reescribir su código para utilizar la biblioteca ibm-watson-studio-lib.
Para obtener información sobre cómo migrar su código, consulte:
Semana que finaliza el 21 de febrero de 2025
Implementar modelos de bases personalizadas con especificaciones de hardware extrapequeñas
20 de febrero de 2025
Para ahorrar recursos, puede implementar modelos de cimientos personalizados con especificaciones de hardware extrapequeñas. Utiliza la especificación de hardware gpu_xs
para el parámetro hardware_request
cuando implementes tu modelo de base personalizado con la API REST. Para obtener más información, consulte Creación de una implementación para un modelo de base personalizado.
El modelo de base de parámetros de 3000 millones de dólares de la Fundación de la Iniciativa de Transparencia de la Cadena de Suministro ( Granite Code ) está disponible para que lo despliegue bajo demanda
20 de febrero de 2025
El modelo de base de maquillaje granite-3b-code-instruct de IBM está disponible como modelo de base de maquillaje desplegable bajo demanda. Para obtener más información, consulte Modelos de bases compatibles.
Para obtener más información sobre cómo implementar un modelo de base bajo demanda, consulte Implementación de modelos de base bajo demanda.
Semana que finaliza el 14 de febrero de 2025
Inferencia: despliegue de modelos de base personalizados y bajo demanda de la región de Toronto
13 de febrero de 2025
Ahora tiene más formas de trabajar con modelos de fundación de proyectos que se alojan en la región de Toronto.
- Cargar e implementar modelos de bases personalizados.
- Elija entre un conjunto de modelos de bases de datos populares para implementarlos en hardware dedicado para el uso exclusivo de su organización.
Para obtener más información, lea los siguientes recursos:
Integre una implementación alojada existente de IBM OpenPages con watsonx.governance
13 de febrero de 2024
Además de integrar opcionalmente watsonx.governance con la consola de gobernanza implementada con OpenPages como servicio, ahora puede integrar watsonx.governance con una implementación alojada de IBM OpenPages,, ya sea en una nube gestionada o en una implementación local tradicional. La integración con una versión alojada de OpenPages requiere el plan Essentials para watsonx.governance.
- Para obtener detalles del plan, consulte IBM watsonx.governance que ofrece opciones de planes.
- Para obtener más información sobre la sincronización de datos de casos de uso con watsonx.governance, consulte Gestión de casos de uso de IA
- Para obtener instrucciones de integración, consulte Integración con watsonx.governance
Implementar modelos convertidos de scikit-learn y XGBoost al formato ONNX
13 de febrero de 2024
Ahora puede implementar modelos de aprendizaje automático y de IA generativa que se convierten de scikit-learn y XGBoost al formato ONNX y utilizar el punto final para la inferencia. Para más información, consulte Despliegue de modelos con formato ONNX.
Trabajar con nuevos modelos de implementación bajo demanda Granite Code en watsonx.ai
13 de febrero de 2025
Utilice los siguientes modelos de base de código Granite Code de IBM para tareas de codificación como escribir, convertir y corregir código programático:
- granite-8b-code-instruct
- granite-20b-code-instruct
- granite-34b-code-instruct
Para obtener más información sobre precios, consulte Modelos de bases compatibles. Para obtener más información sobre cómo implementar un modelo de base bajo demanda, consulte Implementación de modelos de base bajo demanda.
Vídeos tutoriales actualizados de SPSS Modeler
11 de febrero de 2025
Vea y aprenda sobre SPSS Modeler viendo los vídeos actualizados en los tutoriales de SPSS Modeler.
Semana que finaliza el 7 de febrero de 2025
Vea el último modelo de base de maquillaje de IBM Granite en la región de Dallas
7 de febrero de 2025
Pruebe una vista previa técnica del modelo de base de maquillaje granite-3-2-8b-instruct-preview-rc, ahora disponible en la región de Dallas. El modelo de previsualización 3.2 de Granite añade nuevas capacidades de razonamiento de una forma novedosa. La función de razonamiento es configurable, lo que significa que puede habilitar el razonamiento solo para tareas en las que la información explicativa sea útil en el resultado.
La previsión de datos con modelos de series temporales de base e IBM Granite es ya está disponible de forma general
6 de febrero de 2025
Utilice el método de previsión de series temporales de la API de la Biblioteca de Procesamiento de Datos ( watsonx.ai ) para pasar observaciones de datos históricos a un modelo de base de series temporales de la Biblioteca de Procesamiento de Datos ( IBM Granite ) que puede pronosticar valores futuros con inferencia de tiro cero.
- Para obtener más información sobre cómo utilizar el método de previsión de la API de watsonx.ai, consulte Previsión de valores de datos futuros.
- Para obtener información sobre precios, consulte Detalles de facturación para activos de IA generativa.
IBM watsonx.ai está disponible en la región de Toronto
6 de febrero de 2025
Watsonx.ai está ahora disponible de forma general en el centro de datos de Toronto y Toronto puede seleccionarse como región preferida al registrarse. Utilizar un subconjunto de los modelos de base proporcionados para inferir e incrustar modelos para generar incrustaciones de texto y reordenar pasajes.
Para obtener más información sobre los modelos de fundaciones y las características de los productos que están disponibles en la región de Toronto, consulte Disponibilidad regional de servicios y características.
Inferencia de despliegue bajo demanda y modelos de base personalizados de la región de Sídney
6 de febrero de 2025
Ahora tiene más formas de trabajar con modelos de base de proyectos alojados en la región de Sydney.
- Cargar e implementar modelos de bases personalizados.
- Elija entre un conjunto de modelos de bases de datos populares para implementarlos en hardware dedicado para el uso exclusivo de su organización.
Para obtener más información, lea los siguientes recursos:
Mistral Large 2 el modelo de base está disponible para que lo despliegue bajo demanda
6 de febrero de 2025
El modelo de base de maquillaje mistral-large-instruct-2407 de Mistral AI está disponible como modelo de base de maquillaje desplegable bajo demanda. Se aplica una tarifa adicional por hora al acceder a este modelo. Para obtener más información sobre precios, consulte Modelos de bases compatibles.
Para obtener más información sobre cómo implementar un modelo de base bajo demanda, consulte Implementación de modelos de base bajo demanda.
Despliegue e infiera nuevos modelos destilados de e DeepSeek-R1 a bajo demanda en watsonx.ai
3 de febrero de 2025
DeepSeek-R1 Ahora puede implementar variantes destiladas de modelos de e-commerce a demanda en watsonx.ai en IBM Cloud. Las variantes del modelo de aprendizaje profundo ( DeepSeek-R1 ) se basan en modelos de aprendizaje profundo (deep learning) que se ajustan mediante el uso de datos de entrenamiento generados por el modelo de aprendizaje profundo ( DeepSeek-R1 ).
Para más detalles, consulte Modelos de cimentación soportados .
Para obtener más información sobre cómo implementar un modelo de base bajo demanda desde el centro de recursos o la API REST, consulte Implementación de modelos de base bajo demanda.
Inventario predeterminado reemplaza Catálogo de activos de la plataforma en watsonx.governance
3 de febrero de 2025
Ahora hay disponible un inventario predeterminado para almacenar artefactos de inteligencia artificial ( watsonx.governance ), incluidos casos de uso de IA, modelos de terceros, archivos adjuntos e informes. El inventario predeterminado sustituye cualquier dependencia previa en el catálogo de acceso a la plataforma o en IBM Knowledge Catalog para almacenar artefactos de gobernanza.
Para obtener más información, consulte Configuración del inventario predeterminado.
Estudio de evaluación disponible en el centro de datos de Sydney
3 de febrero de 2025
Con Evaluation Studio, puede evaluar y comparar sus activos de IA generativa con métricas cuantitativas y criterios personalizables que se adapten a sus casos de uso. Evalúe el rendimiento de varios activos simultáneamente y vea análisis comparativos de los resultados para identificar las mejores soluciones.
Para obtener más información, consulte Comparación de activos AI con Evaluation Studio.
Semana que finaliza el 31 de enero de 2025
Cree e implemente agentes de IA en el nuevo Laboratorio de agentes (beta)
30 de enero de 2025
Ahora puede crear e implementar agentes de IA para que sus aplicaciones sean más flexibles y dinámicas mediante la interfaz de usuario de Agent Lab. Puede configurar el agente para que tome decisiones y realice tareas utilizando un marco de trabajo de agente, un modelo base y herramientas externas que usted especifique en la configuración del agente.
Para más información, consulte el Laboratorio de Agentes.
Cuando utiliza Agent Lab para crear sus aplicaciones de IA en watsonx.ai, sus aplicaciones se implementan como servicios de IA. Puede optar por implementar su solución directamente desde la interfaz de usuario o exportarla a un cuaderno editable en un Python, que implementa el servicio de IA.
Para más información, consulte Despliegue de servicios de IA.
Un nuevo y potente modelo de base de maquillaje e Mistral Large 2 , disponible para que lo utilices cuando lo necesites
30 de enero de 2025
Implemente el modelo de base de datos mistral-large-instruct-2411 desde Mistral AI en hardware dedicado para uso exclusivo de su organización. Mistral-Large-Instruct-2407 Este último modelo de base mejora el modelo de base de datos de la base de datos de la base de datos de la base de datos de la base de datos de la base de datos de la base de datos de la base de datos de la base de datos de la base de datos de la base de datos de la base de datos de la base de datos de la base de datos de la base de datos de la base de datos de la base de datos
A diferencia de otros modelos de bases de datos desplegadas bajo demanda, hay una tarifa adicional por hora para acceder al modelo de base de datos alojada en mistral-large-instruct-2411. Para obtener más información sobre precios, consulte Modelos de bases compatibles.
Para obtener más información sobre cómo implementar un modelo de base bajo demanda desde el centro de recursos o la API REST, consulte Implementación de modelos de base bajo demanda.
Inferencia del modelo de base Mistral Small 3 en la región de Frankfurt
30 de enero de 2025
El modelo de base de datos mistral-small-24b-instruct-2501 de Mistral AI está disponible y alojado en hardware multiusuario listo para su uso. El modelo de base Mistral Small 3 es una gran elección para los flujos de trabajo de chat debido a estas características:
- Capacidades de agente con llamada de función nativa y generación de salida JSON.
- Capacidades de conversación y razonamiento de vanguardia.
- Mantiene una fuerte adhesión y apoyo a las indicaciones del sistema.
- Admite docenas de idiomas, incluidos inglés, francés, alemán, español, italiano, chino, japonés, coreano, portugués, holandés y polaco.
Para obtener más información, consulte Modelos de base soportados.
Despliegue e infiera modelos destilados de DeepSeek-R1 encia con watsonx.ai
29 de enero de 2025
Ahora puede utilizar las variantes destiladas de DeepSeek-R1, un potente modelo de razonamiento de código abierto, para implementar e inferir de forma segura modelos de razonamiento DeepSeek-R1
con watsonx.ai en IBM Cloud, lo que permite a los desarrolladores acelerar el desarrollo de soluciones basadas en IA. DeepSeek-R1
el modelo puede utilizarse como modelo de base personalizado con watsonx.ai.
Para obtener más información, consulte Implementación de modelos de base personalizados.
Precio más bajo para inferir el Llama 3.3 70b Instrucciones para el modelo de base
29 de enero de 2025
El precio para inferir el modelo de fundación de llama-3-3-70b-instruct a partir de Meta disminuyó de 0.0018 a 0.00071 USD por 1000 tokens. El cambio de precio se aplica a todas las regiones en las que está disponible el modelo de base.
Para obtener más información, consulte Modelos de base soportados.
Semana que finaliza el 24 de enero de 2025
Disponibilidad general de AutoAI para experimentos de GAR
23 de enero de 2025
AutoAI para RAG es ahora totalmente compatible para automatizar la búsqueda de un patrón de generación optimizado de recuperación-aumentada para sus aplicaciones. Esta actualización incluye las siguientes novedades:
- Explore AutoAI para RAG utilizando datos de muestra y una visita guiada para aprender el proceso.
- Si crea un experimento utilizando un almacén de vectores Milvus, ahora puede desplegar un patrón RAG como un servicio AI para poder acceder al punto final desde un espacio de despliegue para realizar inferencias.
Para más detalles, consulte Automatizar un patrón RAG con AutoAI.
La ejecución de los experimentos RAG de AutoAI conlleva los siguientes gastos de facturación:
- La Unidad de Capacidad por Hora (CUH) cobra por el tiempo de ejecución de los experimentos.
- Unidad de Recurso (RU) cobrada por todas las llamadas de incrustación e inferencia del modelo de IA generativa realizadas durante la ejecución del experimento. Una Unidad de Recursos (UR) equivale a 1.000 fichas.
Para obtener información sobre planes y detalles de facturación, consulte watsonx.ai Planes de tiempo de ejecución.
Implantar servicios de IA con CPDCTL
23 de enero de 2024
Ahora puede utilizar la interfaz de línea de comandos Cloud Pak for Data (CPDCTL) para implantar sus soluciones de IA generativa con servicios de IA mediante programación. CPDCTL es una herramienta de línea de comandos para desplegar y gestionar servicios de IA en la plataforma IBM Cloud Pak for Data (CPD). Proporciona una forma sencilla y racionalizada de desplegar servicios de IA, eliminando la necesidad de configuración manual y reduciendo el riesgo de errores.
Para obtener más información, consulte Despliegue de servicios AI con la interfaz de línea de comandos Cloud Pak for Data (CPDCTL).
Implante servicios de IA con AutoAI para RAG
23 de enero de 2024
Cuando utilice AutoAI para crear una solución de IA generativa que utilice un patrón RAG, ahora puede desplegar su solución directamente desde el constructor de experimentos de AutoAI como un servicio de IA. Para obtener más información, consulte Despliegue de servicios de IA con herramientas.
Implantación de modelos convertidos de CatBoost y LightGBM al formato ONNX
23 de enero de 2024
Ahora puede desplegar modelos de aprendizaje automático y de IA generativa convertidos de CatBoost y LightGBM al formato ONNX y utilizar el endpoint para inferencias. Estos modelos también pueden adaptarse a ejes dinámicos. Para más información, consulte Despliegue de modelos con formato ONNX.
Implante modelos de cimientos populares a petición en watsonx.ai
22 de enero de 2025
Ahora puede implantar los siguientes modelos de base en hardware dedicado en la región de Dallas para uso exclusivo de su organización:
- llama-3-1-70b-instruct
- granite-7b-lab
Para obtener más información sobre estos modelos, como los precios y las duraciones de las ventanas de contexto admitidas, consulte Modelos de base de implantación bajo demanda.
Para obtener más información sobre cómo implementar un modelo de base bajo demanda desde el centro de recursos o la API REST, consulte Implementación de modelos de base bajo demanda.
Varios modelos de cimientos Llama están ahora disponibles en más regiones
22 de enero de 2025
Los siguientes modelos de base de Meta están disponibles en más regiones:
- llama-3-3-70b-instruct: Ahora disponible desde Tokio y Londres, además de Dallas y Fráncfort.
- llama-3-2-11b-vision-instruct: Ahora disponible desde Fráncfort y Londres, además de Dallas, Tokio y Sídney.
Para más información sobre la disponibilidad regional de los modelos de cimentación, consulte Disponibilidad regional en IBM Cloud.
Los modelos de cimientos Llama 3.1 Instruct 70b y 8b están obsoletos
22 de enero de 2025
Los siguientes modelos de base de Meta quedan obsoletos. Revisa las indicaciones que utilicen estos modelos básicos.
llama-3-1-70b-instruct
- Fecha de caducidad: 22 de enero de 2025
- Fecha de retirada: 30 de mayo de 2025
- Modelo alternativo: llama-3-3-70b-instruct o llama-3-2-90b-vision-instruct
llama-3-1-8b-instruct
- Fecha de caducidad: 22 de enero de 2025
- Fecha de retirada: 30 de mayo de 2025
- Modelo alternativo: llama-3-2-11b-vision-instruct
Para obtener más información sobre la eliminación y la retirada, consulte Ciclo de vida del modelo de fundamentación. Para más información sobre modelos alternativos, consulte Modelos de fundación compatibles.
Si desea seguir trabajando con estos modelos de base, puede desplegar los modelos bajo demanda para su uso exclusivo. Para obtener más información, consulte Despliegue de modelos de cimientos bajo demanda.
Semana que finaliza el 17 de enero de 2025
Utilizar nuevos modelos de incrustación de IBM Granite en watsonx.ai
16 de enero de 2025
Ahora puede utilizar los siguientes modelos de incrustación de Granite proporcionados por IBM en watsonx.ai:
- granite-embedding-107m-multilingual
- granite-embedding-278m-multilingual
Utilice los nuevos modelos de incrustación para generar incrustaciones de texto de alta calidad para entradas en forma de consulta, pasaje o documento en varios idiomas. Para más detalles, consulte Modelos de codificadores compatibles y Vectorización de texto.
Se ha introducido una modificación en los modelos Granite Guardian
16 de enero de 2025
Ya puede inferir la última versión de los modelos de la base Granite Guardian de IBM en watsonx.ai en los centros de datos de Dallas y Sídney.
Las últimas versiones 3.1 de los modelos admiten ahora una longitud de contexto de 128.000 tokens y se han entrenado con datos sintéticos adicionales para mejorar el rendimiento de los riesgos relacionados con la alucinación y el jailbreak. Para más detalles, consulte Modelos de cimentación soportados .
Los modelos de base granite-20b-multilingual y codellama-34b-instruct-hf quedan obsoletos
15 de enero de 2025
Los siguientes modelos de cimientos están obsoletos. Revisa las indicaciones que utilicen estos modelos básicos.
granite-20b-multilingual
- Fecha de depreciación: 15 de enero de 2025
- Fecha de retirada: 16 de abril de 2025
- Modelo alternativo: granite-3-8b-instruct
codellama-34b-instruct-hf
- Fecha de depreciación: 15 de enero de 2025
- Fecha de retirada: 31 de marzo de 2025
- Modelo alternativo: llama-3-3-70b-instruct
Para obtener más información sobre la eliminación y la retirada, consulte Ciclo de vida del modelo de fundamentación. Para más información sobre modelos alternativos, consulte Modelos de fundación compatibles.
Nuevas arquitecturas de modelos disponibles para implantar modelos de cimientos personalizados
15 de enero de 2024
Ahora puede desplegar modelos de base personalizados con las siguientes arquitecturas en watsonx.ai:
exaone
gemma
gemma2
granite
mt5
nemotron
olmo
persimmon
phi
phi3
qwen
qwen2
Para obtener más información, consulte Planificación de la implementación de un modelo de base personalizado.
Beta finalizada para los experimentos RAG AutoAI el 23 de enero de 2025
13 de enero de 2025
Una vez concluida la fase beta, la ejecución de experimentos RAG AutoAI conllevará los siguientes gastos de facturación:
- La Unidad de Capacidad por Hora (CUH) cobra por el tiempo de ejecución de los experimentos.
- Unidad de Recursos (RU) encargada de incrustar el documento de base y de inferir los modelos generativos de IA. Una Unidad de Recurso (RU) equivale a 1.000 fichas.
Para obtener información sobre planes y detalles de facturación, consulte watsonx.ai Planes de tiempo de ejecución.
Semana que finaliza el 20 de diciembre de 2024
Despliegue de modelos convertidos al formato ONNX
20 de diciembre de 2024
Ahora puede desplegar modelos de aprendizaje automático y de IA generativa convertidos al formato ONNX y utilizar el endpoint para inferencias. Estos modelos también pueden adaptarse a ejes dinámicos. Para más información, consulte Despliegue de modelos con formato ONNX.
Despliegue de flujos SPSS Modeler multifuente
20 de diciembre de 2024
Ahora puede crear implementaciones para flujos de SPSS Modeler que utilicen múltiples flujos de entrada para proporcionar datos al modelo. Para obtener más información, consulte Despliegue de flujos SPSS Modeler multifuente.
Semana que finaliza el 13 de diciembre de 2024
Se introducen modificaciones en los modelos de cimientos Granite 3 Instruct
13 de diciembre de 2024
Se han introducido modificaciones en los siguientes modelos de cimientos de IBM :
- granite-3-2b-instruct
- granite-3-8b-instruct
Con las últimas modificaciones, los modelos de la base Granite 3.1 Instruct ofrecen ahora un mejor soporte para la codificación de tareas y funciones intrínsecas para los agentes. La longitud de la ventana de contexto admitida para estos modelos de fundación aumentó de 4.096 a 131.072 tokens. Aunque los ID de los modelos Granite Instruct siguen siendo los mismos, se actualizan las ponderaciones de los modelos.
Para obtener más información, consulte Modelos de base soportados.
Solución sin código para buscar un patrón RAG con AutoAI (beta)
12 de diciembre de 2024
Ahora puede automatizar la búsqueda del patrón RAG óptimo para su caso de uso desde la interfaz de usuario AutoAI. Cargue la colección de documentos y las preguntas de prueba, elija una base de datos vectorial y ejecute el experimento para un enfoque de ruta rápida para encontrar un patrón RAG. También puede revisar y modificar los ajustes de configuración del experimento. Compare los patrones generados por el experimento y guarde el mejor patrón como cuaderno autogenerado o cuadernos guardados en su proyecto.
Para más detalles, consulte Automatizar un patrón RAG con AutoAI.
Implantar servicios de IA con plantillas
12 de diciembre de 2024
Puede desplegar sus servicios de IA utilizando plantillas predefinidas. Las plantillas de servicios de IA proporcionan una forma estandarizada de desplegar servicios de IA al ofrecer una estructura y configuración predefinidas para desplegar modelos de IA. Estas plantillas son unidades de código preconstruidas y desplegables que encapsulan la lógica de programación de las aplicaciones de IA generativa.
Las plantillas de servicios de IA automatizan tareas como la creación de despliegues, la generación de metadatos y la creación de extensiones, lo que permite a los desarrolladores centrarse en la lógica central de su aplicación. Proporcionan una forma flexible de desplegar servicios de IA, admitiendo múltiples entradas y personalización.
Para obtener más información, consulte Despliegue de servicios de IA con plantillas.
El último modelo de base de llama está disponible para que lo despliegue bajo demanda
12 de diciembre de 2024
Puede implementar el Meta Llama 3.3 70B Instruya el modelo de base multilingüe en hardware dedicado para el uso exclusivo de su organización. El modelo de base más reciente de Meta tiene capacidades similares al modelo más grande de llama-3-405b-instruct, pero es más pequeño y es experto en codificación, razonamiento paso a paso y, en particular, en la llamada de herramientas. Puede implementar el modelo completo ( llama-3-3-70b-instruct-hf ) o una versión cuantificada ( llama-3-3-70b-instruct ) que requiere menos recursos para alojar.
Para obtener más información sobre cómo implementar un modelo de base bajo demanda desde el centro de recursos o la API REST, consulte Implementación de modelos de base bajo demanda.
Despliegue de modelos de la Fundación a petición con la biblioteca cliente Python
12 de diciembre de 2024
Ahora puede desplegar sus modelos de cimentación a petición utilizando la biblioteca de clientes watsonx.ai Python. Gracias a este enfoque, podrá acceder a las capacidades de estos potentes modelos de cimentación sin necesidad de grandes recursos computacionales. Los modelos Foundation que se despliegan a petición se alojan en un espacio de despliegue dedicado en el que se pueden utilizar estos modelos para inferencias.
Para obtener más información, consulte Despliegue de modelos de la Fundación a petición.
Tutoriales actualizados SPSS Modeler
11 de diciembre de 2024
Obtenga experiencia práctica con SPSS Modeler probando las 15 versiones actualizadas de SPSS Modeler tutoriales.
Comparación de activos de IA con Evaluation Studio
12 de diciembre de 2024
Con Evaluation Studio, puede evaluar y comparar sus activos de IA generativa con métricas cuantitativas y criterios personalizables que se adapten a sus casos de uso. Evalúe el rendimiento de varios activos simultáneamente y vea análisis comparativos de los resultados para identificar las mejores soluciones.
Para obtener más información, consulte Comparación de activos AI con Evaluation Studio.
Mejoras en la consola de Gobernanza
12 de diciembre de 2024
- Mejoras en la solución watsonx.governance Model Risk Governance
Esta versión incluye las siguientes mejoras:
- La nueva plantilla del cuestionario de identificación de riesgos en la incorporación de modelos de IA se utiliza durante el proceso de incorporación de modelos para ayudar a identificar los riesgos asociados a un modelo. Esta plantilla de cuestionario se utiliza en el flujo de trabajo Foundation Model Onboarding.
- La nueva plantilla del cuestionario de identificación de riesgos de casos de uso de IA se utiliza para ayudar a identificar los riesgos asociados a los casos de uso de IA. Esta plantilla de cuestionario se utiliza en el flujo de trabajo de Revisión de Casos de Uso. Este nuevo cuestionario está destinado a sustituir al Cuestionario de Identificación de Riesgos AI
- La nueva plantilla del cuestionario de identificación de riesgos de casos de uso y modelos de IA se utiliza para ayudar a identificar los riesgos asociados a la combinación de un caso de uso y un modelo de IA. Esta plantilla de cuestionario se utiliza en el flujo de trabajo de Desarrollo de Casos de Uso y Documentación.
- El flujo de trabajo de evaluación de la IA está ahora desactivado por defecto. Se sustituye por el Flujo de trabajo de evaluación de cuestionarios. Ahora puede establecer plantillas de cuestionarios directamente en el flujo de trabajo de casos de uso.
- Se actualizaron los flujos de trabajo, las vistas y los cuadros de mando.
Para obtener más información, consulte Componentes de la solución en la consola Gobernanza.
- Correcciones de errores y de seguridad
Se han aplicado correcciones de errores y de seguridad.
Para más información, consulte Nuevas funciones en 9.0.0.5.
IBM watsonx.governance governance está disponible en la región de Sydney
9 de diciembre de 2024
IBM watsonx.governance ya está disponible de forma general en el centro de datos de Sídney. Puede seleccionar Sídney como región preferida al inscribirse.
Para obtener más información sobre las funciones del producto disponibles en la región de Sídney, consulte Disponibilidad regional de servicios y funciones.
Semana que finaliza el 6 de diciembre de 2024
Despliegue de modelos de cimientos bajo demanda en la región de Dallas
6 de diciembre de 2024
Elija entre una colección seleccionada de modelos de base que puede implantar en hardware dedicado para uso exclusivo de su organización. Un despliegue dedicado se traduce en interacciones más ágiles a la hora de inferir modelos de base. Los modelos de cimentación a la carta se facturan por horas. Para obtener más información, consulte Modelos de base admitidos y Detalles de facturación de los activos de IA generativa.
Para obtener más información sobre cómo implementar un modelo de base bajo demanda desde el centro de recursos o la API REST, consulte Implementación de modelos de base bajo demanda.
Inferencia el último modelo de base de Llama de Meta en las regiones de Dallas y Frankfurt
6 de diciembre de 2024
Meta . Llama 3. 3. 70B. El modelo de fundación multilingüe de Instruct está disponible para las regiones de Dallas y Frankfurt. El modelo de la fundación llama-3-3-70b-instruct es experto en codificación, razonamiento paso a paso y llamada a herramientas. Con un rendimiento que rivaliza con el del modelo e 405b, la actualización del modelo de base e Llama 3.3 es una gran elección para los desarrolladores. Vea el anuncio de IBM.
Para obtener más información, consulte Modelos de base soportados.
Revisar los puntos de referencia para comparar los modelos de fundación
5 de diciembre de 2024
Revise los puntos de referencia de los modelos de bases de maquillaje para conocer las capacidades de los modelos de bases de maquillaje disponibles antes de probarlos. Compare el rendimiento de varios modelos de cimientos en las tareas más importantes para su caso de uso. Para más información, consulte los puntos de referencia del modelo de la Fundación.
Los archivos de Microsoft Excel están obsoletos para los modelos OPL en Decision Optimization
5 de diciembre de 2024
Los archivos de libros de Microsoft Excel (.xls y .xlsx) están ahora obsoletos para la entrada y salida directa en los modelos OPL de Decision Optimization. Para conectarse a archivos Excel, utilice en su lugar un conector de datos. El conector de datos transforma tu archivo Excel en un archivo .csv. Para más información, véase Datos de referencia.
Nuevos cuadernos de muestras para desplegar modelos convertidos al formato ONNX
3 de diciembre de 2024
Ahora puede desplegar modelos de aprendizaje automático y de IA generativa convertidos al formato ONNX y utilizar el endpoint para inferencias. Estos modelos también pueden adaptarse a ejes dinámicos. Consulte los siguientes cuadernos de muestra:
- Convertir la red neuronal ONNX de ejes fijos a ejes dinámicos
- Utilizar el modelo ONNX convertido de PyTorch
- Usa el modelo ONNX convertido de TensorFlow para reconocer dígitos escritos a mano
Para obtener más información, consulte watsonx.ai Runtime Python client samples and examples.
Los modelos de base llama-3-8b-instruct y llama-3-70b-instruct están obsoletos
2 de diciembre de 2024
Los siguientes modelos de cimientos están obsoletos. Revisa las indicaciones que utilicen estos modelos básicos.
llama-3-8b-instruct
- Fecha de amortización: 2 de diciembre de 2024
- Fecha de retirada: 3 de febrero de 2025
- Modelo alternativo: llama-3-1-8b-instruct, llama-3-2-11b-vision-instruct
llama-3-70b-instruct
- Fecha de amortización: 2 de diciembre de 2024
- Fecha de retirada: 3 de febrero de 2025 (31 de marzo de 2025 en Sydney)
- Modelo alternativo: llama-3-2-90b-vision-instruct
Para obtener más información sobre la eliminación y la retirada, consulte Ciclo de vida del modelo de fundamentación. Para más información sobre modelos alternativos, consulte Modelos de fundación compatibles.
Semana que finaliza el 29 de noviembre de 2024
Mejora de la documentación sobre las opciones de escritura de Data Refinery
28 de noviembre de 2024
Las opciones de escritura y las opciones de tabla para exportar flujos de datos dependen de su conexión. A continuación se explican estas opciones para orientarle mejor a la hora de seleccionar las opciones de su mesa de destino. Para obtener más información, consulte Opciones de conexión de destino para Data Refinery.
Semana que finaliza el 22 de noviembre de 2024
Nuevo centro de desarrollo watsonx para empezar a programar rápidamente
21 de octubre de 2024
Eche un vistazo al nuevo centro de desarrollo para encontrar todo lo que necesita para codificar su solución de IA generativa:
- Realice su primera solicitud de API para inferir un modelo de base en watsonx.ai.
- Encuentre los modelos básicos y las bibliotecas de código adecuados para sus aplicaciones de IA.
- Comprender las capacidades de watsonx.ai y copiar fragmentos de código en Curl, Node.js o Python.
- Aprenda a crear aplicaciones y soluciones de IA generativa con guías detalladas.
- Únete a comunidades para encontrar recursos, respuestas y relacionarte con otros usuarios.
Vaya a watsonx Developer Hub.
Los servicios de componentes de IBM watsonx.ai pasaron a llamarse
21 de noviembre de 2024
Se ha cambiado el nombre de los siguientes servicios:
- Watson Machine Learning ' se llama ahora watsonx.ai Runtime
- Watson Studio ' se llama ahora watsonx.ai Studio
Es posible que algunos vídeos, cuadernos y ejemplos de código sigan refiriéndose a estos servicios por sus nombres anteriores.
IBM watsonx.ai está disponible en la región de Sídney
21 de noviembre de 2024
Watsonx.ai ya está disponible de forma general en el centro de datos de Sídney y se puede seleccionar Sídney como región preferida al registrarse.
Para obtener más información sobre los modelos de base y las características de los productos disponibles en la región de Sídney, consulte Disponibilidad regional de servicios y características.
Utilizar modelos de series temporales de base de datos ( IBM Granite ) y la API de datos de tiempo real ( watsonx.ai ) para pronosticar valores futuros (beta)
21 de noviembre de 2024
Utilice la API de series temporales para pasar observaciones de datos históricos a un modelo de base de series temporales e IBM Granite e que puede pronosticar valores futuros con inferencia de tiro cero. El método de previsión de series temporales de la API de watsonx.ai está disponible como función beta. Para obtener más información, consulte Pronosticar valores de datos futuros.
Utilizar los modelos de incrustación de texto de watsonx.ai desde la API de inferencia Elasticsearch
21 de noviembre de 2024
La versión 8.16.0 de la versión 1.0 de Elasticsearch añadió soporte para la creación de un punto final de inferencia que utiliza un modelo de base de datos relacional ( watsonx.ai ) para tareas de incrustación de texto.
Para más información, consulte Vectorizar texto mediante la API.
Promover flujos de SPSS Modeler a espacios de despliegue
19 de noviembre de 2024
Ahora puede promover directamente flujos de SPSS Modeler de proyectos a espacios de implantación sin tener que exportar el proyecto y luego importarlo al espacio de implantación. Para obtener más información, consulte Promover flujos y modelos SPSS Modeler.
Semana que finaliza el 15 de noviembre de 2024
Utilice la aplicación de chat de demostración IBM watsonx.ai sin restricciones de prueba vinculando cuentas
15 de noviembre de 2024
Ahora puede utilizar su aplicación de chat de cuenta de demostración ' IBM ' watsonx.ai sin restricciones de uso de tokens ni de límite de tiempo vinculando su cuenta de demostración a su cuenta de pago ' IBM Cloud ' watsonx.ai. Para más detalles, véase " Vinculación de las cuentas de demostración " IBM " watsonx.ai " y " watsonx.ai .
El paquete watsonx.ai Node.js está disponible en LangChain
11 de noviembre de 2024
El paquete watsonx.ai Node.js está disponible para su uso en la biblioteca comunitaria LangChain JavaScript. La integración es compatible con funciones de watsonx.ai como la inferencia de modelos de cimientos, la generación de incrustaciones de texto y la gestión de intercambios de chat que incluyen funciones de imagen a texto y llamada de herramientas. Con la integración LangChain, puede llamar a estas capacidades de watsonx.ai utilizando interfaces coherentes que facilitan el intercambio entre proveedores para comparar ofertas y encontrar la mejor solución para sus necesidades.
Para obtener más información, consulte Node.js SDK.
Ahora se requieren credenciales de tarea para desplegar activos y ejecutar trabajos desde un espacio de despliegue
11 de noviembre de 2024
Para mejorar la seguridad de los trabajos de despliegue en ejecución, debe introducir sus credenciales de tarea para desplegar los siguientes activos desde un espacio de despliegue:
- Plantillas de solicitud
- Servicios de IA
- Modelos de
- Funciones de Python
- Scripts
Además, debe introducir sus credenciales de tarea para crear las siguientes implantaciones desde su espacio de implantación:
- En línea
- Despliegue
También debe utilizar sus credenciales de tarea para crear y gestionar trabajos de despliegue desde su espacio de despliegue.
Para saber cómo configurar sus credenciales de tarea y generar una clave API, consulte Añadir credenciales de tarea.
Semana que finaliza el 8 de noviembre de 2024
Implantar aplicaciones de IA generativa con servicios de IA
7 de noviembre de 2024
Ahora puede utilizar los servicios de IA en watsonx.ai para desplegar sus aplicaciones. Un servicio de IA es una unidad de código desplegable que puede utilizar para capturar la lógica de sus casos de uso de IA generativa. Mientras que las funciones Python son la forma tradicional de desplegar activos de aprendizaje automático, los servicios de IA ofrecen una opción más flexible para desplegar código para aplicaciones de IA generativa, como el streaming. Cuando sus servicios de IA se desplieguen correctamente, podrá utilizar el endpoint para inferir desde su aplicación.
Para más información, consulte Despliegue de servicios de IA.
Los modelos de base granite-13b-chat-v2, llama2-13b-dpo-v7 y mt0-xxl-13b están obsoletos
4 de noviembre de 2024
- Los siguientes modelos de cimientos están obsoletos. Revisa las indicaciones que utilicen estos modelos básicos.
granite-13b-chat-v2
- Fecha de depreciación: 4 de noviembre de 2024
- Fecha de retirada: 3 de febrero de 2025
- Modelo alternativo: granite-3-8b-instruct
llama2-13b-dpo-v7
- Fecha de depreciación: 4 de noviembre de 2024
- Fecha de retirada: 4 de diciembre de 2024
- Modelo alternativo: llama-3-1-8b-instruct
mt0-xxl-13b
- Fecha de depreciación: 4 de noviembre de 2024
- Fecha de retirada: 4 de diciembre de 2024
- Modelos alternativos: llama-3-2-11b-vision-instruct
Para obtener más información sobre la eliminación y la retirada, consulte Ciclo de vida del modelo de fundamentación. Para más información sobre modelos alternativos, consulte Modelos de fundación compatibles.
Semana que finaliza el 1 de noviembre de 2024
El nuevo modelo de incrustación de terceros all-minilm-l6-v2 está disponible en watsonx.ai
29 de octubre de 2024
El modelo de incrustación de texto all-minilm-l6-v2 de la comunidad de procesamiento del lenguaje natural (PLN) y visión por ordenador (CV) de código abierto ya está disponible para su uso desde el método de incrustación de texto de la API watsonx.ai. Utilice el modelo para convertir el texto en vectores de incrustación de texto adecuados para su uso en tareas de correspondencia y recuperación de texto. Para más detalles sobre el modelo, consulte los siguientes temas:
Precio más bajo por inferir el modelo de la fundación Mistral Large
29 de octubre de 2024
El precio de las aportaciones que envíe al modelo de fundación Mistral Large ha disminuido de 1.000 $ 0.01 a 1.000 $ 0.003 USD. El precio de la salida que genera el modelo de fundación no ha cambiado; el precio de los tokens de salida sigue siendo de 1 $ ( 0.01 ) por token de USD/1,000. El cambio de precio se aplica a todas las regiones en las que está disponible el modelo de base de la colección mistral-large.
Para obtener más información, consulte Modelos de base soportados.
Supresión de IBM Runtime 23.1
28 de octubre de 2024
IBM Runtime 23.1 está obsoleto. A partir del 21 de noviembre de 2024, no se podrán crear nuevos cuadernos o entornos personalizados utilizando tiempos de ejecución 23.1. Además, no se pueden crear nuevas implantaciones con especificaciones de software basadas en el tiempo de ejecución 23.1. Para garantizar una experiencia fluida y aprovechar las últimas funciones y mejoras, cambie a IBM Runtime 24.1.
- Para obtener información sobre cómo cambiar de entorno, consulte Cambiar de entorno de portátil.
- Para obtener detalles sobre las infraestructuras de despliegue, consulte Gestión de infraestructuras y especificaciones de software.
Simplifique los documentos empresariales complejos con la API de extracción de texto
28 de octubre de 2024
El método de extracción de texto ya está disponible de forma general en la API REST de watsonx.ai. Aproveche la tecnología de comprensión de documentos desarrollada por IBM para simplificar sus complejos documentos empresariales de modo que puedan ser procesados por modelos de base como parte de un flujo de trabajo de IA generativa. La API de extracción de texto extrae texto de estructuras de documentos como imágenes, diagramas y tablas que los modelos de base no suelen poder interpretar correctamente. Para obtener más información, consulte Extracción de texto de documentos.
La API está disponible en todas las regiones para los usuarios de planes de pago. Para más información sobre precios, consulte la tabla de tarifas de extracción de texto de documentos.
Semana que finaliza el 25 de octubre de 2024
Comparar tablas en experimentos de Decision Optimization para ver las diferencias entre escenarios
23 de octubre de 2024
Ahora puede comparar tablas en un experimento de Decision Optimization en la vista Preparar datos o Explorar solución. Esta comparación puede ser útil para ver las diferencias de valor de los datos entre los escenarios mostrados uno al lado del otro.
Para más información, consulte Comparar tablas de escenarios.
Los nuevos modelos Granite 3.0 están disponibles en watsonx.ai
21 de octubre de 2024
Ahora puede inferir los siguientes modelos de la fundación Granite de generación 3.0 proporcionados por IBM desde watsonx.ai:
- Modelos Granite Instruct en todas las regiones: Utilice los nuevos modelos lingüísticos de código abierto, ligeros y ajustados a Instruct para tareas de resumen, resolución de problemas, traducción de textos, razonamiento, codificación y llamada de funciones. Funciona con las siguientes variantes de modelos:
- granite-3-2b-instruct
- granite-3-8b-instruct
- Modelos Granite Guardian en la región de Dallas: Utilice los nuevos modelos Granite Guardian, que son modelos Granite Instruct perfeccionados, diseñados para detectar riesgos en las indicaciones y respuestas. Funciona con las siguientes variantes de modelos:
- granite-guardian-3-2b
- granite-guardian-3-8b
Para más detalles, consulte Modelos de cimentación soportados .
Mejore las tareas de búsqueda y recuperación con la API de clasificación de textos
21 de octubre de 2024
El método text rerank está generalmente disponible en la API REST de watsonx.ai. Utilice este nuevo método de la API, junto con los modelos de base del reordenador, como el modelo ms-marco-minilm-l-12-v2 recientemente admitido, para reordenar un conjunto de pasajes de documentos en función de su similitud con una consulta especificada. La reclasificación es una forma útil de añadir precisión a los flujos de trabajo de recuperación de respuestas. Para obtener más información, consulte Reranking de pasajes de documentos.
El nuevo modelo Pixtral 12B está disponible en las regiones de Frankfurt y Londres
21 de octubre de 2024
Ahora puede utilizar el modelo de cimientos Pixtral- 12B, de Mistral AI, en watsonx.ai en los centros de datos de Fráncfort y Londres.
Pixtral 12B es un modelo multimodal nativo con capacidades de imagen a texto y de texto a texto que se entrenó con datos de imagen y texto intercalados. El modelo básico admite tamaños de imagen variables y destaca en tareas de seguimiento de instrucciones. Para más detalles, consulte Modelos de cimentación soportados .
Semana que finaliza el 18 de octubre de 2024
El alcance de los recursos de la cuenta está activado por defecto
17 de octubre de 2024
El ajuste " Resource scope
" de su cuenta se establece ahora en " ON
por defecto. Sin embargo, si previamente ha establecido el valor para el ajuste Ámbito de recursos en ' ON
o ' OFF
, el ajuste actual no se modifica.
Cuando el ámbito de recursos está habilitado, no puede acceder a proyectos que no estén en su cuenta de IBM Cloud seleccionada actualmente. Si pertenece a más de una cuenta IBM Cloud, es posible que no vea todos sus proyectos juntos. Por ejemplo, es posible que no vea todos sus proyectos en la página Todos los proyectos. Debe cambiar de cuenta para ver los proyectos en las otras cuentas.
Hay un modelo de base de código de Granite disponible en la región de Frankfurt
15 de octubre de 2024
El modelo de base de datos granite-20b-code-instruct de IBM está diseñado para responder a instrucciones relacionadas con la codificación. Puede utilizar el modelo de base en proyectos alojados en el centro de datos de Fráncfort para ayudarle con las tareas de codificación y para crear asistentes de codificación. Para obtener más información sobre el modelo, consulte Modelos de cimentación admitidos.
Semana que finaliza el 11 de octubre de 2024
Nuevo beneficio de licencia
10 de octubre de 2024
Ahora puede traer su propia licencia (BYOL) para aplicar los beneficios de las licencias locales a IBM watsonx.ai e IBM watsonx.governance.
Para obtener más información, consulte Activación de Bring Your Own License (BYOL) a SaaS.
Analice datos de texto en japonés en SPSS Modeler con Text Analytics
9 de octubre de 2024
Ahora puede utilizar los nodos de Análisis de texto en SPSS Modeler, como el nodo de Análisis de enlaces de texto y el nodo de Minería de texto, para analizar datos de texto escritos en japonés.
Cree flujos de trabajo conversacionales con la API de chat watsonx.ai
8 de octubre de 2024
Utilice la API de chat watsonx.ai para añadir capacidades de IA generativa, incluidas las llamadas dirigidas por agentes a herramientas y servicios de terceros, en sus aplicaciones.
Para obtener más información, consulte los siguientes temas:
Nueva especificación de software para modelos de cimentación personalizados
7 de octubre de 2024
Ahora puede utilizar una nueva especificación de software, watsonx-cfm-caikit-1.1
, con sus implementaciones de modelos de bases personalizadas. La especificación se basa en la biblioteca de la Iniciativa de Descripción de Lenguaje Natural ( vLLM ) y se adapta mejor a los últimos modelos de lenguaje de gran tamaño que solo utilizan decodificadores. Para obtener más información sobre la biblioteca de especificaciones ( vLLM ), consulte vLLM Para obtener información sobre cómo utilizar la especificación con un modelo de base personalizado, consulte Planificación de la implementación de un modelo de base personalizado.
Los modelos de cimentación granite-7b-lab y llama3-llava-next-8b-hf han quedado obsoletos
7 de octubre de 2024
El modelo de base de la Fundación Internacional de la Sordera ( granite-7b-lab ) está obsoleto y se retirará el 7 de enero de 2025. Revisar cualquier mensaje que utilice este modelo de base.
- Fecha de depreciación: 7 de octubre de 2024
- Fecha de retirada: 7 de enero de 2025
- Modelo alternativo: granite-3-8b-instruct
El modelo de cimientos multimodal de la Fundación de la Comunidad de la Información ( llama3-llava-next-8b-hf ) también está en desuso y se retirará el 7 de noviembre de 2024. Ahora puede utilizar uno de los modelos de visión 2. Llama 3, recientemente lanzados, para tareas de generación de imagen a texto.
- Fecha de depreciación: 7 de octubre de 2024
- Fecha de retirada: 7 de noviembre de 2024
- Modelo alternativo: llama-3-2-11b-vision-instruct
Para obtener más información sobre la eliminación y la retirada, consulte Ciclo de vida del modelo de fundamentación. Para más información sobre modelos alternativos, consulte Modelos de fundación compatibles.
Semana que finaliza el 4 de octubre de 2024
Entornos y especificaciones de software actualizados
3 de octubre de 2024
Las bibliotecas Tensorflow y Keras que se incluyen en IBM Runtime 23.1 ya están actualizadas a sus versiones más recientes. Esto puede tener un impacto en cómo se ejecuta el código en tus cuadernos. Para obtener más información, consulte Paquetes de bibliotecas incluidos en los tiempos de ejecución de watsonx.ai Studio (anteriormente Watson Studio).
El Runtime 23.1 dejará de utilizarse en favor del Runtime 24.1 de IBM a finales de este año. Para evitar interrupciones repetidas, le recomendamos que cambie ahora a IBM Runtime 24.1 y utilice las especificaciones de software relacionadas para los despliegues.
- Para obtener información sobre cómo cambiar de entorno, consulte Cambiar de entorno de portátil.
- Para obtener detalles sobre las infraestructuras de despliegue, consulte Gestión de infraestructuras y especificaciones de software.
Disponibilidad del plan watsonx.governance en la región de Fráncfort y supresión del plan heredado OpenScale
3 de octubre de 2024
El plan heredado watsonx.governance para aprovisionar Watson OpenScale en la región de Fráncfort queda obsoleto. IBM Watson OpenScale dejará de estar disponible para nuevas suscripciones o para aprovisionar nuevas instancias. Para las funciones OpenScale, suscríbase al plan watsonx.governance Essentials, que ya está disponible en Fráncfort y Dallas.
- Para ver los detalles del plan, consulte los planes de watsonx.governance .
- Para empezar, consulte Configuración de watsonx.governance.
Notas:
- Las instancias existentes del plan heredado seguirán funcionando y recibirán asistencia hasta la fecha de fin de asistencia, que aún está por determinar.
- Los clientes existentes en IBM Watson OpenScale pueden seguir abriendo tickets de soporte utilizando IBM Watson OpenScale.
Semana que finaliza el 27 de septiembre de 2024
Llama 3.2 modelos de cimentación, incluidos los modelos multimodales 11B y 90B
25 de septiembre de 2024
El lanzamiento de hoy hace que los siguientes modelos de cimientos de Meta AI estén disponibles en la región de Dallas:
- Llama 3.2 instruir modelos
- Modelos lingüísticos versátiles de gran tamaño que admiten entradas de gran tamaño (128.000 tokens de longitud de ventana de contexto) y son lo suficientemente ligeros y eficientes, con 1B y 3B parámetros de tamaño, como para caber en un dispositivo móvil. Puede utilizar estos modelos para crear agentes altamente personalizados en el dispositivo.
- Llama 3.2 modelos de visión
- Modelos perfeccionados creados para casos de uso de entrada de imágenes y salida de texto, como la comprensión a nivel de documento, la interpretación de tablas y gráficos y el subtitulado de imágenes.
- Modelo de visión de la Guardia de la Llama
- Potente modelo de barrera diseñado para filtrar contenidos nocivos.
Para obtener más información, consulte Modelos de base soportados.
Mejoras en la consola de Gobernanza
25 de septiembre de 2024
Esta versión incluye mejoras y correcciones de errores.
- Pestañas personalizadas en el panel de control
El salpicadero ahora puede contener hasta tres pestañas personalizadas.
- Gráficos de barras apiladas
Ahora puede configurar un gráfico de barras apiladas en el cuadro de mandos y en el Diseñador de vistas.
- Utilización de expresiones para establecer valores de campo basados en las respuestas de un encuestado
Ahora puede introducir una expresión para el valor de un campo. Por ejemplo, puede introducir
[$TODAY$]
para la fecha actual,[$END_USER$]
para el nombre del usuario registrado, o[$System Fields:Description$]
para establecer el campo en el valor del campo Descripción del objeto.- Mejoras en la solución watsonx.governance Model Risk Governance
Esta versión incluye las siguientes mejoras:
- El nuevo tipo de objeto Grupo de modelos permite agrupar modelos similares. Por ejemplo, las versiones de un modelo que utilizan un enfoque similar para resolver un problema de negocio podrían en un Grupo de Modelos.
- El nuevo cálculo de puntuación de riesgos de casos de uso agrega métricas por estado de infracción en puntuaciones de riesgo para ofrecer una visión general del rendimiento de los modelos subyacentes de un caso de uso.
- La nueva entidad de negocio Biblioteca de IA descubierta proporciona un lugar predeterminado para almacenar cualquier despliegue de IA que no siga las prácticas de gobierno sancionadas dentro de una organización (también conocida como "IA en la sombra").
- Se actualizaron los flujos de trabajo, las vistas y los cuadros de mando.
Para obtener más información, consulte Componentes de la solución en la consola Gobernanza.
- Correcciones de errores y de seguridad
Se han aplicado correcciones de errores y de seguridad.
Para obtener más información, consulte Nuevas funciones en 9.0.0.4.
Automatizar patrones RAG con AutoAI SDK (beta)
23 de septiembre de 2024
Utilice el AutoAI Python SDK para automatizar y acelerar el diseño y despliegue de un patrón optimizado de generación aumentada por recuperación (RAG) basado en sus datos y caso de uso. RAG incluye muchos parámetros de configuración, como el modelo lingüístico de gran tamaño que debe elegirse, la forma de trocear los documentos de base y el número de documentos que deben recuperarse. AutoAI automatiza la exploración y evaluación completa de un conjunto restringido de opciones de configuración y produce un conjunto de canalizaciones de patrones clasificados por rendimiento frente a la métrica de optimización.
Consulte Automatización de un patrón RAG con el AutoAI SDK(Beta) para obtener detalles sobre la función y notas de uso para codificar un experimento RAG AutoAI.
Eliminación del tiempo de ejecución de Spark 3.3
23 de septiembre de 2024
La compatibilidad con el tiempo de ejecución de Spark 3.3 en IBM Analytics Engine se eliminará el 29 de octubre de 2024 y la versión predeterminada se cambiará al tiempo de ejecución de Spark 3.4. Para garantizar una experiencia fluida y aprovechar las últimas funciones y mejoras, cambie a Spark 3.4.
A partir del 29 de octubre de 2024, no se podrán crear ni ejecutar cuadernos o entornos personalizados mediante tiempos de ejecución de Spark 3.3. Además, no puede crear ni ejecutar despliegues con especificaciones de software que se basen en el tiempo de ejecución de Spark 3.3.
- Para actualizar su instancia a Spark 3.4, consulte Reemplazar tiempo de ejecución predeterminado de la instancia.
- Para obtener más información sobre los entornos de bloc de notas disponibles, consulte Cambiar el entorno de un bloc de notas.
- Para obtener detalles sobre las infraestructuras de despliegue, consulte Gestión de infraestructuras y especificaciones de software.
Semana que finaliza el 20 de septiembre de 2024
Inferencia de un modelo de base multimodal a partir de la Prompt Lab
19 de septiembre de 2024
Ahora puede añadir una imagen en Prompt Lab y hablar sobre ella mediante un modelo de base multimodal en modo chat. Además de los documentos de referencia, ahora puede cargar imágenes y preguntar a un modelo de base que admita tareas de imagen a texto sobre el contenido visual de la imagen. Para obtener más información, consulte Chatear con documentos e imágenes.
Nuevo modelo llama3-llava-next-8b-hf disponible en la región de Dallas
19 de septiembre de 2024
Ahora puede utilizar el nuevo modelo multimodal de fundación de llama3-llava-next-8b-hf en IBM watsonx.ai para ayudarle con las tareas de imagen a texto.
El asistente de visión y lenguaje de gran tamaño (LLaVa) combina un modelo de lenguaje de gran tamaño preentrenado con un codificador de visión preentrenado para casos de uso de chatbot multimodales. LLaVA NeXT Llama3 se entrena con datos de imagen y texto más diversos y de mayor calidad. Para más detalles, consulte Modelos de cimentación soportados .
Utiliza el SDK watsonx.ai Node.js para codificar aplicaciones de IA generativa
18 de septiembre de 2024
Inferencia y ajuste de modelos de cimientos en IBM watsonx as a Service mediante programación utilizando el paquete watsonx.ai Node.js. Para obtener más información, consulte Node.js SDK.
Comprender las políticas de indemnización por propiedad intelectual para los modelos de fundación
18 de septiembre de 2024
Ahora puede entender mejor la política de indemnización por propiedad intelectual de IBM y ver qué modelos de la fundación tienen cobertura de indemnización por propiedad intelectual en watsonx.ai. Para más información, consulte Tipos de modelo e indemnización por IP.
Semana que finaliza el 13 de septiembre de 2024
Crear trabajos por lotes para flujos de e SPSS Modeler encia en el espacio de implementación
10 de septiembre de 2024
Ahora puede crear trabajos por lotes para flujos SPSS Modeler en espacios de despliegue. Los flujos le ofrecen la flexibilidad de decidir qué nodos terminales ejecutar cada vez que cree un trabajo por lotes a partir de un flujo. Cuando se programan trabajos por lotes para flujos, el trabajo por lotes utiliza las fuentes de datos y los destinos de salida especificados en el flujo. La asignación de estas fuentes de datos y salidas es automática si las fuentes de datos y los destinos también se encuentran en su espacio de despliegue. Para obtener más información sobre la creación de trabajos por lotes a partir de flujos, consulte Creación de trabajos de implementación para SPSS Modeler.
Para obtener más información sobre flujos y modelos en espacios de despliegue, consulte Despliegue de SPSS Modeler.
Semana que finaliza el 6 de septiembre de 2024
Traiga su propio modelo de base para la inferencia de watsonx.ai en la región de Dallas
3 de septiembre de 2024
Además de trabajar con modelos de base curados por IBM, ahora puede cargar y desplegar sus propios modelos de base. Una vez que los modelos se hayan desplegado y registrado en watsonx.ai, cree avisos que inferencien los modelos personalizados mediante programación o desde el Prompt Lab. Esta función sólo está disponible en la región de Dallas.
Para obtener más información sobre la carga de modelos de cimientos personalizados, consulte Despliegue de modelos de cimientos personalizados. Para obtener información sobre planes y detalles de facturación para modelos de cimientos personalizados, consulte los planes de tiempo de ejecución dewatsonx.ai.
Simplifique los documentos empresariales complejos con la API de extracción de texto de documentos
3 de septiembre de 2024
Aplique la tecnología de comprensión de documentos desarrollada por IBM para simplificar sus complejos documentos empresariales, de modo que puedan ser procesados por modelos fundacionales como parte de un flujo de trabajo de IA generativa. La API de extracción de texto de documentos extrae texto de estructuras de documentos como imágenes, diagramas y tablas que los modelos de base a menudo no pueden interpretar correctamente. El método de extracción de texto de la API REST de watsonx.ai es una función beta.
Para obtener más información, consulte Extracción de texto de documentos.
Granite Modificación y actualizaciones del modelo de base de código disponibles
3 de septiembre de 2024
El modelo de base de datos de la Fundación de la Universidad de Stanford ( granite-20b-code-instruct ) se modificó a la versión 1.1.0. La última modificación se entrena con una mezcla de datos de alta calidad procedentes de dominios de código y lenguaje natural para mejorar las capacidades de razonamiento y seguimiento de instrucciones del modelo.
Los siguientes modelos de fundaciones se actualizaron para aumentar el tamaño de la longitud de la ventana de contexto admitida (entrada + salida) para los avisos de 8192 a 128.000:
- granite-3b-code-instruct
- granite-8b-code-instruct
Para obtener más información, consulte Modelos de base soportados.
Semana que finaliza el 30 de agosto de 2024
Los modelos llama-2-13b-chat y llama-2-70b-chat han quedado obsoletos
26 de agosto de 2024
Los modelos de base llama-2-13b-chat y llama-2-70b-chat están obsoletos y se retirarán el 25 de septiembre de 2024. Revisa las indicaciones que utilicen estos modelos básicos.
- llama-2-13b-chat
- Fecha de caducidad: 26 de agosto de 2024
- Fecha de retirada: 25 de septiembre de 2024
- Modelo alternativo: llama-3.1-8b-instruct
- llama-2-70b-chat
- Fecha de caducidad: 26 de agosto de 2024
- Fecha de retirada: 25 de septiembre de 2024
- Modelo alternativo: llama-3.1-70b-instruct
Las solicitudes de inferencia enviadas a los modelos llama-2-13b-chat y llama-2-70b-chat mediante la API siguen generando resultados, pero incluyen un mensaje de advertencia sobre la próxima retirada del modelo. A partir del 25 de septiembre de 2024, las solicitudes de API para inferir los modelos no generarán resultados.
Para obtener más información sobre la eliminación y la retirada, consulte Ciclo de vida del modelo de fundamentación.
Semana que finaliza el 23 de agosto de 2024
Añadir grupos de usuarios como colaboradores en proyectos y espacios
22 de agosto de 2024
Ahora puede añadir grupos de usuarios en proyectos y espacios si su cuenta IBM Cloud contiene grupos de acceso IAM. El administrador de su cuenta IBM Cloud puede crear grupos de acceso, que luego estarán disponibles como grupos de usuarios en los proyectos. Para obtener más información, consulte Trabajar con grupos de acceso IAM.
Finalización del soporte de la función de predicción de anomalías para los experimentos de series temporales de AutoAI
19 de agosto de 2024
La función para predecir anomalías (valores atípicos) en AutoAI, actualmente en beta, está obsoleta y se eliminará el 23 de septiembre de 2024.. Los experimentos de series temporales estándar AutoAI siguen siendo totalmente compatibles. Para más detalles, consulte Construcción de un experimento de series temporales.
Semana que finaliza el 16 de agosto de 2024
Los nuevos modelos de incrustación de pizarra de IBM están disponibles en todas las regiones
15 de agosto de 2024
IBM Los modelos de incrustación de pizarra proporcionan a las empresas la capacidad de generar incrustaciones para diversas entradas, como consultas, pasajes o documentos. Los nuevos modelos slate-125m-english-rtrvr-v2 y slate-30m-english-rtrvr-v2 presentan mejoras significativas respecto a sus homólogos v1. Si actualmente utiliza los modelos slate-125m-english-rtrvr y slate-30m-english-rtrvr, cambie a los nuevos modelos v2 Slate para aprovechar las mejoras del modelo.
Para obtener más información, consulte Modelos de bases de encóder compatibles.
Configurar las barreras de seguridad de IA para la entrada de datos del usuario y la salida del modelo de base por separado en Prompt Lab
15 de agosto de 2024
Ajusta la sensibilidad de las barreras de seguridad de IA que encuentran y eliminan contenido perjudicial cuando experimentas con las indicaciones del modelo de base en Prompt Lab. Puede establecer distintos niveles de sensibilidad de filtrado para la entrada del usuario y el texto de salida del modelo, y puede guardar los ajustes efectivos de las barreras de protección de la IA en plantillas de avisos.
Para obtener más información, consulte Eliminación de contenido dañino.
Semana que finaliza el 9 de agosto de 2024
Seleccionar datos de prueba de proyectos para evaluaciones rápidas de plantillas
8 de agosto de 2024
Al evaluar plantillas de avisos en proyectos, ahora puede elegir activos de proyecto para seleccionar datos de prueba para las evaluaciones. Para obtener más información, consulte Evaluación de plantillas de avisos en proyectos.
El nuevo modelo llama-3-1-70b-instruct ya está disponible en IBM watsonx.ai
7 de agosto de 2024
Ahora puede utilizar los últimos modelos de base de maquillaje Llama 3.1 de Meta en el tamaño de parámetro de 70 mil millones en IBM watsonx.ai.
La serie Llama 3.1 de modelos de fundamentos son modelos lingüísticos de gran tamaño y alto rendimiento con capacidades de razonamiento de primer nivel. Los modelos pueden utilizarse para tareas complejas de razonamiento multilingüe, como la comprensión de textos, la transformación y la generación de código. Admiten inglés, alemán, francés, italiano, portugués, hindi, español y tailandés. Para más detalles, consulte Modelos de cimentación soportados .
Preguntas y respuestas actualizadas con el acelerador RAG
6 de agosto de 2024
El proyecto de ejemplo Q&A con acelerador RAG 1.2 incluye las siguientes mejoras:
Obtenga ayuda con la siguiente fase de la implementación de la generación mejorada de recuperación (RAG): recopilación de comentarios de los usuarios y análisis de la calidad de las respuestas. Incluye análisis con detección de temas no supervisada para mostrar los temas más populares, la satisfacción del usuario con las respuestas generadas por tema y las puntuaciones de búsqueda de recuperación por tema.
Nuevas plantillas de mensajes que están optimizadas para los modelos de base IBM granite-7b-lab y Meta Llama 3.1.
Código optimizado que utiliza utilidades RAG de la biblioteca watsonx.ai Python y filtros de búsqueda vectorial específicos para buscar por producto, zona, etc.
Véase Q&A con el acelerador RAG.
Semana que finaliza el 2 de agosto de 2024
El nuevo modelo llama-3-1-8b-instruct ya está disponible en IBM watsonx.ai
1 de agosto de 2024
Ahora puede utilizar los últimos modelos de base de maquillaje Llama 3.1 de Meta en el tamaño de parámetro de 8 mil millones en IBM watsonx.ai.
La serie Llama 3.1 de modelos de fundamentos son modelos lingüísticos de gran tamaño y alto rendimiento con capacidades de razonamiento de primer nivel. Los modelos pueden utilizarse para tareas complejas de razonamiento multilingüe, como la comprensión de textos, la transformación y la generación de código. Admiten inglés, alemán, francés, italiano, portugués, hindi, español y tailandés. Para más detalles, consulte Modelos de cimentación soportados .
Asociar espacios de trabajo con casos de uso de IA
1 de agosto de 2024
El flujo de creación de un caso de uso de IA se modifica para ajustarse más al ciclo de vida de la IA. Una vez definidos los elementos esenciales de un caso de uso de IA, asocie espacios de trabajo para organizar los activos de modo que se ajusten a las fases de una solución de IA. Por ejemplo, asociar un proyecto o espacio para los activos en las fases de Desarrollo o Validación, y asociar un espacio para los activos en la fase de Operación.
Para obtener más información, consulte Asociación de espacios de trabajo con un caso de uso de IA.
Semana que finaliza el 26 de julio de 2024
Anuncio de apoyo a Python 3.11 y R4.3 Marcos y especificaciones de software en tiempo de ejecución. 24.1
25 de julio de 2024
Ahora puede utilizar IBM Runtime 24.1, que incluye los últimos marcos de ciencia de datos basados en Python 3.11 y R 4.3, para ejecutar cuadernos Jupyter y scripts R, y entrenar modelos. A partir del 29 de julio, también podrás realizar despliegues. Actualice sus activos y despliegues para utilizar los marcos de trabajo y las especificaciones de software de IBM Runtime 24.1.
- Para información sobre el IBM Tiempo de ejecución 24.1 lanzamiento y los entornos incluidos para Python 3.10 y r 4.2, ver Entornos portátiles.
- Para obtener detalles sobre las infraestructuras de despliegue, consulte Gestión de infraestructuras y especificaciones de software.
Versión mejorada de Jupyter Notebook el editor ya está disponible
25 de julio de 2024
Si está ejecutando su computadora portátil en entornos basados en Runtime 24.1, puede utilizar estas mejoras para trabajar con su código:
- Depura automáticamente tu código
- Genere automáticamente una tabla de contenidos para su cuaderno
- Alternar números de línea al lado de su código
- Contraiga el contenido de las celdas y utilice la vista en paralelo para el código y la salida, para mejorar la productividad.
Para más información, ver Editor de cuadernos Jupyter.
Modelos de integración de transformadores de procesador de lenguaje natural compatibles con Runtime 24.1
25 de julio de 2024
En el nuevo tiempo de ejecución 24.1 En este entorno, ahora puede utilizar modelos de incrustación de transformadores de procesamiento de lenguaje natural (NLP) para crear incrustaciones de texto que capturen el significado de una oración o pasaje para ayudar con las tareas de generación de recuperación aumentada. Para más información, ver Incrustaciones.
Nuevos modelos especializados de PNL están disponibles en Runtime 24.1
25 de julio de 2024
Los siguientes modelos nuevos y especializados de PNL ahora se incluyen en Runtime 24.1 ambiente:
- Un modelo que es capaz de detectar e identificar contenido de odio, abusivo o profano (HAP) en contenido textual. Para más información, ver Detección de HAP.
- Tres modelos pre-capacitados que son capaces de abordar temas relacionados con finanzas, ciberseguridad y biomedicina. Para más información, ver Clasificar texto con un modelo de clasificación personalizado.
Extraiga información detallada de grandes colecciones de textos mediante el resumen de puntos clave
25 de julio de 2024
Ahora puede utilizar el resumen de puntos clave en blocs de notas para extraer información detallada y procesable de grandes colecciones de textos que representan opiniones de personas (como reseñas de productos, respuestas a encuestas o comentarios en redes sociales). El resultado se entrega de forma organizada y jerárquica que es fácil de procesar. Para más información, ver Resumen de puntos clave
Actualización de la versión RStudio
25 de julio de 2024
Para ofrecer una experiencia de usuario coherente en nubes privadas y públicas, el IDE de RStudio para IBM watsonx se actualizará a RStudio Server 2024.04.1 y R 4.3.1 el 29 de julio de 2024. La nueva versión de RStudio ofrece una serie de mejoras y correcciones de seguridad. Consulte las notas de la versión 2024.04.1 RStudio Server para obtener más información. Si bien no se prevén problemas importantes de compatibilidad, los usuarios deben estar al tanto de los cambios de versión de algunos paquetes que se describen en la siguiente tabla.
Cuando inicie el IDE de RStudio desde un proyecto después de la actualización, restablezca el espacio de trabajo RStudio para asegurarse de que la ruta de biblioteca para los paquetes de R 4.3.1 es recogida por el servidor de RStudio.
Una nueva versión del modelo Mistral Large ya está disponible en IBM watsonx.ai en las regiones de Dallas, Frankfurt y Londres
24 julio 2024
Ahora puede utilizar el modelo de cimientos de la fundación Mistral Large 2 de Mistral AI en IBM watsonx.ai en los centros de datos de Dallas, Fráncfort y Londres.
El modelo Mistral Large 2 admite 11 idiomas y es competente en comprensión de textos, generación de código y razonamiento avanzado. Para más detalles, consulte Modelos de cimentación soportados .
Nuevo llama-3-405b-instruct El modelo está disponible en la región de Dallas.
23 julio 2024
Ahora puede utilizar el modelo de base llama-3-405b-instruct de Meta en IBM watsonx.ai en el centro de datos de Dallas.
El modelo llama-3-405B-instruct (v3.1) proporciona a las empresas un modelo de lenguaje de gran tamaño y alto rendimiento con capacidades de razonamiento de primer nivel, y es el mayor modelo de código abierto publicado hasta la fecha. Este modelo de base puede utilizarse para tareas complejas de razonamiento multilingüe, como la comprensión de textos, la transformación y la generación de código. Para más detalles, consulte Modelos de cimentación soportados .
El merlinite-7b el modelo está en desuso
22 julio 2024
El modelo de base de datos de la Fundación de la Comunidad de Tiffany ( merlinite-7b ) está obsoleto y se retirará el 22 de agosto de 2024. Revisar cualquier mensaje que utilice este modelo de base.
- Fecha de desuso: 22 de julio de 2024
- Fecha de retirada: 22 de agosto de 2024
- Modelo alternativo: mixtral-8x7b-instruct-v01
Solicitudes de inferencia que se presentan al merlinite-7b El modelo que utiliza la API continúa generando resultados, pero incluye un mensaje de advertencia sobre el próximo retiro del modelo. A partir del 22 de agosto de 2024, las solicitudes de la API para inferir el modelo no generarán resultados.
Para obtener más información sobre el desuso y la retirada, consulte Ciclo de vida del modelo de fundación.
Semana que finaliza el 12 de julio de 2024
El nuevo modelo Mistral Large Large está disponible en las regiones de Frankfurt y Dallas
9 de julio de 2024
Ahora puede utilizar el modelo de cimientos de la fundación Mistral Large de Mistral AI en IBM watsonx.ai en los centros de datos de Fráncfort y Dallas.
Mistral Large proporciona a las empresas un modelo lingüístico de gran tamaño y alto rendimiento con capacidades de razonamiento de primer nivel. Este modelo de base puede utilizarse para tareas complejas de razonamiento multilingüe, como la comprensión de textos, la transformación y la generación de código. Para más detalles, consulte Modelos de cimentación soportados .
Semana que finaliza el 5 de julio de 2024
Conectores agrupados por tipo de fuente de datos
5 de julio de 2024
Cuando crea una conexión, los conectores ahora se agrupan por tipo de fuente de datos para que sean más fáciles de encontrar y seleccionar. Por ejemplo, el tipo de origen de datos MongoDB incluye los conectores IBM Cloud Databases for MongoDB y MongoDB.
Además, un nuevo Recientes La categoría muestra los seis últimos conectores que utilizó para crear una conexión.
Para obtener instrucciones, consulte Agregar conexiones a fuentes de datos en un proyecto .
Añadir información contextual a las indicaciones del modelo de base en Prompt Lab
4 julio 2024
Ayude a un modelo de fundación a generar respuestas objetivas y actualizadas en casos de uso de generación aumentada por recuperación (RAG) añadiendo información contextual relevante a su mensaje como datos de base. Puede cargar rápidamente documentos relevantes o conectarse a una tienda de vectores de terceros con datos relevantes. Cuando se envía una nueva pregunta, la pregunta se utiliza para consultar los datos fundamentados en busca de hechos relevantes. Los principales resultados de búsqueda, además de la pregunta original, se envían como entrada de modelo para ayudar al modelo de la fundación a incorporar hechos relevantes en su salida.
Para obtener más información, consulte las indicaciones del modelo de base de conexión a tierra en la información contextual.
Cambios aCloud Object Storage Planes ligeros
1 de julio de 2024
A partir del 1 de julio de 2024, elCloud Object Storage Plan Lite que se aprovisiona automáticamente cuando te registras para una prueba de 30 días dewatsonx.ai ywatsonx.governance caduca una vez finalizada la prueba. Puedes actualizar tuCloud Object Storage Instancia Lite al plan Estándar con la opción de capa gratuita en cualquier momento durante la prueba de 30 días.
ExistenteCloud Object Storage las instancias de servicio con planes Lite que haya aprovisionado antes del 1 de julio de 2024 se conservarán hasta el 15 de diciembre de 2024. Debes actualizar tuCloud Object Storage servicio a un plan Estándar antes del 15 de diciembre de 2024.
Semana finalizada el 21 de junio de 2024
Crear despliegues desconectados para las solicitudes de gobierno para modelos de lenguaje grande (LLM) externos
21 de junio de 2024
Una plantilla de mensaje independiente es un nuevo activo para evaluar una plantilla de mensaje para un LLM alojado por un proveedor externo, comoGoogle IA de vértice,AzureOpenAI, oAWS Base. La inferencia que genera la salida para la plantilla de solicitud se realiza en el modelo remoto, pero puede evaluar la salida de la plantilla de solicitud utilizando métricas de watsonx.governance . También puede realizar un seguimiento del despliegue desconectado y de la plantilla de solicitud desconectada en un caso de uso de IA como parte de la solución de gobierno.
Para obtener más información, consulte:
Las credenciales de tarea serán necesarias para las solicitudes de trabajo de despliegue
19 de junio de 2024
Para mejorar la seguridad para ejecutar trabajos de despliegue, el usuario que solicita el trabajo deberá proporcionar credenciales de tarea en forma de clave de API. El requisito se aplicará a partir del 15 de agosto de 2024. Consulte Adición de credenciales de tarea para obtener detalles sobre la generación de la clave de API.
Evalúe los casos de uso para la aplicabilidad de la Ley de IA de la UE
19 de junio de 2024
Al utilizar la nueva evaluación de aplicabilidad de la Ley de IA de la UE, puede completar un cuestionario simple para evaluar sus casos de uso de IA y determinar si están dentro del ámbito de la Ley de IA de la UE. La evaluación también puede ayudarle a identificar la categoría de riesgo a la que se alinean los casos de uso: prohibido, alto, limitado o mínimo. Para obtener más información, consulte Evaluación de aplicabilidad en Componentes de la solución en la consola de gobierno.
Semana finalizada el 7 de junio de 2024
Administre las actividades de riesgo y cumplimiento con la consola de Gobernanza ( IBM OpenPages)
7 de junio de 2024
Watsonx.governance ahora admite la integración opcional con la consola de gobierno. Si ha instalado el módulo Model Risk Governance de IBM OpenPages, puede configurar casos de uso de IA para sincronizar datos de gobernanza con la consola de gobernanza. Desde la consola de Gobernanza, puede crear casos de uso, ver actividades de gobernanza, administrar tareas e implementar flujos de trabajo como parte de sus procesos de gobernanza y cumplimiento. Para obtener más información, consulte:
Semana finalizada el 31 de mayo de 2024
IBM Watson Pipelines es ahora IBM Orchestration Pipelines
30 de mayo de 2024
El nuevo nombre de servicio refleja las prestaciones para orquestar partes del ciclo de vida de IA en flujos repetibles.
Etiquetar proyectos para una recuperación fácil
31 de mayo de 2024
Ahora puede asignar etiquetas a proyectos para que sean más fáciles de agrupar o recuperar. Asigne etiquetas cuando cree un proyecto nuevo o de la lista de todos los proyectos. Filtre la lista de proyectos por código para recuperar un conjunto relacionado de proyectos. Para obtener más información, consulte Creación de un proyecto.
Conectarse a una nueva fuente de datos: Milvus
31 de mayo de 2024
Utilice la conexión Milvus para almacenar y confirmar la exactitud de sus credenciales y detalles de conexión para acceder a un almacén de vectores Milvus. Para más información, consulte la conexión Milvus.
Semana finalizada el 24 de mayo de 2024
Nuevo tutorial y vídeo
23 de mayo de 2024
Pruebe la nueva guía de aprendizaje para ver cómo evaluar un despliegue de modelo utilizando la funcionalidad de Watson OpenScale en un espacio de despliegue.
Guía de aprendizaje | Descripción | Experiencia para guía de aprendizaje |
---|---|---|
Evaluar un despliegue en espacios | Despliegue un modelo, configure supervisores para el modelo desplegado y evalúe el modelo en un espacio de despliegue. | Configure los supervisores y evalúe un modelo en un espacio de despliegue. |
El modelo de cimentación e allam-1-13b-instruct e está disponible en la región de Frankfurt
21 de mayo de 2024
El modelo de base de datos árabe allam-1-13b-instruct de la Autoridad Saudí de Datos e Inteligencia Artificial y proporcionado por IBM está disponible en watsonx.ai en el centro de datos de Fráncfort. Puede utilizar el modelo de base de datos allam-1-13b-instruct para tareas de uso general, como preguntas y respuestas, resumen, clasificación, generación, extracción y traducción al árabe. Para obtener más información, consulte Modelos de base soportados.
Desplegar activos de IA tradicionales y generativos con la biblioteca de cliente watsonx.ai Python
21 de mayo de 2024
La biblioteca de cliente Watson Machine Learning Python ahora forma parte de una biblioteca ampliada, la biblioteca de cliente watsonx.ai Python . Utilice la biblioteca watsonx.ai Python para trabajar con el aprendizaje automático tradicional y los activos de IA generativa. La biblioteca Watson Machine Learning persistirá, pero no se actualizará con nuevas características. Para obtener más información, consulte Biblioteca dePython.
Semana finalizada el 17 de mayo de 2024
Los modelos de inclusión de texto de terceros están disponibles en watsonx.ai
16 de mayo de 2024
Los siguientes modelos de inclusión de texto de terceros están ahora disponibles además de los modelos de IBM Slate para la coincidencia y recuperación de texto mejorada:
- all-minilm-l12-v2
- multilingual-e5-large
Envíe frases o pasajes a uno de los modelos de inclusión soportados utilizando la biblioteca watsonx.ai Python o la API REST para convertir texto de entrada en vectores para comparar y recuperar de forma más precisa texto similar.
Para obtener más información sobre estos modelos, consulte Modelos de bases de encóder compatibles.
Para obtener más información sobre la conversión de texto, consulte Generación de inclusión de texto.
Semana finalizada el 10 de mayo de 2024
Los nuevos modelos de cimientos Granite Code están disponibles en la región de Dallas
9 de mayo de 2024
Ahora puede inferir los siguientes modelos de Granite Code foundation proporcionados por IBM desde watsonx.ai:
- granite-3b-code-instruct
- granite-8b-code-instruct
- granite-20b-code-instruct
- granite-34b-code-instruct
Utilice los nuevos modelos de la base Granite Code para las tareas de codificación programática. Los modelos de base están ajustados en una combinación de datos de instrucción para mejorar las capacidades de seguimiento de instrucción, incluyendo el razonamiento lógico y la resolución de problemas.
Para obtener más información, consulte Modelos de base soportados.
Los modelos base de InstructLab están disponibles en watsonx.ai
7 de mayo de 2024
InstructLab es una iniciativa de código abierto de Red Hat y IBM que proporciona una plataforma para aumentar las capacidades de un modelo de fundación. Los siguientes modelos de base apoyan los conocimientos y habilidades que se aportan de InstructLab:
- granite-7b-lab
- granite-13-chat-v2
- granite-20b-multilingual
- merlinite-7b
Puede explorar las contribuciones de la comunidad de código abierto desde la página de taxonomía del modelo de fundación.
Para más información, verInstructLab-compatible modelos de fundacion .
Semana finalizada el 3 de mayo de 2024
Organizar activos de proyecto en carpetas
2 de mayo de 2024
Ahora puede crear carpetas en los proyectos para organizar activos. Un administrador del proyecto debe habilitar las carpetas, y los administradores y editores pueden crearlas y gestionarlas. Las carpetas están en versión beta y todavía no están soportadas para su uso en entornos de producción. Para obtener más información, consulte Organización de activos con carpetas (beta).
Semana finalizada el 26 de abril de 2024
IBM watsonx.ai está disponible en la región de Londres
25 de abril de 2023
Watsonx.ai ahora está disponible de forma general en el centro de datos de Londres y Londres se puede seleccionar como la región preferida al registrarse.
- Los modelos de fundamentos que son totalmente compatibles en Dallas también están disponibles para la inferencia en el centro de datos de Londres desde el Prompt Lab o mediante el uso de la API. Las excepciones son el modelo de base mt0-xxl-13b y el modelo de base llama-2-70b-chat, que ha sido sustituido por el modelo de base llama-3-70b-instruct, que ya está disponible.
- Ajuste los tres modelos de base ajustables desde Tuning Studio o utilizando la API.
- Se da soporte a los dos modelos de incorporación de IBM y a la API de incorporación.
Para obtener más información, consulte Disponibilidad regional para servicios y características.
Iniciar un chat en Prompt Lab directamente desde la página de inicio
25 de abril de 2023
Ahora puede iniciar una conversación con una modelo de la fundación desde la página de inicio de IBM watsonx.ai. Introduzca una pregunta para enviar a una modelo de la fundación en modo chat o haga clic en Abrir Prompt Lab para elegir una modelo de la fundación y los parámetros de la modelo antes de enviar la entrada de la modelo.
Semana finalizada el 19 de abril de 2024
Meta, los nuevos modelos de base de maquillaje de Llama 3, ya están disponibles
18 de abril de 2024
Los siguientes modelos de la fundación Llama 3 proporcionados por Meta están disponibles para inferencias de watsonx.ai:
- llama-3-8b-instruct
- llama-3-70b-instruct
Los nuevos modelos de base Llama 3 son modelos de lenguaje afinados de instrucción que pueden dar soporte a diversos casos de uso.
Este último lanzamiento de Llama está entrenado con más fichas y aplica nuevos procedimientos post-entrenamiento. El resultado son modelos de base con mejor comprensión del lenguaje, razonamiento, generación de código y capacidades de seguimiento de instrucción.
Para obtener más información, consulte Modelos de base soportados.
Introducción al soporte de incorporación de IBM para mejorar la coincidencia y recuperación de texto
18 de abril de 2024
Ahora puede utilizar la API de incorporaciones de IBM y los modelos de incorporación de IBM para transformar el texto de entrada en vectores para comparar y recuperar de forma más precisa texto similar.
Están disponibles los siguientes modelos de incorporación de IBM Slate:
- slate.125m.english.rtrvr
- slate.30m.english.rtrvr
Para obtener más información, consulte Generación de inclusión de texto.
Para más información sobre precios, consulte los planes de tiempo de ejecución dewatsonx.ai.
IBM watsonx.governance se incluye al registrarse en IBM watsonx.ai
18 de abril de 2024
Si se registra para watsonx.ai en la región de Dallas, watsonx.governance se incluye ahora automáticamente. Consulte Registro en IBM watsonx as a Service.
Evaluar despliegues de aprendizaje automático en espacios
18 de abril de 2024
Configure las evaluaciones de watsonx.governance en los espacios de despliegue para obtener información sobre el rendimiento del modelo de aprendizaje automático. Por ejemplo, evalúe un despliegue para sesgo o supervise un despliegue para desviación. Al configurar evaluaciones, puede analizar los resultados de la evaluación y modelar registros de transacciones directamente en los espacios.
Para obtener más información, consulte Evaluación de despliegues en espacios.
Hay disponible un modelo de base en coreano en la región de Tokio
18 de abril de 2024
El modelo de fundación e llama2-13b-dpo-v7, proporcionado por Minds & Company y basado en el modelo de fundación e Llama 2, de Meta , está disponible en la región de Tokio.
El modelo de la fundación llama2-13b-dpo-v7 está especializado en tareas de conversación en coreano e inglés. También puede utilizar el modelo de base de datos llama2-13b-dpo-v7 para tareas de propósito general en idioma coreano.
Para obtener más información, consulte Modelos de base soportados.
Hay disponible un modelo de base de datos de inferencia ( mixtral-8x7b-instruct-v01 )
18 de abril de 2024
El modelo de la fundación mixtral-8x7b-instruct-v01 de Mistral AI está disponible para inferencias en watsonx.ai. El modelo de base de datos mixtral-8x7b-instruct-v01 es un modelo generativo preentrenado que utiliza una red de mezcla de expertos dispersos para generar texto de manera más eficiente.
Puede utilizar el modelo mixtral-8x7b-instruct-v01 para tareas de uso general, incluyendo clasificación, resumen, generación de código, traducción de idioma, etc. Para obtener más información, consulte Modelos de base soportados.
El modelo de base de datos de la Fundación de la Comunidad de Tiffany ( mixtral-8x7b-instruct-v01-q ) está obsoleto y se retirará el 20 de junio de 2024. Revisar cualquier mensaje que utilice este modelo de base.
- Fecha de desuso: 19 de abril de 2024
- Fecha de retirada: 20 de junio de 2024
- Modelo alternativo: mixtral-8x7b-instruct-v01
Las solicitudes de inferencia que se envían al modelo mixtral-8x7b-instruct-v01-q utilizando la API continúan generando salida, pero incluyen un mensaje de aviso sobre la próxima retirada del modelo. A partir del 20 de junio de 2024, las solicitudes de API para inferir los modelos no generarán salida.
Para obtener más información sobre el desuso y la retirada, consulte Ciclo de vida del modelo de fundación.
Se introduce una modificación en el modelo de fundación de la Fundación de la Comunidad de Tiffany ( granite-20b-multilingual )
18 de abril de 2024
La última versión de granite-20b-multilingual es 1.1.0. La modificación incluye mejoras que se han obtenido al aplicar una nueva técnica de alineación de IA al modelo de la versión 1.0 . La alineación de IA implica el uso de técnicas de aprendizaje de ajuste y refuerzo para guiar al modelo para devolver salidas que sean lo más útiles, veraces y transparentes posibles.
Para obtener más información sobre este modelo de base, consulte Modelos de bases compatibles.
Semana finalizada el 12 de abril de 2024
Ajustar rápidamente el modelo de base de maquillaje granite-13b-instruct-v2
11 de abril de 2024
Tuning Studio, ahora permite ajustar el modelo de base de maquillaje " granite-13b-instruct-v2 ", además de los modelos de base " flan-t5-xl-3b " y " llama-2-13b-chat ". Para más información, consulte Ajustar un modelo de base.
Los ajustes de configuración del experimento para ajustar el modelo de base de datos de la Fundación de la Comunidad de Tiffany ( granite-13b-instruct-v2 ) cambian para aplicar los mejores valores predeterminados en función de su tarea. Las directrices de evaluación de ajuste le ayudan a analizar los resultados del experimento y ajustar los valores de configuración del experimento basándose en los resultados. Para obtener más información, consulte Evaluación de los resultados de un experimento de ajuste.
Hay un modelo de fundación en lengua árabe disponible en la región de Frankfurt
11 de abril de 2024
El modelo de base de datos de aprendizaje profundo ( jais-13b-chat ) proporcionado por Inception, la Universidad Mohamed bin Zayed de Inteligencia Artificial y Cerebras Systems está disponible en la región de Fráncfort.
El modelo de la fundación jais-13b-chat está especializado en tareas conversacionales en árabe e inglés. También puede utilizar el modelo de base de datos jais-13b-chat para tareas de propósito general en lengua árabe, incluida la traducción entre el árabe y el inglés.
Para obtener más información, consulte Modelos de base soportados.
Ver el texto completo de una pregunta en Prompt Lab
11 de abril de 2024
Ahora puede revisar el texto completo del prompt que se enviará al modelo de la fundación, lo cual es útil cuando su prompt incluye variables de prompt o cuando está trabajando en modo estructurado o en modo chat.
Para más información, consulte Prompt Lab.
Se han retirado los modelos Granite versión 1 en desuso
11 de abril de 2024
Ahora se han retirado los siguientes modelos de base:
- granite-13b-chat-v1
- granite-13b-instruct-v1
Revisa cualquier mensaje que utilice estos modelos de base para usar los modelos de base de IBM Granite v2. Para obtener más información sobre la descontinuación y retirada del modelo de base, consulte Ciclo de vida del modelo de base.
Semana finalizada el 5 de abril de 2024
Utilizar tablas dinámicas para visualizar datos agregados en experimentos de Decision Optimization
5 de abril de 2024
Ahora puede utilizar tablas dinámicas para visualizar los datos de entrada y salida agregados en la vista Visualización en los experimentos de Decision Optimization . Para obtener más información, consulte Widgets de visualización en experimentos de Decision Optimization.
Nuevo tutorial y vídeo de watsonx.ai
04 Abr 2024
Pruebe el nuevo tutorial para ver cómo utilizar watsonx.ai en un caso de uso de principio a fin, desde la preparación de datos hasta la ingeniería rápida.
Guía de aprendizaje | Descripción | Experiencia para guía de aprendizaje |
---|---|---|
Pruebe el caso de uso de extremo a extremo de watsonx.ai | Siga un caso de uso desde la preparación de los datos hasta la ingeniería inmediata. | Utilizar diversas herramientas, como cuadernos y Prompt Lab. |
Semana finalizada el 15 de marzo de 2024
La API watsonx.ai está disponible
14 de marzo de 2024
La API watsonx.ai está disponible a nivel general. Utilice la API watsonx.ai para trabajar con modelos de base mediante programación. Para más información, consulte la referencia de la API.
La versión de la API es 2024-03-14
.
Puede seguir utilizando la biblioteca Python que está disponible para trabajar con modelos de base desde un cuaderno. Para obtener más información, consulte Biblioteca dePython.
Los nuevos modelos de fundación están disponibles en Dallas, Frankfurt y Tokio
14 de marzo de 2024
Los siguientes modelos base están ahora disponibles para la inferencia desde watsonx.ai:
granite-20b-multilingual: Un modelo de base de la familia de lenguajes de programación ( IBM Granite ) que puede utilizar para diversas tareas generativas en inglés, alemán, español, francés y portugués.
codellama-34b-instruct-hf: Un modelo de generación de código programático de Code Llama que se basa en Llama 2 de Meta. Puede utilizar codellama-34b-instruct-hf para crear mensajes que generen código basados en entradas de lenguaje natural, y para completar y depurar código.
Para obtener más información, consulte Modelos de base soportados.
Semana finalizada el 8 de marzo de 2024
Tuning Studio está disponible en Frankfurt
7 de marzo de 2024
Ahora Tuning Studio está disponible para los usuarios de planes de pago en la región de Frankfurt. Tuning Studio le ayuda a guiar a un modelo de base para que devuelva resultados útiles. Puede ajustar los modelos de base flan-t5-xl-3b y llama-2-70b-chat cuando utilice el Tuning Studio en Frankfurt.
Para obtener más información, consulte Tuning Studio.
Ajustar rápidamente el modelo de cimientos e llama-2-13b-chat es en la región de Tokio
7 de marzo de 2024
Tuning Studio, ahora admite el ajuste del modelo de cimientos e llama-2-13b-chat, en la región de Tokio. Primero, el ingeniero solicita el modelo de llama-2-70b-chat más grande en el Prompt Lab para encontrar entradas de aviso efectivas para su caso de uso. A continuación, sintonice la versión más pequeña del modelo de Llama 2 para generar resultados comparables, si no mejores, con indicaciones de disparo cero.
Para obtener más información, consulte Tuning Studio.
Precio más bajo para el modelo Mixtral8x7b
5 de marzo de 2024
El modelo de base mixtral-8x7b-instruct-v01-q se reclasifica de la clase 2: Unidad de inferencia ( $0.0018/Resource ) a la clase 1: Unidad de razonamiento ( $0.0006/Resource ), lo que hace que sea más rentable ejecutar tareas de inferencia con este modelo. La reclasificación se aplica a todas las regiones en las que está disponible mixtral-8x7b-instruct-v01-q.
Para obtener más información, consulte Modelos de base soportados.
Para más información sobre precios, consulte los planes de tiempo de ejecución dewatsonx.ai.
El atlas de riesgo de IA se actualiza y mejora
5 de marzo de 2024
Ahora puede encontrar el siguiente contenido nuevo y mejorado en el atlas de riesgos de IA:
- Una nueva categoría de riesgos no técnicos que abarca la gobernanza, la conformidad jurídica y los riesgos de impacto social
- Nuevos ejemplos de riesgos
- Definiciones más claras de riesgos
Consulte AI risk atlas.
Nuevos casos de uso para watsonx
5 de marzo de 2024
Los casos de uso de watsonx están disponibles para ayudarle a ver cómo puede utilizar nuestros productos, servicios y herramientas:
- Caso de uso de watsonx.ai : este caso de uso describe cómo puede transformar sus procesos de negocio con soluciones basadas en IA integrando machine learning e IA generativa en su infraestructura operativa.
- Caso de uso de watsonx.governance : este caso de uso describe cómo puede definir flujos de trabajo de IA responsables, transparentes y explicables con un sistema integrado para realizar el seguimiento, la supervisión y volver a entrenar modelos de IA.
Consulte Casos de uso dewatsonx.
Semana finalizada el 1 de marzo de 2024
El modo chat está disponible en Prompt Lab
29 de febrero de 2024
El modo chat de Prompt Lab es una sencilla interfaz de chat que facilita la experimentación con modelos de cimentación. La modalidad de conversación aumenta las modalidades estructuradas y de formato libre ya disponibles que son útiles cuando se crean solicitudes de pocas o muchas para tareas como la extracción, el resumen y la clasificación. Utilice el modo Chat para simular interacciones conversacionales o de respuesta a preguntas para casos de uso de chatbot y asistente virtual.
Para más información, consulte Prompt Lab.
Hay disponible un modelo de Granite en japonés en la región de Tokio
29 de febrero de 2024
El modelo de cimientos e granite-8b-japanese es proporcionado por IBM y está disponible en watsonx.ai en la región de Tokio. El modelo de la fundación granite-8b-japanese se basa en el modelo de la fundación Instruct ( IBM Granite ) y está capacitado para comprender y generar texto en japonés.
Puede utilizar el modelo de base de datos granite-8b-japanese para tareas de propósito general en idioma japonés, como clasificación, extracción, preguntas y respuestas, y para la traducción de idiomas entre japonés e inglés.
Para obtener más información, consulte Modelos de base soportados.
Semana finalizada el 23 de febrero de 2024
Precio más bajo para los modelos Granite-13b
21 de febrero de 2024
Los modelos Granite-13b se reclasifican de Clase 2: $0.0018/Resource Unidad a Clase 1: $0.0006/Resource Unidad, lo que hace que sea más rentable ejecutar tareas de inferencia en estos modelos. La reclasificación se aplica a los modelos siguientes en todas las regiones en las que están disponibles:
- granite-13b-chat-v2
- granite-13b-chat-v1
- granite-13b-instruct-v2
- granite-13b-instruct-v1
Para obtener más información sobre estos modelos, consulte Modelos de base soportados.
Para más información sobre precios, consulte los planes de tiempo de ejecución dewatsonx.ai.
Semana finalizada el 16 de febrero de 2024
Nuevo acceso directo para empezar a trabajar en tareas comunes
15 de febrero de 2024
Ahora puede iniciar una tarea común en el proyecto pulsando un mosaico en la sección Empezar a trabajar de la pestaña Visión general . Utilice estos accesos directos para empezar a añadir colaboradores y datos, y para experimentar y crear modelos. Pulse Ver todo para ir a una selección de herramientas.
Nuevo modelo de base de datos de mixtral-8x7b-instruct-v01-q, para tareas de uso general
15 de febrero de 2024
El modelo de base e mixtral-8x7b-instruct-v01-q, proporcionado por Mistral AI y cuantificado por IBM, está disponible en watsonx.ai. El modelo de base de datos mixtral-8x7b-instruct-v01-q es una versión cuantizada del modelo de base de datos Mixtral 8x7B Instruct de Mistral AI.
Puede utilizar este nuevo modelo para tareas de uso general, incluyendo clasificación, resumen, generación de código, traducción de idioma, etc. Para obtener más información, consulte Modelos de base soportados.
Los modelos siguientes están en desuso y se retirarán pronto. Revisa cualquier mensaje que utilice estos modelos de base para usar otro modelo de base, como mixtral-8x7b-instruct-v01-q.
Modelo en desuso | Fecha de desuso | Fecha de retirada | Modelo alternativo |
---|---|---|---|
gpt-neox-20b | 15 de febrero de 2024 | 21 de marzo de 2024 | mixtral-8x7b-instruct-v01-q |
mpt-7b-instruct2 | 15 de febrero de 2024 | 21 de marzo de 2024 | mixtral-8x7b-instruct-v01-q |
starcoder-15.5b | 15 de febrero de 2024 | 11 de abril de 2024 | mixtral-8x7b-instruct-v01-q |
Las solicitudes de inferencia que se envían a estos modelos utilizando la API siguen generando salida, pero incluyen un mensaje de aviso sobre la próxima retirada del modelo. Cuando se alcanza la fecha de retirada, las solicitudes de API para inferir los modelos no generarán salida.
Para obtener más información sobre el desuso y la retirada, consulte Ciclo de vida del modelo de fundación.
Hay disponible una modificación del modelo de cimentación e granite-13b-chat-v2
15 de febrero de 2024
La versión más reciente de granite-13b-chat-v2 es 2.1.0. La modificación incluye mejoras que se han obtenido aplicando una nueva técnica de alineación de IA al modelo de la versión 2.0.0 . La alineación de IA implica el uso de técnicas de aprendizaje de ajuste y refuerzo para guiar al modelo para devolver salidas que sean lo más útiles, veraces y transparentes posibles. Para más información, consulte la sección ¿Qué es la alineación AI? publicación de blog de IBM Research.
Nuevo tutorial y vídeo de watsonx
15 de febrero de 2024
Pruebe la nueva guía de aprendizaje de watsonx.governance para ayudarle a aprender a evaluar un modelo de aprendizaje automático para obtener equidad, precisión, desviación y explicabilidad con Watson OpenScale.
Guía de aprendizaje | Descripción | Experiencia para guía de aprendizaje |
---|---|---|
Evaluar un modelo de aprendizaje automático | Despliegue un modelo, configure supervisores para el modelo desplegado y evalúe el modelo. | Ejecute un cuaderno para configurar los modelos y utilice Watson OpenScale para evaluar. |
Semana finalizada el 09 de febrero de 2024
Documentación de Decision Optimization más orientada a tareas
9 de febrero de 2024
Ahora puede encontrar más fácilmente la información correcta para crear y configurar experimentos de Decision Optimization . Consulte Experimentos deDecision Optimization y sus subsecciones.
La conexión IBM Cloud Data Engine está obsoleta
8 de febrero de 2022
La conexión IBM Cloud Data Engine está obsoleta y dejará de utilizarse en una futura versión. Consulte las fechas y los detalles importantes en la sección "Eliminación del motor de datos ".
Nuevo entorno de Spark 3.4 para ejecutar trabajos de flujo de Data Refinery
9 de febrero de 2024
Cuando selecciona un entorno para un trabajo de flujo de Data Refinery , ahora puede seleccionar Spark predeterminado 3.4 & R 4.2, que incluye mejoras de Spark.
El entorno Spark predeterminado 3.3 & R 4.2 está en desuso y se eliminará en una actualización futura.
Actualice los trabajos de flujo de Data Refinery para utilizar el nuevo entorno Spark predeterminado 3.4 & R 4.2 . Para obtener detalles, consulte Calcular opciones de recursos para Data Refinery en proyectos.
Semana finalizada el 2 de febrero de 2024
Colección de ejemplos renombrada como concentrador de recursos
2 de febrero de 2024
La colección de ejemplos se ha renombrado como concentrador de recursos para reflejar mejor el contenido. El concentrador de recursos contiene modelos de base y proyectos de ejemplo, conjuntos de datos y cuadernos. Consulte Concentrador de recursos.
IBM Cloud Databases for DataStax se ha interrumpido
2 de febrero de 2024
Se ha eliminado la conexión IBM Cloud Databases for DataStax de IBM watsonx.ai.
La conexión de Dremio requiere actualizaciones
2 de febrero de 2024
Anteriormente, la conexión Dremio utilizaba un controlador JDBC . Ahora la conexión utiliza un controlador basado en Arrow Flight.
Importante: actualice las propiedades de conexión. Se aplican cambios diferentes a una conexión para una instancia de Dremio Software (local) o una instancia de Dremio Cloud.
Dremio Software: actualice el número de puerto.
El nuevo número de puerto predeterminado que utiliza Flight es 32010
. Puede confirmar el número de puerto en el archivo dremio.conf . Consulte Configuración a través de dremio.conf para obtener más información.
Además, Dremio ya no admite conexiones con IBM Cloud Satellite.
Dremio Cloud: actualice el método de autenticación y el nombre de host.
- Inicie sesión en Dremio y genere una señal de acceso personal. Para obtener instrucciones, consulte Fichas de acceso personal.
- En IBM watsonx en el formulario Crear conexión: Dremio , cambie el tipo de autenticación a Señal de acceso personal y añada la información de señal. (La autenticación de Nombre de usuario y contraseña ya no se puede utilizar para conectarse a una instancia de Dremio Cloud.)
- Seleccione El puerto está habilitado para SSL.
Si utiliza el nombre de host predeterminado para una instancia de Dremio Cloud, debe cambiarlo:
- Cambie
sql.dremio.cloud
pordata.dremio.cloud
- Cambie
sql.eu.dremio.cloud
pordata.eu.dremio.cloud
Ajustar rápidamente el modelo de base de maquillaje llama-2-13b-chat
1 de febrero de 2024
Tuning Studio, ahora permite ajustar el modelo de base de la piel ( llama-2-13b-chat ). Primero, el ingeniero solicita el modelo de llama-2-70b-chat más grande en el Prompt Lab para encontrar entradas de aviso efectivas para su caso de uso. A continuación, sintonice la versión más pequeña del modelo de Llama 2 para generar resultados comparables, si no mejores, con indicaciones de disparo cero. llama-2-13b-model, disponible para sintonización inmediata en la región de Dallas. Para obtener más información, consulte Tuning Studio.
Semana finalizada el 26 de enero de 2024
AutoAI da soporte a datos ordenados para todos los experimentos
25 de enero de 2024
Ahora puede especificar datos ordenados para todos los experimentos de AutoAI en lugar de solo experimentos de series temporales. Especifique si los datos de entrenamiento se ordenan secuencialmente, según un índice de fila. Cuando los datos de entrada son secuenciales, el rendimiento del modelo se evalúa en los registros más recientes en lugar de en un muestreo aleatorio, y los datos reservados utilizan los últimos n registros del conjunto en lugar de n registros aleatorios. Los datos secuenciales son necesarios para los experimentos de series temporales, pero son opcionales para los experimentos de clasificación y regresión.
Preguntas y respuestas con acelerador RAG
26 de enero de 2024
Ahora puede implementar una solución de pregunta y respuesta que utilice la generación aumentada de recuperación importando un proyecto de ejemplo. El proyecto de ejemplo contiene cuadernos y otros activos que convierten documentos de HTML o PDF en texto sin formato, importan segmentos de documento en un índice de vector Elasticsearch , despliegan una función Python que consulta el índice de vector, recuperan los N primeros resultados, ejecutan la inferencia LLM para generar una respuesta a la pregunta y comprueban si hay alucinaciones en la respuesta.
Pruebe Q & A con acelerador RAG.
Establecer en tema oscuro
25 de enero de 2024
Ahora puede establecer la interfaz de usuario de watsonx en tema oscuro. Pulse su avatar y seleccione Perfil y valores para abrir su perfil de cuenta. A continuación, active el conmutador de tema oscuro. El tema oscuro no está soportado en RStudio y Jupyter notebooks. Para obtener información sobre la gestión del perfil, consulte Gestión de los valores.
IBM watsonx.ai está disponible en la región de Tokio
25 de enero de 2024
Watsonx.ai ahora está disponible de forma general en el centro de datos de Tokio y se puede seleccionar como la región preferida al registrarse. La inferencia de modelos de Prompt Lab y foundation son compatibles en la región de Tokio para estos modelos:
- elyza-japanese-llama-2-7b-instruct
- flan-t5-xl-3b
- flan-t5-xxl-11b
- flan-ul2-20b
- granite-13b-chat-v2
- granite-13b-instruct-v2
- llama-2-70b-chat
- llama-2-13b-chat
También disponible en la región de Tokio:
- Sintonización rápida del modelo de base de datos flan-t5-xl-3b con el Tuning Studio
- Generación de datos tabulares con el Synthetic Data Generator para utilizar para modelos de entrenamiento
Para obtener más información sobre los modelos soportados, consulte Modelos base soportados disponibles con watsonx.ai.
Un modelo Llama 2 en japonés está disponible en la región de Tokio
25 de enero de 2024
El modelo de base de datos elyza-japanese-llama-2-7b-instruct proporcionado por ELYZA, Inc. está disponible desde instancias watsonx.ai en el centro de datos de Tokio. El modelo elyza-japanese-llama-2-7b-instruct es una versión del modelo Llama 2 de Meta que fue entrenado para comprender y generar texto japonés.
Puede utilizar este nuevo modelo para tareas de finalidad general. Funciona bien para la clasificación y extracción en japonés y para la traducción entre japonés e inglés.
Semana finalizada el 12 de enero de 2024
Soporte para IBM Runtime 22.2 obsoleto en watsonx.ai Runtime (anteriormente Watson Machine Learning)
11 de enero de 2024
IBM Runtime 22.2 está en desuso y se eliminará el 11 de abril de 2024. A partir del 7 de marzo de 2024, no puede crear cuadernos o entornos personalizados utilizando los tiempos de ejecución 22.2 . Además, no puede entrenar modelos nuevos con especificaciones de software basadas en el tiempo de ejecución 22.2 . Actualice los activos y despliegues para utilizar IBM Runtime 23.1 antes del 7 de marzo de 2024.
- Para obtener más información sobre cómo migrar un activo a una infraestructura soportada y una especificación de software, consulte Gestión de especificaciones de software o infraestructuras obsoletas.
- Para obtener más información sobre el entorno del cuaderno, consulte Compute resource options for the notebook editor in projects.
- Para obtener más información sobre cómo cambiar el entorno, consulte Cambio del entorno de un cuaderno.
IBM Granite v1 los modelos de base están en desuso
11 de enero de 2024
Los modelos de base de datos de 13 mil millones de parámetros de IBM Granite, v1, están obsoletos y se retirarán el 11 de abril de 2024. Si está utilizando la versión 1 de los modelos, cambie a la versión 2 de los modelos en su lugar.
Modelo en desuso | Fecha de desuso | Fecha de retirada | Modelo alternativo |
---|---|---|---|
granite-13b-chat-v1 | 11 de enero de 2024 | 11 de abril de 2024 | granite-13b-chat-v2 |
granite-13b-instruct-v1 | 11 de enero de 2024 | 11 de abril de 2024 | granite-13b-instruct-v2 |
Las solicitudes de inferencia que se envían a los modelos de la versión 1 utilizando la API siguen generando salida, pero incluyen un mensaje de aviso sobre la próxima retirada del modelo. A partir del 11 de abril de 2024, las solicitudes de API para inferir los modelos no generarán salida.
Para más información sobre los modelos de base de IBM Granite, consulte Modelos de base fabricados por IBM. Para obtener más información sobre la desestimación y la retirada, consulte el ciclo de vida del modelo de la Fundación.