0 / 0
Volver a la versión inglesa de la documentación
Novedades
Última actualización: 23 dic 2024
Novedades

Vuelva cada semana para conocer las nuevas funciones y actualizaciones de IBM watsonx.ai y IBM watsonx.governance en IBM Cloud.

Para obtener información sobre IBM watsonx.governance en AWS, consulte Las novedades de IBM watsonx.governance en AWS.

Sugerencia: En ocasiones, debe realizar una acción específica después de una actualización. Para ver todas las acciones necesarias, busque "Acción necesaria" en esta página.

Semana que finaliza el 20 de diciembre de 2024

Despliegue de modelos convertidos al formato ONNX

20 de diciembre de 2024

Ahora puede desplegar modelos de aprendizaje automático y de IA generativa convertidos al formato ONNX y utilizar el endpoint para inferencias. Estos modelos también pueden adaptarse a ejes dinámicos. Para más información, consulte Despliegue de modelos con formato ONNX.

Despliegue de flujos SPSS Modeler multifuente

20 de diciembre de 2024

Ahora puede crear implementaciones para flujos de SPSS Modeler que utilicen múltiples flujos de entrada para proporcionar datos al modelo. Para obtener más información, consulte Despliegue de flujos SPSS Modeler multifuente.

Se introducen modificaciones en los modelos de cimientos Granite 3 Instruct

18 de diciembre de 2024

Se han introducido modificaciones en los siguientes modelos de cimientos de IBM :

  • granite-3-2b-instruct
  • granite-3-8b-instruct

Con las últimas modificaciones, los modelos de la base Granite 3.1 Instruct ofrecen ahora un mejor soporte para la codificación de tareas y funciones intrínsecas para los agentes. La longitud de la ventana de contexto admitida para estos modelos de fundación aumentó de 4.096 a 131.072 tokens. Aunque los ID de los modelos Granite Instruct siguen siendo los mismos, se actualizan las ponderaciones de los modelos.

Para obtener más información, consulte Modelos de base soportados.

Semana que finaliza el 13 de diciembre de 2024

Solución sin código para buscar un patrón RAG con AutoAI (beta)

12 de diciembre de 2024

Ahora puede automatizar la búsqueda del patrón RAG óptimo para su caso de uso desde la interfaz de usuario AutoAI. Cargue la colección de documentos y las preguntas de prueba, elija una base de datos vectorial y ejecute el experimento para un enfoque de ruta rápida para encontrar un patrón RAG. También puede revisar y modificar los ajustes de configuración del experimento. Compare los patrones generados por el experimento y guarde el mejor patrón como cuaderno autogenerado o cuadernos guardados en su proyecto.

Para más detalles, consulte Automatizar un patrón RAG con AutoAI.

Implantar servicios de IA con plantillas

12 de diciembre de 2024

Puede desplegar sus servicios de IA utilizando plantillas predefinidas. Las plantillas de servicios de IA proporcionan una forma estandarizada de desplegar servicios de IA al ofrecer una estructura y configuración predefinidas para desplegar modelos de IA. Estas plantillas son unidades de código preconstruidas y desplegables que encapsulan la lógica de programación de las aplicaciones de IA generativa.

Las plantillas de servicios de IA automatizan tareas como la creación de despliegues, la generación de metadatos y la creación de extensiones, lo que permite a los desarrolladores centrarse en la lógica central de su aplicación. Proporcionan una forma flexible de desplegar servicios de IA, admitiendo múltiples entradas y personalización.

Para obtener más información, consulte Despliegue de servicios de IA con plantillas.

El último foundation model Llama está disponible para su despliegue bajo demanda

12 de diciembre de 2024

Puede desplegar el foundation model multilingüe Meta Llama 3.3 70B Instruct en hardware dedicado para uso exclusivo de su organización. El foundation model más reciente de Meta tiene capacidades similares a las del modelo más grande llama-3-405b-instruct, pero es de menor tamaño y es experto en codificación, razonamiento paso a paso y llamada de herramientas en particular. Puede desplegar el modelo completo ( llama-3-3-70b-instruct-hf ) o una versión cuantificada ( llama-3-3-70b-instruct ) que requiere menos recursos de alojamiento.

Para obtener más información sobre el despliegue de un foundation model bajo demanda en la región de Dallas desde el centro de recursos o la API REST, consulte Despliegue de modelos de cimientos bajo demanda.

Despliegue de modelos de la Fundación a petición con la biblioteca cliente Python

12 de diciembre de 2024

Ahora puede desplegar sus modelos de cimentación a petición utilizando la biblioteca de clientes watsonx.ai Python. Gracias a este enfoque, podrá acceder a las capacidades de estos potentes modelos de cimentación sin necesidad de grandes recursos computacionales. Los modelos Foundation que se despliegan a petición se alojan en un espacio de despliegue dedicado en el que se pueden utilizar estos modelos para inferencias.

Para obtener más información, consulte Despliegue de modelos de la Fundación a petición.

Tutoriales actualizados SPSS Modeler

11 de diciembre de 2024

Obtenga experiencia práctica con SPSS Modeler probando las 15 versiones actualizadas de SPSS Modeler tutoriales.

Comparación de activos de IA con Evaluation Studio

12 de diciembre de 2024

Con Evaluation Studio, puede evaluar y comparar sus activos de IA generativa con métricas cuantitativas y criterios personalizables que se adapten a sus casos de uso. Evalúe el rendimiento de varios activos simultáneamente y vea análisis comparativos de los resultados para identificar las mejores soluciones.

Para obtener más información, consulte Comparación de activos AI con Evaluation Studio.

Mejoras en la consola de Gobernanza

12 de diciembre de 2024

Mejoras en la solución watsonx.governance Model Risk Governance

Esta versión incluye las siguientes mejoras:

  • La nueva plantilla del cuestionario de identificación de riesgos en la incorporación de modelos de IA se utiliza durante el proceso de incorporación de modelos para ayudar a identificar los riesgos asociados a un modelo. Esta plantilla de cuestionario se utiliza en el flujo de trabajo Foundation Model Onboarding.
  • La nueva plantilla del cuestionario de identificación de riesgos de casos de uso de IA se utiliza para ayudar a identificar los riesgos asociados a los casos de uso de IA. Esta plantilla de cuestionario se utiliza en el flujo de trabajo de Revisión de Casos de Uso. Este nuevo cuestionario está destinado a sustituir al Cuestionario de Identificación de Riesgos AI
  • La nueva plantilla del cuestionario de identificación de riesgos de casos de uso y modelos de IA se utiliza para ayudar a identificar los riesgos asociados a la combinación de un caso de uso y un modelo de IA. Esta plantilla de cuestionario se utiliza en el flujo de trabajo de Desarrollo de Casos de Uso y Documentación.
  • El flujo de trabajo de evaluación de la IA está ahora desactivado por defecto. Se sustituye por el Flujo de trabajo de evaluación de cuestionarios. Ahora puede establecer plantillas de cuestionarios directamente en el flujo de trabajo de casos de uso.
  • Se actualizaron los flujos de trabajo, las vistas y los cuadros de mando.

Para obtener más información, consulte Componentes de la solución en la consola Gobernanza.

Correcciones de errores y de seguridad

Se han aplicado correcciones de errores y de seguridad.

Para más información, consulte Nuevas funciones en 9.0.0.5.

IBM watsonx.governance governance está disponible en la región de Sydney

9 de diciembre de 2024

IBM watsonx.governance ya está disponible de forma general en el centro de datos de Sídney. Puede seleccionar Sídney como región preferida al inscribirse.

Para obtener más información sobre las funciones del producto disponibles en la región de Sídney, consulte Disponibilidad regional de servicios y funciones.

Semana que finaliza el 6 de diciembre de 2024

Despliegue de modelos de cimientos bajo demanda en la región de Dallas

6 de diciembre de 2024

Elija entre una colección seleccionada de modelos de base que puede implantar en hardware dedicado para uso exclusivo de su organización. Un despliegue dedicado se traduce en interacciones más ágiles a la hora de inferir modelos de base. Los modelos de cimentación a la carta se facturan por horas. Para obtener más información, consulte Modelos de base admitidos y Detalles de facturación de los activos de IA generativa.

Para obtener más información sobre el despliegue de un " foundation model " bajo demanda desde el concentrador de recursos o la API REST, consulte " Despliegue de modelos de cimientos bajo demanda.

Inferencia del último foundation model Llama a partir de " Meta " en las regiones de Dallas y Fráncfort

6 de diciembre de 2024

El foundation model multilingüe Llama 3.3 70B Instruct de " Meta está disponible para su integración en las regiones de Dallas y Fráncfort. El foundation model llama-3-3-70b-instruct es hábil en la codificación, el razonamiento paso a paso y la llamada de herramientas. Con un rendimiento que rivaliza con el del modelo 405b, la actualización foundation model Llama 3.3 es una gran elección para los desarrolladores. Véase el anuncio de IBM.

Para obtener más información, consulte Modelos de base soportados.

Revisar los puntos de referencia para comparar los modelos de fundación

5 de diciembre de 2024

Revise los puntos de referencia de foundation model modelos de cimentación para conocer las capacidades de los modelos de cimentación disponibles antes de probarlos. Compare el rendimiento de varios modelos de cimientos en las tareas más importantes para su caso de uso. Para más información, consulte los puntos de referencia del modelo de la Fundación.

Los archivos de Microsoft Excel están obsoletos para los modelos OPL en Decision Optimization

5 de diciembre de 2024

Los archivos de libros de Microsoft Excel (.xls y .xlsx) están ahora obsoletos para la entrada y salida directa en los modelos OPL de Decision Optimization. Para conectarse a archivos Excel, utilice en su lugar un conector de datos. El conector de datos transforma tu archivo Excel en un archivo .csv. Para más información, véase Datos de referencia.

Nuevos cuadernos de muestras para desplegar modelos convertidos al formato ONNX

3 de diciembre de 2024

Ahora puede desplegar modelos de aprendizaje automático y de IA generativa convertidos al formato ONNX y utilizar el endpoint para inferencias. Estos modelos también pueden adaptarse a ejes dinámicos. Consulte los siguientes cuadernos de muestra:

Para obtener más información, consulte watsonx.ai Runtime Python client samples and examples.

Los modelos de base llama-3-8b-instruct y llama-3-70b-instruct están obsoletos

2 de diciembre de 2024

Los siguientes modelos de cimientos están obsoletos. Revisa las indicaciones que utilicen estos modelos básicos.

llama-3-8b-instruct

  • Fecha de amortización: 2 de diciembre de 2024
  • Fecha de retirada: 3 de febrero de 2025
  • Modelo alternativo: llama-3-1-8b-instruct, llama-3-2-11b-vision-instruct

llama-3-70b-instruct

  • Fecha de amortización: 2 de diciembre de 2024
  • Fecha de retirada: 3 de febrero de 2025 (31 de marzo en Sydney)
  • Modelo alternativo: llama-3-2-90b-vision-instruct

Para obtener más información sobre la eliminación y la retirada, consulte Ciclo de vida del modelo de fundamentación. Para más información sobre modelos alternativos, consulte Modelos de fundación compatibles.

Semana que finaliza el 29 de noviembre de 2024

Mejora de la documentación sobre las opciones de escritura de Data Refinery

28 de noviembre de 2024

Las opciones de escritura y las opciones de tabla para exportar flujos de datos dependen de su conexión. A continuación se explican estas opciones para orientarle mejor a la hora de seleccionar las opciones de su mesa de destino. Para obtener más información, consulte Opciones de conexión de destino para Data Refinery.

Semana que finaliza el 22 de noviembre de 2024

Nuevo centro de desarrollo watsonx para empezar a programar rápidamente

21 de octubre de 2024

Eche un vistazo al nuevo centro de desarrollo para encontrar todo lo que necesita para codificar su solución de IA generativa:

  • Realice su primera solicitud de API para inferir un foundation model en watsonx.ai.
  • Encuentre los modelos básicos y las bibliotecas de código adecuados para sus aplicaciones de IA.
  • Comprender las capacidades de watsonx.ai y copiar fragmentos de código en Curl, Node.js o Python.
  • Aprenda a crear aplicaciones y soluciones de IA generativa con guías detalladas.
  • Únete a comunidades para encontrar recursos, respuestas y relacionarte con otros usuarios.

Vaya a watsonx Developer Hub.

Los servicios de componentes de IBM watsonx.ai pasaron a llamarse

21 de noviembre de 2024

Se ha cambiado el nombre de los siguientes servicios:

  • Watson Machine Learning ' se llama ahora watsonx.ai Runtime
  • Watson Studio ' se llama ahora watsonx.ai Studio

Es posible que algunos vídeos, cuadernos y ejemplos de código sigan refiriéndose a estos servicios por sus nombres anteriores.

IBM watsonx.ai está disponible en la región de Sídney

21 de noviembre de 2024

Watsonx.ai ya está disponible de forma general en el centro de datos de Sídney y se puede seleccionar Sídney como región preferida al registrarse.

Para obtener más información sobre los modelos de base y las características de los productos disponibles en la región de Sídney, consulte Disponibilidad regional de servicios y características.

Utilice los modelos básicos de series temporales IBM Granite y la API watsonx.ai para predecir valores futuros (beta)

21 de noviembre de 2024

Utilice la API de series temporales para pasar observaciones de datos históricos a un foundation model series temporales IBM Granite que pueda pronosticar valores futuros con inferencia de disparo cero. El método de previsión de series temporales de la API watsonx.ai está disponible como función beta. Para más información, véase Previsión de valores de datos futuros.

Utilizar los modelos de incrustación de texto de watsonx.ai desde la API de inferencia Elasticsearch

21 de noviembre de 2024

The Elasticsearch version 8.16.0 release added support for creating an inference endpoint that uses a watsonx.ai foundation model for text embedding tasks.

Para más información, consulte Vectorizar texto mediante la API.

Promover flujos de SPSS Modeler a espacios de despliegue

19 de noviembre de 2024

Ahora puede promover directamente flujos de SPSS Modeler de proyectos a espacios de implantación sin tener que exportar el proyecto y luego importarlo al espacio de implantación. Para obtener más información, consulte Promover flujos y modelos SPSS Modeler.

Semana que finaliza el 15 de noviembre de 2024

Utilice la aplicación de chat de demostración IBM watsonx.ai sin restricciones de prueba vinculando cuentas

15 de noviembre de 2024

Ahora puede utilizar su aplicación de chat de cuenta de demostración ' IBM ' watsonx.ai sin restricciones de uso de tokens ni de límite de tiempo vinculando su cuenta de demostración a su cuenta de pago ' IBM Cloud ' watsonx.ai. Para más detalles, véase " Vinculación de las cuentas de demostración " IBM " watsonx.ai " y " watsonx.ai .

El paquete watsonx.ai Node.js está disponible en LangChain

11 de noviembre de 2024

El paquete watsonx.ai Node.js está disponible para su uso en la biblioteca comunitaria LangChain JavaScript. La integración es compatible con funciones de watsonx.ai como la inferencia de modelos de cimientos, la generación de incrustaciones de texto y la gestión de intercambios de chat que incluyen funciones de imagen a texto y llamada de herramientas. Con la integración LangChain, puede llamar a estas capacidades de watsonx.ai utilizando interfaces coherentes que facilitan el intercambio entre proveedores para comparar ofertas y encontrar la mejor solución para sus necesidades.

Para obtener más información, consulte Node.js SDK.

Ahora se requieren credenciales de tarea para desplegar activos y ejecutar trabajos desde un espacio de despliegue

11 de noviembre de 2024

Para mejorar la seguridad de los trabajos de despliegue en ejecución, debe introducir sus credenciales de tarea para desplegar los siguientes activos desde un espacio de despliegue:

  • Plantillas de solicitud
  • Servicios de IA
  • Modelos de
  • Funciones de Python
  • Scripts

Además, debe introducir sus credenciales de tarea para crear las siguientes implantaciones desde su espacio de implantación:

  • En línea
  • Despliegue

También debe utilizar sus credenciales de tarea para crear y gestionar trabajos de despliegue desde su espacio de despliegue.

Para saber cómo configurar sus credenciales de tarea y generar una clave API, consulte Añadir credenciales de tarea.

Semana que finaliza el 8 de noviembre de 2024

Implantar aplicaciones de IA generativa con servicios de IA

7 de noviembre de 2024

Ahora puede utilizar los servicios de IA en watsonx.ai para desplegar sus aplicaciones. Un servicio de IA es una unidad de código desplegable que puede utilizar para capturar la lógica de sus casos de uso de IA generativa. Mientras que las funciones Python son la forma tradicional de desplegar activos de aprendizaje automático, los servicios de IA ofrecen una opción más flexible para desplegar código para aplicaciones de IA generativa, como el streaming. Cuando sus servicios de IA se desplieguen correctamente, podrá utilizar el endpoint para inferir desde su aplicación.

Para más información, consulte Despliegue de servicios de IA.

Los modelos de base granite-13b-chat-v2, llama2-13b-dpo-v7 y mt0-xxl-13b están obsoletos

4 de noviembre de 2024

Los siguientes modelos de cimientos están obsoletos. Revisa las indicaciones que utilicen estos modelos básicos.

granite-13b-chat-v2

  • Fecha de depreciación: 4 de noviembre de 2024
  • Fecha de retirada: 3 de febrero de 2025
  • Modelo alternativo: granite-3-8b-instruct

llama2-13b-dpo-v7

  • Fecha de depreciación: 4 de noviembre de 2024
  • Fecha de retirada: 4 de diciembre de 2024
  • Modelo alternativo: llama-3-1-8b-instruct

mt0-xxl-13b

  • Fecha de depreciación: 4 de noviembre de 2024
  • Fecha de retirada: 4 de diciembre de 2024
  • Modelos alternativos: llama-3-2-11b-vision-instruct

Para obtener más información sobre la eliminación y la retirada, consulte Ciclo de vida del modelo de fundamentación. Para más información sobre modelos alternativos, consulte Modelos de fundación compatibles.

Semana que finaliza el 1 de noviembre de 2024

El nuevo modelo de incrustación de terceros all-minilm-l6-v2 está disponible en watsonx.ai

29 de octubre de 2024

El modelo de incrustación de texto all-minilm-l6-v2 de la comunidad de procesamiento del lenguaje natural (PLN) y visión por ordenador (CV) de código abierto ya está disponible para su uso desde el método de incrustación de texto de la API watsonx.ai. Utilice el modelo para convertir el texto en vectores de incrustación de texto adecuados para su uso en tareas de correspondencia y recuperación de texto. Para más detalles sobre el modelo, consulte los siguientes temas:

Precio más bajo para inferir el " Mistral Large " foundation model

29 de octubre de 2024

El precio de las entradas que envíe al ' Mistral Large ' foundation model disminuyó de $0.01 a $0.003 USD por 1.000 tokens. El precio de la producción generada por el foundation model no ha cambiado; el precio de los tokens de producción sigue siendo0.01 USD/1,000 tokens. The price change applies to all regions where the mistral-large foundation model is available.

Para obtener más información, consulte Modelos de base soportados.

Supresión de IBM Runtime 23.1

28 de octubre de 2024

IBM Runtime 23.1 está obsoleto. A partir del 21 de noviembre de 2024, no se podrán crear nuevos cuadernos o entornos personalizados utilizando tiempos de ejecución 23.1. Además, no se pueden crear nuevas implantaciones con especificaciones de software basadas en el tiempo de ejecución 23.1. Para garantizar una experiencia fluida y aprovechar las últimas funciones y mejoras, cambie a IBM Runtime 24.1.

Simplifique los documentos empresariales complejos con la API de extracción de texto

28 de octubre de 2024

El método de extracción de texto ya está disponible de forma general en la API REST de watsonx.ai. Aproveche la tecnología de comprensión de documentos desarrollada por IBM para simplificar sus complejos documentos empresariales de modo que puedan ser procesados por modelos de base como parte de un flujo de trabajo de IA generativa. La API de extracción de texto extrae texto de estructuras de documentos como imágenes, diagramas y tablas que los modelos de base no suelen poder interpretar correctamente. Para obtener más información, consulte Extracción de texto de documentos.

La API está disponible en todas las regiones para los usuarios de planes de pago. Para más información sobre precios, consulte la tabla de tarifas de extracción de texto de documentos.

Semana que finaliza el 25 de octubre de 2024

Comparar tablas en experimentos de Decision Optimization para ver las diferencias entre escenarios

23 de octubre de 2024

Ahora puede comparar tablas en un experimento de Decision Optimization en la vista Preparar datos o Explorar solución. Esta comparación puede ser útil para ver las diferencias de valor de los datos entre los escenarios mostrados uno al lado del otro. Captura de pantalla de la comparación de tablas en la Decision Optimization
Para más información, consulte Comparar tablas de escenarios.

Los nuevos modelos Granite 3.0 están disponibles en watsonx.ai

21 de octubre de 2024

Ahora puede inferir los siguientes modelos de la fundación Granite de generación 3.0 proporcionados por IBM desde watsonx.ai:

  • Modelos Granite Instruct en todas las regiones: Utilice los nuevos modelos lingüísticos de código abierto, ligeros y ajustados a Instruct para tareas de resumen, resolución de problemas, traducción de textos, razonamiento, codificación y llamada de funciones. Funciona con las siguientes variantes de modelos:
    • granite-3-2b-instruct
    • granite-3-8b-instruct
  • Modelos Granite Guardian en la región de Dallas: Utilice los nuevos modelos Granite Guardian, que son modelos Granite Instruct perfeccionados, diseñados para detectar riesgos en las indicaciones y respuestas. Funciona con las siguientes variantes de modelos:
    • granite-guardian-3-2b
    • granite-guardian-3-8b

Para más detalles, consulte Modelos de cimentación soportados .

Mejore las tareas de búsqueda y recuperación con la API de clasificación de textos

21 de octubre de 2024

El método text rerank está generalmente disponible en la API REST de watsonx.ai. Utilice este nuevo método de la API, junto con los modelos de base del reordenador, como el modelo ms-marco-minilm-l-12-v2 recientemente admitido, para reordenar un conjunto de pasajes de documentos en función de su similitud con una consulta especificada. La reclasificación es una forma útil de añadir precisión a los flujos de trabajo de recuperación de respuestas. Para obtener más información, consulte Reranking de pasajes de documentos.

El nuevo modelo Pixtral 12B está disponible en las regiones de Frankfurt y Londres

21 de octubre de 2024

Ya puede utilizar el foundation model Pixtral 12B de Mistral AI en watsonx.ai en los centros de datos de Fráncfort y Londres.

Pixtral 12B es un modelo multimodal nativo con capacidades de imagen a texto y de texto a texto que se entrenó con datos de imagen y texto intercalados. El foundation model admite tamaños de imagen variables y destaca en tareas de seguimiento de instrucciones. Para más detalles, consulte Modelos de cimentación soportados .

Utilice los modelos llama-3-2-11b-vision-instruct y llama-guard-11b-vision en las regiones de Fráncfort y Londres

21 de octubre de 2024

Ahora puede trabajar con los modelos llama-3-2-11b-vision-instruct y llama-guard-11b-vision en los centros de datos de Fráncfort y Londres, además de en el de Dallas. Para obtener más información, consulte Disponibilidad regional de servicios y funciones en IBM Cloud y Chat con imágenes.

Semana que finaliza el 18 de octubre de 2024

El alcance de los recursos de la cuenta está activado por defecto

17 de octubre de 2024

El ajuste " Resource scope " de su cuenta se establece ahora en " ON por defecto. Sin embargo, si previamente ha establecido el valor para el ajuste Ámbito de recursos en ' ON o ' OFF, el ajuste actual no se modifica.

Cuando el ámbito de recursos está habilitado, no puede acceder a proyectos que no estén en su cuenta de IBM Cloud seleccionada actualmente. Si pertenece a más de una cuenta IBM Cloud, es posible que no vea todos sus proyectos juntos. Por ejemplo, es posible que no vea todos sus proyectos en la página Todos los proyectos. Debe cambiar de cuenta para ver los proyectos en las otras cuentas.

En la región de Fráncfort existe un foundation model Granite Code

15 de octubre de 2024

El ' granite-20b-code-instruct ' foundation model de ' IBM está diseñado para responder a instrucciones relacionadas con la codificación. Puede utilizar el foundation model en proyectos alojados en el centro de datos de Fráncfort para ayudarle con las tareas de codificación y para crear asistentes de codificación. Para obtener más información sobre el modelo, consulte Modelos de cimentación admitidos.

Semana que finaliza el 11 de octubre de 2024

Nuevo beneficio de licencia

10 de octubre de 2024

Ahora puede traer su propia licencia (BYOL) para aplicar los beneficios de las licencias locales a IBM watsonx.ai e IBM watsonx.governance.

Para obtener más información, consulte Activación de Bring Your Own License (BYOL) a SaaS.

Analice datos de texto en japonés en SPSS Modeler con Text Analytics

9 de octubre de 2024

Ahora puede utilizar los nodos de Análisis de texto en SPSS Modeler, como el nodo de Análisis de enlaces de texto y el nodo de Minería de texto, para analizar datos de texto escritos en japonés.

Cree flujos de trabajo conversacionales con la API de chat watsonx.ai

8 de octubre de 2024

Utilice la API de chat watsonx.ai para añadir capacidades de IA generativa, incluidas las llamadas dirigidas por agentes a herramientas y servicios de terceros, en sus aplicaciones.

Para obtener más información, consulte los siguientes temas:

Nueva especificación de software para modelos de cimentación personalizados

7 de octubre de 2024

Ahora puede utilizar una nueva especificación de software " watsonx-cfm-caikit-1.1 " con sus implantaciones personalizadas " foundation model ". La especificación se basa en la biblioteca vLLM y se adapta mejor a los últimos modelos de lenguaje de gran tamaño basados únicamente en decodificadores. Para más información sobre la biblioteca ' vLLM ', consulte ' vLLM ' Para más información sobre el uso de la especificación con un ' foundation model personalizado, consulte ' Planificación del despliegue de un " foundation model" personalizado .

Los modelos de cimentación granite-7b-lab y llama3-llava-next-8b-hf han quedado obsoletos

7 de octubre de 2024

El foundation model granite-7b-lab está obsoleto y se retirará el 7 de enero de 2025. Revisa las indicaciones que utilicen este foundation model.

  • Fecha de depreciación: 7 de octubre de 2024
  • Fecha de retirada: 7 de enero de 2025
  • Modelo alternativo: granite-3-8b-instruct

El foundation model multimodal llama3-llava-next-8b-hf también está obsoleto y se retirará el 7 de noviembre de 2024. Ahora puede utilizar uno de los nuevos modelos de visión de Llama 3.2 para tareas de generación de imágenes a texto.

  • Fecha de depreciación: 7 de octubre de 2024
  • Fecha de retirada: 7 de noviembre de 2024
  • Modelo alternativo: llama-3-2-11b-vision-instruct

Para obtener más información sobre la eliminación y la retirada, consulte Ciclo de vida del modelo de fundamentación. Para más información sobre modelos alternativos, consulte Modelos de fundación compatibles.

Semana que finaliza el 4 de octubre de 2024

Entornos y especificaciones de software actualizados

3 de octubre de 2024

Las bibliotecas Tensorflow y Keras que se incluyen en IBM Runtime 23.1 ya están actualizadas a sus versiones más recientes. Esto puede tener un impacto en cómo se ejecuta el código en tus cuadernos. Para obtener más información, consulte Paquetes de bibliotecas incluidos en los tiempos de ejecución de watsonx.ai Studio (anteriormente Watson Studio).

El Runtime 23.1 dejará de utilizarse en favor del Runtime 24.1 de IBM a finales de este año. Para evitar interrupciones repetidas, le recomendamos que cambie ahora a IBM Runtime 24.1 y utilice las especificaciones de software relacionadas para los despliegues.

Disponibilidad del plan watsonx.governance en la región de Fráncfort y supresión del plan heredado OpenScale

3 de octubre de 2024

El plan heredado watsonx.governance para aprovisionar Watson OpenScale en la región de Fráncfort queda obsoleto. IBM Watson OpenScale dejará de estar disponible para nuevas suscripciones o para aprovisionar nuevas instancias. Para las funciones OpenScale, suscríbase al plan watsonx.governance Essentials, que ya está disponible en Fráncfort y Dallas.

Notas:

  • Las instancias existentes del plan heredado seguirán funcionando y recibirán asistencia hasta la fecha de fin de asistencia, que aún está por determinar.
  • Los clientes existentes en IBM Watson OpenScale pueden seguir abriendo tickets de soporte utilizando IBM Watson OpenScale.

Nuevos términos de menú para abrir la página de conexiones de la Plataforma

3 de octubre de 2024

Anteriormente, la ruta a la Conexiones de plataformas página en el menú de navegación era Datos > Conexiones de plataformas. La nueva ruta es Datos > Conectividad. La página Conectividad tiene una pestaña para las conexiones de la Plataforma.

Semana que finaliza el 27 de septiembre de 2024

Llama 3.2 modelos de cimentación, incluidos los modelos multimodales 11B y 90B

25 de septiembre de 2024

El lanzamiento de hoy hace que los siguientes modelos de cimientos de Meta AI estén disponibles en la región de Dallas:

Llama 3.2 instruir modelos
Modelos lingüísticos versátiles de gran tamaño que admiten entradas de gran tamaño (128.000 tokens de longitud de ventana de contexto) y son lo suficientemente ligeros y eficientes, con 1B y 3B parámetros de tamaño, como para caber en un dispositivo móvil. Puede utilizar estos modelos para crear agentes altamente personalizados en el dispositivo.
Llama 3.2 modelos de visión
Modelos perfeccionados creados para casos de uso de entrada de imágenes y salida de texto, como la comprensión a nivel de documento, la interpretación de tablas y gráficos y el subtitulado de imágenes.
Modelo de visión de la Guardia de la Llama
Potente modelo de barrera diseñado para filtrar contenidos nocivos.

Para obtener más información, consulte Modelos de base soportados.

Mejoras en la consola de Gobernanza

25 de septiembre de 2024

Esta versión incluye mejoras y correcciones de errores.

Pestañas personalizadas en el panel de control

El salpicadero ahora puede contener hasta tres pestañas personalizadas.

Gráficos de barras apiladas

Ahora puede configurar un gráfico de barras apiladas en el cuadro de mandos y en el Diseñador de vistas.

Utilización de expresiones para establecer valores de campo basados en las respuestas de un encuestado

Ahora puede introducir una expresión para el valor de un campo. Por ejemplo, puede introducir [$TODAY$] para la fecha actual,[$END_USER$] para el nombre del usuario registrado, o [$System Fields:Description$] para establecer el campo en el valor del campo Descripción del objeto.

Mejoras en la solución watsonx.governance Model Risk Governance

Esta versión incluye las siguientes mejoras:

  • El nuevo tipo de objeto Grupo de modelos permite agrupar modelos similares. Por ejemplo, las versiones de un modelo que utilizan un enfoque similar para resolver un problema de negocio podrían en un Grupo de Modelos.
  • El nuevo cálculo de puntuación de riesgos de casos de uso agrega métricas por estado de infracción en puntuaciones de riesgo para ofrecer una visión general del rendimiento de los modelos subyacentes de un caso de uso.
  • La nueva entidad de negocio Biblioteca de IA descubierta proporciona un lugar predeterminado para almacenar cualquier despliegue de IA que no siga las prácticas de gobierno sancionadas dentro de una organización (también conocida como "IA en la sombra").
  • Se actualizaron los flujos de trabajo, las vistas y los cuadros de mando.

Para obtener más información, consulte Componentes de la solución en la consola Gobernanza.

Correcciones de errores y de seguridad

Se han aplicado correcciones de errores y de seguridad.

Para obtener más información, consulte Nuevas funciones en 9.0.0.4.

Automatizar patrones RAG con AutoAI SDK (beta)

23 de septiembre de 2024

Utilice el AutoAI Python SDK para automatizar y acelerar el diseño y despliegue de un patrón optimizado de generación aumentada por recuperación (RAG) basado en sus datos y caso de uso. RAG incluye muchos parámetros de configuración, como el modelo lingüístico de gran tamaño que debe elegirse, la forma de trocear los documentos de base y el número de documentos que deben recuperarse. AutoAI automatiza la exploración y evaluación completa de un conjunto restringido de opciones de configuración y produce un conjunto de canalizaciones de patrones clasificados por rendimiento frente a la métrica de optimización.

Nota: Mientras esta función esté en fase beta, no se cobra por ejecutar el experimento y no se consumen tokens. Sin embargo, las llamadas a patrones GAR y sus derivados realizadas una vez finalizado el experimento consumen recursos e incurren en gastos de facturación según las tarifas estándar.

Consulte Automatización de un patrón RAG con el AutoAI SDK(Beta) para obtener detalles sobre la función y notas de uso para codificar un experimento RAG AutoAI.

Eliminación del tiempo de ejecución de Spark 3.3

23 de septiembre de 2024

La compatibilidad con el tiempo de ejecución de Spark 3.3 en IBM Analytics Engine se eliminará el 29 de octubre de 2024 y la versión predeterminada se cambiará al tiempo de ejecución de Spark 3.4. Para garantizar una experiencia fluida y aprovechar las últimas funciones y mejoras, cambie a Spark 3.4.

A partir del 29 de octubre de 2024, no se podrán crear ni ejecutar cuadernos o entornos personalizados mediante tiempos de ejecución de Spark 3.3. Además, no puede crear ni ejecutar despliegues con especificaciones de software que se basen en el tiempo de ejecución de Spark 3.3.

Semana que finaliza el 20 de septiembre de 2024

Inferencia de un foundation model multimodal del Prompt Lab

19 de septiembre de 2024

Ahora puede añadir una imagen en Prompt Lab y chatear sobre la imagen indicando un foundation model multimodal en modo chat. Además de documentos de base, ahora puede cargar imágenes y preguntar a un foundation model que admite tareas de imagen a texto sobre el contenido visual de la imagen. Para obtener más información, consulte Chatear con documentos e imágenes.

Nuevo modelo llama3-llava-next-8b-hf disponible en la región de Dallas

19 de septiembre de 2024

Ya puedes utilizar el nuevo foundation model multimodal llama3-llava-next-8b-hf en IBM watsonx.ai para ayudarte con las tareas de conversión de imagen a texto.

El asistente de visión y lenguaje de gran tamaño (LLaVa) combina un modelo de lenguaje de gran tamaño preentrenado con un codificador de visión preentrenado para casos de uso de chatbot multimodales. LLaVA NeXT Llama3 se entrena con datos de imagen y texto más diversos y de mayor calidad. Para más detalles, consulte Modelos de cimentación soportados .

Utiliza el SDK watsonx.ai Node.js para codificar aplicaciones de IA generativa

18 de septiembre de 2024

Inferencia y ajuste de modelos de cimientos en IBM watsonx as a Service mediante programación utilizando el paquete watsonx.ai Node.js. Para obtener más información, consulte Node.js SDK.

Comprender las políticas de indemnización por propiedad intelectual para los modelos de fundación

18 de septiembre de 2024

Ahora puede entender mejor la política de indemnización por propiedad intelectual de IBM y ver qué modelos de la fundación tienen cobertura de indemnización por propiedad intelectual en watsonx.ai. Para más información, consulte Tipos de modelo e indemnización por IP.

Semana que finaliza el 13 de septiembre de 2024

Crear trabajos por lotes para SPSS Modeler en espacios de despliegue

10 de septiembre de 2024

Ahora puede crear trabajos por lotes para flujos SPSS Modeler en espacios de despliegue. Los flujos le ofrecen la flexibilidad de decidir qué nodos terminales ejecutar cada vez que cree un trabajo por lotes a partir de un flujo. Cuando se programan trabajos por lotes para flujos, el trabajo por lotes utiliza las fuentes de datos y los destinos de salida especificados en el flujo. La asignación de estas fuentes de datos y salidas es automática si las fuentes de datos y los destinos también se encuentran en su espacio de despliegue. Para obtener más información sobre la creación de trabajos por lotes a partir de flujos, consulte Creación de trabajos de implementación para SPSS Modeler.

Para obtener más información sobre flujos y modelos en espacios de despliegue, consulte Despliegue de SPSS Modeler.

Semana que finaliza el 6 de septiembre de 2024

Lleve su propio foundation model a la inferencia de watsonx.ai en la región de Dallas

3 de septiembre de 2024

Además de trabajar con modelos de base curados por IBM, ahora puede cargar y desplegar sus propios modelos de base. Una vez que los modelos se hayan desplegado y registrado en watsonx.ai, cree avisos que inferencien los modelos personalizados mediante programación o desde el Prompt Lab. Esta función sólo está disponible en la región de Dallas.

Para obtener más información sobre la carga de modelos de cimientos personalizados, consulte Despliegue de modelos de cimientos personalizados. Para obtener información sobre planes y detalles de facturación para modelos de cimientos personalizados, consulte los planes de tiempo de ejecución dewatsonx.ai.

Simplifique los documentos empresariales complejos con la API de extracción de texto de documentos

3 de septiembre de 2024

Aplique la tecnología de comprensión de documentos desarrollada por IBM para simplificar sus complejos documentos empresariales, de modo que puedan ser procesados por modelos fundacionales como parte de un flujo de trabajo de IA generativa. La API de extracción de texto de documentos extrae texto de estructuras de documentos como imágenes, diagramas y tablas que los modelos de base a menudo no pueden interpretar correctamente. El método de extracción de texto de la API REST de watsonx.ai es una función beta.

Para obtener más información, consulte Extracción de texto de documentos.

'Granite Código ' foundation model ' modificación y actualizaciones disponibles

3 de septiembre de 2024

El foundation model granite-20b-code-instruct se modificó a la versión 1.1.0. La última modificación se entrena con una mezcla de datos de alta calidad procedentes de dominios de código y lenguaje natural para mejorar las capacidades de razonamiento y seguimiento de instrucciones del modelo.

Los siguientes modelos de fundaciones se actualizaron para aumentar el tamaño de la longitud de la ventana de contexto admitida (entrada + salida) para los avisos de 8192 a 128.000:

  • granite-3b-code-instruct
  • granite-8b-code-instruct

Para obtener más información, consulte Modelos de base soportados.

Semana que finaliza el 30 de agosto de 2024

Los modelos llama-2-13b-chat y llama-2-70b-chat han quedado obsoletos

26 de agosto de 2024

Los modelos de base llama-2-13b-chat y llama-2-70b-chat están obsoletos y se retirarán el 25 de septiembre de 2024. Revisa las indicaciones que utilicen estos modelos básicos.

llama-2-13b-chat
  • Fecha de caducidad: 26 de agosto de 2024
  • Fecha de retirada: 25 de septiembre de 2024
  • Modelo alternativo: llama-3.1-8b-instruct
llama-2-70b-chat
  • Fecha de caducidad: 26 de agosto de 2024
  • Fecha de retirada: 25 de septiembre de 2024
  • Modelo alternativo: llama-3.1-70b-instruct

Las solicitudes de inferencia enviadas a los modelos llama-2-13b-chat y llama-2-70b-chat mediante la API siguen generando resultados, pero incluyen un mensaje de advertencia sobre la próxima retirada del modelo. A partir del 25 de septiembre de 2024, las solicitudes de API para inferir los modelos no generarán resultados.

Para obtener más información sobre la eliminación y la retirada, consulte Ciclo de vida del modelo de fundamentación.

Semana que finaliza el 23 de agosto de 2024

Añadir grupos de usuarios como colaboradores en proyectos y espacios

22 de agosto de 2024

Ahora puede añadir grupos de usuarios en proyectos y espacios si su cuenta IBM Cloud contiene grupos de acceso IAM. El administrador de su cuenta IBM Cloud puede crear grupos de acceso, que luego estarán disponibles como grupos de usuarios en los proyectos. Para obtener más información, consulte Trabajar con grupos de acceso IAM.

Finalización del soporte de la función de predicción de anomalías para los experimentos de series temporales de AutoAI

19 de agosto de 2024

La función para predecir anomalías (valores atípicos) en AutoAI, actualmente en beta, está obsoleta y se eliminará el 23 de septiembre de 2024.. Los experimentos de series temporales estándar AutoAI siguen siendo totalmente compatibles. Para más detalles, consulte Construcción de un experimento de series temporales.

Semana que finaliza el 16 de agosto de 2024

Los nuevos modelos de incrustación de pizarra de IBM están disponibles en todas las regiones

15 de agosto de 2024

IBM Los modelos de incrustación de pizarra proporcionan a las empresas la capacidad de generar incrustaciones para diversas entradas, como consultas, pasajes o documentos. Los nuevos modelos slate-125m-english-rtrvr-v2 y slate-30m-english-rtrvr-v2 presentan mejoras significativas respecto a sus homólogos v1. Si actualmente utiliza los modelos slate-125m-english-rtrvr y slate-30m-english-rtrvr, cambie a los nuevos modelos v2 Slate para aprovechar las mejoras del modelo.

Para obtener más información, consulte Modelos de bases de encóder compatibles.

Configure los guardarraíles AI para la entrada del usuario y la salida foundation model por separado en Prompt Lab

15 de agosto de 2024

Ajuste la sensibilidad de las barreras de seguridad de la IA que detectan y eliminan contenidos nocivos cuando experimente con avisos de foundation model en Prompt Lab. Puede establecer distintos niveles de sensibilidad de filtrado para la entrada del usuario y el texto de salida del modelo, y puede guardar los ajustes efectivos de las barreras de protección de la IA en plantillas de avisos.

Para obtener más información, consulte Eliminación de contenido dañino.

Semana que finaliza el 9 de agosto de 2024

Seleccionar datos de prueba de proyectos para evaluaciones rápidas de plantillas

8 de agosto de 2024

Al evaluar plantillas de avisos en proyectos, ahora puede elegir activos de proyecto para seleccionar datos de prueba para las evaluaciones. Para obtener más información, consulte Evaluación de plantillas de avisos en proyectos.

El nuevo modelo llama-3-1-70b-instruct ya está disponible en IBM watsonx.ai

7 de agosto de 2024

Ahora puede utilizar los últimos modelos de la fundación Llama 3.1 de Meta en el tamaño de 70 mil millones de parámetros en IBM watsonx.ai.

La serie Llama 3.1 de modelos de fundamentos son modelos lingüísticos de gran tamaño y alto rendimiento con capacidades de razonamiento de primer nivel. Los modelos pueden utilizarse para tareas complejas de razonamiento multilingüe, como la comprensión de textos, la transformación y la generación de código. Admiten inglés, alemán, francés, italiano, portugués, hindi, español y tailandés. Para más detalles, consulte Modelos de cimentación soportados .

Preguntas y respuestas actualizadas con el acelerador RAG

6 de agosto de 2024

El proyecto de ejemplo Q&A con acelerador RAG 1.2 incluye las siguientes mejoras:

  • Obtenga ayuda con la siguiente fase de la implementación de la generación mejorada de recuperación (RAG): recopilación de comentarios de los usuarios y análisis de la calidad de las respuestas. Incluye análisis con detección de temas no supervisada para mostrar los temas más populares, la satisfacción del usuario con las respuestas generadas por tema y las puntuaciones de búsqueda de recuperación por tema.

  • Nuevas plantillas de avisos optimizadas para los modelos de cimientos IBM granite-7b-lab y Meta Llama 3.1.

  • Código optimizado que utiliza utilidades RAG de la biblioteca watsonx.ai Python y filtros de búsqueda vectorial específicos para buscar por producto, zona, etc.

Véase Q&A con el acelerador RAG.

Nota: Si no puede crear el proyecto de ejemplo, pruebe a sustituir el texto del campo de descripción.

Semana que finaliza el 2 de agosto de 2024

El nuevo modelo llama-3-1-8b-instruct ya está disponible en IBM watsonx.ai

1 de agosto de 2024

Ahora puede utilizar los últimos modelos de la fundación Llama 3.1 de Meta en el tamaño de 8.000 millones de parámetros en IBM watsonx.ai.

La serie Llama 3.1 de modelos de fundamentos son modelos lingüísticos de gran tamaño y alto rendimiento con capacidades de razonamiento de primer nivel. Los modelos pueden utilizarse para tareas complejas de razonamiento multilingüe, como la comprensión de textos, la transformación y la generación de código. Admiten inglés, alemán, francés, italiano, portugués, hindi, español y tailandés. Para más detalles, consulte Modelos de cimentación soportados .

Asociar espacios de trabajo con casos de uso de IA

1 de agosto de 2024

El flujo de creación de un caso de uso de IA se modifica para ajustarse más al ciclo de vida de la IA. Una vez definidos los elementos esenciales de un caso de uso de IA, asocie espacios de trabajo para organizar los activos de modo que se ajusten a las fases de una solución de IA. Por ejemplo, asociar un proyecto o espacio para los activos en las fases de Desarrollo o Validación, y asociar un espacio para los activos en la fase de Operación.

Para obtener más información, consulte Asociación de espacios de trabajo con un caso de uso de IA.

Semana que finaliza el 26 de julio de 2024

Anuncio de apoyo a Python 3.11 y R4.3 Marcos y especificaciones de software en tiempo de ejecución. 24.1

25 de julio de 2024

Ahora puede utilizar IBM Runtime 24.1, que incluye los últimos marcos de ciencia de datos basados en Python 3.11 y R 4.3, para ejecutar cuadernos Jupyter y scripts R, y entrenar modelos. A partir del 29 de julio, también podrás realizar despliegues. Actualice sus activos y despliegues para utilizar los marcos de trabajo y las especificaciones de software de IBM Runtime 24.1.

Versión mejorada de Jupyter Notebook el editor ya está disponible

25 de julio de 2024

Si está ejecutando su computadora portátil en entornos basados en Runtime 24.1, puede utilizar estas mejoras para trabajar con su código:

  • Depura automáticamente tu código
  • Genere automáticamente una tabla de contenidos para su cuaderno
  • Alternar números de línea al lado de su código
  • Contraiga el contenido de las celdas y utilice la vista en paralelo para el código y la salida, para mejorar la productividad.

Para más información, ver Editor de cuadernos Jupyter.

Modelos de integración de transformadores de procesador de lenguaje natural compatibles con Runtime 24.1

25 de julio de 2024

En el nuevo tiempo de ejecución 24.1 En este entorno, ahora puede utilizar modelos de incrustación de transformadores de procesamiento de lenguaje natural (NLP) para crear incrustaciones de texto que capturen el significado de una oración o pasaje para ayudar con las tareas de generación de recuperación aumentada. Para más información, ver Incrustaciones.

Nuevos modelos especializados de PNL están disponibles en Runtime 24.1

25 de julio de 2024

Los siguientes modelos nuevos y especializados de PNL ahora se incluyen en Runtime 24.1 ambiente:

Extraiga información detallada de grandes colecciones de textos mediante el resumen de puntos clave

25 de julio de 2024

Ahora puede utilizar el resumen de puntos clave en blocs de notas para extraer información detallada y procesable de grandes colecciones de textos que representan opiniones de personas (como reseñas de productos, respuestas a encuestas o comentarios en redes sociales). El resultado se entrega de forma organizada y jerárquica que es fácil de procesar. Para más información, ver Resumen de puntos clave

Actualización de la versión RStudio

25 de julio de 2024

Para ofrecer una experiencia de usuario coherente en nubes privadas y públicas, el IDE de RStudio para IBM watsonx se actualizará a RStudio Server 2024.04.1 y R 4.3.1 el 29 de julio de 2024. La nueva versión de RStudio ofrece una serie de mejoras y correcciones de seguridad. Consulte las notas de la versión 2024.04.1 RStudio Server para obtener más información. Si bien no se prevén problemas importantes de compatibilidad, los usuarios deben estar al tanto de los cambios de versión de algunos paquetes que se describen en la siguiente tabla.

Cuando inicie el IDE de RStudio desde un proyecto después de la actualización, restablezca el espacio de trabajo RStudio para asegurarse de que la ruta de biblioteca para los paquetes de R 4.3.1 es recogida por el servidor de RStudio.

Una nueva versión del modelo Mistral Large ya está disponible en IBM watsonx.ai en las regiones de Dallas, Frankfurt y Londres

24 julio 2024

Ya puede utilizar el foundation model Mistral Large 2 de Mistral AI en IBM watsonx.ai en los centros de datos de Dallas, Fráncfort y Londres.

El modelo Mistral Large 2 admite 11 idiomas y es competente en comprensión de textos, generación de código y razonamiento avanzado. Para más detalles, consulte Modelos de cimentación soportados .

Nuevo llama-3-405b-instruct El modelo está disponible en la región de Dallas.

23 julio 2024

Ya puede utilizar el foundation model llama-3-405b-instruct de Meta en IBM watsonx.ai en el centro de datos de Dallas.

El modelo llama-3-405B-instruct (v3.1) proporciona a las empresas un modelo de lenguaje de gran tamaño y alto rendimiento con capacidades de razonamiento de primer nivel, y es el mayor modelo de código abierto publicado hasta la fecha. Este foundation model puede utilizarse para tareas complejas de razonamiento multilingüe, como la comprensión de textos, la transformación y la generación de código. Para más detalles, consulte Modelos de cimentación soportados .

El merlinite-7b el modelo está en desuso

22 julio 2024

El foundation model merlinite-7b está obsoleto y se retirará el 22 de agosto de 2024. Revisa las indicaciones que utilicen este foundation model.

  • Fecha de desuso: 22 de julio de 2024
  • Fecha de retirada: 22 de agosto de 2024
  • Modelo alternativo: mixtral-8x7b-instruct-v01

Solicitudes de inferencia que se presentan al merlinite-7b El modelo que utiliza la API continúa generando resultados, pero incluye un mensaje de advertencia sobre el próximo retiro del modelo. A partir del 22 de agosto de 2024, las solicitudes de la API para inferir el modelo no generarán resultados.

Para obtener más información sobre el desuso y la retirada, consulte Ciclo de vida del modelo de fundación.

Semana que finaliza el 12 de julio de 2024

El nuevo modelo Mistral Large Large está disponible en las regiones de Frankfurt y Dallas

9 de julio de 2024

Ahora puede utilizar el ' Mistral Large ' foundation model de Mistral AI en ' IBM ' watsonx.ai en los centros de datos de Frankfurt y Dallas.

Mistral Large proporciona a las empresas un modelo lingüístico de gran tamaño y alto rendimiento con capacidades de razonamiento de primer nivel. Este foundation model puede utilizarse para tareas complejas de razonamiento multilingüe, como la comprensión de textos, la transformación y la generación de código. Para más detalles, consulte Modelos de cimentación soportados .

Semana que finaliza el 5 de julio de 2024

Conectores agrupados por tipo de fuente de datos

05 julio 2024

Cuando crea una conexión, los conectores ahora se agrupan por tipo de fuente de datos para que sean más fáciles de encontrar y seleccionar. Por ejemplo, el tipo de origen de datos MongoDB incluye los conectores IBM Cloud Databases for MongoDB y MongoDB.

Además, un nuevo Recientes La categoría muestra los seis últimos conectores que utilizó para crear una conexión.

Para obtener instrucciones, consulte Agregar conexiones a fuentes de datos en un proyecto .

Añada información contextual a los avisos foundation model en Prompt Lab

4 julio 2024

Ayude a un foundation model a generar respuestas objetivas y actualizadas en casos de uso de generación aumentada por recuperación (RAG) añadiendo información contextual relevante a su consulta como datos de base. Puede cargar rápidamente documentos relevantes o conectarse a una tienda de vectores de terceros con datos relevantes. Cuando se envía una nueva pregunta, la pregunta se utiliza para consultar los datos fundamentados en busca de hechos relevantes. Los principales resultados de la búsqueda y la pregunta original se envían como datos de entrada del modelo para ayudar a " foundation model " a incorporar los hechos relevantes en sus resultados.

Para más información, consulte Basar las indicaciones foundation model en información contextual.

Cambios aCloud Object Storage Planes ligeros

1 de julio de 2024

A partir del 1 de julio de 2024, elCloud Object Storage Plan Lite que se aprovisiona automáticamente cuando te registras para una prueba de 30 días dewatsonx.ai ywatsonx.governance caduca una vez finalizada la prueba. Puedes actualizar tuCloud Object Storage Instancia Lite al plan Estándar con la opción de capa gratuita en cualquier momento durante la prueba de 30 días.

ExistenteCloud Object Storage las instancias de servicio con planes Lite que haya aprovisionado antes del 1 de julio de 2024 se conservarán hasta el 15 de diciembre de 2024. Debes actualizar tuCloud Object Storage servicio a un plan Estándar antes del 15 de diciembre de 2024.

VerCloud Object Storage planes de servicio .

Semana finalizada el 21 de junio de 2024

Crear despliegues desconectados para las solicitudes de gobierno para modelos de lenguaje grande (LLM) externos

21 de junio de 2024

Una plantilla de mensaje independiente es un nuevo activo para evaluar una plantilla de mensaje para un LLM alojado por un proveedor externo, comoGoogle IA de vértice,AzureOpenAI, oAWS Base. La inferencia que genera la salida para la plantilla de solicitud se realiza en el modelo remoto, pero puede evaluar la salida de la plantilla de solicitud utilizando métricas de watsonx.governance . También puede realizar un seguimiento del despliegue desconectado y de la plantilla de solicitud desconectada en un caso de uso de IA como parte de la solución de gobierno.

Para obtener más información, consulte:

Las credenciales de tarea serán necesarias para las solicitudes de trabajo de despliegue

19 de junio de 2024

Para mejorar la seguridad para ejecutar trabajos de despliegue, el usuario que solicita el trabajo deberá proporcionar credenciales de tarea en forma de clave de API. El requisito se aplicará a partir del 15 de agosto de 2024. Consulte Adición de credenciales de tarea para obtener detalles sobre la generación de la clave de API.

Captura de pantalla que muestra cómo crear credenciales de tarea a partir de Perfil y valores

Evalúe los casos de uso para la aplicabilidad de la Ley de IA de la UE

19 de junio de 2024

Al utilizar la nueva evaluación de aplicabilidad de la Ley de IA de la UE, puede completar un cuestionario simple para evaluar sus casos de uso de IA y determinar si están dentro del ámbito de la Ley de IA de la UE. La evaluación también puede ayudarle a identificar la categoría de riesgo a la que se alinean los casos de uso: prohibido, alto, limitado o mínimo. Para obtener más información, consulte Evaluación de aplicabilidad en Componentes de la solución en la consola de gobierno.

Semana finalizada el 7 de junio de 2024

Administre las actividades de riesgo y cumplimiento con la consola de Gobernanza ( IBM OpenPages)

7 de junio de 2024

Watsonx.governance ahora admite la integración opcional con la consola de gobierno. Si ha instalado el módulo Model Risk Governance de IBM OpenPages, puede configurar casos de uso de IA para sincronizar datos de gobernanza con la consola de gobernanza. Desde la consola de Gobernanza, puede crear casos de uso, ver actividades de gobernanza, administrar tareas e implementar flujos de trabajo como parte de sus procesos de gobernanza y cumplimiento. Para obtener más información, consulte:

Semana finalizada el 31 de mayo de 2024

IBM Watson Pipelines es ahora IBM Orchestration Pipelines

30 de mayo de 2024

El nuevo nombre de servicio refleja las prestaciones para orquestar partes del ciclo de vida de IA en flujos repetibles.

Etiquetar proyectos para una recuperación fácil

31 de mayo de 2024

Ahora puede asignar etiquetas a proyectos para que sean más fáciles de agrupar o recuperar. Asigne etiquetas cuando cree un proyecto nuevo o de la lista de todos los proyectos. Filtre la lista de proyectos por código para recuperar un conjunto relacionado de proyectos. Para obtener más información, consulte Creación de un proyecto.

Conectarse a una nueva fuente de datos: Milvus

31 de mayo de 2024

Utilice la conexión Milvus para almacenar y confirmar la exactitud de sus credenciales y detalles de conexión para acceder a un almacén de vectores Milvus. Para más información, consulte la conexión Milvus.

Semana finalizada el 24 de mayo de 2024

Nuevo tutorial y vídeo

23 de mayo de 2024

Pruebe la nueva guía de aprendizaje para ver cómo evaluar un despliegue de modelo utilizando la funcionalidad de Watson OpenScale en un espacio de despliegue.

Guía de aprendizaje Descripción Experiencia para guía de aprendizaje
Evaluar un despliegue en espacios Despliegue un modelo, configure supervisores para el modelo desplegado y evalúe el modelo en un espacio de despliegue. Configure los supervisores y evalúe un modelo en un espacio de despliegue.

El foundation model allam-1-13b-instruct está disponible en la región de Frankfurt

21 de mayo de 2024

El foundation model árabe allam-1-13b-instruct de la Autoridad Saudí de Datos e Inteligencia Artificial y proporcionado por IBM está disponible en watsonx.ai en el centro de datos de Fráncfort. You can use the allam-1-13b-instruct foundation model for general-purpose tasks, including Q&A, summarization, classification, generation, extraction, and translation in Arabic. Para obtener más información, consulte Modelos de base soportados.

Desplegar activos de IA tradicionales y generativos con la biblioteca de cliente watsonx.ai Python

21 de mayo de 2024

La biblioteca de cliente Watson Machine Learning Python ahora forma parte de una biblioteca ampliada, la biblioteca de cliente watsonx.ai Python . Utilice la biblioteca watsonx.ai Python para trabajar con el aprendizaje automático tradicional y los activos de IA generativa. La biblioteca Watson Machine Learning persistirá, pero no se actualizará con nuevas características. Para obtener más información, consulte Biblioteca dePython.

Semana finalizada el 17 de mayo de 2024

Los modelos de inclusión de texto de terceros están disponibles en watsonx.ai

16 de mayo de 2024

Los siguientes modelos de inclusión de texto de terceros están ahora disponibles además de los modelos de IBM Slate para la coincidencia y recuperación de texto mejorada:

  • all-minilm-l12-v2
  • multilingual-e5-large

Envíe frases o pasajes a uno de los modelos de inclusión soportados utilizando la biblioteca watsonx.ai Python o la API REST para convertir texto de entrada en vectores para comparar y recuperar de forma más precisa texto similar.

Para obtener más información sobre estos modelos, consulte Modelos de bases de encóder compatibles.

Para obtener más información sobre la conversión de texto, consulte Generación de inclusión de texto.

Semana finalizada el 10 de mayo de 2024

Los nuevos modelos de cimientos Granite Code están disponibles en la región de Dallas

9 de mayo de 2024

Ahora puede inferir los siguientes modelos de Granite Code foundation proporcionados por IBM desde watsonx.ai:

  • granite-3b-code-instruct
  • granite-8b-code-instruct
  • granite-20b-code-instruct
  • granite-34b-code-instruct

Utilice los nuevos modelos de la base Granite Code para las tareas de codificación programática. Los modelos de base están ajustados en una combinación de datos de instrucción para mejorar las capacidades de seguimiento de instrucción, incluyendo el razonamiento lógico y la resolución de problemas.

Para obtener más información, consulte Modelos de base soportados.

Los modelos base de InstructLab están disponibles en watsonx.ai

7 de mayo de 2024

InstructLab es una iniciativa de código abierto de Red Hat e IBM que proporciona una plataforma para aumentar las capacidades de un foundation model. Los siguientes modelos de fundamentos apoyan los conocimientos y habilidades que se aportan desde InstructLab:

  • granite-7b-lab
  • granite-13-chat-v2
  • granite-20b-multilingual
  • merlinite-7b

Puede explorar las contribuciones de la comunidad de código abierto desde la página de taxonomía foundation model.

Para más información, verInstructLab-compatible modelos de fundacion .

Semana finalizada el 3 de mayo de 2024

Organizar activos de proyecto en carpetas

2 de mayo de 2024

Ahora puede crear carpetas en los proyectos para organizar activos. Un administrador del proyecto debe habilitar las carpetas, y los administradores y editores pueden crearlas y gestionarlas. Las carpetas están en versión beta y todavía no están soportadas para su uso en entornos de producción. Para obtener más información, consulte Organización de activos con carpetas (beta).

La pestaña Activos con carpetas

Semana finalizada el 26 de abril de 2024

IBM watsonx.ai está disponible en la región de Londres

25 de abril de 2023

Watsonx.ai ahora está disponible de forma general en el centro de datos de Londres y Londres se puede seleccionar como la región preferida al registrarse.

  • Los modelos de fundamentos que son totalmente compatibles en Dallas también están disponibles para la inferencia en el centro de datos de Londres desde el Prompt Lab o mediante el uso de la API. Las excepciones son el " mt0-xxl-13b " y el " llama-2-70b-chat " foundation model, que es sustituido por el " llama-3-70b-instruct " " foundation model que ya está disponible.
  • Ajuste los tres modelos de base ajustables desde Tuning Studio o utilizando la API.
  • Se da soporte a los dos modelos de incorporación de IBM y a la API de incorporación.

Para obtener más información, consulte Disponibilidad regional para servicios y características.

Iniciar un chat en Prompt Lab directamente desde la página de inicio

25 de abril de 2023

Ahora puede iniciar una conversación con un foundation model desde la página de inicio de IBM watsonx.ai. Introduzca una pregunta para enviar a un modelo de foundation model en modo chat o haga clic en Abrir Prompt Lab para elegir un foundation model y los parámetros del modelo antes de enviar la entrada del modelo.

Semana finalizada el 19 de abril de 2024

Ya están disponibles los nuevos modelos de base Meta Llama 3

18 de abril de 2024

Los siguientes modelos de base Llama 3 proporcionados por Meta están disponibles para la inferencia desde watsonx.ai:

  • llama-3-8b-instruct
  • llama-3-70b-instruct

Los nuevos modelos de base Llama 3 son modelos de lenguaje afinados de instrucción que pueden dar soporte a diversos casos de uso.

Este último lanzamiento de Llama está entrenado con más fichas y aplica nuevos procedimientos post-entrenamiento. El resultado son modelos de base con mejor comprensión del lenguaje, razonamiento, generación de código y capacidades de seguimiento de instrucción.

Para obtener más información, consulte Modelos de base soportados.

Introducción al soporte de incorporación de IBM para mejorar la coincidencia y recuperación de texto

18 de abril de 2024

Ahora puede utilizar la API de incorporaciones de IBM y los modelos de incorporación de IBM para transformar el texto de entrada en vectores para comparar y recuperar de forma más precisa texto similar.

Están disponibles los siguientes modelos de incorporación de IBM Slate:

  • slate.125m.english.rtrvr
  • slate.30m.english.rtrvr

Para obtener más información, consulte Generación de inclusión de texto.

Para más información sobre precios, consulte los planes de tiempo de ejecución dewatsonx.ai.

IBM watsonx.governance se incluye al registrarse en IBM watsonx.ai

18 de abril de 2024

Si se registra para watsonx.ai en la región de Dallas, watsonx.governance se incluye ahora automáticamente. Consulte Registro en IBM watsonx as a Service.

Evaluar despliegues de aprendizaje automático en espacios

18 de abril de 2024

Configure las evaluaciones de watsonx.governance en los espacios de despliegue para obtener información sobre el rendimiento del modelo de aprendizaje automático. Por ejemplo, evalúe un despliegue para sesgo o supervise un despliegue para desviación. Al configurar evaluaciones, puede analizar los resultados de la evaluación y modelar registros de transacciones directamente en los espacios.

Para obtener más información, consulte Evaluación de despliegues en espacios.

En la región de Tokio existe un foundation model en coreano

18 de abril de 2024

El foundation model llama2-13b-dpo-v7 suministrado por Minds & Company y basado en el foundation model Llama 2 de Meta está disponible en la región de Tokio.

El foundation model llama2-13b-dpo-v7 está especializado en tareas de conversación en coreano e inglés. También puede utilizar el foundation model llama2-13b-dpo-v7 para tareas de propósito general en coreano.

Para obtener más información, consulte Modelos de base soportados.

Existe un foundation model mixtral-8x7b-instruct-v01 para inferencias

18 de abril de 2024

El foundation model mixtral-8x7b-instruct-v01 de Mistral AI está disponible para inferencias en watsonx.ai. El foundation model mixtral-8x7b-instruct-v01 es un modelo generativo preentrenado que utiliza una red dispersa de mezcla de expertos para generar texto de forma más eficiente.

Puede utilizar el modelo mixtral-8x7b-instruct-v01 para tareas de uso general, incluyendo clasificación, resumen, generación de código, traducción de idioma, etc. Para obtener más información, consulte Modelos de base soportados.

El foundation model mixtral-8x7b-instruct-v01-q está obsoleto y se retirará el 20 de junio de 2024. Revisa las indicaciones que utilicen este foundation model.

  • Fecha de desuso: 19 de abril de 2024
  • Fecha de retirada: 20 de junio de 2024
  • Modelo alternativo: mixtral-8x7b-instruct-v01

Las solicitudes de inferencia que se envían al modelo mixtral-8x7b-instruct-v01-q utilizando la API continúan generando salida, pero incluyen un mensaje de aviso sobre la próxima retirada del modelo. A partir del 20 de junio de 2024, las solicitudes de API para inferir los modelos no generarán salida.

Para obtener más información sobre el desuso y la retirada, consulte Ciclo de vida del modelo de fundación.

Se introduce una modificación en el foundation model granite-20b-multilingual

18 de abril de 2024

La última versión de granite-20b-multilingual es 1.1.0. La modificación incluye mejoras que se han obtenido al aplicar una nueva técnica de alineación de IA al modelo de la versión 1.0 . La alineación de IA implica el uso de técnicas de aprendizaje de ajuste y refuerzo para guiar al modelo para devolver salidas que sean lo más útiles, veraces y transparentes posibles.

Para obtener más información sobre este foundation model, consulte Modelos de base compatibles.

Semana finalizada el 12 de abril de 2024

Prompt-tune el foundation model granite-13b-instruct-v2

11 de abril de 2024

Ahora, Tuning Studio permite sintonizar el foundation model base granite-13b-instruct-v2, además de los modelos de base flan-t5-xl-3b y llama-2-13b-chat. Para obtener más información, consulte Ajuste de un foundation model.

Los ajustes de configuración del experimento para ajustar el foundation model granite-13b-instruct-v2 cambian para aplicar los mejores valores predeterminados en función de su tarea. Las directrices de evaluación de ajuste le ayudan a analizar los resultados del experimento y ajustar los valores de configuración del experimento basándose en los resultados. Para obtener más información, consulte Evaluación de los resultados de un experimento de ajuste.

En la región de Fráncfort existe un foundation model en árabe

11 de abril de 2024

El foundation model jais-13b-chat proporcionado por Inception, la Universidad Mohamed bin Zayed de Inteligencia Artificial y Cerebras Systems está disponible en la región de Fráncfort.

El foundation model jais-13b-chat está especializado en tareas de conversación en árabe e inglés. También puede utilizar el " jais-13b-chat " foundation model " para tareas de propósito general en lengua árabe, incluida la traducción de idiomas entre el árabe y el inglés.

Para obtener más información, consulte Modelos de base soportados.

Ver el texto completo de una pregunta en Prompt Lab

11 de abril de 2024

Ahora puede revisar el texto completo del aviso que se enviará al foundation model, lo cual es útil cuando su aviso incluye variables de aviso o cuando está trabajando en modo estructurado o en modo chat.

Para más información, consulte Prompt Lab.

Se han retirado los modelos Granite versión 1 en desuso

11 de abril de 2024

Ahora se han retirado los siguientes modelos de base:

  • granite-13b-chat-v1
  • granite-13b-instruct-v1

Revise las solicitudes que utilicen estos modelos base para utilizar los modelos base IBM Granite v2 . Para obtener más información sobre la eliminación de foundation model, consulte Ciclo de vida de los modelos de Foundation.

Semana finalizada el 5 de abril de 2024

Utilizar tablas dinámicas para visualizar datos agregados en experimentos de Decision Optimization

5 de abril de 2024

Ahora puede utilizar tablas dinámicas para visualizar los datos de entrada y salida agregados en la vista Visualización en los experimentos de Decision Optimization . Para obtener más información, consulte Widgets de visualización en experimentos de Decision Optimization.

Semana finalizada el 15 de marzo de 2024

La API watsonx.ai está disponible

14 de marzo de 2024

La API watsonx.ai está disponible a nivel general. Utilice la API watsonx.ai para trabajar con modelos de base mediante programación. Para más información, consulte la referencia de la API.

La versión de la API es 2024-03-14.

Puede seguir utilizando la biblioteca Python que está disponible para trabajar con modelos de base desde un cuaderno. Para obtener más información, consulte Biblioteca dePython.

Los nuevos modelos de fundación están disponibles en Dallas, Frankfurt y Tokio

14 de marzo de 2024

Los siguientes modelos base están ahora disponibles para la inferencia desde watsonx.ai:

  • granite-20b-multilingual: Un foundation model la familia IBM Granite que puede utilizar para diversas tareas generativas en inglés, alemán, español, francés y portugués.

  • codellama-34b-instruct-hf: modelo de generación de código programático de Code Llama que se basa en Llama 2 de Meta. Puede utilizar codellama-34b-instruct-hf para crear solicitudes para generar código basado en entradas de lenguaje natural y para completar y depurar código.

Para obtener más información, consulte Modelos de base soportados.

Semana finalizada el 8 de marzo de 2024

Tuning Studio está disponible en Frankfurt

7 de marzo de 2024

Ahora Tuning Studio está disponible para los usuarios de planes de pago en la región de Frankfurt. Tuning Studio le ayuda a guiar un foundation model para que devuelva resultados útiles. Puede sintonizar los modelos de base flan-t5-xl-3b y llama-2-70b-chat cuando utilice el Tuning Studio de Fráncfort.

Para obtener más información, consulte Tuning Studio.

Puesta a punto del foundation model llama-2-13b-chat en la región de Tokio

7 de marzo de 2024

El Tuning Studio permite ahora sintonizar el foundation model llama-2-13b-chat en la región de Tokio. En primer lugar, diseñe avisos para el modelo llama-2-70b-chat más grande en el Prompt Lab para encontrar entradas de avisos eficaces para su caso de uso. A continuación, ajuste la versión más pequeña del modelo Llama 2 para generar salidas comparables, si no mejores, con solicitudes de disparo cero.

Para obtener más información, consulte Tuning Studio.

Precio más bajo para el modelo Mixtral8x7b

5 de marzo de 2024

El ' foundation model ' mixtral-8x7b-instruct-v01-q se reclasifica de Clase 2: Unidad ' $0.0018/Resource a Clase 1: Unidad ' $0.0006/Resource, lo que hace más rentable ejecutar tareas de inferencia con este modelo. La reclasificación se aplica a todas las regiones en las que mixtral-8x7b-instruct-v01-q está disponible.

Para obtener más información, consulte Modelos de base soportados.

Para más información sobre precios, consulte los planes de tiempo de ejecución dewatsonx.ai.

El atlas de riesgo de IA se actualiza y mejora

5 de marzo de 2024

Ahora puede encontrar el siguiente contenido nuevo y mejorado en el atlas de riesgos de IA:

  • Una nueva categoría de riesgos no técnicos que abarca la gobernanza, la conformidad jurídica y los riesgos de impacto social
  • Nuevos ejemplos de riesgos
  • Definiciones más claras de riesgos

Consulte AI risk atlas.

Nuevos casos de uso para watsonx

5 de marzo de 2024

Los casos de uso de watsonx están disponibles para ayudarle a ver cómo puede utilizar nuestros productos, servicios y herramientas:

  • Caso de uso de watsonx.ai : este caso de uso describe cómo puede transformar sus procesos de negocio con soluciones basadas en IA integrando machine learning e IA generativa en su infraestructura operativa.
  • Caso de uso de watsonx.governance : este caso de uso describe cómo puede definir flujos de trabajo de IA responsables, transparentes y explicables con un sistema integrado para realizar el seguimiento, la supervisión y volver a entrenar modelos de IA.

Consulte Casos de uso dewatsonx.

Semana finalizada el 1 de marzo de 2024

El modo chat está disponible en Prompt Lab

29 de febrero de 2024

El modo chat de Prompt Lab es una sencilla interfaz de chat que facilita la experimentación con modelos de cimentación. La modalidad de conversación aumenta las modalidades estructuradas y de formato libre ya disponibles que son útiles cuando se crean solicitudes de pocas o muchas para tareas como la extracción, el resumen y la clasificación. Utilice el modo Chat para simular interacciones conversacionales o de respuesta a preguntas para casos de uso de chatbot y asistente virtual.

Para más información, consulte Prompt Lab.

Hay disponible un modelo de Granite en japonés en la región de Tokio

29 de febrero de 2024

The granite-8b-japanese foundation model provided by IBM is available from watsonx.ai in the Tokyo region. El foundation model granite-8b-japanese se basa en el modelo IBM Granite Instruct y está entrenado para comprender y generar texto en japonés.

Puede utilizar el foundation model granite-8b-japanese para tareas de propósito general en japonés, como la clasificación, la extracción, la respuesta a preguntas y la traducción entre japonés e inglés.

Para obtener más información, consulte Modelos de base soportados.

Semana finalizada el 23 de febrero de 2024

Precio más bajo para los modelos Granite-13b

21 de febrero de 2024

Los modelos Granite-13b se reclasifican de Clase 2: $0.0018/Resource Unidad a Clase 1: $0.0006/Resource Unidad, lo que hace que sea más rentable ejecutar tareas de inferencia en estos modelos. La reclasificación se aplica a los modelos siguientes en todas las regiones en las que están disponibles:

  • granite-13b-chat-v2
  • granite-13b-chat-v1
  • granite-13b-instruct-v2
  • granite-13b-instruct-v1

Para obtener más información sobre estos modelos, consulte Modelos de base soportados.

Para más información sobre precios, consulte los planes de tiempo de ejecución dewatsonx.ai.

Semana finalizada el 16 de febrero de 2024

Nuevo acceso directo para empezar a trabajar en tareas comunes

15 de febrero de 2024

Ahora puede iniciar una tarea común en el proyecto pulsando un mosaico en la sección Empezar a trabajar de la pestaña Visión general . Utilice estos accesos directos para empezar a añadir colaboradores y datos, y para experimentar y crear modelos. Pulse Ver todo para ir a una selección de herramientas.

Nuevo foundation model mixtral-8x7b-instruct-v01-q para tareas generales

15 de febrero de 2024

El foundation model mixtral-8x7b-instruct-v01-q proporcionado por Mistral AI y cuantificado por IBM está disponible en watsonx.ai. El foundation model mixtral-8x7b-instruct-v01-q es una versión cuantizada del foundation model Mixtral 8x7B Instruct de Mistral AI.

Puede utilizar este nuevo modelo para tareas de uso general, incluyendo clasificación, resumen, generación de código, traducción de idioma, etc. Para obtener más información, consulte Modelos de base soportados.

Los modelos siguientes están en desuso y se retirarán pronto. Revise cualquier pregunta que utilice estos modelos básicos para utilizar otro " foundation model", como por ejemplo " mixtral-8x7b-instruct-v01-q.

Modelos de fundación en desuso
Modelo en desuso Fecha de desuso Fecha de retirada Modelo alternativo
gpt-neox-20b 15 de febrero de 2024 21 de marzo de 2024 mixtral-8x7b-instruct-v01-q
mpt-7b-instruct2 15 de febrero de 2024 21 de marzo de 2024 mixtral-8x7b-instruct-v01-q
starcoder-15.5b 15 de febrero de 2024 11 de abril de 2024 mixtral-8x7b-instruct-v01-q

Las solicitudes de inferencia que se envían a estos modelos utilizando la API siguen generando salida, pero incluyen un mensaje de aviso sobre la próxima retirada del modelo. Cuando se alcanza la fecha de retirada, las solicitudes de API para inferir los modelos no generarán salida.

Para obtener más información sobre el desuso y la retirada, consulte Ciclo de vida del modelo de fundación.

Existe una modificación del foundation model granite-13b-chat-v2

15 de febrero de 2024

La versión más reciente de granite-13b-chat-v2 es 2.1.0. La modificación incluye mejoras que se han obtenido aplicando una nueva técnica de alineación de IA al modelo de la versión 2.0.0 . La alineación de IA implica el uso de técnicas de aprendizaje de ajuste y refuerzo para guiar al modelo para devolver salidas que sean lo más útiles, veraces y transparentes posibles. Para más información, consulte la sección ¿Qué es la alineación AI? publicación de blog de IBM Research.

Nuevo tutorial y vídeo de watsonx

15 de febrero de 2024

Pruebe la nueva guía de aprendizaje de watsonx.governance para ayudarle a aprender a evaluar un modelo de aprendizaje automático para obtener equidad, precisión, desviación y explicabilidad con Watson OpenScale.

Nuevas guías de aprendizaje
Guía de aprendizaje Descripción Experiencia para guía de aprendizaje
Evaluar un modelo de aprendizaje automático Despliegue un modelo, configure supervisores para el modelo desplegado y evalúe el modelo. Ejecute un cuaderno para configurar los modelos y utilice Watson OpenScale para evaluar.

Semana finalizada el 09 de febrero de 2024

Documentación de Decision Optimization más orientada a tareas

9 de febrero de 2024

Ahora puede encontrar más fácilmente la información correcta para crear y configurar experimentos de Decision Optimization . Consulte Experimentos deDecision Optimization y sus subsecciones.

La conexión IBM Cloud Data Engine está obsoleta

8 de febrero de 2022

La conexión IBM Cloud Data Engine está obsoleta y dejará de utilizarse en una futura versión. Consulte las fechas y los detalles importantes en la sección "Eliminación del motor de datos ".

Nuevo entorno de Spark 3.4 para ejecutar trabajos de flujo de Data Refinery

9 de febrero de 2024

Cuando selecciona un entorno para un trabajo de flujo de Data Refinery , ahora puede seleccionar Spark predeterminado 3.4 & R 4.2, que incluye mejoras de Spark.

Entornos de Spark de Data Refinery

El entorno Spark predeterminado 3.3 & R 4.2 está en desuso y se eliminará en una actualización futura.

Actualice los trabajos de flujo de Data Refinery para utilizar el nuevo entorno Spark predeterminado 3.4 & R 4.2 . Para obtener detalles, consulte Calcular opciones de recursos para Data Refinery en proyectos.

Semana finalizada el 2 de febrero de 2024

Colección de ejemplos renombrada como concentrador de recursos

2 de febrero de 2024

La colección de ejemplos se ha renombrado como concentrador de recursos para reflejar mejor el contenido. El concentrador de recursos contiene modelos de base y proyectos de ejemplo, conjuntos de datos y cuadernos. Consulte Concentrador de recursos.

IBM Cloud Databases for DataStax se ha interrumpido

2 de febrero de 2024

Se ha eliminado la conexión IBM Cloud Databases for DataStax de IBM watsonx.ai.

La conexión de Dremio requiere actualizaciones

2 de febrero de 2024

Anteriormente, la conexión Dremio utilizaba un controlador JDBC . Ahora la conexión utiliza un conductor basado en Arrow Flight.

Importante: actualice las propiedades de conexión. Se aplican cambios diferentes a una conexión para una instancia de Dremio Software (local) o una instancia de Dremio Cloud.

Dremio Software: actualice el número de puerto.

El nuevo número de puerto predeterminado que utiliza Flight es 32010. Puede confirmar el número de puerto en el archivo dremio.conf . Consulte Configuración a través de dremio.conf para obtener más información.

Además, Dremio ya no admite conexiones con IBM Cloud Satellite.

Dremio Cloud: actualice el método de autenticación y el nombre de host.

  1. Inicie sesión en Dremio y genere una señal de acceso personal. Para obtener instrucciones, consulte Fichas de acceso personal.
  2. En IBM watsonx en el formulario Crear conexión: Dremio , cambie el tipo de autenticación a Señal de acceso personal y añada la información de señal. (La autenticación de Nombre de usuario y contraseña ya no se puede utilizar para conectarse a una instancia de Dremio Cloud.)
  3. Seleccione El puerto está habilitado para SSL.

Si utiliza el nombre de host predeterminado para una instancia de Dremio Cloud, debe cambiarlo:

  • Cambie sql.dremio.cloud por data.dremio.cloud
  • Cambie sql.eu.dremio.cloud por data.eu.dremio.cloud

Prompt-tune el foundation model llama-2-13b-chat

1 de febrero de 2024

El Tuning Studio permite ahora sintonizar el foundation model llama-2-13b-chat. En primer lugar, diseñe avisos para el modelo llama-2-70b-chat más grande en el Prompt Lab para encontrar entradas de avisos eficaces para su caso de uso. A continuación, ajuste la versión más pequeña del modelo Llama 2 para generar salidas comparables, si no mejores, con solicitudes de disparo cero. El llama-2-13b-model está disponible para su rápida puesta a punto en la región de Dallas. Para obtener más información, consulte Tuning Studio.

Semana finalizada el 26 de enero de 2024

AutoAI da soporte a datos ordenados para todos los experimentos

25 de enero de 2024

Ahora puede especificar datos ordenados para todos los experimentos de AutoAI en lugar de solo experimentos de series temporales. Especifique si los datos de entrenamiento se ordenan secuencialmente, según un índice de fila. Cuando los datos de entrada son secuenciales, el rendimiento del modelo se evalúa en los registros más recientes en lugar de en un muestreo aleatorio, y los datos reservados utilizan los últimos n registros del conjunto en lugar de n registros aleatorios. Los datos secuenciales son necesarios para los experimentos de series temporales, pero son opcionales para los experimentos de clasificación y regresión.

Preguntas y respuestas con acelerador RAG

26 de enero de 2024

Ahora puede implementar una solución de pregunta y respuesta que utilice la generación aumentada de recuperación importando un proyecto de ejemplo. El proyecto de ejemplo contiene cuadernos y otros activos que convierten documentos de HTML o PDF en texto sin formato, importan segmentos de documento en un índice de vector Elasticsearch , despliegan una función Python que consulta el índice de vector, recuperan los N primeros resultados, ejecutan la inferencia LLM para generar una respuesta a la pregunta y comprueban si hay alucinaciones en la respuesta.

Pruebe Q & A con acelerador RAG.

Establecer en tema oscuro

25 de enero de 2024

Ahora puede establecer la interfaz de usuario de watsonx en tema oscuro. Pulse su avatar y seleccione Perfil y valores para abrir su perfil de cuenta. A continuación, active el conmutador de tema oscuro. El tema oscuro no está soportado en RStudio y Jupyter notebooks. Para obtener información sobre la gestión del perfil, consulte Gestión de los valores.

IBM watsonx.ai está disponible en la región de Tokio

25 de enero de 2024

Watsonx.ai ahora está disponible de forma general en el centro de datos de Tokio y se puede seleccionar como la región preferida al registrarse. El Prompt Lab y la inferencia de foundation model son compatibles en la región de Tokio para estos modelos:

  • elyza-japanese-llama-2-7b-instruct
  • flan-t5-xl-3b
  • flan-t5-xxl-11b
  • flan-ul2-20b
  • granite-13b-chat-v2
  • granite-13b-instruct-v2
  • llama-2-70b-chat
  • llama-2-13b-chat

También disponible en la región de Tokio:

  • Sintonización del foundation model flan-t5-xl-3b con Tuning Studio
  • Generación de datos tabulares con el Synthetic Data Generator para utilizar para modelos de entrenamiento

Para obtener más información sobre los modelos soportados, consulte Modelos base soportados disponibles con watsonx.ai.

Un modelo Llama 2 en japonés está disponible en la región de Tokio

25 de enero de 2024

El foundation model elyza-japanese-llama-2-7b-instruct proporcionado por ELYZA, Inc está disponible en las instancias watsonx.ai del centro de datos de Tokio. El modelo elyza-japanese-llama-2-7b-instruct es una versión del modelo Llama 2 de Meta entrenada para comprender y generar texto en japonés.

Puede utilizar este nuevo modelo para tareas de finalidad general. Funciona bien para la clasificación y extracción en japonés y para la traducción entre japonés e inglés.

Semana finalizada el 12 de enero de 2024

Soporte para IBM Runtime 22.2 obsoleto en watsonx.ai Runtime (anteriormente Watson Machine Learning)

11 de enero de 2024

IBM Runtime 22.2 está en desuso y se eliminará el 11 de abril de 2024. A partir del 7 de marzo de 2024, no puede crear cuadernos o entornos personalizados utilizando los tiempos de ejecución 22.2 . Además, no puede entrenar modelos nuevos con especificaciones de software basadas en el tiempo de ejecución 22.2 . Actualice los activos y despliegues para utilizar IBM Runtime 23.1 antes del 7 de marzo de 2024.

IBM Granite v1 están en desuso

11 de enero de 2024

Los modelos base IBM Granite de 13.000 millones de parámetros v1 están en desuso y se retirarán el 11 de abril de 2024. Si está utilizando la versión 1 de los modelos, cambie a la versión 2 de los modelos en su lugar.

Modelos base de IBM en desuso
Modelo en desuso Fecha de desuso Fecha de retirada Modelo alternativo
granite-13b-chat-v1 11 de enero de 2024 11 de abril de 2024 granite-13b-chat-v2
granite-13b-instruct-v1 11 de enero de 2024 11 de abril de 2024 granite-13b-instruct-v2

Las solicitudes de inferencia que se envían a los modelos de la versión 1 utilizando la API siguen generando salida, pero incluyen un mensaje de aviso sobre la próxima retirada del modelo. A partir del 11 de abril de 2024, las solicitudes de API para inferir los modelos no generarán salida.

Para obtener más información sobre los modelos base de IBM Granite , consulte Modelos base creados por IBM. Para obtener más información sobre el desuso y la retirada, consulte Ciclo de vida del modelo de fundación.

Semana finalizada el 15 de diciembre de 2023

Crear claves de API de usuario para trabajos y otras operaciones

15 de diciembre de 2023

Determinadas operaciones de tiempo de ejecución en IBM watsonx, como trabajos y entrenamiento de modelos, requieren una clave de API como credencial para una autorización segura. Con las claves de API de usuario, ahora puede generar y rotar una clave de API directamente en IBM watsonx según sea necesario para asegurarse de que las operaciones se ejecutan sin problemas. Las claves de API se gestionan en IBM Cloud, pero puede crearlas y rotarlas convenientemente en IBM watsonx.

La clave de API de usuario es específica de la cuenta y se crea a partir de Perfil y valores bajo su perfil de cuenta.

Para obtener más información, consulte Gestión de la clave de API de usuario.

Nuevas guías de aprendizaje y vídeos de watsonx

15 de diciembre de 2023

Pruebe los nuevos tutoriales ' watsonx.governance y ' watsonx.ai ' para aprender a afinar un ' foundation model, y evaluar y realizar el seguimiento de una plantilla de avisos.

Nuevas guías de aprendizaje
Guía de aprendizaje Descripción Experiencia para guía de aprendizaje
Afinar un foundation model Ajuste un foundation model para mejorar su rendimiento. Utilice Tuning Studio para ajustar un modelo sin codificación.
Evaluar y realizar el seguimiento de una plantilla de solicitud Evaluar una plantilla de avisos para medir el rendimiento del foundation model y realizar un seguimiento de la plantilla de avisos a lo largo de su ciclo de vida. Utilice la herramienta de evaluación y un caso de uso de IA para realizar un seguimiento de la plantilla de solicitud.

Ver un vídeo Encuentre más vídeos de watsonx.governance y watsonx.ai en Videoteca.

Nueva caducidad de sesión de inicio de sesión y cierre de sesión debido a inactividad

15 de diciembre de 2023

Ahora ha finalizado la sesión de IBM Cloud debido a la caducidad de la sesión. La sesión puede caducar debido a la caducidad de la sesión de inicio de sesión (24 horas de forma predeterminada) o a la inactividad (2 horas de forma predeterminada). Puede cambiar las duraciones predeterminadas en los valores de Acceso (IAM) en IBM Cloud. Para obtener más información, consulte Establecer la caducidad de la sesión de inicio de sesión.

IBM Cloud Databases for DataStax está obsoleto

15 de diciembre de 2023

El conector IBM Cloud Databases for DataStax está obsoleto y dejará de utilizarse en una futura versión.

Semana finalizada el 08 de diciembre de 2023

Tuning Studio está disponible

7 de diciembre de 2023

El Tuning Studio le ayuda a guiar un foundation model para que devuelva resultados útiles. Con Tuning Studio Studio, puede ajustar puntualmente el foundation model flan-t5-xl-3b para mejorar su rendimiento en tareas de procesamiento del lenguaje natural como la clasificación, el resumen y la generación. El ajuste rápido ayuda a los modelos de base más pequeños y más eficientes computacionalmente a obtener resultados comparables a los modelos más grandes de la misma familia de modelos. Al ajustar y desplegar una versión ajustada de un modelo más pequeño, puede reducir los costes de inferencia a largo plazo. Tuning Studio está disponible para los usuarios de planes de pago en la región de Dallas.

Nuevas propiedades de cliente en conexiones Db2 para la gestión de carga de trabajo

8 de diciembre de 2023

Ahora puede especificar propiedades en los campos siguientes para fines de supervisión: Nombre de aplicación, Información de contabilidad de cliente, Nombre de host de clientey Usuario de cliente. Estos campos son opcionales y están disponibles para las conexiones siguientes:

Semana finalizada el 1 de diciembre de 2023

Watsonx.governance está disponible.

1 de diciembre de 2023

Watsonx.governance amplía las capacidades de gobernanza de Watson OpenScale para evaluar los activos de foundation model, así como los activos de aprendizaje automático. Por ejemplo, evaluar las plantillas de avisos de foundation model en función de dimensiones como la precisión o para detectar la presencia de expresiones de odio e insultantes. También puede definir casos de uso de IA para abordar problemas empresariales y, a continuación, realizar un seguimiento de plantillas de solicitud o datos de modelo en hojas de datos para dar soporte a los objetivos de conformidad y gobierno. Los planes y funciones Watsonx.governance sólo están disponibles en la región de Dallas.

Explore con el atlas de riesgos de IA

1 de diciembre de 2023

Ahora puede explorar algunos de los riesgos de trabajar con IA generativa, modelos de base y modelos de aprendizaje automático. Lea acerca de los riesgos para la privacidad, la equidad, la explicabilidad, la alineación de valores y otras áreas. Consulte AI risk atlas.

Hay disponibles nuevas versiones de los modelos IBM Granite

30 de noviembre de 2023

Las últimas versiones de los modelos de Granite incluyen estos cambios:

granito-13b-chat-v2: Ajuste para mejorar las tareas de respuesta a preguntas, resumen y generativas. Con un contexto suficiente, genera respuestas con las mejoras siguientes respecto a la versión anterior:

  • Genera respuestas más largas y de mayor calidad con un tono profesional
  • Da soporte a respuestas de cadena de pensamiento
  • Reconoce las menciones de las personas y puede detectar mejor el tono y el sentimiento
  • Maneja los espacios en blanco en la entrada de forma más ordenada

Debido a los amplios cambios, pruebe y revise las solicitudes diseñadas para v1 antes de cambiar a la versión más reciente.

granito-13b-instruct-v2: Ajuste específico para tareas de clasificación, extracción y resumen. La versión más reciente difiere de la versión anterior de las siguientes maneras:

  • Devuelve respuestas más coherentes de longitudes variadas y con un vocabulario diverso
  • Reconoce menciones de personas y puede resumir entradas más largas
  • Maneja los espacios en blanco en la entrada de forma más ordenada

Es probable que las solicitudes diseñadas que funcionan bien con v1 también funcionen bien con v2 , pero asegúrese de probar antes de cambiar de modelo.

Las últimas versiones de los modelos Granite se clasifican como modelos de Clase 2.

Algunos modelos de base ya están disponibles a un coste menor

30 de noviembre de 2023

Algunos modelos de fundación populares fueron recategorizados en clases de facturación de menor costo.

Los siguientes modelos de base han cambiado de Clase 3 a Clase 2:

  • granite-13b-chat-v1
  • granite-13b-instruct-v1
  • llama-2-70b

El siguiente foundation model pasó de la Clase 2 a la Clase 1:

  • llama-2-13b

Para obtener más información sobre las clases de facturación, consulte los planes de tiempo de ejecución dewatsonx.ai.

Hay disponible un nuevo cuaderno de ejemplo: Introducción a RAG con Discovery

30 de noviembre de 2023

Utilice el cuaderno Introducción a RAG con descubrimiento para aprender a aplicar el patrón de generación de recuperación aumentada en IBM watsonx.ai con IBM Watson Discovery como componente de búsqueda. Para más información, consulte Introducción al GAR con Discovery.

Comprender las diferencias de características entre watsonx como servicio y despliegues de software

30 de noviembre de 2023

Ahora puede comparar las características y la implementación del software IBM watsonx as a Service y watsonx en Cloud Pak for Data , versión 4.8. Consulte Diferencias de características entre despliegues de watsonx.

Cambiar la forma en que se manejan las secuencias de detención

30 de noviembre de 2023

Cuando se especifica una secuencia de parada, como un carácter de nueva línea, en el Prompt Lab, el texto de salida del modelo termina después de la primera aparición de la secuencia de parada. La salida del modelo se detiene incluso si la aparición se produce al principio de la salida. Anteriormente, la secuencia de detención se ignoraba si se especificaba al principio de la salida del modelo.

Semana finalizada el 10 de noviembre de 2023

Hay disponible una versión más pequeña del modelo de conversación Llama-2

9 de noviembre de 2023

Ahora puede elegir entre utilizar las versiones 13b o 70b del modelo de conversación Llama-2 . Tenga en cuenta estos factores cuando elija:

  • Coste
  • Rendimiento

La versión 13b es un modelo de Clase 2, lo que significa que es más barato de utilizar que la versión 70b . Para comparar los valores de referencia y otros factores, como las emisiones de carbono de cada tamaño de modelo, consulte la ficha Modelo.

Utilizar variables de solicitud para crear solicitudes reutilizables

Añada flexibilidad a las solicitudes con variables de solicitud. Las variables de solicitud funcionan como marcadores en el texto estático de la entrada de solicitud que puede sustituir por texto dinámicamente en el momento de la inferencia. Puede guardar los nombres de variable de solicitud y los valores predeterminados en un activo de plantilla de solicitud para reutilizarlos o compartirlos con los colaboradores del proyecto. Para obtener más información, consulte Creación de solicitudes reutilizables.

Anuncio de soporte para las infraestructuras y especificaciones de software de Python 3.10 y R4.2 en el tiempo de ejecución 23.1

9 de noviembre de 2023

Ahora puede utilizar IBM Runtime 23.1, que incluye los últimos marcos de ciencia de datos basados en Python 3.10 y R 4.2, para ejecutar cuadernos Jupyter y scripts R, entrenar modelos y ejecutar despliegues. Actualice sus activos y despliegues para utilizar los marcos de trabajo y las especificaciones de software de IBM Runtime 23.1.

Utilice Apache Spark 3.4 para ejecutar cuadernos y scripts

Spark 3.4 con Python 3.10 y R 4.2 es ahora compatible como tiempo de ejecución para cuadernos y scripts RStudio en proyectos. For details on available notebook environments, see Opciones de recursos de cálculo para el editor de cuadernos en proyectos and Calcular las opciones de recursos para " RStudio " en los proyectos.

Semana finalizada el 27 de octubre de 2023

Utilice un conector de Satellite para conectarse a una base de datos local

26 de octubre de 2023

Utilice el nuevo conector Satellite para conectarse a una base de datos a la que no se puede acceder a través de Internet (por ejemplo, detrás de un cortafuegos). Satellite Connector utiliza una comunicación ligera basada en Dockerque crea comunicaciones seguras y auditables desde el entorno local a IBM Cloud. Para obtener instrucciones, consulte Conexión a datos detrás de un cortafuegos.

Secure Gateway está en desuso

26 de octubre de 2023

IBM Cloud ha anunciado el desuso de Secure Gateway. Para más información, consulte el Panorama general y la cronología.

Si actualmente tiene conexiones configuradas con Secure Gateway, planifique utilizar un método de comunicación alternativo. En IBM watsonx, puede utilizar el conector Satellite como sustitución de Secure Gateway. Consulte Conexión a datos detrás de un cortafuegos.

Semana finalizada el 20 de octubre de 2023

Tamaño máximo de señal aumentado

16 de octubre de 2023

Los límites aplicados anteriormente al número máximo de tokens permitidos en la salida de los modelos de base se eliminan de los planes de pago. Puede utilizar valores máximos de token más grandes durante la ingeniería de prompt tanto desde el Prompt Lab como desde la librería Python. El número exacto de señales permitidas difiere según el modelo. Para obtener más información sobre los límites de señal para planes de pago y Lite, consulte Modelos de base soportados.

Semana finalizada el 13 de octubre de 2023

Nuevos cuadernos en Ejemplos

12 de octubre de 2023

Hay disponibles dos nuevos cuadernos que utilizan una base de datos de vector de Elasticsearch en la fase de recuperación del patrón de generación de recuperación aumentada. Los cuadernos muestran cómo encontrar coincidencias basadas en la similitud semántica entre los documentos indexados y el texto de consulta que se envía desde un usuario.

Soluciones intermedias en Decision Optimization

12 de octubre de 2023

Ahora puede elegir ver un ejemplo de soluciones intermedias mientras se ejecuta un experimento de Decision Optimization . Esto puede ser útil para depurar o para ver cómo progresa el solucionador. Para los modelos grandes que tardan más en resolverse, con soluciones intermedias ahora puede identificar de forma rápida y sencilla cualquier problema potencial con la solución, sin tener que esperar a que la solución se complete. Visualización gráfica que muestra estadísticas de ejecución con soluciones intermedias. Puede configurar el parámetro Entrega de soluciones intermedias en la Configuración de ejecución y seleccionar una frecuencia para estas soluciones. Para obtener más información, consulte Soluciones intermedias y Parámetros de configuración de ejecución.

Nuevo diálogo de modelo guardado de Decision Optimization

Al guardar un modelo para el despliegue desde la interfaz de usuario de Decision Optimization , ahora puede revisar el esquema de entrada y salida y seleccionar más fácilmente las tablas que desea incluir. También puede añadir, modificar o suprimir parámetros de configuración de ejecución, revisar el entorno y los archivos de modelo utilizados. Todos estos elementos se muestran en el mismo diálogo Guardar como modelo para despliegue . Para obtener más información, consulte Despliegue de un modelo de Decision Optimization utilizando la interfaz de usuario.

Semana finalizada el 6 de octubre de 2023

Modelos de base adicionales en Frankfurt

5 de octubre de 2023

Todos los modelos de base que están disponibles en el centro de datos de Dallas ahora también están disponibles en el centro de datos de Frankfurt. El Prompt Lab watsonx.ai y la inferencia de foundation model ya son compatibles con estos modelos en la región de Fráncfort:

  • granite-13b-chat-v1
  • granite-13b-instruct-v1
  • llama-2-70b-chat
  • gpt-neox-20b
  • mt0-xxl-13b
  • starcoder-15.5b

Para obtener más información sobre estos modelos, consulte Modelos de base soportados disponibles con watsonx.ai.

Para más información sobre precios, consulte los planes de tiempo de ejecución dewatsonx.ai.

Controlar la colocación de una nueva columna en la operación Concatenar (Data Refinery)

6 de octubre de 2023

Ahora tiene dos opciones para especificar la posición de la nueva columna que resulta de la operación Concatenar : como la columna situada más a la derecha en el conjunto de datos o junto a la columna original.

Concatenar posición de columna de operación

Anteriormente, la nueva columna se colocaba al principio del conjunto de datos.

Importante:

Edite la operación Concatenar en cualquiera de los flujos de Data Refinery existentes para especificar la nueva posición de columna. De lo contrario, el flujo podría fallar.

Para obtener información sobre las operaciones de Data Refinery , consulte Operaciones de la GUI en Data Refinery.

Semana finalizada el 29 de septiembre de 2023

IBM Granite modelos base para la generación de lenguaje natural

28 de septiembre de 2023

Los dos primeros modelos de la familia Granite de los modelos base de IBM están ahora disponibles en la región de Dallas:

  • grite-13b-chat-v1: modelo de uso general optimizado para casos de uso de diálogo
  • grite-13b-instruct-v1: Modelo de uso general optimizado para responder a preguntas

Ambos modelos son modelos de decodificador 13B-parameter que pueden predecir y generar eficazmente el idioma en inglés. Ellos, como todos los modelos de la familia Granite , están diseñados para los negocios. Los modelos de Granite están preentrenados en varios terabytes de datos de fuentes de lenguaje general, como Internet público, y fuentes de datos específicas de la industria de los campos académico, científico, legal y financiero.

Pruébelos hoy mismo en el Prompt Lab o ejecute un cuaderno de muestra que utilice el modelo granite-13b-instruct-v1 para el análisis de sentimientos.

Lea la entrada de blog Building AI for business: IBM's Granite foundation models para obtener más información.

Semana finalizada el 22 de septiembre de 2023

Modelos Java de Decision Optimization

20 de septiembre de 2023

Los modelos Java de Decision Optimization ahora se pueden implementar en watsonx.ai Runtime (anteriormente Watson Machine Learning). Utilizando la API de trabajador de Java, puede crear modelos de optimización con las API de Java de OPL, CPLEX y CP Optimizer. Ahora puede crear fácilmente sus modelos localmente, empaquetarlos y desplegarlos en ' watsonx.ai ' Runtime utilizando el boilerplate que se proporciona en el ' Trabajador Java " GitHub público . Para obtener más información, consulte Despliegue de modelos Java para la Decision Optimization.

Nuevos cuadernos en el concentrador de recursos

21 de septiembre de 2023

Puede utilizar los siguientes cuadernos nuevos en el concentrador de recursos:

Semana finalizada el 15 de septiembre de 2023

Guías de aprendizaje de inicio rápido de datos sintéticos y de ingeniería de solicitud

14 de septiembre de 2023

Pruebe las nuevas guías de aprendizaje para ayudarle a aprender a:

  • Estimular a los modelos de cimentación: Suele haber varias formas de incitar a un foundation model cimentación para obtener un resultado satisfactorio. En el Prompt Lab, puede experimentar con diferentes modelos de fundamentos, explorar ejemplos de instrucciones, así como guardar y compartir sus mejores instrucciones. Una forma de mejorar la precisión de la salida generada es proporcionar los hechos necesarios como contexto en el texto de solicitud utilizando el patrón de generación de recuperación aumentada.
  • Generar datos sintéticos: puede generar datos tabulares sintéticos en watsonx.ai. La ventaja de los datos sintéticos es que puede obtener los datos bajo demanda y, a continuación, personalizarlos para que se ajusten a su caso de uso y producirlos en grandes cantidades.
Nuevas guías de aprendizaje
Guía de aprendizaje Descripción Experiencia para guía de aprendizaje
Solicitar un " foundation model " utilizando un " Prompt Lab Experimente con la solicitud de diferentes modelos de base, explore las solicitudes de ejemplo y guarde y comparta sus mejores solicitudes. Prompt a model using Prompt Lab Lab without coding.
Promover un foundation model con el patrón de generación de recuperación aumentada Promover un foundation model aprovechando la información de una base de conocimientos. Utilice el patrón de generación de recuperación aumentada en un cuaderno Jupyter que utilice el código Python .
Generar datos tabulares sintéticos Generar datos tabulares sintéticos utilizando un editor de flujo gráfico. Seleccione operaciones para generar datos.

Comunidad de Watsonx.ai

14 de septiembre de 2023

Ya puedes unirte a la Comunidadwatsonx.ai para arquitectos y constructores de IA para aprender, compartir ideas y conectar con otros.

Semana finalizada el 8 de septiembre de 2023

Generar datos tabulares sintéticos con Synthetic Data Generator

7 de septiembre de 2023

Ahora disponible en las regiones de Dallas y Frankfurt, Synthetic Data Generator es una nueva herramienta de editor gráfico en watsonx.ai que puede utilizar para generar datos tabulares para utilizar para modelos de entrenamiento. Utilizando flujos visuales y un modelo estadístico, puede crear datos sintéticos basados en los datos existentes o en un esquema de datos personalizado. Puede elegir enmascarar los datos originales y exportar los datos sintéticos a una base de datos o como un archivo.

Para empezar, consulte Datos sintéticos.

Llama-2 Modelo de base para la generación de lenguaje natural y el chat

7 de septiembre de 2023

El modelo de fundación Llama-2 de Meta ya está disponible en la región de Dallas. Llama-2 El modelo de conversación es un modelo de lenguaje autorregresivo que utiliza una arquitectura de transformador optimizado. El modelo está preentrenado con datos en línea disponibles públicamente, y luego afinado utilizando el aprendizaje de refuerzo de la retroalimentación humana. El modelo está pensado para uso comercial y de investigación en escenarios de chat tipo asistente en inglés.

Extensión LangChain para la biblioteca Python de los modelos base

7 de septiembre de 2023

Ahora puede utilizar la infraestructura LangChain con modelos base en watsonx.ai con la nueva extensión LangChain para la biblioteca Python de modelos base.

Este cuaderno de muestra muestra cómo utilizar la nueva extensión: Cuaderno de ejemplo

Ejemplo introductorio para el patrón de generación de recuperación aumentada

7 de septiembre de 2023

La generación aumentada de recuperación es una técnica simple y potente para aprovechar una base de conocimiento para obtener resultados objetivamente precisos de los modelos de base.

Consulte: Introducción a la recuperación-generación aumentada

Semana finalizada el 1 de septiembre de 2023

Desuso de comentarios en cuadernos

31 de agosto de 2023

A partir de hoy no es posible añadir comentarios a un cuaderno desde la barra de acciones del cuaderno. Se han eliminado los comentarios existentes.

Icono de comentarios en la barra de acciones del cuaderno

StarCoder Foundation Model para la generación de código y la conversión de código

31 de agosto de 2023

El modelo StarCoder de Hugging Face Face ya está disponible en la región de Dallas. Utilice StarCoder para crear instrucciones para generar código o para transformar código de un lenguaje de programación a otro. Un ejemplo muestra cómo utilizar StarCoder para generar código Python a partir de un conjunto de instrucciones. Un segundo ejemplo muestra cómo utilizar StarCoder para transformar código escrito en C++ a código Python.

IBM watsonx.ai está disponible en la región de Frankfurt

31 de agosto de 2023

Watsonx.ai ahora está disponible a nivel general en el centro de datos de Frankfurt y se puede seleccionar como la región preferida al registrarse. El Prompt Lab y la inferencia de foundation model son compatibles con estos modelos en la región de Fráncfort:

Semana finalizada el 25 de agosto de 2023

Mejoras de memoria caché adicionales disponibles para Watson Pipelines

21 de agosto de 2023

Hay más opciones disponibles para personalizar los valores de flujo de conducto. Ahora puede ejercer un mayor control sobre cuándo se utiliza la memoria caché para las ejecuciones de interconexión. Para obtener detalles, consulte Gestión de valores predeterminados.

Semana finalizada el 18 de agosto de 2023

Actualización del nombre del plan para el servicio watsonx.ai Runtime (anteriormente Watson Machine Learning)

18 de agosto de 2023

A partir de ahora, los nombres de los planes se actualizan para el servicio IBM watsonx.ai Runtime de la siguiente manera:

  • El plan estándar v2 es ahora el plan Essentials . El plan está diseñado para proporcionar a su organización los recursos necesarios para empezar a trabajar con modelos de base y activos de aprendizaje automático.

  • El plan v2 Professional es ahora el plan Estándar . Este plan proporciona recursos diseñados para dar soporte a la mayoría de las organizaciones a través de la creación de activos para un uso productivo.

Los cambios en los nombres de plan no cambian los términos del servicio. Es decir, si está registrado para utilizar el plan estándar v2 , ahora se denominará Essentials, pero todos los detalles del plan permanecerán iguales. De forma similar, si está registrado para utilizar el plan Profesional v2 , no hay ningún cambio que no sea el cambio de nombre de plan a Estándar.

Para obtener más información sobre lo que incluye cada plan, consulte watsonx.ai Planes de tiempo de ejecución. Para obtener información sobre precios, busque su plan en la página del planwatsonx.ai Runtime en el catálogo de IBM Cloud.

Semana finalizada el 11 de agosto de 2023

Desuso de comentarios en cuadernos

7 de agosto de 2023

El 31 de agosto de 2023, ya no podrá añadir comentarios a un cuaderno desde la barra de acciones del cuaderno. Los comentarios existentes que se hayan añadido de esta forma se eliminarán.

Icono de comentarios en la barra de acciones del cuaderno

Semana finalizada el 4 de agosto de 2023

Aumento del límite de señal para el plan Lite

4 de agosto de 2023

Si está utilizando el plan Lite para probar modelos de base, el límite de señal para entrada y salida de solicitud ahora se incrementa de 25.000 a 50.000 por cuenta al mes. Esto le proporciona más flexibilidad para explorar modelos de base y experimentar con solicitudes.

Plantilla de análisis de texto personalizado (SPSS Modeler)

4 de agosto de 2023

Para SPSS Modeler, ahora puede cargar una plantilla de análisis de texto personalizada en un proyecto. Esto le proporciona más flexibilidad para capturar y extraer conceptos clave de una forma exclusiva para su contexto.

Semana finalizada el 28 de julio de 2023

Biblioteca Python de modelos de base disponible

27 de julio de 2023

Ahora puede solicitar modelos base en watsonx.ai mediante programación utilizando una biblioteca Python .

Consulte: Biblioteca Python de modelos de base

Semana finalizada el 14 de julio de 2023

Controlar guardaraíles de IA

14 de julio de 2023

Ahora puedes controlar si los guardarraíles de IA están activados o desactivados en el Prompt Lab. Los guardaraíles de IA eliminan el texto potencialmente dañino de los campos de entrada y salida. El texto dañino puede incluir el discurso de odio, el abuso y la blasfemia. Para evitar la eliminación de texto potencialmente dañino, establezca el conmutador Guardaraíles de IA en desactivado. Consulte Odio, abuso y blasfemia.

El Prompt Lab con los guardarraíles de IA puestos

La conexión de Microsoft Azure SQL Database da soporte a la autenticación de Azure Active Directory (Azure AD)

14 de julio de 2023

Ahora puede seleccionar Active Directory para la conexión Microsoft Azure SQL Database . La autenticación de Active Directory es una alternativa a la autenticación de SQL Server . Con esta mejora, los administradores pueden gestionar de forma centralizada los permisos de usuario para Azure. Para obtener más información, consulte Conexión deMicrosoft Azure SQL Database.

Semana finalizada el 7 de julio de 2023

Bienvenido a IBM watsonx.ai.

7 de julio de 2023

IBM watsonx.ai ofrece todas las herramientas que necesita para trabajar con modelos de aprendizaje automático y base.

Cómo empezar:

Pruebe la búsqueda y respuesta de IA generativa en esta documentación

7 de julio de 2023

Puede ver IA generativa en acción probando la nueva opción de búsqueda y respuesta de IA generativa en la documentación de watsonx.ai . Las respuestas las genera un modelo de lenguaje grande que se ejecuta en watsonx.ai y se basa en el contenido de la documentación. Esta característica sólo está disponible cuando está viendo la documentación mientras ha iniciado sesión en watsonx.ai.

Introduzca una pregunta en el campo de búsqueda de documentación y haga clic en el icono Probar búsqueda y respuesta de IA generativa alt="". El Búsqueda y respuesta de IA generativa El panel se abre y responde a su pregunta.

Muestra el panel de búsqueda y respuesta de IA generativa

Búsqueda y respuesta de IA generativa
Estas respuestas las genera un modelo de lenguaje grande en watsonx.ai que se basa en el contenido de la documentación del producto. Más información