Vuelva cada semana para conocer las nuevas funciones y actualizaciones de IBM watsonx.ai y IBM watsonx.governance en IBM Cloud.
Para obtener información sobre IBM watsonx.governance en AWS, consulte Las novedades de IBM watsonx.governance en AWS.
Semana que finaliza el 20 de diciembre de 2024
Despliegue de modelos convertidos al formato ONNX
20 de diciembre de 2024
Ahora puede desplegar modelos de aprendizaje automático y de IA generativa convertidos al formato ONNX y utilizar el endpoint para inferencias. Estos modelos también pueden adaptarse a ejes dinámicos. Para más información, consulte Despliegue de modelos con formato ONNX.
Despliegue de flujos SPSS Modeler multifuente
20 de diciembre de 2024
Ahora puede crear implementaciones para flujos de SPSS Modeler que utilicen múltiples flujos de entrada para proporcionar datos al modelo. Para obtener más información, consulte Despliegue de flujos SPSS Modeler multifuente.
Se introducen modificaciones en los modelos de cimientos Granite 3 Instruct
18 de diciembre de 2024
Se han introducido modificaciones en los siguientes modelos de cimientos de IBM :
- granite-3-2b-instruct
- granite-3-8b-instruct
Con las últimas modificaciones, los modelos de la base Granite 3.1 Instruct ofrecen ahora un mejor soporte para la codificación de tareas y funciones intrínsecas para los agentes. La longitud de la ventana de contexto admitida para estos modelos de fundación aumentó de 4.096 a 131.072 tokens. Aunque los ID de los modelos Granite Instruct siguen siendo los mismos, se actualizan las ponderaciones de los modelos.
Para obtener más información, consulte Modelos de base soportados.
Semana que finaliza el 13 de diciembre de 2024
Solución sin código para buscar un patrón RAG con AutoAI (beta)
12 de diciembre de 2024
Ahora puede automatizar la búsqueda del patrón RAG óptimo para su caso de uso desde la interfaz de usuario AutoAI. Cargue la colección de documentos y las preguntas de prueba, elija una base de datos vectorial y ejecute el experimento para un enfoque de ruta rápida para encontrar un patrón RAG. También puede revisar y modificar los ajustes de configuración del experimento. Compare los patrones generados por el experimento y guarde el mejor patrón como cuaderno autogenerado o cuadernos guardados en su proyecto.
Para más detalles, consulte Automatizar un patrón RAG con AutoAI.
Implantar servicios de IA con plantillas
12 de diciembre de 2024
Puede desplegar sus servicios de IA utilizando plantillas predefinidas. Las plantillas de servicios de IA proporcionan una forma estandarizada de desplegar servicios de IA al ofrecer una estructura y configuración predefinidas para desplegar modelos de IA. Estas plantillas son unidades de código preconstruidas y desplegables que encapsulan la lógica de programación de las aplicaciones de IA generativa.
Las plantillas de servicios de IA automatizan tareas como la creación de despliegues, la generación de metadatos y la creación de extensiones, lo que permite a los desarrolladores centrarse en la lógica central de su aplicación. Proporcionan una forma flexible de desplegar servicios de IA, admitiendo múltiples entradas y personalización.
Para obtener más información, consulte Despliegue de servicios de IA con plantillas.
El último foundation model Llama está disponible para su despliegue bajo demanda
12 de diciembre de 2024
Puede desplegar el foundation model multilingüe Meta Llama 3.3 70B Instruct en hardware dedicado para uso exclusivo de su organización. El foundation model más reciente de Meta tiene capacidades similares a las del modelo más grande llama-3-405b-instruct, pero es de menor tamaño y es experto en codificación, razonamiento paso a paso y llamada de herramientas en particular. Puede desplegar el modelo completo ( llama-3-3-70b-instruct-hf ) o una versión cuantificada ( llama-3-3-70b-instruct ) que requiere menos recursos de alojamiento.
Para obtener más información sobre el despliegue de un foundation model bajo demanda en la región de Dallas desde el centro de recursos o la API REST, consulte Despliegue de modelos de cimientos bajo demanda.
Despliegue de modelos de la Fundación a petición con la biblioteca cliente Python
12 de diciembre de 2024
Ahora puede desplegar sus modelos de cimentación a petición utilizando la biblioteca de clientes watsonx.ai Python. Gracias a este enfoque, podrá acceder a las capacidades de estos potentes modelos de cimentación sin necesidad de grandes recursos computacionales. Los modelos Foundation que se despliegan a petición se alojan en un espacio de despliegue dedicado en el que se pueden utilizar estos modelos para inferencias.
Para obtener más información, consulte Despliegue de modelos de la Fundación a petición.
Tutoriales actualizados SPSS Modeler
11 de diciembre de 2024
Obtenga experiencia práctica con SPSS Modeler probando las 15 versiones actualizadas de SPSS Modeler tutoriales.
Comparación de activos de IA con Evaluation Studio
12 de diciembre de 2024
Con Evaluation Studio, puede evaluar y comparar sus activos de IA generativa con métricas cuantitativas y criterios personalizables que se adapten a sus casos de uso. Evalúe el rendimiento de varios activos simultáneamente y vea análisis comparativos de los resultados para identificar las mejores soluciones.
Para obtener más información, consulte Comparación de activos AI con Evaluation Studio.
Mejoras en la consola de Gobernanza
12 de diciembre de 2024
- Mejoras en la solución watsonx.governance Model Risk Governance
Esta versión incluye las siguientes mejoras:
- La nueva plantilla del cuestionario de identificación de riesgos en la incorporación de modelos de IA se utiliza durante el proceso de incorporación de modelos para ayudar a identificar los riesgos asociados a un modelo. Esta plantilla de cuestionario se utiliza en el flujo de trabajo Foundation Model Onboarding.
- La nueva plantilla del cuestionario de identificación de riesgos de casos de uso de IA se utiliza para ayudar a identificar los riesgos asociados a los casos de uso de IA. Esta plantilla de cuestionario se utiliza en el flujo de trabajo de Revisión de Casos de Uso. Este nuevo cuestionario está destinado a sustituir al Cuestionario de Identificación de Riesgos AI
- La nueva plantilla del cuestionario de identificación de riesgos de casos de uso y modelos de IA se utiliza para ayudar a identificar los riesgos asociados a la combinación de un caso de uso y un modelo de IA. Esta plantilla de cuestionario se utiliza en el flujo de trabajo de Desarrollo de Casos de Uso y Documentación.
- El flujo de trabajo de evaluación de la IA está ahora desactivado por defecto. Se sustituye por el Flujo de trabajo de evaluación de cuestionarios. Ahora puede establecer plantillas de cuestionarios directamente en el flujo de trabajo de casos de uso.
- Se actualizaron los flujos de trabajo, las vistas y los cuadros de mando.
Para obtener más información, consulte Componentes de la solución en la consola Gobernanza.
- Correcciones de errores y de seguridad
Se han aplicado correcciones de errores y de seguridad.
Para más información, consulte Nuevas funciones en 9.0.0.5.
IBM watsonx.governance governance está disponible en la región de Sydney
9 de diciembre de 2024
IBM watsonx.governance ya está disponible de forma general en el centro de datos de Sídney. Puede seleccionar Sídney como región preferida al inscribirse.
Para obtener más información sobre las funciones del producto disponibles en la región de Sídney, consulte Disponibilidad regional de servicios y funciones.
Semana que finaliza el 6 de diciembre de 2024
Despliegue de modelos de cimientos bajo demanda en la región de Dallas
6 de diciembre de 2024
Elija entre una colección seleccionada de modelos de base que puede implantar en hardware dedicado para uso exclusivo de su organización. Un despliegue dedicado se traduce en interacciones más ágiles a la hora de inferir modelos de base. Los modelos de cimentación a la carta se facturan por horas. Para obtener más información, consulte Modelos de base admitidos y Detalles de facturación de los activos de IA generativa.
Para obtener más información sobre el despliegue de un " foundation model " bajo demanda desde el concentrador de recursos o la API REST, consulte " Despliegue de modelos de cimientos bajo demanda.
Inferencia del último foundation model Llama a partir de " Meta " en las regiones de Dallas y Fráncfort
6 de diciembre de 2024
El foundation model multilingüe Llama 3.3 70B Instruct de " Meta está disponible para su integración en las regiones de Dallas y Fráncfort. El foundation model llama-3-3-70b-instruct es hábil en la codificación, el razonamiento paso a paso y la llamada de herramientas. Con un rendimiento que rivaliza con el del modelo 405b, la actualización foundation model Llama 3.3 es una gran elección para los desarrolladores. Véase el anuncio de IBM.
Para obtener más información, consulte Modelos de base soportados.
Revisar los puntos de referencia para comparar los modelos de fundación
5 de diciembre de 2024
Revise los puntos de referencia de foundation model modelos de cimentación para conocer las capacidades de los modelos de cimentación disponibles antes de probarlos. Compare el rendimiento de varios modelos de cimientos en las tareas más importantes para su caso de uso. Para más información, consulte los puntos de referencia del modelo de la Fundación.
Los archivos de Microsoft Excel están obsoletos para los modelos OPL en Decision Optimization
5 de diciembre de 2024
Los archivos de libros de Microsoft Excel (.xls y .xlsx) están ahora obsoletos para la entrada y salida directa en los modelos OPL de Decision Optimization. Para conectarse a archivos Excel, utilice en su lugar un conector de datos. El conector de datos transforma tu archivo Excel en un archivo .csv. Para más información, véase Datos de referencia.
Nuevos cuadernos de muestras para desplegar modelos convertidos al formato ONNX
3 de diciembre de 2024
Ahora puede desplegar modelos de aprendizaje automático y de IA generativa convertidos al formato ONNX y utilizar el endpoint para inferencias. Estos modelos también pueden adaptarse a ejes dinámicos. Consulte los siguientes cuadernos de muestra:
- Convertir la red neuronal ONNX de ejes fijos a ejes dinámicos
- Utilizar el modelo ONNX convertido de PyTorch
- Usa el modelo ONNX convertido de TensorFlow para reconocer dígitos escritos a mano
Para obtener más información, consulte watsonx.ai Runtime Python client samples and examples.
Los modelos de base llama-3-8b-instruct y llama-3-70b-instruct están obsoletos
2 de diciembre de 2024
- Los siguientes modelos de cimientos están obsoletos. Revisa las indicaciones que utilicen estos modelos básicos.
llama-3-8b-instruct
- Fecha de amortización: 2 de diciembre de 2024
- Fecha de retirada: 3 de febrero de 2025
- Modelo alternativo: llama-3-1-8b-instruct, llama-3-2-11b-vision-instruct
llama-3-70b-instruct
- Fecha de amortización: 2 de diciembre de 2024
- Fecha de retirada: 3 de febrero de 2025 (31 de marzo en Sydney)
- Modelo alternativo: llama-3-2-90b-vision-instruct
Para obtener más información sobre la eliminación y la retirada, consulte Ciclo de vida del modelo de fundamentación. Para más información sobre modelos alternativos, consulte Modelos de fundación compatibles.
Semana que finaliza el 29 de noviembre de 2024
Mejora de la documentación sobre las opciones de escritura de Data Refinery
28 de noviembre de 2024
Las opciones de escritura y las opciones de tabla para exportar flujos de datos dependen de su conexión. A continuación se explican estas opciones para orientarle mejor a la hora de seleccionar las opciones de su mesa de destino. Para obtener más información, consulte Opciones de conexión de destino para Data Refinery.
Semana que finaliza el 22 de noviembre de 2024
Nuevo centro de desarrollo watsonx para empezar a programar rápidamente
21 de octubre de 2024
Eche un vistazo al nuevo centro de desarrollo para encontrar todo lo que necesita para codificar su solución de IA generativa:
- Realice su primera solicitud de API para inferir un foundation model en watsonx.ai.
- Encuentre los modelos básicos y las bibliotecas de código adecuados para sus aplicaciones de IA.
- Comprender las capacidades de watsonx.ai y copiar fragmentos de código en Curl, Node.js o Python.
- Aprenda a crear aplicaciones y soluciones de IA generativa con guías detalladas.
- Únete a comunidades para encontrar recursos, respuestas y relacionarte con otros usuarios.
Vaya a watsonx Developer Hub.
Los servicios de componentes de IBM watsonx.ai pasaron a llamarse
21 de noviembre de 2024
Se ha cambiado el nombre de los siguientes servicios:
- Watson Machine Learning ' se llama ahora watsonx.ai Runtime
- Watson Studio ' se llama ahora watsonx.ai Studio
Es posible que algunos vídeos, cuadernos y ejemplos de código sigan refiriéndose a estos servicios por sus nombres anteriores.
IBM watsonx.ai está disponible en la región de Sídney
21 de noviembre de 2024
Watsonx.ai ya está disponible de forma general en el centro de datos de Sídney y se puede seleccionar Sídney como región preferida al registrarse.
Para obtener más información sobre los modelos de base y las características de los productos disponibles en la región de Sídney, consulte Disponibilidad regional de servicios y características.
Utilice los modelos básicos de series temporales IBM Granite y la API watsonx.ai para predecir valores futuros (beta)
21 de noviembre de 2024
Utilice la API de series temporales para pasar observaciones de datos históricos a un foundation model series temporales IBM Granite que pueda pronosticar valores futuros con inferencia de disparo cero. El método de previsión de series temporales de la API watsonx.ai está disponible como función beta. Para más información, véase Previsión de valores de datos futuros.
Utilizar los modelos de incrustación de texto de watsonx.ai desde la API de inferencia Elasticsearch
21 de noviembre de 2024
The Elasticsearch version 8.16.0 release added support for creating an inference endpoint that uses a watsonx.ai foundation model for text embedding tasks.
Para más información, consulte Vectorizar texto mediante la API.
Promover flujos de SPSS Modeler a espacios de despliegue
19 de noviembre de 2024
Ahora puede promover directamente flujos de SPSS Modeler de proyectos a espacios de implantación sin tener que exportar el proyecto y luego importarlo al espacio de implantación. Para obtener más información, consulte Promover flujos y modelos SPSS Modeler.
Semana que finaliza el 15 de noviembre de 2024
Utilice la aplicación de chat de demostración IBM watsonx.ai sin restricciones de prueba vinculando cuentas
15 de noviembre de 2024
Ahora puede utilizar su aplicación de chat de cuenta de demostración ' IBM ' watsonx.ai sin restricciones de uso de tokens ni de límite de tiempo vinculando su cuenta de demostración a su cuenta de pago ' IBM Cloud ' watsonx.ai. Para más detalles, véase " Vinculación de las cuentas de demostración " IBM " watsonx.ai " y " watsonx.ai .
El paquete watsonx.ai Node.js está disponible en LangChain
11 de noviembre de 2024
El paquete watsonx.ai Node.js está disponible para su uso en la biblioteca comunitaria LangChain JavaScript. La integración es compatible con funciones de watsonx.ai como la inferencia de modelos de cimientos, la generación de incrustaciones de texto y la gestión de intercambios de chat que incluyen funciones de imagen a texto y llamada de herramientas. Con la integración LangChain, puede llamar a estas capacidades de watsonx.ai utilizando interfaces coherentes que facilitan el intercambio entre proveedores para comparar ofertas y encontrar la mejor solución para sus necesidades.
Para obtener más información, consulte Node.js SDK.
Ahora se requieren credenciales de tarea para desplegar activos y ejecutar trabajos desde un espacio de despliegue
11 de noviembre de 2024
Para mejorar la seguridad de los trabajos de despliegue en ejecución, debe introducir sus credenciales de tarea para desplegar los siguientes activos desde un espacio de despliegue:
- Plantillas de solicitud
- Servicios de IA
- Modelos de
- Funciones de Python
- Scripts
Además, debe introducir sus credenciales de tarea para crear las siguientes implantaciones desde su espacio de implantación:
- En línea
- Despliegue
También debe utilizar sus credenciales de tarea para crear y gestionar trabajos de despliegue desde su espacio de despliegue.
Para saber cómo configurar sus credenciales de tarea y generar una clave API, consulte Añadir credenciales de tarea.
Semana que finaliza el 8 de noviembre de 2024
Implantar aplicaciones de IA generativa con servicios de IA
7 de noviembre de 2024
Ahora puede utilizar los servicios de IA en watsonx.ai para desplegar sus aplicaciones. Un servicio de IA es una unidad de código desplegable que puede utilizar para capturar la lógica de sus casos de uso de IA generativa. Mientras que las funciones Python son la forma tradicional de desplegar activos de aprendizaje automático, los servicios de IA ofrecen una opción más flexible para desplegar código para aplicaciones de IA generativa, como el streaming. Cuando sus servicios de IA se desplieguen correctamente, podrá utilizar el endpoint para inferir desde su aplicación.
Para más información, consulte Despliegue de servicios de IA.
Los modelos de base granite-13b-chat-v2, llama2-13b-dpo-v7 y mt0-xxl-13b están obsoletos
4 de noviembre de 2024
- Los siguientes modelos de cimientos están obsoletos. Revisa las indicaciones que utilicen estos modelos básicos.
granite-13b-chat-v2
- Fecha de depreciación: 4 de noviembre de 2024
- Fecha de retirada: 3 de febrero de 2025
- Modelo alternativo: granite-3-8b-instruct
llama2-13b-dpo-v7
- Fecha de depreciación: 4 de noviembre de 2024
- Fecha de retirada: 4 de diciembre de 2024
- Modelo alternativo: llama-3-1-8b-instruct
mt0-xxl-13b
- Fecha de depreciación: 4 de noviembre de 2024
- Fecha de retirada: 4 de diciembre de 2024
- Modelos alternativos: llama-3-2-11b-vision-instruct
Para obtener más información sobre la eliminación y la retirada, consulte Ciclo de vida del modelo de fundamentación. Para más información sobre modelos alternativos, consulte Modelos de fundación compatibles.
Semana que finaliza el 1 de noviembre de 2024
El nuevo modelo de incrustación de terceros all-minilm-l6-v2 está disponible en watsonx.ai
29 de octubre de 2024
El modelo de incrustación de texto all-minilm-l6-v2 de la comunidad de procesamiento del lenguaje natural (PLN) y visión por ordenador (CV) de código abierto ya está disponible para su uso desde el método de incrustación de texto de la API watsonx.ai. Utilice el modelo para convertir el texto en vectores de incrustación de texto adecuados para su uso en tareas de correspondencia y recuperación de texto. Para más detalles sobre el modelo, consulte los siguientes temas:
Precio más bajo para inferir el " Mistral Large " foundation model
29 de octubre de 2024
El precio de las entradas que envíe al ' Mistral Large ' foundation model disminuyó de $0.01 a $0.003 USD por 1.000 tokens. El precio de la producción generada por el foundation model no ha cambiado; el precio de los tokens de producción sigue siendo0.01 USD/1,000 tokens. The price change applies to all regions where the mistral-large foundation model is available.
Para obtener más información, consulte Modelos de base soportados.
Supresión de IBM Runtime 23.1
28 de octubre de 2024
IBM Runtime 23.1 está obsoleto. A partir del 21 de noviembre de 2024, no se podrán crear nuevos cuadernos o entornos personalizados utilizando tiempos de ejecución 23.1. Además, no se pueden crear nuevas implantaciones con especificaciones de software basadas en el tiempo de ejecución 23.1. Para garantizar una experiencia fluida y aprovechar las últimas funciones y mejoras, cambie a IBM Runtime 24.1.
- Para obtener información sobre cómo cambiar de entorno, consulte Cambiar de entorno de portátil.
- Para obtener detalles sobre las infraestructuras de despliegue, consulte Gestión de infraestructuras y especificaciones de software.
Simplifique los documentos empresariales complejos con la API de extracción de texto
28 de octubre de 2024
El método de extracción de texto ya está disponible de forma general en la API REST de watsonx.ai. Aproveche la tecnología de comprensión de documentos desarrollada por IBM para simplificar sus complejos documentos empresariales de modo que puedan ser procesados por modelos de base como parte de un flujo de trabajo de IA generativa. La API de extracción de texto extrae texto de estructuras de documentos como imágenes, diagramas y tablas que los modelos de base no suelen poder interpretar correctamente. Para obtener más información, consulte Extracción de texto de documentos.
La API está disponible en todas las regiones para los usuarios de planes de pago. Para más información sobre precios, consulte la tabla de tarifas de extracción de texto de documentos.
Semana que finaliza el 25 de octubre de 2024
Comparar tablas en experimentos de Decision Optimization para ver las diferencias entre escenarios
23 de octubre de 2024
Ahora puede comparar tablas en un experimento de Decision Optimization en la vista Preparar datos o Explorar solución. Esta comparación puede ser útil para ver las diferencias de valor de los datos entre los escenarios mostrados uno al lado del otro.
Para más información, consulte Comparar tablas de escenarios.
Los nuevos modelos Granite 3.0 están disponibles en watsonx.ai
21 de octubre de 2024
Ahora puede inferir los siguientes modelos de la fundación Granite de generación 3.0 proporcionados por IBM desde watsonx.ai:
- Modelos Granite Instruct en todas las regiones: Utilice los nuevos modelos lingüísticos de código abierto, ligeros y ajustados a Instruct para tareas de resumen, resolución de problemas, traducción de textos, razonamiento, codificación y llamada de funciones. Funciona con las siguientes variantes de modelos:
- granite-3-2b-instruct
- granite-3-8b-instruct
- Modelos Granite Guardian en la región de Dallas: Utilice los nuevos modelos Granite Guardian, que son modelos Granite Instruct perfeccionados, diseñados para detectar riesgos en las indicaciones y respuestas. Funciona con las siguientes variantes de modelos:
- granite-guardian-3-2b
- granite-guardian-3-8b
Para más detalles, consulte Modelos de cimentación soportados .
Mejore las tareas de búsqueda y recuperación con la API de clasificación de textos
21 de octubre de 2024
El método text rerank está generalmente disponible en la API REST de watsonx.ai. Utilice este nuevo método de la API, junto con los modelos de base del reordenador, como el modelo ms-marco-minilm-l-12-v2 recientemente admitido, para reordenar un conjunto de pasajes de documentos en función de su similitud con una consulta especificada. La reclasificación es una forma útil de añadir precisión a los flujos de trabajo de recuperación de respuestas. Para obtener más información, consulte Reranking de pasajes de documentos.
El nuevo modelo Pixtral 12B está disponible en las regiones de Frankfurt y Londres
21 de octubre de 2024
Ya puede utilizar el foundation model Pixtral 12B de Mistral AI en watsonx.ai en los centros de datos de Fráncfort y Londres.
Pixtral 12B es un modelo multimodal nativo con capacidades de imagen a texto y de texto a texto que se entrenó con datos de imagen y texto intercalados. El foundation model admite tamaños de imagen variables y destaca en tareas de seguimiento de instrucciones. Para más detalles, consulte Modelos de cimentación soportados .
Utilice los modelos llama-3-2-11b-vision-instruct y llama-guard-11b-vision en las regiones de Fráncfort y Londres
21 de octubre de 2024
Ahora puede trabajar con los modelos llama-3-2-11b-vision-instruct y llama-guard-11b-vision en los centros de datos de Fráncfort y Londres, además de en el de Dallas. Para obtener más información, consulte Disponibilidad regional de servicios y funciones en IBM Cloud y Chat con imágenes.
Semana que finaliza el 18 de octubre de 2024
El alcance de los recursos de la cuenta está activado por defecto
17 de octubre de 2024
El ajuste " Resource scope
" de su cuenta se establece ahora en " ON
por defecto. Sin embargo, si previamente ha establecido el valor para el ajuste Ámbito de recursos en ' ON
o ' OFF
, el ajuste actual no se modifica.
Cuando el ámbito de recursos está habilitado, no puede acceder a proyectos que no estén en su cuenta de IBM Cloud seleccionada actualmente. Si pertenece a más de una cuenta IBM Cloud, es posible que no vea todos sus proyectos juntos. Por ejemplo, es posible que no vea todos sus proyectos en la página Todos los proyectos. Debe cambiar de cuenta para ver los proyectos en las otras cuentas.
En la región de Fráncfort existe un foundation model Granite Code
15 de octubre de 2024
El ' granite-20b-code-instruct ' foundation model de ' IBM está diseñado para responder a instrucciones relacionadas con la codificación. Puede utilizar el foundation model en proyectos alojados en el centro de datos de Fráncfort para ayudarle con las tareas de codificación y para crear asistentes de codificación. Para obtener más información sobre el modelo, consulte Modelos de cimentación admitidos.
Semana que finaliza el 11 de octubre de 2024
Nuevo beneficio de licencia
10 de octubre de 2024
Ahora puede traer su propia licencia (BYOL) para aplicar los beneficios de las licencias locales a IBM watsonx.ai e IBM watsonx.governance.
Para obtener más información, consulte Activación de Bring Your Own License (BYOL) a SaaS.
Analice datos de texto en japonés en SPSS Modeler con Text Analytics
9 de octubre de 2024
Ahora puede utilizar los nodos de Análisis de texto en SPSS Modeler, como el nodo de Análisis de enlaces de texto y el nodo de Minería de texto, para analizar datos de texto escritos en japonés.
Cree flujos de trabajo conversacionales con la API de chat watsonx.ai
8 de octubre de 2024
Utilice la API de chat watsonx.ai para añadir capacidades de IA generativa, incluidas las llamadas dirigidas por agentes a herramientas y servicios de terceros, en sus aplicaciones.
Para obtener más información, consulte los siguientes temas:
Nueva especificación de software para modelos de cimentación personalizados
7 de octubre de 2024
Ahora puede utilizar una nueva especificación de software " watsonx-cfm-caikit-1.1
" con sus implantaciones personalizadas " foundation model ". La especificación se basa en la biblioteca vLLM y se adapta mejor a los últimos modelos de lenguaje de gran tamaño basados únicamente en decodificadores. Para más información sobre la biblioteca ' vLLM ', consulte ' vLLM ' Para más información sobre el uso de la especificación con un ' foundation model personalizado, consulte ' Planificación del despliegue de un " foundation model" personalizado .
Los modelos de cimentación granite-7b-lab y llama3-llava-next-8b-hf han quedado obsoletos
7 de octubre de 2024
El foundation model granite-7b-lab está obsoleto y se retirará el 7 de enero de 2025. Revisa las indicaciones que utilicen este foundation model.
- Fecha de depreciación: 7 de octubre de 2024
- Fecha de retirada: 7 de enero de 2025
- Modelo alternativo: granite-3-8b-instruct
El foundation model multimodal llama3-llava-next-8b-hf también está obsoleto y se retirará el 7 de noviembre de 2024. Ahora puede utilizar uno de los nuevos modelos de visión de Llama 3.2 para tareas de generación de imágenes a texto.
- Fecha de depreciación: 7 de octubre de 2024
- Fecha de retirada: 7 de noviembre de 2024
- Modelo alternativo: llama-3-2-11b-vision-instruct
Para obtener más información sobre la eliminación y la retirada, consulte Ciclo de vida del modelo de fundamentación. Para más información sobre modelos alternativos, consulte Modelos de fundación compatibles.
Semana que finaliza el 4 de octubre de 2024
Entornos y especificaciones de software actualizados
3 de octubre de 2024
Las bibliotecas Tensorflow y Keras que se incluyen en IBM Runtime 23.1 ya están actualizadas a sus versiones más recientes. Esto puede tener un impacto en cómo se ejecuta el código en tus cuadernos. Para obtener más información, consulte Paquetes de bibliotecas incluidos en los tiempos de ejecución de watsonx.ai Studio (anteriormente Watson Studio).
El Runtime 23.1 dejará de utilizarse en favor del Runtime 24.1 de IBM a finales de este año. Para evitar interrupciones repetidas, le recomendamos que cambie ahora a IBM Runtime 24.1 y utilice las especificaciones de software relacionadas para los despliegues.
- Para obtener información sobre cómo cambiar de entorno, consulte Cambiar de entorno de portátil.
- Para obtener detalles sobre las infraestructuras de despliegue, consulte Gestión de infraestructuras y especificaciones de software.
Disponibilidad del plan watsonx.governance en la región de Fráncfort y supresión del plan heredado OpenScale
3 de octubre de 2024
El plan heredado watsonx.governance para aprovisionar Watson OpenScale en la región de Fráncfort queda obsoleto. IBM Watson OpenScale dejará de estar disponible para nuevas suscripciones o para aprovisionar nuevas instancias. Para las funciones OpenScale, suscríbase al plan watsonx.governance Essentials, que ya está disponible en Fráncfort y Dallas.
- Para ver los detalles del plan, consulte los planes de watsonx.governance .
- Para empezar, consulte Configuración de watsonx.governance.
Notas:
- Las instancias existentes del plan heredado seguirán funcionando y recibirán asistencia hasta la fecha de fin de asistencia, que aún está por determinar.
- Los clientes existentes en IBM Watson OpenScale pueden seguir abriendo tickets de soporte utilizando IBM Watson OpenScale.
Semana que finaliza el 27 de septiembre de 2024
Llama 3.2 modelos de cimentación, incluidos los modelos multimodales 11B y 90B
25 de septiembre de 2024
El lanzamiento de hoy hace que los siguientes modelos de cimientos de Meta AI estén disponibles en la región de Dallas:
- Llama 3.2 instruir modelos
- Modelos lingüísticos versátiles de gran tamaño que admiten entradas de gran tamaño (128.000 tokens de longitud de ventana de contexto) y son lo suficientemente ligeros y eficientes, con 1B y 3B parámetros de tamaño, como para caber en un dispositivo móvil. Puede utilizar estos modelos para crear agentes altamente personalizados en el dispositivo.
- Llama 3.2 modelos de visión
- Modelos perfeccionados creados para casos de uso de entrada de imágenes y salida de texto, como la comprensión a nivel de documento, la interpretación de tablas y gráficos y el subtitulado de imágenes.
- Modelo de visión de la Guardia de la Llama
- Potente modelo de barrera diseñado para filtrar contenidos nocivos.
Para obtener más información, consulte Modelos de base soportados.
Mejoras en la consola de Gobernanza
25 de septiembre de 2024
Esta versión incluye mejoras y correcciones de errores.
- Pestañas personalizadas en el panel de control
El salpicadero ahora puede contener hasta tres pestañas personalizadas.
- Gráficos de barras apiladas
Ahora puede configurar un gráfico de barras apiladas en el cuadro de mandos y en el Diseñador de vistas.
- Utilización de expresiones para establecer valores de campo basados en las respuestas de un encuestado
Ahora puede introducir una expresión para el valor de un campo. Por ejemplo, puede introducir
[$TODAY$]
para la fecha actual,[$END_USER$]
para el nombre del usuario registrado, o[$System Fields:Description$]
para establecer el campo en el valor del campo Descripción del objeto.- Mejoras en la solución watsonx.governance Model Risk Governance
Esta versión incluye las siguientes mejoras:
- El nuevo tipo de objeto Grupo de modelos permite agrupar modelos similares. Por ejemplo, las versiones de un modelo que utilizan un enfoque similar para resolver un problema de negocio podrían en un Grupo de Modelos.
- El nuevo cálculo de puntuación de riesgos de casos de uso agrega métricas por estado de infracción en puntuaciones de riesgo para ofrecer una visión general del rendimiento de los modelos subyacentes de un caso de uso.
- La nueva entidad de negocio Biblioteca de IA descubierta proporciona un lugar predeterminado para almacenar cualquier despliegue de IA que no siga las prácticas de gobierno sancionadas dentro de una organización (también conocida como "IA en la sombra").
- Se actualizaron los flujos de trabajo, las vistas y los cuadros de mando.
Para obtener más información, consulte Componentes de la solución en la consola Gobernanza.
- Correcciones de errores y de seguridad
Se han aplicado correcciones de errores y de seguridad.
Para obtener más información, consulte Nuevas funciones en 9.0.0.4.
Automatizar patrones RAG con AutoAI SDK (beta)
23 de septiembre de 2024
Utilice el AutoAI Python SDK para automatizar y acelerar el diseño y despliegue de un patrón optimizado de generación aumentada por recuperación (RAG) basado en sus datos y caso de uso. RAG incluye muchos parámetros de configuración, como el modelo lingüístico de gran tamaño que debe elegirse, la forma de trocear los documentos de base y el número de documentos que deben recuperarse. AutoAI automatiza la exploración y evaluación completa de un conjunto restringido de opciones de configuración y produce un conjunto de canalizaciones de patrones clasificados por rendimiento frente a la métrica de optimización.
Consulte Automatización de un patrón RAG con el AutoAI SDK(Beta) para obtener detalles sobre la función y notas de uso para codificar un experimento RAG AutoAI.
Eliminación del tiempo de ejecución de Spark 3.3
23 de septiembre de 2024
La compatibilidad con el tiempo de ejecución de Spark 3.3 en IBM Analytics Engine se eliminará el 29 de octubre de 2024 y la versión predeterminada se cambiará al tiempo de ejecución de Spark 3.4. Para garantizar una experiencia fluida y aprovechar las últimas funciones y mejoras, cambie a Spark 3.4.
A partir del 29 de octubre de 2024, no se podrán crear ni ejecutar cuadernos o entornos personalizados mediante tiempos de ejecución de Spark 3.3. Además, no puede crear ni ejecutar despliegues con especificaciones de software que se basen en el tiempo de ejecución de Spark 3.3.
- Para actualizar su instancia a Spark 3.4, consulte Reemplazar tiempo de ejecución predeterminado de la instancia.
- Para obtener más información sobre los entornos de bloc de notas disponibles, consulte Cambiar el entorno de un bloc de notas.
- Para obtener detalles sobre las infraestructuras de despliegue, consulte Gestión de infraestructuras y especificaciones de software.
Semana que finaliza el 20 de septiembre de 2024
Inferencia de un foundation model multimodal del Prompt Lab
19 de septiembre de 2024
Ahora puede añadir una imagen en Prompt Lab y chatear sobre la imagen indicando un foundation model multimodal en modo chat. Además de documentos de base, ahora puede cargar imágenes y preguntar a un foundation model que admite tareas de imagen a texto sobre el contenido visual de la imagen. Para obtener más información, consulte Chatear con documentos e imágenes.
Nuevo modelo llama3-llava-next-8b-hf disponible en la región de Dallas
19 de septiembre de 2024
Ya puedes utilizar el nuevo foundation model multimodal llama3-llava-next-8b-hf en IBM watsonx.ai para ayudarte con las tareas de conversión de imagen a texto.
El asistente de visión y lenguaje de gran tamaño (LLaVa) combina un modelo de lenguaje de gran tamaño preentrenado con un codificador de visión preentrenado para casos de uso de chatbot multimodales. LLaVA NeXT Llama3 se entrena con datos de imagen y texto más diversos y de mayor calidad. Para más detalles, consulte Modelos de cimentación soportados .
Utiliza el SDK watsonx.ai Node.js para codificar aplicaciones de IA generativa
18 de septiembre de 2024
Inferencia y ajuste de modelos de cimientos en IBM watsonx as a Service mediante programación utilizando el paquete watsonx.ai Node.js. Para obtener más información, consulte Node.js SDK.
Comprender las políticas de indemnización por propiedad intelectual para los modelos de fundación
18 de septiembre de 2024
Ahora puede entender mejor la política de indemnización por propiedad intelectual de IBM y ver qué modelos de la fundación tienen cobertura de indemnización por propiedad intelectual en watsonx.ai. Para más información, consulte Tipos de modelo e indemnización por IP.
Semana que finaliza el 13 de septiembre de 2024
Crear trabajos por lotes para SPSS Modeler en espacios de despliegue
10 de septiembre de 2024
Ahora puede crear trabajos por lotes para flujos SPSS Modeler en espacios de despliegue. Los flujos le ofrecen la flexibilidad de decidir qué nodos terminales ejecutar cada vez que cree un trabajo por lotes a partir de un flujo. Cuando se programan trabajos por lotes para flujos, el trabajo por lotes utiliza las fuentes de datos y los destinos de salida especificados en el flujo. La asignación de estas fuentes de datos y salidas es automática si las fuentes de datos y los destinos también se encuentran en su espacio de despliegue. Para obtener más información sobre la creación de trabajos por lotes a partir de flujos, consulte Creación de trabajos de implementación para SPSS Modeler.
Para obtener más información sobre flujos y modelos en espacios de despliegue, consulte Despliegue de SPSS Modeler.
Semana que finaliza el 6 de septiembre de 2024
Lleve su propio foundation model a la inferencia de watsonx.ai en la región de Dallas
3 de septiembre de 2024
Además de trabajar con modelos de base curados por IBM, ahora puede cargar y desplegar sus propios modelos de base. Una vez que los modelos se hayan desplegado y registrado en watsonx.ai, cree avisos que inferencien los modelos personalizados mediante programación o desde el Prompt Lab. Esta función sólo está disponible en la región de Dallas.
Para obtener más información sobre la carga de modelos de cimientos personalizados, consulte Despliegue de modelos de cimientos personalizados. Para obtener información sobre planes y detalles de facturación para modelos de cimientos personalizados, consulte los planes de tiempo de ejecución dewatsonx.ai.
Simplifique los documentos empresariales complejos con la API de extracción de texto de documentos
3 de septiembre de 2024
Aplique la tecnología de comprensión de documentos desarrollada por IBM para simplificar sus complejos documentos empresariales, de modo que puedan ser procesados por modelos fundacionales como parte de un flujo de trabajo de IA generativa. La API de extracción de texto de documentos extrae texto de estructuras de documentos como imágenes, diagramas y tablas que los modelos de base a menudo no pueden interpretar correctamente. El método de extracción de texto de la API REST de watsonx.ai es una función beta.
Para obtener más información, consulte Extracción de texto de documentos.
'Granite Código ' foundation model ' modificación y actualizaciones disponibles
3 de septiembre de 2024
El foundation model granite-20b-code-instruct se modificó a la versión 1.1.0. La última modificación se entrena con una mezcla de datos de alta calidad procedentes de dominios de código y lenguaje natural para mejorar las capacidades de razonamiento y seguimiento de instrucciones del modelo.
Los siguientes modelos de fundaciones se actualizaron para aumentar el tamaño de la longitud de la ventana de contexto admitida (entrada + salida) para los avisos de 8192 a 128.000:
- granite-3b-code-instruct
- granite-8b-code-instruct
Para obtener más información, consulte Modelos de base soportados.
Semana que finaliza el 30 de agosto de 2024
Los modelos llama-2-13b-chat y llama-2-70b-chat han quedado obsoletos
26 de agosto de 2024
Los modelos de base llama-2-13b-chat y llama-2-70b-chat están obsoletos y se retirarán el 25 de septiembre de 2024. Revisa las indicaciones que utilicen estos modelos básicos.
- llama-2-13b-chat
- Fecha de caducidad: 26 de agosto de 2024
- Fecha de retirada: 25 de septiembre de 2024
- Modelo alternativo: llama-3.1-8b-instruct
- llama-2-70b-chat
- Fecha de caducidad: 26 de agosto de 2024
- Fecha de retirada: 25 de septiembre de 2024
- Modelo alternativo: llama-3.1-70b-instruct
Las solicitudes de inferencia enviadas a los modelos llama-2-13b-chat y llama-2-70b-chat mediante la API siguen generando resultados, pero incluyen un mensaje de advertencia sobre la próxima retirada del modelo. A partir del 25 de septiembre de 2024, las solicitudes de API para inferir los modelos no generarán resultados.
Para obtener más información sobre la eliminación y la retirada, consulte Ciclo de vida del modelo de fundamentación.
Semana que finaliza el 23 de agosto de 2024
Añadir grupos de usuarios como colaboradores en proyectos y espacios
22 de agosto de 2024
Ahora puede añadir grupos de usuarios en proyectos y espacios si su cuenta IBM Cloud contiene grupos de acceso IAM. El administrador de su cuenta IBM Cloud puede crear grupos de acceso, que luego estarán disponibles como grupos de usuarios en los proyectos. Para obtener más información, consulte Trabajar con grupos de acceso IAM.
Finalización del soporte de la función de predicción de anomalías para los experimentos de series temporales de AutoAI
19 de agosto de 2024
La función para predecir anomalías (valores atípicos) en AutoAI, actualmente en beta, está obsoleta y se eliminará el 23 de septiembre de 2024.. Los experimentos de series temporales estándar AutoAI siguen siendo totalmente compatibles. Para más detalles, consulte Construcción de un experimento de series temporales.
Semana que finaliza el 16 de agosto de 2024
Los nuevos modelos de incrustación de pizarra de IBM están disponibles en todas las regiones
15 de agosto de 2024
IBM Los modelos de incrustación de pizarra proporcionan a las empresas la capacidad de generar incrustaciones para diversas entradas, como consultas, pasajes o documentos. Los nuevos modelos slate-125m-english-rtrvr-v2 y slate-30m-english-rtrvr-v2 presentan mejoras significativas respecto a sus homólogos v1. Si actualmente utiliza los modelos slate-125m-english-rtrvr y slate-30m-english-rtrvr, cambie a los nuevos modelos v2 Slate para aprovechar las mejoras del modelo.
Para obtener más información, consulte Modelos de bases de encóder compatibles.
Configure los guardarraíles AI para la entrada del usuario y la salida foundation model por separado en Prompt Lab
15 de agosto de 2024
Ajuste la sensibilidad de las barreras de seguridad de la IA que detectan y eliminan contenidos nocivos cuando experimente con avisos de foundation model en Prompt Lab. Puede establecer distintos niveles de sensibilidad de filtrado para la entrada del usuario y el texto de salida del modelo, y puede guardar los ajustes efectivos de las barreras de protección de la IA en plantillas de avisos.
Para obtener más información, consulte Eliminación de contenido dañino.
Semana que finaliza el 9 de agosto de 2024
Seleccionar datos de prueba de proyectos para evaluaciones rápidas de plantillas
8 de agosto de 2024
Al evaluar plantillas de avisos en proyectos, ahora puede elegir activos de proyecto para seleccionar datos de prueba para las evaluaciones. Para obtener más información, consulte Evaluación de plantillas de avisos en proyectos.
El nuevo modelo llama-3-1-70b-instruct ya está disponible en IBM watsonx.ai
7 de agosto de 2024
Ahora puede utilizar los últimos modelos de la fundación Llama 3.1 de Meta en el tamaño de 70 mil millones de parámetros en IBM watsonx.ai.
La serie Llama 3.1 de modelos de fundamentos son modelos lingüísticos de gran tamaño y alto rendimiento con capacidades de razonamiento de primer nivel. Los modelos pueden utilizarse para tareas complejas de razonamiento multilingüe, como la comprensión de textos, la transformación y la generación de código. Admiten inglés, alemán, francés, italiano, portugués, hindi, español y tailandés. Para más detalles, consulte Modelos de cimentación soportados .
Preguntas y respuestas actualizadas con el acelerador RAG
6 de agosto de 2024
El proyecto de ejemplo Q&A con acelerador RAG 1.2 incluye las siguientes mejoras:
Obtenga ayuda con la siguiente fase de la implementación de la generación mejorada de recuperación (RAG): recopilación de comentarios de los usuarios y análisis de la calidad de las respuestas. Incluye análisis con detección de temas no supervisada para mostrar los temas más populares, la satisfacción del usuario con las respuestas generadas por tema y las puntuaciones de búsqueda de recuperación por tema.
Nuevas plantillas de avisos optimizadas para los modelos de cimientos IBM granite-7b-lab y Meta Llama 3.1.
Código optimizado que utiliza utilidades RAG de la biblioteca watsonx.ai Python y filtros de búsqueda vectorial específicos para buscar por producto, zona, etc.
Véase Q&A con el acelerador RAG.
Semana que finaliza el 2 de agosto de 2024
El nuevo modelo llama-3-1-8b-instruct ya está disponible en IBM watsonx.ai
1 de agosto de 2024
Ahora puede utilizar los últimos modelos de la fundación Llama 3.1 de Meta en el tamaño de 8.000 millones de parámetros en IBM watsonx.ai.
La serie Llama 3.1 de modelos de fundamentos son modelos lingüísticos de gran tamaño y alto rendimiento con capacidades de razonamiento de primer nivel. Los modelos pueden utilizarse para tareas complejas de razonamiento multilingüe, como la comprensión de textos, la transformación y la generación de código. Admiten inglés, alemán, francés, italiano, portugués, hindi, español y tailandés. Para más detalles, consulte Modelos de cimentación soportados .
Asociar espacios de trabajo con casos de uso de IA
1 de agosto de 2024
El flujo de creación de un caso de uso de IA se modifica para ajustarse más al ciclo de vida de la IA. Una vez definidos los elementos esenciales de un caso de uso de IA, asocie espacios de trabajo para organizar los activos de modo que se ajusten a las fases de una solución de IA. Por ejemplo, asociar un proyecto o espacio para los activos en las fases de Desarrollo o Validación, y asociar un espacio para los activos en la fase de Operación.
Para obtener más información, consulte Asociación de espacios de trabajo con un caso de uso de IA.
Semana que finaliza el 26 de julio de 2024
Anuncio de apoyo a Python 3.11 y R4.3 Marcos y especificaciones de software en tiempo de ejecución. 24.1
25 de julio de 2024
Ahora puede utilizar IBM Runtime 24.1, que incluye los últimos marcos de ciencia de datos basados en Python 3.11 y R 4.3, para ejecutar cuadernos Jupyter y scripts R, y entrenar modelos. A partir del 29 de julio, también podrás realizar despliegues. Actualice sus activos y despliegues para utilizar los marcos de trabajo y las especificaciones de software de IBM Runtime 24.1.
- Para información sobre el IBM Tiempo de ejecución 24.1 lanzamiento y los entornos incluidos para Python 3.10 y r 4.2, ver Entornos portátiles.
- Para obtener detalles sobre las infraestructuras de despliegue, consulte Gestión de infraestructuras y especificaciones de software.
Versión mejorada de Jupyter Notebook el editor ya está disponible
25 de julio de 2024
Si está ejecutando su computadora portátil en entornos basados en Runtime 24.1, puede utilizar estas mejoras para trabajar con su código:
- Depura automáticamente tu código
- Genere automáticamente una tabla de contenidos para su cuaderno
- Alternar números de línea al lado de su código
- Contraiga el contenido de las celdas y utilice la vista en paralelo para el código y la salida, para mejorar la productividad.
Para más información, ver Editor de cuadernos Jupyter.
Modelos de integración de transformadores de procesador de lenguaje natural compatibles con Runtime 24.1
25 de julio de 2024
En el nuevo tiempo de ejecución 24.1 En este entorno, ahora puede utilizar modelos de incrustación de transformadores de procesamiento de lenguaje natural (NLP) para crear incrustaciones de texto que capturen el significado de una oración o pasaje para ayudar con las tareas de generación de recuperación aumentada. Para más información, ver Incrustaciones.
Nuevos modelos especializados de PNL están disponibles en Runtime 24.1
25 de julio de 2024
Los siguientes modelos nuevos y especializados de PNL ahora se incluyen en Runtime 24.1 ambiente:
- Un modelo que es capaz de detectar e identificar contenido de odio, abusivo o profano (HAP) en contenido textual. Para más información, ver Detección de HAP.
- Tres modelos pre-capacitados que son capaces de abordar temas relacionados con finanzas, ciberseguridad y biomedicina. Para más información, ver Clasificar texto con un modelo de clasificación personalizado.
Extraiga información detallada de grandes colecciones de textos mediante el resumen de puntos clave
25 de julio de 2024
Ahora puede utilizar el resumen de puntos clave en blocs de notas para extraer información detallada y procesable de grandes colecciones de textos que representan opiniones de personas (como reseñas de productos, respuestas a encuestas o comentarios en redes sociales). El resultado se entrega de forma organizada y jerárquica que es fácil de procesar. Para más información, ver Resumen de puntos clave
Actualización de la versión RStudio
25 de julio de 2024
Para ofrecer una experiencia de usuario coherente en nubes privadas y públicas, el IDE de RStudio para IBM watsonx se actualizará a RStudio Server 2024.04.1 y R 4.3.1 el 29 de julio de 2024. La nueva versión de RStudio ofrece una serie de mejoras y correcciones de seguridad. Consulte las notas de la versión 2024.04.1 RStudio Server para obtener más información. Si bien no se prevén problemas importantes de compatibilidad, los usuarios deben estar al tanto de los cambios de versión de algunos paquetes que se describen en la siguiente tabla.
Cuando inicie el IDE de RStudio desde un proyecto después de la actualización, restablezca el espacio de trabajo RStudio para asegurarse de que la ruta de biblioteca para los paquetes de R 4.3.1 es recogida por el servidor de RStudio.
Una nueva versión del modelo Mistral Large ya está disponible en IBM watsonx.ai en las regiones de Dallas, Frankfurt y Londres
24 julio 2024
Ya puede utilizar el foundation model Mistral Large 2 de Mistral AI en IBM watsonx.ai en los centros de datos de Dallas, Fráncfort y Londres.
El modelo Mistral Large 2 admite 11 idiomas y es competente en comprensión de textos, generación de código y razonamiento avanzado. Para más detalles, consulte Modelos de cimentación soportados .
Nuevo llama-3-405b-instruct El modelo está disponible en la región de Dallas.
23 julio 2024
Ya puede utilizar el foundation model llama-3-405b-instruct de Meta en IBM watsonx.ai en el centro de datos de Dallas.
El modelo llama-3-405B-instruct (v3.1) proporciona a las empresas un modelo de lenguaje de gran tamaño y alto rendimiento con capacidades de razonamiento de primer nivel, y es el mayor modelo de código abierto publicado hasta la fecha. Este foundation model puede utilizarse para tareas complejas de razonamiento multilingüe, como la comprensión de textos, la transformación y la generación de código. Para más detalles, consulte Modelos de cimentación soportados .
El merlinite-7b el modelo está en desuso
22 julio 2024
El foundation model merlinite-7b está obsoleto y se retirará el 22 de agosto de 2024. Revisa las indicaciones que utilicen este foundation model.
- Fecha de desuso: 22 de julio de 2024
- Fecha de retirada: 22 de agosto de 2024
- Modelo alternativo: mixtral-8x7b-instruct-v01
Solicitudes de inferencia que se presentan al merlinite-7b El modelo que utiliza la API continúa generando resultados, pero incluye un mensaje de advertencia sobre el próximo retiro del modelo. A partir del 22 de agosto de 2024, las solicitudes de la API para inferir el modelo no generarán resultados.
Para obtener más información sobre el desuso y la retirada, consulte Ciclo de vida del modelo de fundación.
Semana que finaliza el 12 de julio de 2024
El nuevo modelo Mistral Large Large está disponible en las regiones de Frankfurt y Dallas
9 de julio de 2024
Ahora puede utilizar el ' Mistral Large ' foundation model de Mistral AI en ' IBM ' watsonx.ai en los centros de datos de Frankfurt y Dallas.
Mistral Large proporciona a las empresas un modelo lingüístico de gran tamaño y alto rendimiento con capacidades de razonamiento de primer nivel. Este foundation model puede utilizarse para tareas complejas de razonamiento multilingüe, como la comprensión de textos, la transformación y la generación de código. Para más detalles, consulte Modelos de cimentación soportados .
Semana que finaliza el 5 de julio de 2024
Conectores agrupados por tipo de fuente de datos
05 julio 2024
Cuando crea una conexión, los conectores ahora se agrupan por tipo de fuente de datos para que sean más fáciles de encontrar y seleccionar. Por ejemplo, el tipo de origen de datos MongoDB incluye los conectores IBM Cloud Databases for MongoDB y MongoDB.
Además, un nuevo Recientes La categoría muestra los seis últimos conectores que utilizó para crear una conexión.
Para obtener instrucciones, consulte Agregar conexiones a fuentes de datos en un proyecto .
Añada información contextual a los avisos foundation model en Prompt Lab
4 julio 2024
Ayude a un foundation model a generar respuestas objetivas y actualizadas en casos de uso de generación aumentada por recuperación (RAG) añadiendo información contextual relevante a su consulta como datos de base. Puede cargar rápidamente documentos relevantes o conectarse a una tienda de vectores de terceros con datos relevantes. Cuando se envía una nueva pregunta, la pregunta se utiliza para consultar los datos fundamentados en busca de hechos relevantes. Los principales resultados de la búsqueda y la pregunta original se envían como datos de entrada del modelo para ayudar a " foundation model " a incorporar los hechos relevantes en sus resultados.
Para más información, consulte Basar las indicaciones foundation model en información contextual.
Cambios aCloud Object Storage Planes ligeros
1 de julio de 2024
A partir del 1 de julio de 2024, elCloud Object Storage Plan Lite que se aprovisiona automáticamente cuando te registras para una prueba de 30 días dewatsonx.ai ywatsonx.governance caduca una vez finalizada la prueba. Puedes actualizar tuCloud Object Storage Instancia Lite al plan Estándar con la opción de capa gratuita en cualquier momento durante la prueba de 30 días.
ExistenteCloud Object Storage las instancias de servicio con planes Lite que haya aprovisionado antes del 1 de julio de 2024 se conservarán hasta el 15 de diciembre de 2024. Debes actualizar tuCloud Object Storage servicio a un plan Estándar antes del 15 de diciembre de 2024.
Semana finalizada el 21 de junio de 2024
Crear despliegues desconectados para las solicitudes de gobierno para modelos de lenguaje grande (LLM) externos
21 de junio de 2024
Una plantilla de mensaje independiente es un nuevo activo para evaluar una plantilla de mensaje para un LLM alojado por un proveedor externo, comoGoogle IA de vértice,AzureOpenAI, oAWS Base. La inferencia que genera la salida para la plantilla de solicitud se realiza en el modelo remoto, pero puede evaluar la salida de la plantilla de solicitud utilizando métricas de watsonx.governance . También puede realizar un seguimiento del despliegue desconectado y de la plantilla de solicitud desconectada en un caso de uso de IA como parte de la solución de gobierno.
Para obtener más información, consulte:
Las credenciales de tarea serán necesarias para las solicitudes de trabajo de despliegue
19 de junio de 2024
Para mejorar la seguridad para ejecutar trabajos de despliegue, el usuario que solicita el trabajo deberá proporcionar credenciales de tarea en forma de clave de API. El requisito se aplicará a partir del 15 de agosto de 2024. Consulte Adición de credenciales de tarea para obtener detalles sobre la generación de la clave de API.
Evalúe los casos de uso para la aplicabilidad de la Ley de IA de la UE
19 de junio de 2024
Al utilizar la nueva evaluación de aplicabilidad de la Ley de IA de la UE, puede completar un cuestionario simple para evaluar sus casos de uso de IA y determinar si están dentro del ámbito de la Ley de IA de la UE. La evaluación también puede ayudarle a identificar la categoría de riesgo a la que se alinean los casos de uso: prohibido, alto, limitado o mínimo. Para obtener más información, consulte Evaluación de aplicabilidad en Componentes de la solución en la consola de gobierno.
Semana finalizada el 7 de junio de 2024
Administre las actividades de riesgo y cumplimiento con la consola de Gobernanza ( IBM OpenPages)
7 de junio de 2024
Watsonx.governance ahora admite la integración opcional con la consola de gobierno. Si ha instalado el módulo Model Risk Governance de IBM OpenPages, puede configurar casos de uso de IA para sincronizar datos de gobernanza con la consola de gobernanza. Desde la consola de Gobernanza, puede crear casos de uso, ver actividades de gobernanza, administrar tareas e implementar flujos de trabajo como parte de sus procesos de gobernanza y cumplimiento. Para obtener más información, consulte:
Semana finalizada el 31 de mayo de 2024
IBM Watson Pipelines es ahora IBM Orchestration Pipelines
30 de mayo de 2024
El nuevo nombre de servicio refleja las prestaciones para orquestar partes del ciclo de vida de IA en flujos repetibles.
Etiquetar proyectos para una recuperación fácil
31 de mayo de 2024
Ahora puede asignar etiquetas a proyectos para que sean más fáciles de agrupar o recuperar. Asigne etiquetas cuando cree un proyecto nuevo o de la lista de todos los proyectos. Filtre la lista de proyectos por código para recuperar un conjunto relacionado de proyectos. Para obtener más información, consulte Creación de un proyecto.
Conectarse a una nueva fuente de datos: Milvus
31 de mayo de 2024
Utilice la conexión Milvus para almacenar y confirmar la exactitud de sus credenciales y detalles de conexión para acceder a un almacén de vectores Milvus. Para más información, consulte la conexión Milvus.
Semana finalizada el 24 de mayo de 2024
Nuevo tutorial y vídeo
23 de mayo de 2024
Pruebe la nueva guía de aprendizaje para ver cómo evaluar un despliegue de modelo utilizando la funcionalidad de Watson OpenScale en un espacio de despliegue.
Guía de aprendizaje | Descripción | Experiencia para guía de aprendizaje |
---|---|---|
Evaluar un despliegue en espacios | Despliegue un modelo, configure supervisores para el modelo desplegado y evalúe el modelo en un espacio de despliegue. | Configure los supervisores y evalúe un modelo en un espacio de despliegue. |
El foundation model allam-1-13b-instruct está disponible en la región de Frankfurt
21 de mayo de 2024
El foundation model árabe allam-1-13b-instruct de la Autoridad Saudí de Datos e Inteligencia Artificial y proporcionado por IBM está disponible en watsonx.ai en el centro de datos de Fráncfort. You can use the allam-1-13b-instruct foundation model for general-purpose tasks, including Q&A, summarization, classification, generation, extraction, and translation in Arabic. Para obtener más información, consulte Modelos de base soportados.
Desplegar activos de IA tradicionales y generativos con la biblioteca de cliente watsonx.ai Python
21 de mayo de 2024
La biblioteca de cliente Watson Machine Learning Python ahora forma parte de una biblioteca ampliada, la biblioteca de cliente watsonx.ai Python . Utilice la biblioteca watsonx.ai Python para trabajar con el aprendizaje automático tradicional y los activos de IA generativa. La biblioteca Watson Machine Learning persistirá, pero no se actualizará con nuevas características. Para obtener más información, consulte Biblioteca dePython.
Semana finalizada el 17 de mayo de 2024
Los modelos de inclusión de texto de terceros están disponibles en watsonx.ai
16 de mayo de 2024
Los siguientes modelos de inclusión de texto de terceros están ahora disponibles además de los modelos de IBM Slate para la coincidencia y recuperación de texto mejorada:
- all-minilm-l12-v2
- multilingual-e5-large
Envíe frases o pasajes a uno de los modelos de inclusión soportados utilizando la biblioteca watsonx.ai Python o la API REST para convertir texto de entrada en vectores para comparar y recuperar de forma más precisa texto similar.
Para obtener más información sobre estos modelos, consulte Modelos de bases de encóder compatibles.
Para obtener más información sobre la conversión de texto, consulte Generación de inclusión de texto.
Semana finalizada el 10 de mayo de 2024
Los nuevos modelos de cimientos Granite Code están disponibles en la región de Dallas
9 de mayo de 2024
Ahora puede inferir los siguientes modelos de Granite Code foundation proporcionados por IBM desde watsonx.ai:
- granite-3b-code-instruct
- granite-8b-code-instruct
- granite-20b-code-instruct
- granite-34b-code-instruct
Utilice los nuevos modelos de la base Granite Code para las tareas de codificación programática. Los modelos de base están ajustados en una combinación de datos de instrucción para mejorar las capacidades de seguimiento de instrucción, incluyendo el razonamiento lógico y la resolución de problemas.
Para obtener más información, consulte Modelos de base soportados.
Los modelos base de InstructLab están disponibles en watsonx.ai
7 de mayo de 2024
InstructLab es una iniciativa de código abierto de Red Hat e IBM que proporciona una plataforma para aumentar las capacidades de un foundation model. Los siguientes modelos de fundamentos apoyan los conocimientos y habilidades que se aportan desde InstructLab:
- granite-7b-lab
- granite-13-chat-v2
- granite-20b-multilingual
- merlinite-7b
Puede explorar las contribuciones de la comunidad de código abierto desde la página de taxonomía foundation model.
Para más información, verInstructLab-compatible modelos de fundacion .
Semana finalizada el 3 de mayo de 2024
Organizar activos de proyecto en carpetas
2 de mayo de 2024
Ahora puede crear carpetas en los proyectos para organizar activos. Un administrador del proyecto debe habilitar las carpetas, y los administradores y editores pueden crearlas y gestionarlas. Las carpetas están en versión beta y todavía no están soportadas para su uso en entornos de producción. Para obtener más información, consulte Organización de activos con carpetas (beta).
Semana finalizada el 26 de abril de 2024
IBM watsonx.ai está disponible en la región de Londres
25 de abril de 2023
Watsonx.ai ahora está disponible de forma general en el centro de datos de Londres y Londres se puede seleccionar como la región preferida al registrarse.
- Los modelos de fundamentos que son totalmente compatibles en Dallas también están disponibles para la inferencia en el centro de datos de Londres desde el Prompt Lab o mediante el uso de la API. Las excepciones son el " mt0-xxl-13b " y el " llama-2-70b-chat " foundation model, que es sustituido por el " llama-3-70b-instruct " " foundation model que ya está disponible.
- Ajuste los tres modelos de base ajustables desde Tuning Studio o utilizando la API.
- Se da soporte a los dos modelos de incorporación de IBM y a la API de incorporación.
Para obtener más información, consulte Disponibilidad regional para servicios y características.
Iniciar un chat en Prompt Lab directamente desde la página de inicio
25 de abril de 2023
Ahora puede iniciar una conversación con un foundation model desde la página de inicio de IBM watsonx.ai. Introduzca una pregunta para enviar a un modelo de foundation model en modo chat o haga clic en Abrir Prompt Lab para elegir un foundation model y los parámetros del modelo antes de enviar la entrada del modelo.
Semana finalizada el 19 de abril de 2024
Ya están disponibles los nuevos modelos de base Meta Llama 3
18 de abril de 2024
Los siguientes modelos de base Llama 3 proporcionados por Meta están disponibles para la inferencia desde watsonx.ai:
- llama-3-8b-instruct
- llama-3-70b-instruct
Los nuevos modelos de base Llama 3 son modelos de lenguaje afinados de instrucción que pueden dar soporte a diversos casos de uso.
Este último lanzamiento de Llama está entrenado con más fichas y aplica nuevos procedimientos post-entrenamiento. El resultado son modelos de base con mejor comprensión del lenguaje, razonamiento, generación de código y capacidades de seguimiento de instrucción.
Para obtener más información, consulte Modelos de base soportados.
Introducción al soporte de incorporación de IBM para mejorar la coincidencia y recuperación de texto
18 de abril de 2024
Ahora puede utilizar la API de incorporaciones de IBM y los modelos de incorporación de IBM para transformar el texto de entrada en vectores para comparar y recuperar de forma más precisa texto similar.
Están disponibles los siguientes modelos de incorporación de IBM Slate:
- slate.125m.english.rtrvr
- slate.30m.english.rtrvr
Para obtener más información, consulte Generación de inclusión de texto.
Para más información sobre precios, consulte los planes de tiempo de ejecución dewatsonx.ai.
IBM watsonx.governance se incluye al registrarse en IBM watsonx.ai
18 de abril de 2024
Si se registra para watsonx.ai en la región de Dallas, watsonx.governance se incluye ahora automáticamente. Consulte Registro en IBM watsonx as a Service.
Evaluar despliegues de aprendizaje automático en espacios
18 de abril de 2024
Configure las evaluaciones de watsonx.governance en los espacios de despliegue para obtener información sobre el rendimiento del modelo de aprendizaje automático. Por ejemplo, evalúe un despliegue para sesgo o supervise un despliegue para desviación. Al configurar evaluaciones, puede analizar los resultados de la evaluación y modelar registros de transacciones directamente en los espacios.
Para obtener más información, consulte Evaluación de despliegues en espacios.
En la región de Tokio existe un foundation model en coreano
18 de abril de 2024
El foundation model llama2-13b-dpo-v7 suministrado por Minds & Company y basado en el foundation model Llama 2 de Meta está disponible en la región de Tokio.
El foundation model llama2-13b-dpo-v7 está especializado en tareas de conversación en coreano e inglés. También puede utilizar el foundation model llama2-13b-dpo-v7 para tareas de propósito general en coreano.
Para obtener más información, consulte Modelos de base soportados.
Existe un foundation model mixtral-8x7b-instruct-v01 para inferencias
18 de abril de 2024
El foundation model mixtral-8x7b-instruct-v01 de Mistral AI está disponible para inferencias en watsonx.ai. El foundation model mixtral-8x7b-instruct-v01 es un modelo generativo preentrenado que utiliza una red dispersa de mezcla de expertos para generar texto de forma más eficiente.
Puede utilizar el modelo mixtral-8x7b-instruct-v01 para tareas de uso general, incluyendo clasificación, resumen, generación de código, traducción de idioma, etc. Para obtener más información, consulte Modelos de base soportados.
El foundation model mixtral-8x7b-instruct-v01-q está obsoleto y se retirará el 20 de junio de 2024. Revisa las indicaciones que utilicen este foundation model.
- Fecha de desuso: 19 de abril de 2024
- Fecha de retirada: 20 de junio de 2024
- Modelo alternativo: mixtral-8x7b-instruct-v01
Las solicitudes de inferencia que se envían al modelo mixtral-8x7b-instruct-v01-q utilizando la API continúan generando salida, pero incluyen un mensaje de aviso sobre la próxima retirada del modelo. A partir del 20 de junio de 2024, las solicitudes de API para inferir los modelos no generarán salida.
Para obtener más información sobre el desuso y la retirada, consulte Ciclo de vida del modelo de fundación.
Se introduce una modificación en el foundation model granite-20b-multilingual
18 de abril de 2024
La última versión de granite-20b-multilingual es 1.1.0. La modificación incluye mejoras que se han obtenido al aplicar una nueva técnica de alineación de IA al modelo de la versión 1.0 . La alineación de IA implica el uso de técnicas de aprendizaje de ajuste y refuerzo para guiar al modelo para devolver salidas que sean lo más útiles, veraces y transparentes posibles.
Para obtener más información sobre este foundation model, consulte Modelos de base compatibles.
Semana finalizada el 12 de abril de 2024
Prompt-tune el foundation model granite-13b-instruct-v2
11 de abril de 2024
Ahora, Tuning Studio permite sintonizar el foundation model base granite-13b-instruct-v2, además de los modelos de base flan-t5-xl-3b y llama-2-13b-chat. Para obtener más información, consulte Ajuste de un foundation model.
Los ajustes de configuración del experimento para ajustar el foundation model granite-13b-instruct-v2 cambian para aplicar los mejores valores predeterminados en función de su tarea. Las directrices de evaluación de ajuste le ayudan a analizar los resultados del experimento y ajustar los valores de configuración del experimento basándose en los resultados. Para obtener más información, consulte Evaluación de los resultados de un experimento de ajuste.
En la región de Fráncfort existe un foundation model en árabe
11 de abril de 2024
El foundation model jais-13b-chat proporcionado por Inception, la Universidad Mohamed bin Zayed de Inteligencia Artificial y Cerebras Systems está disponible en la región de Fráncfort.
El foundation model jais-13b-chat está especializado en tareas de conversación en árabe e inglés. También puede utilizar el " jais-13b-chat " foundation model " para tareas de propósito general en lengua árabe, incluida la traducción de idiomas entre el árabe y el inglés.
Para obtener más información, consulte Modelos de base soportados.
Ver el texto completo de una pregunta en Prompt Lab
11 de abril de 2024
Ahora puede revisar el texto completo del aviso que se enviará al foundation model, lo cual es útil cuando su aviso incluye variables de aviso o cuando está trabajando en modo estructurado o en modo chat.
Para más información, consulte Prompt Lab.
Se han retirado los modelos Granite versión 1 en desuso
11 de abril de 2024
Ahora se han retirado los siguientes modelos de base:
- granite-13b-chat-v1
- granite-13b-instruct-v1
Revise las solicitudes que utilicen estos modelos base para utilizar los modelos base IBM Granite v2 . Para obtener más información sobre la eliminación de foundation model, consulte Ciclo de vida de los modelos de Foundation.
Semana finalizada el 5 de abril de 2024
Utilizar tablas dinámicas para visualizar datos agregados en experimentos de Decision Optimization
5 de abril de 2024
Ahora puede utilizar tablas dinámicas para visualizar los datos de entrada y salida agregados en la vista Visualización en los experimentos de Decision Optimization . Para obtener más información, consulte Widgets de visualización en experimentos de Decision Optimization.
Semana finalizada el 15 de marzo de 2024
La API watsonx.ai está disponible
14 de marzo de 2024
La API watsonx.ai está disponible a nivel general. Utilice la API watsonx.ai para trabajar con modelos de base mediante programación. Para más información, consulte la referencia de la API.
La versión de la API es 2024-03-14
.
Puede seguir utilizando la biblioteca Python que está disponible para trabajar con modelos de base desde un cuaderno. Para obtener más información, consulte Biblioteca dePython.
Los nuevos modelos de fundación están disponibles en Dallas, Frankfurt y Tokio
14 de marzo de 2024
Los siguientes modelos base están ahora disponibles para la inferencia desde watsonx.ai:
granite-20b-multilingual: Un foundation model la familia IBM Granite que puede utilizar para diversas tareas generativas en inglés, alemán, español, francés y portugués.
codellama-34b-instruct-hf: modelo de generación de código programático de Code Llama que se basa en Llama 2 de Meta. Puede utilizar codellama-34b-instruct-hf para crear solicitudes para generar código basado en entradas de lenguaje natural y para completar y depurar código.
Para obtener más información, consulte Modelos de base soportados.
Semana finalizada el 8 de marzo de 2024
Tuning Studio está disponible en Frankfurt
7 de marzo de 2024
Ahora Tuning Studio está disponible para los usuarios de planes de pago en la región de Frankfurt. Tuning Studio le ayuda a guiar un foundation model para que devuelva resultados útiles. Puede sintonizar los modelos de base flan-t5-xl-3b y llama-2-70b-chat cuando utilice el Tuning Studio de Fráncfort.
Para obtener más información, consulte Tuning Studio.
Puesta a punto del foundation model llama-2-13b-chat en la región de Tokio
7 de marzo de 2024
El Tuning Studio permite ahora sintonizar el foundation model llama-2-13b-chat en la región de Tokio. En primer lugar, diseñe avisos para el modelo llama-2-70b-chat más grande en el Prompt Lab para encontrar entradas de avisos eficaces para su caso de uso. A continuación, ajuste la versión más pequeña del modelo Llama 2 para generar salidas comparables, si no mejores, con solicitudes de disparo cero.
Para obtener más información, consulte Tuning Studio.
Precio más bajo para el modelo Mixtral8x7b
5 de marzo de 2024
El ' foundation model ' mixtral-8x7b-instruct-v01-q se reclasifica de Clase 2: Unidad ' $0.0018/Resource a Clase 1: Unidad ' $0.0006/Resource, lo que hace más rentable ejecutar tareas de inferencia con este modelo. La reclasificación se aplica a todas las regiones en las que mixtral-8x7b-instruct-v01-q está disponible.
Para obtener más información, consulte Modelos de base soportados.
Para más información sobre precios, consulte los planes de tiempo de ejecución dewatsonx.ai.
El atlas de riesgo de IA se actualiza y mejora
5 de marzo de 2024
Ahora puede encontrar el siguiente contenido nuevo y mejorado en el atlas de riesgos de IA:
- Una nueva categoría de riesgos no técnicos que abarca la gobernanza, la conformidad jurídica y los riesgos de impacto social
- Nuevos ejemplos de riesgos
- Definiciones más claras de riesgos
Consulte AI risk atlas.
Nuevos casos de uso para watsonx
5 de marzo de 2024
Los casos de uso de watsonx están disponibles para ayudarle a ver cómo puede utilizar nuestros productos, servicios y herramientas:
- Caso de uso de watsonx.ai : este caso de uso describe cómo puede transformar sus procesos de negocio con soluciones basadas en IA integrando machine learning e IA generativa en su infraestructura operativa.
- Caso de uso de watsonx.governance : este caso de uso describe cómo puede definir flujos de trabajo de IA responsables, transparentes y explicables con un sistema integrado para realizar el seguimiento, la supervisión y volver a entrenar modelos de IA.
Consulte Casos de uso dewatsonx.
Semana finalizada el 1 de marzo de 2024
El modo chat está disponible en Prompt Lab
29 de febrero de 2024
El modo chat de Prompt Lab es una sencilla interfaz de chat que facilita la experimentación con modelos de cimentación. La modalidad de conversación aumenta las modalidades estructuradas y de formato libre ya disponibles que son útiles cuando se crean solicitudes de pocas o muchas para tareas como la extracción, el resumen y la clasificación. Utilice el modo Chat para simular interacciones conversacionales o de respuesta a preguntas para casos de uso de chatbot y asistente virtual.
Para más información, consulte Prompt Lab.
Hay disponible un modelo de Granite en japonés en la región de Tokio
29 de febrero de 2024
The granite-8b-japanese foundation model provided by IBM is available from watsonx.ai in the Tokyo region. El foundation model granite-8b-japanese se basa en el modelo IBM Granite Instruct y está entrenado para comprender y generar texto en japonés.
Puede utilizar el foundation model granite-8b-japanese para tareas de propósito general en japonés, como la clasificación, la extracción, la respuesta a preguntas y la traducción entre japonés e inglés.
Para obtener más información, consulte Modelos de base soportados.
Semana finalizada el 23 de febrero de 2024
Precio más bajo para los modelos Granite-13b
21 de febrero de 2024
Los modelos Granite-13b se reclasifican de Clase 2: $0.0018/Resource Unidad a Clase 1: $0.0006/Resource Unidad, lo que hace que sea más rentable ejecutar tareas de inferencia en estos modelos. La reclasificación se aplica a los modelos siguientes en todas las regiones en las que están disponibles:
- granite-13b-chat-v2
- granite-13b-chat-v1
- granite-13b-instruct-v2
- granite-13b-instruct-v1
Para obtener más información sobre estos modelos, consulte Modelos de base soportados.
Para más información sobre precios, consulte los planes de tiempo de ejecución dewatsonx.ai.
Semana finalizada el 16 de febrero de 2024
Nuevo acceso directo para empezar a trabajar en tareas comunes
15 de febrero de 2024
Ahora puede iniciar una tarea común en el proyecto pulsando un mosaico en la sección Empezar a trabajar de la pestaña Visión general . Utilice estos accesos directos para empezar a añadir colaboradores y datos, y para experimentar y crear modelos. Pulse Ver todo para ir a una selección de herramientas.
Nuevo foundation model mixtral-8x7b-instruct-v01-q para tareas generales
15 de febrero de 2024
El foundation model mixtral-8x7b-instruct-v01-q proporcionado por Mistral AI y cuantificado por IBM está disponible en watsonx.ai. El foundation model mixtral-8x7b-instruct-v01-q es una versión cuantizada del foundation model Mixtral 8x7B Instruct de Mistral AI.
Puede utilizar este nuevo modelo para tareas de uso general, incluyendo clasificación, resumen, generación de código, traducción de idioma, etc. Para obtener más información, consulte Modelos de base soportados.
Los modelos siguientes están en desuso y se retirarán pronto. Revise cualquier pregunta que utilice estos modelos básicos para utilizar otro " foundation model", como por ejemplo " mixtral-8x7b-instruct-v01-q.
Modelo en desuso | Fecha de desuso | Fecha de retirada | Modelo alternativo |
---|---|---|---|
gpt-neox-20b | 15 de febrero de 2024 | 21 de marzo de 2024 | mixtral-8x7b-instruct-v01-q |
mpt-7b-instruct2 | 15 de febrero de 2024 | 21 de marzo de 2024 | mixtral-8x7b-instruct-v01-q |
starcoder-15.5b | 15 de febrero de 2024 | 11 de abril de 2024 | mixtral-8x7b-instruct-v01-q |
Las solicitudes de inferencia que se envían a estos modelos utilizando la API siguen generando salida, pero incluyen un mensaje de aviso sobre la próxima retirada del modelo. Cuando se alcanza la fecha de retirada, las solicitudes de API para inferir los modelos no generarán salida.
Para obtener más información sobre el desuso y la retirada, consulte Ciclo de vida del modelo de fundación.
Existe una modificación del foundation model granite-13b-chat-v2
15 de febrero de 2024
La versión más reciente de granite-13b-chat-v2 es 2.1.0. La modificación incluye mejoras que se han obtenido aplicando una nueva técnica de alineación de IA al modelo de la versión 2.0.0 . La alineación de IA implica el uso de técnicas de aprendizaje de ajuste y refuerzo para guiar al modelo para devolver salidas que sean lo más útiles, veraces y transparentes posibles. Para más información, consulte la sección ¿Qué es la alineación AI? publicación de blog de IBM Research.
Nuevo tutorial y vídeo de watsonx
15 de febrero de 2024
Pruebe la nueva guía de aprendizaje de watsonx.governance para ayudarle a aprender a evaluar un modelo de aprendizaje automático para obtener equidad, precisión, desviación y explicabilidad con Watson OpenScale.
Guía de aprendizaje | Descripción | Experiencia para guía de aprendizaje |
---|---|---|
Evaluar un modelo de aprendizaje automático | Despliegue un modelo, configure supervisores para el modelo desplegado y evalúe el modelo. | Ejecute un cuaderno para configurar los modelos y utilice Watson OpenScale para evaluar. |
Semana finalizada el 09 de febrero de 2024
Documentación de Decision Optimization más orientada a tareas
9 de febrero de 2024
Ahora puede encontrar más fácilmente la información correcta para crear y configurar experimentos de Decision Optimization . Consulte Experimentos deDecision Optimization y sus subsecciones.
La conexión IBM Cloud Data Engine está obsoleta
8 de febrero de 2022
La conexión IBM Cloud Data Engine está obsoleta y dejará de utilizarse en una futura versión. Consulte las fechas y los detalles importantes en la sección "Eliminación del motor de datos ".
Nuevo entorno de Spark 3.4 para ejecutar trabajos de flujo de Data Refinery
9 de febrero de 2024
Cuando selecciona un entorno para un trabajo de flujo de Data Refinery , ahora puede seleccionar Spark predeterminado 3.4 & R 4.2, que incluye mejoras de Spark.
El entorno Spark predeterminado 3.3 & R 4.2 está en desuso y se eliminará en una actualización futura.
Actualice los trabajos de flujo de Data Refinery para utilizar el nuevo entorno Spark predeterminado 3.4 & R 4.2 . Para obtener detalles, consulte Calcular opciones de recursos para Data Refinery en proyectos.
Semana finalizada el 2 de febrero de 2024
Colección de ejemplos renombrada como concentrador de recursos
2 de febrero de 2024
La colección de ejemplos se ha renombrado como concentrador de recursos para reflejar mejor el contenido. El concentrador de recursos contiene modelos de base y proyectos de ejemplo, conjuntos de datos y cuadernos. Consulte Concentrador de recursos.
IBM Cloud Databases for DataStax se ha interrumpido
2 de febrero de 2024
Se ha eliminado la conexión IBM Cloud Databases for DataStax de IBM watsonx.ai.
La conexión de Dremio requiere actualizaciones
2 de febrero de 2024
Anteriormente, la conexión Dremio utilizaba un controlador JDBC . Ahora la conexión utiliza un conductor basado en Arrow Flight.
Importante: actualice las propiedades de conexión. Se aplican cambios diferentes a una conexión para una instancia de Dremio Software (local) o una instancia de Dremio Cloud.
Dremio Software: actualice el número de puerto.
El nuevo número de puerto predeterminado que utiliza Flight es 32010
. Puede confirmar el número de puerto en el archivo dremio.conf . Consulte Configuración a través de dremio.conf para obtener más información.
Además, Dremio ya no admite conexiones con IBM Cloud Satellite.
Dremio Cloud: actualice el método de autenticación y el nombre de host.
- Inicie sesión en Dremio y genere una señal de acceso personal. Para obtener instrucciones, consulte Fichas de acceso personal.
- En IBM watsonx en el formulario Crear conexión: Dremio , cambie el tipo de autenticación a Señal de acceso personal y añada la información de señal. (La autenticación de Nombre de usuario y contraseña ya no se puede utilizar para conectarse a una instancia de Dremio Cloud.)
- Seleccione El puerto está habilitado para SSL.
Si utiliza el nombre de host predeterminado para una instancia de Dremio Cloud, debe cambiarlo:
- Cambie
sql.dremio.cloud
pordata.dremio.cloud
- Cambie
sql.eu.dremio.cloud
pordata.eu.dremio.cloud
Prompt-tune el foundation model llama-2-13b-chat
1 de febrero de 2024
El Tuning Studio permite ahora sintonizar el foundation model llama-2-13b-chat. En primer lugar, diseñe avisos para el modelo llama-2-70b-chat más grande en el Prompt Lab para encontrar entradas de avisos eficaces para su caso de uso. A continuación, ajuste la versión más pequeña del modelo Llama 2 para generar salidas comparables, si no mejores, con solicitudes de disparo cero. El llama-2-13b-model está disponible para su rápida puesta a punto en la región de Dallas. Para obtener más información, consulte Tuning Studio.
Semana finalizada el 26 de enero de 2024
AutoAI da soporte a datos ordenados para todos los experimentos
25 de enero de 2024
Ahora puede especificar datos ordenados para todos los experimentos de AutoAI en lugar de solo experimentos de series temporales. Especifique si los datos de entrenamiento se ordenan secuencialmente, según un índice de fila. Cuando los datos de entrada son secuenciales, el rendimiento del modelo se evalúa en los registros más recientes en lugar de en un muestreo aleatorio, y los datos reservados utilizan los últimos n registros del conjunto en lugar de n registros aleatorios. Los datos secuenciales son necesarios para los experimentos de series temporales, pero son opcionales para los experimentos de clasificación y regresión.
Preguntas y respuestas con acelerador RAG
26 de enero de 2024
Ahora puede implementar una solución de pregunta y respuesta que utilice la generación aumentada de recuperación importando un proyecto de ejemplo. El proyecto de ejemplo contiene cuadernos y otros activos que convierten documentos de HTML o PDF en texto sin formato, importan segmentos de documento en un índice de vector Elasticsearch , despliegan una función Python que consulta el índice de vector, recuperan los N primeros resultados, ejecutan la inferencia LLM para generar una respuesta a la pregunta y comprueban si hay alucinaciones en la respuesta.
Pruebe Q & A con acelerador RAG.
Establecer en tema oscuro
25 de enero de 2024
Ahora puede establecer la interfaz de usuario de watsonx en tema oscuro. Pulse su avatar y seleccione Perfil y valores para abrir su perfil de cuenta. A continuación, active el conmutador de tema oscuro. El tema oscuro no está soportado en RStudio y Jupyter notebooks. Para obtener información sobre la gestión del perfil, consulte Gestión de los valores.
IBM watsonx.ai está disponible en la región de Tokio
25 de enero de 2024
Watsonx.ai ahora está disponible de forma general en el centro de datos de Tokio y se puede seleccionar como la región preferida al registrarse. El Prompt Lab y la inferencia de foundation model son compatibles en la región de Tokio para estos modelos:
- elyza-japanese-llama-2-7b-instruct
- flan-t5-xl-3b
- flan-t5-xxl-11b
- flan-ul2-20b
- granite-13b-chat-v2
- granite-13b-instruct-v2
- llama-2-70b-chat
- llama-2-13b-chat
También disponible en la región de Tokio:
- Sintonización del foundation model flan-t5-xl-3b con Tuning Studio
- Generación de datos tabulares con el Synthetic Data Generator para utilizar para modelos de entrenamiento
Para obtener más información sobre los modelos soportados, consulte Modelos base soportados disponibles con watsonx.ai.
Un modelo Llama 2 en japonés está disponible en la región de Tokio
25 de enero de 2024
El foundation model elyza-japanese-llama-2-7b-instruct proporcionado por ELYZA, Inc está disponible en las instancias watsonx.ai del centro de datos de Tokio. El modelo elyza-japanese-llama-2-7b-instruct es una versión del modelo Llama 2 de Meta entrenada para comprender y generar texto en japonés.
Puede utilizar este nuevo modelo para tareas de finalidad general. Funciona bien para la clasificación y extracción en japonés y para la traducción entre japonés e inglés.
Semana finalizada el 12 de enero de 2024
Soporte para IBM Runtime 22.2 obsoleto en watsonx.ai Runtime (anteriormente Watson Machine Learning)
11 de enero de 2024
IBM Runtime 22.2 está en desuso y se eliminará el 11 de abril de 2024. A partir del 7 de marzo de 2024, no puede crear cuadernos o entornos personalizados utilizando los tiempos de ejecución 22.2 . Además, no puede entrenar modelos nuevos con especificaciones de software basadas en el tiempo de ejecución 22.2 . Actualice los activos y despliegues para utilizar IBM Runtime 23.1 antes del 7 de marzo de 2024.
- Para obtener más información sobre cómo migrar un activo a una infraestructura soportada y una especificación de software, consulte Gestión de especificaciones de software o infraestructuras obsoletas.
- Para obtener más información sobre el entorno del cuaderno, consulte Compute resource options for the notebook editor in projects.
- Para obtener más información sobre cómo cambiar el entorno, consulte Cambio del entorno de un cuaderno.
IBM Granite v1 están en desuso
11 de enero de 2024
Los modelos base IBM Granite de 13.000 millones de parámetros v1 están en desuso y se retirarán el 11 de abril de 2024. Si está utilizando la versión 1 de los modelos, cambie a la versión 2 de los modelos en su lugar.
Modelo en desuso | Fecha de desuso | Fecha de retirada | Modelo alternativo |
---|---|---|---|
granite-13b-chat-v1 | 11 de enero de 2024 | 11 de abril de 2024 | granite-13b-chat-v2 |
granite-13b-instruct-v1 | 11 de enero de 2024 | 11 de abril de 2024 | granite-13b-instruct-v2 |
Las solicitudes de inferencia que se envían a los modelos de la versión 1 utilizando la API siguen generando salida, pero incluyen un mensaje de aviso sobre la próxima retirada del modelo. A partir del 11 de abril de 2024, las solicitudes de API para inferir los modelos no generarán salida.
Para obtener más información sobre los modelos base de IBM Granite , consulte Modelos base creados por IBM. Para obtener más información sobre el desuso y la retirada, consulte Ciclo de vida del modelo de fundación.
Semana finalizada el 15 de diciembre de 2023
Crear claves de API de usuario para trabajos y otras operaciones
15 de diciembre de 2023
Determinadas operaciones de tiempo de ejecución en IBM watsonx, como trabajos y entrenamiento de modelos, requieren una clave de API como credencial para una autorización segura. Con las claves de API de usuario, ahora puede generar y rotar una clave de API directamente en IBM watsonx según sea necesario para asegurarse de que las operaciones se ejecutan sin problemas. Las claves de API se gestionan en IBM Cloud, pero puede crearlas y rotarlas convenientemente en IBM watsonx.
La clave de API de usuario es específica de la cuenta y se crea a partir de Perfil y valores bajo su perfil de cuenta.
Para obtener más información, consulte Gestión de la clave de API de usuario.
Nuevas guías de aprendizaje y vídeos de watsonx
15 de diciembre de 2023
Pruebe los nuevos tutoriales ' watsonx.governance y ' watsonx.ai ' para aprender a afinar un ' foundation model, y evaluar y realizar el seguimiento de una plantilla de avisos.
Guía de aprendizaje | Descripción | Experiencia para guía de aprendizaje |
---|---|---|
Afinar un foundation model | Ajuste un foundation model para mejorar su rendimiento. | Utilice Tuning Studio para ajustar un modelo sin codificación. |
Evaluar y realizar el seguimiento de una plantilla de solicitud | Evaluar una plantilla de avisos para medir el rendimiento del foundation model y realizar un seguimiento de la plantilla de avisos a lo largo de su ciclo de vida. | Utilice la herramienta de evaluación y un caso de uso de IA para realizar un seguimiento de la plantilla de solicitud. |
Encuentre más vídeos de watsonx.governance y watsonx.ai en Videoteca.
Nueva caducidad de sesión de inicio de sesión y cierre de sesión debido a inactividad
15 de diciembre de 2023
Ahora ha finalizado la sesión de IBM Cloud debido a la caducidad de la sesión. La sesión puede caducar debido a la caducidad de la sesión de inicio de sesión (24 horas de forma predeterminada) o a la inactividad (2 horas de forma predeterminada). Puede cambiar las duraciones predeterminadas en los valores de Acceso (IAM) en IBM Cloud. Para obtener más información, consulte Establecer la caducidad de la sesión de inicio de sesión.
IBM Cloud Databases for DataStax está obsoleto
15 de diciembre de 2023
El conector IBM Cloud Databases for DataStax está obsoleto y dejará de utilizarse en una futura versión.
Semana finalizada el 08 de diciembre de 2023
Tuning Studio está disponible
7 de diciembre de 2023
El Tuning Studio le ayuda a guiar un foundation model para que devuelva resultados útiles. Con Tuning Studio Studio, puede ajustar puntualmente el foundation model flan-t5-xl-3b para mejorar su rendimiento en tareas de procesamiento del lenguaje natural como la clasificación, el resumen y la generación. El ajuste rápido ayuda a los modelos de base más pequeños y más eficientes computacionalmente a obtener resultados comparables a los modelos más grandes de la misma familia de modelos. Al ajustar y desplegar una versión ajustada de un modelo más pequeño, puede reducir los costes de inferencia a largo plazo. Tuning Studio está disponible para los usuarios de planes de pago en la región de Dallas.
- Para obtener más información, consulte Tuning Studio.
- Para empezar, consulte Inicio rápido: Ajuste de un foundation model.
- Para ejecutar un cuaderno de ejemplo, vaya a Ajustar un modelo para clasificar documentos CFPB en watsonx.
Nuevas propiedades de cliente en conexiones Db2 para la gestión de carga de trabajo
8 de diciembre de 2023
Ahora puede especificar propiedades en los campos siguientes para fines de supervisión: Nombre de aplicación, Información de contabilidad de cliente, Nombre de host de clientey Usuario de cliente. Estos campos son opcionales y están disponibles para las conexiones siguientes:
Semana finalizada el 1 de diciembre de 2023
Watsonx.governance está disponible.
1 de diciembre de 2023
Watsonx.governance amplía las capacidades de gobernanza de Watson OpenScale para evaluar los activos de foundation model, así como los activos de aprendizaje automático. Por ejemplo, evaluar las plantillas de avisos de foundation model en función de dimensiones como la precisión o para detectar la presencia de expresiones de odio e insultantes. También puede definir casos de uso de IA para abordar problemas empresariales y, a continuación, realizar un seguimiento de plantillas de solicitud o datos de modelo en hojas de datos para dar soporte a los objetivos de conformidad y gobierno. Los planes y funciones Watsonx.governance sólo están disponibles en la región de Dallas.
- Para ver los detalles del plan, consulte los planes de watsonx.governance .
- Para obtener detalles sobre las características de gobierno, consulte Visión general dewatsonx.governance.
Explore con el atlas de riesgos de IA
1 de diciembre de 2023
Ahora puede explorar algunos de los riesgos de trabajar con IA generativa, modelos de base y modelos de aprendizaje automático. Lea acerca de los riesgos para la privacidad, la equidad, la explicabilidad, la alineación de valores y otras áreas. Consulte AI risk atlas.
Hay disponibles nuevas versiones de los modelos IBM Granite
30 de noviembre de 2023
Las últimas versiones de los modelos de Granite incluyen estos cambios:
granito-13b-chat-v2: Ajuste para mejorar las tareas de respuesta a preguntas, resumen y generativas. Con un contexto suficiente, genera respuestas con las mejoras siguientes respecto a la versión anterior:
- Genera respuestas más largas y de mayor calidad con un tono profesional
- Da soporte a respuestas de cadena de pensamiento
- Reconoce las menciones de las personas y puede detectar mejor el tono y el sentimiento
- Maneja los espacios en blanco en la entrada de forma más ordenada
Debido a los amplios cambios, pruebe y revise las solicitudes diseñadas para v1 antes de cambiar a la versión más reciente.
granito-13b-instruct-v2: Ajuste específico para tareas de clasificación, extracción y resumen. La versión más reciente difiere de la versión anterior de las siguientes maneras:
- Devuelve respuestas más coherentes de longitudes variadas y con un vocabulario diverso
- Reconoce menciones de personas y puede resumir entradas más largas
- Maneja los espacios en blanco en la entrada de forma más ordenada
Es probable que las solicitudes diseñadas que funcionan bien con v1 también funcionen bien con v2 , pero asegúrese de probar antes de cambiar de modelo.
Las últimas versiones de los modelos Granite se clasifican como modelos de Clase 2.
Algunos modelos de base ya están disponibles a un coste menor
30 de noviembre de 2023
Algunos modelos de fundación populares fueron recategorizados en clases de facturación de menor costo.
Los siguientes modelos de base han cambiado de Clase 3 a Clase 2:
- granite-13b-chat-v1
- granite-13b-instruct-v1
- llama-2-70b
El siguiente foundation model pasó de la Clase 2 a la Clase 1:
- llama-2-13b
Para obtener más información sobre las clases de facturación, consulte los planes de tiempo de ejecución dewatsonx.ai.
Hay disponible un nuevo cuaderno de ejemplo: Introducción a RAG con Discovery
30 de noviembre de 2023
Utilice el cuaderno Introducción a RAG con descubrimiento para aprender a aplicar el patrón de generación de recuperación aumentada en IBM watsonx.ai con IBM Watson Discovery como componente de búsqueda. Para más información, consulte Introducción al GAR con Discovery.
Comprender las diferencias de características entre watsonx como servicio y despliegues de software
30 de noviembre de 2023
Ahora puede comparar las características y la implementación del software IBM watsonx as a Service y watsonx en Cloud Pak for Data , versión 4.8. Consulte Diferencias de características entre despliegues de watsonx.
Cambiar la forma en que se manejan las secuencias de detención
30 de noviembre de 2023
Cuando se especifica una secuencia de parada, como un carácter de nueva línea, en el Prompt Lab, el texto de salida del modelo termina después de la primera aparición de la secuencia de parada. La salida del modelo se detiene incluso si la aparición se produce al principio de la salida. Anteriormente, la secuencia de detención se ignoraba si se especificaba al principio de la salida del modelo.
Semana finalizada el 10 de noviembre de 2023
Hay disponible una versión más pequeña del modelo de conversación Llama-2
9 de noviembre de 2023
Ahora puede elegir entre utilizar las versiones 13b o 70b del modelo de conversación Llama-2 . Tenga en cuenta estos factores cuando elija:
- Coste
- Rendimiento
La versión 13b es un modelo de Clase 2, lo que significa que es más barato de utilizar que la versión 70b . Para comparar los valores de referencia y otros factores, como las emisiones de carbono de cada tamaño de modelo, consulte la ficha Modelo.
Utilizar variables de solicitud para crear solicitudes reutilizables
Añada flexibilidad a las solicitudes con variables de solicitud. Las variables de solicitud funcionan como marcadores en el texto estático de la entrada de solicitud que puede sustituir por texto dinámicamente en el momento de la inferencia. Puede guardar los nombres de variable de solicitud y los valores predeterminados en un activo de plantilla de solicitud para reutilizarlos o compartirlos con los colaboradores del proyecto. Para obtener más información, consulte Creación de solicitudes reutilizables.
Anuncio de soporte para las infraestructuras y especificaciones de software de Python 3.10 y R4.2 en el tiempo de ejecución 23.1
9 de noviembre de 2023
Ahora puede utilizar IBM Runtime 23.1, que incluye los últimos marcos de ciencia de datos basados en Python 3.10 y R 4.2, para ejecutar cuadernos Jupyter y scripts R, entrenar modelos y ejecutar despliegues. Actualice sus activos y despliegues para utilizar los marcos de trabajo y las especificaciones de software de IBM Runtime 23.1.
- Para obtener información sobre el release de IBM Runtime 23.1 y los entornos incluidos para Python 3.10 y R 4.2, consulte Cambio de entornos de cuaderno.
- Para obtener detalles sobre las infraestructuras de despliegue, consulte Gestión de infraestructuras y especificaciones de software.
Utilice Apache Spark 3.4 para ejecutar cuadernos y scripts
Spark 3.4 con Python 3.10 y R 4.2 es ahora compatible como tiempo de ejecución para cuadernos y scripts RStudio en proyectos. For details on available notebook environments, see Opciones de recursos de cálculo para el editor de cuadernos en proyectos and Calcular las opciones de recursos para " RStudio " en los proyectos.
Semana finalizada el 27 de octubre de 2023
Utilice un conector de Satellite para conectarse a una base de datos local
26 de octubre de 2023
Utilice el nuevo conector Satellite para conectarse a una base de datos a la que no se puede acceder a través de Internet (por ejemplo, detrás de un cortafuegos). Satellite Connector utiliza una comunicación ligera basada en Dockerque crea comunicaciones seguras y auditables desde el entorno local a IBM Cloud. Para obtener instrucciones, consulte Conexión a datos detrás de un cortafuegos.
Secure Gateway está en desuso
26 de octubre de 2023
IBM Cloud ha anunciado el desuso de Secure Gateway. Para más información, consulte el Panorama general y la cronología.
Si actualmente tiene conexiones configuradas con Secure Gateway, planifique utilizar un método de comunicación alternativo. En IBM watsonx, puede utilizar el conector Satellite como sustitución de Secure Gateway. Consulte Conexión a datos detrás de un cortafuegos.
Semana finalizada el 20 de octubre de 2023
Tamaño máximo de señal aumentado
16 de octubre de 2023
Los límites aplicados anteriormente al número máximo de tokens permitidos en la salida de los modelos de base se eliminan de los planes de pago. Puede utilizar valores máximos de token más grandes durante la ingeniería de prompt tanto desde el Prompt Lab como desde la librería Python. El número exacto de señales permitidas difiere según el modelo. Para obtener más información sobre los límites de señal para planes de pago y Lite, consulte Modelos de base soportados.
Semana finalizada el 13 de octubre de 2023
Nuevos cuadernos en Ejemplos
12 de octubre de 2023
Hay disponibles dos nuevos cuadernos que utilizan una base de datos de vector de Elasticsearch en la fase de recuperación del patrón de generación de recuperación aumentada. Los cuadernos muestran cómo encontrar coincidencias basadas en la similitud semántica entre los documentos indexados y el texto de consulta que se envía desde un usuario.
Soluciones intermedias en Decision Optimization
12 de octubre de 2023
Ahora puede elegir ver un ejemplo de soluciones intermedias mientras se ejecuta un experimento de Decision Optimization . Esto puede ser útil para depurar o para ver cómo progresa el solucionador. Para los modelos grandes que tardan más en resolverse, con soluciones intermedias ahora puede identificar de forma rápida y sencilla cualquier problema potencial con la solución, sin tener que esperar a que la solución se complete. Puede configurar el parámetro Entrega de soluciones intermedias en la Configuración de ejecución y seleccionar una frecuencia para estas soluciones. Para obtener más información, consulte Soluciones intermedias y Parámetros de configuración de ejecución.
Nuevo diálogo de modelo guardado de Decision Optimization
Al guardar un modelo para el despliegue desde la interfaz de usuario de Decision Optimization , ahora puede revisar el esquema de entrada y salida y seleccionar más fácilmente las tablas que desea incluir. También puede añadir, modificar o suprimir parámetros de configuración de ejecución, revisar el entorno y los archivos de modelo utilizados. Todos estos elementos se muestran en el mismo diálogo Guardar como modelo para despliegue . Para obtener más información, consulte Despliegue de un modelo de Decision Optimization utilizando la interfaz de usuario.
Semana finalizada el 6 de octubre de 2023
Modelos de base adicionales en Frankfurt
5 de octubre de 2023
Todos los modelos de base que están disponibles en el centro de datos de Dallas ahora también están disponibles en el centro de datos de Frankfurt. El Prompt Lab watsonx.ai y la inferencia de foundation model ya son compatibles con estos modelos en la región de Fráncfort:
- granite-13b-chat-v1
- granite-13b-instruct-v1
- llama-2-70b-chat
- gpt-neox-20b
- mt0-xxl-13b
- starcoder-15.5b
Para obtener más información sobre estos modelos, consulte Modelos de base soportados disponibles con watsonx.ai.
Para más información sobre precios, consulte los planes de tiempo de ejecución dewatsonx.ai.
Controlar la colocación de una nueva columna en la operación Concatenar (Data Refinery)
6 de octubre de 2023
Ahora tiene dos opciones para especificar la posición de la nueva columna que resulta de la operación Concatenar : como la columna situada más a la derecha en el conjunto de datos o junto a la columna original.
Anteriormente, la nueva columna se colocaba al principio del conjunto de datos.
Edite la operación Concatenar en cualquiera de los flujos de Data Refinery existentes para especificar la nueva posición de columna. De lo contrario, el flujo podría fallar.
Para obtener información sobre las operaciones de Data Refinery , consulte Operaciones de la GUI en Data Refinery.
Semana finalizada el 29 de septiembre de 2023
IBM Granite modelos base para la generación de lenguaje natural
28 de septiembre de 2023
Los dos primeros modelos de la familia Granite de los modelos base de IBM están ahora disponibles en la región de Dallas:
- grite-13b-chat-v1: modelo de uso general optimizado para casos de uso de diálogo
- grite-13b-instruct-v1: Modelo de uso general optimizado para responder a preguntas
Ambos modelos son modelos de decodificador 13B-parameter que pueden predecir y generar eficazmente el idioma en inglés. Ellos, como todos los modelos de la familia Granite , están diseñados para los negocios. Los modelos de Granite están preentrenados en varios terabytes de datos de fuentes de lenguaje general, como Internet público, y fuentes de datos específicas de la industria de los campos académico, científico, legal y financiero.
Pruébelos hoy mismo en el Prompt Lab o ejecute un cuaderno de muestra que utilice el modelo granite-13b-instruct-v1 para el análisis de sentimientos.
Lea la entrada de blog Building AI for business: IBM's Granite foundation models para obtener más información.
- Para obtener más información sobre estos modelos, consulte Modelos de base soportados disponibles con watsonx.ai.
- Para obtener una descripción de ejemplos de instrucciones, consulte Ejemplo de instrucciones foundation model para tareas habituales.
- Para más información sobre precios, consulte los planes de tiempo de ejecución dewatsonx.ai.
Semana finalizada el 22 de septiembre de 2023
Modelos Java de Decision Optimization
20 de septiembre de 2023
Los modelos Java de Decision Optimization ahora se pueden implementar en watsonx.ai Runtime (anteriormente Watson Machine Learning). Utilizando la API de trabajador de Java, puede crear modelos de optimización con las API de Java de OPL, CPLEX y CP Optimizer. Ahora puede crear fácilmente sus modelos localmente, empaquetarlos y desplegarlos en ' watsonx.ai ' Runtime utilizando el boilerplate que se proporciona en el ' Trabajador Java " GitHub público . Para obtener más información, consulte Despliegue de modelos Java para la Decision Optimization.
Nuevos cuadernos en el concentrador de recursos
21 de septiembre de 2023
Puede utilizar los siguientes cuadernos nuevos en el concentrador de recursos:
Semana finalizada el 15 de septiembre de 2023
Guías de aprendizaje de inicio rápido de datos sintéticos y de ingeniería de solicitud
14 de septiembre de 2023
Pruebe las nuevas guías de aprendizaje para ayudarle a aprender a:
- Estimular a los modelos de cimentación: Suele haber varias formas de incitar a un foundation model cimentación para obtener un resultado satisfactorio. En el Prompt Lab, puede experimentar con diferentes modelos de fundamentos, explorar ejemplos de instrucciones, así como guardar y compartir sus mejores instrucciones. Una forma de mejorar la precisión de la salida generada es proporcionar los hechos necesarios como contexto en el texto de solicitud utilizando el patrón de generación de recuperación aumentada.
- Generar datos sintéticos: puede generar datos tabulares sintéticos en watsonx.ai. La ventaja de los datos sintéticos es que puede obtener los datos bajo demanda y, a continuación, personalizarlos para que se ajusten a su caso de uso y producirlos en grandes cantidades.
Guía de aprendizaje | Descripción | Experiencia para guía de aprendizaje |
---|---|---|
Solicitar un " foundation model " utilizando un " Prompt Lab | Experimente con la solicitud de diferentes modelos de base, explore las solicitudes de ejemplo y guarde y comparta sus mejores solicitudes. | Prompt a model using Prompt Lab Lab without coding. |
Promover un foundation model con el patrón de generación de recuperación aumentada | Promover un foundation model aprovechando la información de una base de conocimientos. | Utilice el patrón de generación de recuperación aumentada en un cuaderno Jupyter que utilice el código Python . |
Generar datos tabulares sintéticos | Generar datos tabulares sintéticos utilizando un editor de flujo gráfico. | Seleccione operaciones para generar datos. |
Comunidad de Watsonx.ai
14 de septiembre de 2023
Ya puedes unirte a la Comunidadwatsonx.ai para arquitectos y constructores de IA para aprender, compartir ideas y conectar con otros.
Semana finalizada el 8 de septiembre de 2023
Generar datos tabulares sintéticos con Synthetic Data Generator
7 de septiembre de 2023
Ahora disponible en las regiones de Dallas y Frankfurt, Synthetic Data Generator es una nueva herramienta de editor gráfico en watsonx.ai que puede utilizar para generar datos tabulares para utilizar para modelos de entrenamiento. Utilizando flujos visuales y un modelo estadístico, puede crear datos sintéticos basados en los datos existentes o en un esquema de datos personalizado. Puede elegir enmascarar los datos originales y exportar los datos sintéticos a una base de datos o como un archivo.
Para empezar, consulte Datos sintéticos.
Llama-2 Modelo de base para la generación de lenguaje natural y el chat
7 de septiembre de 2023
El modelo de fundación Llama-2 de Meta ya está disponible en la región de Dallas. Llama-2 El modelo de conversación es un modelo de lenguaje autorregresivo que utiliza una arquitectura de transformador optimizado. El modelo está preentrenado con datos en línea disponibles públicamente, y luego afinado utilizando el aprendizaje de refuerzo de la retroalimentación humana. El modelo está pensado para uso comercial y de investigación en escenarios de chat tipo asistente en inglés.
- Para obtener más información sobre el modelo Llama-2 , consulte Modelos de base soportados disponibles con watsonx.ai.
- Para obtener una descripción de ejemplos de instrucciones, consulte Ejemplo de instrucciones foundation model para tareas habituales.
- Para conocer los precios de Llama-2, consulte los planes de tiempo de ejecución dewatsonx.ai.
Extensión LangChain para la biblioteca Python de los modelos base
7 de septiembre de 2023
Ahora puede utilizar la infraestructura LangChain con modelos base en watsonx.ai con la nueva extensión LangChain para la biblioteca Python de modelos base.
Este cuaderno de muestra muestra cómo utilizar la nueva extensión: Cuaderno de ejemplo
Ejemplo introductorio para el patrón de generación de recuperación aumentada
7 de septiembre de 2023
La generación aumentada de recuperación es una técnica simple y potente para aprovechar una base de conocimiento para obtener resultados objetivamente precisos de los modelos de base.
Consulte: Introducción a la recuperación-generación aumentada
Semana finalizada el 1 de septiembre de 2023
Desuso de comentarios en cuadernos
31 de agosto de 2023
A partir de hoy no es posible añadir comentarios a un cuaderno desde la barra de acciones del cuaderno. Se han eliminado los comentarios existentes.
StarCoder Foundation Model para la generación de código y la conversión de código
31 de agosto de 2023
El modelo StarCoder de Hugging Face Face ya está disponible en la región de Dallas. Utilice StarCoder para crear instrucciones para generar código o para transformar código de un lenguaje de programación a otro. Un ejemplo muestra cómo utilizar StarCoder para generar código Python a partir de un conjunto de instrucciones. Un segundo ejemplo muestra cómo utilizar StarCoder para transformar código escrito en C++ a código Python.
- Para obtener más información sobre el modelo StarCoder , consulte Modelos base soportados disponibles con watsonx.ai.
- Para obtener una descripción de las instrucciones de ejemplo, consulte Instrucciones de ejemplo foundation model para tareas habituales.
IBM watsonx.ai está disponible en la región de Frankfurt
31 de agosto de 2023
Watsonx.ai ahora está disponible a nivel general en el centro de datos de Frankfurt y se puede seleccionar como la región preferida al registrarse. El Prompt Lab y la inferencia de foundation model son compatibles con estos modelos en la región de Fráncfort:
mpt-7b-instruct2
flan-t5-xxl-11b
flan-ul2-20b
Para obtener más información sobre los modelos soportados, consulte Modelos base soportados disponibles con watsonx.ai.
Semana finalizada el 25 de agosto de 2023
Mejoras de memoria caché adicionales disponibles para Watson Pipelines
21 de agosto de 2023
Hay más opciones disponibles para personalizar los valores de flujo de conducto. Ahora puede ejercer un mayor control sobre cuándo se utiliza la memoria caché para las ejecuciones de interconexión. Para obtener detalles, consulte Gestión de valores predeterminados.
Semana finalizada el 18 de agosto de 2023
Actualización del nombre del plan para el servicio watsonx.ai Runtime (anteriormente Watson Machine Learning)
18 de agosto de 2023
A partir de ahora, los nombres de los planes se actualizan para el servicio IBM watsonx.ai Runtime de la siguiente manera:
El plan estándar v2 es ahora el plan Essentials . El plan está diseñado para proporcionar a su organización los recursos necesarios para empezar a trabajar con modelos de base y activos de aprendizaje automático.
El plan v2 Professional es ahora el plan Estándar . Este plan proporciona recursos diseñados para dar soporte a la mayoría de las organizaciones a través de la creación de activos para un uso productivo.
Los cambios en los nombres de plan no cambian los términos del servicio. Es decir, si está registrado para utilizar el plan estándar v2 , ahora se denominará Essentials, pero todos los detalles del plan permanecerán iguales. De forma similar, si está registrado para utilizar el plan Profesional v2 , no hay ningún cambio que no sea el cambio de nombre de plan a Estándar.
Para obtener más información sobre lo que incluye cada plan, consulte watsonx.ai Planes de tiempo de ejecución. Para obtener información sobre precios, busque su plan en la página del planwatsonx.ai Runtime en el catálogo de IBM Cloud.
Semana finalizada el 11 de agosto de 2023
Desuso de comentarios en cuadernos
7 de agosto de 2023
El 31 de agosto de 2023, ya no podrá añadir comentarios a un cuaderno desde la barra de acciones del cuaderno. Los comentarios existentes que se hayan añadido de esta forma se eliminarán.
Semana finalizada el 4 de agosto de 2023
Aumento del límite de señal para el plan Lite
4 de agosto de 2023
Si está utilizando el plan Lite para probar modelos de base, el límite de señal para entrada y salida de solicitud ahora se incrementa de 25.000 a 50.000 por cuenta al mes. Esto le proporciona más flexibilidad para explorar modelos de base y experimentar con solicitudes.
- Para más información sobre los planes " watsonx.ai ", consulte " watsonx.ai ' Planes de tiempo de ejecución.
- Para obtener más información sobre cómo trabajar con prompts, consulte Engineer prompts with the Prompt Lab.
Plantilla de análisis de texto personalizado (SPSS Modeler)
4 de agosto de 2023
Para SPSS Modeler, ahora puede cargar una plantilla de análisis de texto personalizada en un proyecto. Esto le proporciona más flexibilidad para capturar y extraer conceptos clave de una forma exclusiva para su contexto.
Semana finalizada el 28 de julio de 2023
Biblioteca Python de modelos de base disponible
27 de julio de 2023
Ahora puede solicitar modelos base en watsonx.ai mediante programación utilizando una biblioteca Python .
Consulte: Biblioteca Python de modelos de base
Semana finalizada el 14 de julio de 2023
Controlar guardaraíles de IA
14 de julio de 2023
Ahora puedes controlar si los guardarraíles de IA están activados o desactivados en el Prompt Lab. Los guardaraíles de IA eliminan el texto potencialmente dañino de los campos de entrada y salida. El texto dañino puede incluir el discurso de odio, el abuso y la blasfemia. Para evitar la eliminación de texto potencialmente dañino, establezca el conmutador Guardaraíles de IA en desactivado. Consulte Odio, abuso y blasfemia.
La conexión de Microsoft Azure SQL Database da soporte a la autenticación de Azure Active Directory (Azure AD)
14 de julio de 2023
Ahora puede seleccionar Active Directory para la conexión Microsoft Azure SQL Database . La autenticación de Active Directory es una alternativa a la autenticación de SQL Server . Con esta mejora, los administradores pueden gestionar de forma centralizada los permisos de usuario para Azure. Para obtener más información, consulte Conexión deMicrosoft Azure SQL Database.
Semana finalizada el 7 de julio de 2023
Bienvenido a IBM watsonx.ai.
7 de julio de 2023
IBM watsonx.ai ofrece todas las herramientas que necesita para trabajar con modelos de aprendizaje automático y base.
Cómo empezar:
Pruebe la búsqueda y respuesta de IA generativa en esta documentación
7 de julio de 2023
Puede ver IA generativa en acción probando la nueva opción de búsqueda y respuesta de IA generativa en la documentación de watsonx.ai . Las respuestas las genera un modelo de lenguaje grande que se ejecuta en watsonx.ai y se basa en el contenido de la documentación. Esta característica sólo está disponible cuando está viendo la documentación mientras ha iniciado sesión en watsonx.ai.
Introduzca una pregunta en el campo de búsqueda de documentación y haga clic en el icono Probar búsqueda y respuesta de IA generativa . El Búsqueda y respuesta de IA generativa El panel se abre y responde a su pregunta.