0 / 0
Volver a la versión inglesa de la documentación
Novedades

Novedades

Consulte cada semana para obtener más información sobre las nuevas características y actualizaciones de IBM watsonx.ai e IBM watsonx.governance.

Sugerencia: En ocasiones, debe realizar una acción específica después de una actualización. Para ver todas las acciones necesarias, busque "Acción necesaria" en esta página.

Semana que finaliza el 26 de julio de 2024

Anuncio de apoyo a Python 3.11 y R4.3 Marcos y especificaciones de software en tiempo de ejecución. 24.1

25 de julio de 2024

Ahora puedes usar IBM Tiempo de ejecución 24.1, que incluye los últimos marcos de ciencia de datos basados en Python 3.11 y r 4.3, correr Watson Studio Cuadernos Jupyter y scripts R, y modelos de trenes. A partir del 29 de julio también podrás correr Watson Machine Learning implementaciones. Actualice sus activos e implementaciones para usar IBM Tiempo de ejecución 24.1 Marcos y especificaciones de software.

Versión mejorada de Jupyter Notebook el editor ya está disponible

25 de julio de 2024

Si está ejecutando su computadora portátil en entornos basados en Runtime 24.1, puede utilizar estas mejoras para trabajar con su código:

  • Depura automáticamente tu código
  • Genere automáticamente una tabla de contenidos para su cuaderno
  • Alternar números de línea al lado de su código
  • Contraiga el contenido de las celdas y utilice la vista en paralelo para el código y la salida, para mejorar la productividad.

Para más información, ver Editor de cuadernos Jupyter.

Modelos de integración de transformadores de procesador de lenguaje natural compatibles con Runtime 24.1

25 de julio de 2024

En el nuevo tiempo de ejecución 24.1 En este entorno, ahora puede utilizar modelos de incrustación de transformadores de procesamiento de lenguaje natural (NLP) para crear incrustaciones de texto que capturen el significado de una oración o pasaje para ayudar con las tareas de generación de recuperación aumentada. Para más información, ver Incrustaciones.

Nuevos modelos especializados de PNL están disponibles en Runtime 24.1

25 de julio de 2024

Los siguientes modelos nuevos y especializados de PNL ahora se incluyen en Runtime 24.1 ambiente:

Extraiga información detallada de grandes colecciones de textos mediante el resumen de puntos clave

25 de julio de 2024

Ahora puede utilizar el resumen de puntos clave en Watson Studio cuadernos para extraer información detallada y procesable de grandes colecciones de textos que representan las opiniones de las personas (como reseñas de productos, respuestas a encuestas o comentarios en las redes sociales). El resultado se entrega de forma organizada y jerárquica que es fácil de procesar. Para más información, ver Resumen de puntos clave

Actualización de RStudio en Watson Studio

25 de julio de 2024

Para proporcionar una experiencia de usuario consistente en nubes públicas y privadas, RStudio IDE para la IBM Cloud Pak for Data as a Service se actualizará a RStudio Server 2024.04.1 y r 4.3.1 el 29 de julio de 2024. La nueva versión de RStudio proporciona una serie de mejoras y correcciones de seguridad. Ver el servidor RStudio 2024.04.1 notas de la versión para obtener más información. Si bien no se prevén problemas importantes de compatibilidad, los usuarios deben estar al tanto de los cambios de versión de algunos paquetes que se describen en la siguiente tabla.

Al iniciar RStudio IDE desde el Watson Studio Web UI Después de la actualización, restablezca el espacio de trabajo de RStudio para garantizar que la ruta de la biblioteca para R 4.3.1 Los paquetes son recogidos por RStudio Server.

Agregar grupos de usuarios como colaboradores en proyectos y espacios

25 de julio de 2024

Ahora puede agregar grupos de usuarios en proyectos y espacios si su IBM Cloud La cuenta contiene grupos de acceso de IAM. Su IBM Cloud El administrador de la cuenta puede crear grupos de acceso, que luego están disponibles como grupos de usuarios en los proyectos. Para más información, ver Trabajar con grupos de acceso de IAM.

Ya está disponible una nueva versión del modelo Mistral Large en IBM watsonx.ai en las regiones de Dallas, Frankfurt y Londres

24 julio 2024

Ahora puede utilizar el modelo de base Mistral Large 2 de Mistral AI en IBM watsonx.ai en los centros de datos de Dallas, Frankfurt y Londres.

El modelo Mistral Large 2 admite 11 idiomas y domina la comprensión de textos, la generación de códigos y el razonamiento avanzado. Para más detalles, consulte Modelos de cimentación soportados .

Nuevo llama-3-405b-instruct El modelo está disponible en la región de Dallas.

23 julio 2024

Ahora puedes usar el llama-3-405b-instruct modelo de fundación de Meta en IBM watsonx.ai en el centro de datos de Dallas.

El lama-3-405B-instruct ( v3.1 ) proporciona a las empresas un modelo de lenguaje grande de alto rendimiento con capacidades de razonamiento de primer nivel y es el modelo de código abierto más grande jamás lanzado hasta la fecha. Este modelo básico se puede utilizar para tareas complejas de razonamiento multilingüe, incluida la comprensión, transformación y generación de código de texto. Para más detalles, consulte Modelos de cimentación soportados .

El merlinite-7b el modelo está en desuso

22 julio 2024

El merlinite-7b El modelo básico está obsoleto y se retirará el 22 de agosto de 2024. Revise las solicitudes que utilicen este modelo de base.

  • Fecha de desuso: 22 de julio de 2024
  • Fecha de retirada: 22 de agosto de 2024
  • Modelo alternativo: mixtral-8x7b-instruct-v01

Solicitudes de inferencia que se presentan al merlinite-7b El modelo que utiliza la API continúa generando resultados, pero incluye un mensaje de advertencia sobre el próximo retiro del modelo. A partir del 22 de agosto de 2024, las solicitudes de API para inferir los modelos no generarán resultados.

Para obtener más información sobre el desuso y la retirada, consulte Ciclo de vida del modelo de fundación.

Semana que finaliza el 12 de julio de 2024

El nuevo modelo Mistral Large está disponible en las regiones de Frankfurt y Dallas

9 de julio de 2024

Ahora puede utilizar el modelo de cimentación Mistral Large de Mistral AI enIBMwatsonx.ai en los centros de datos de Frankfurt y Dallas.

Mistral Large proporciona a las empresas un modelo de lenguaje grande de alto rendimiento con capacidades de razonamiento de primer nivel. Este modelo básico se puede utilizar para tareas complejas de razonamiento multilingüe, incluida la comprensión, transformación y generación de código de texto. Para más detalles, consulte Modelos de cimentación soportados .

Semana que finaliza el 5 de julio de 2024

Conectores agrupados por tipo de fuente de datos

05 julio 2024

Cuando crea una conexión, los conectores ahora se agrupan por tipo de fuente de datos para que sean más fáciles de encontrar y seleccionar. Por ejemplo, elMongoDB El tipo de fuente de datos incluye elIBMCloud Databases for MongoDB y elMongoDB conectores.

Además, un nuevo Recientes La categoría muestra los seis últimos conectores que utilizó para crear una conexión.

Para obtener instrucciones, consulte Agregar conexiones a fuentes de datos en un proyecto .

Agregue información contextual a las indicaciones del modelo de base en Prompt Lab

4 julio 2024

Ayude a un modelo básico a generar respuestas objetivas y actualizadas en casos de uso de generación aumentada de recuperación (RAG) agregando información contextual relevante a su mensaje como datos básicos. Puede cargar rápidamente documentos relevantes o conectarse a una tienda de vectores de terceros con datos relevantes. Cuando se envía una nueva pregunta, la pregunta se utiliza para consultar los datos fundamentados en busca de hechos relevantes. Los mejores resultados de búsqueda más la pregunta original se envían como entrada del modelo para ayudar al modelo básico a incorporar hechos relevantes en su salida.

Para más información, ver El modelo de base de conexión a tierra solicita información contextual .

Cambios aCloud Object Storage Planes ligeros

1 de julio de 2024

A partir del 1 de julio de 2024, elCloud Object Storage Plan Lite que se aprovisiona automáticamente cuando te registras para una prueba de 30 días dewatsonx.ai ywatsonx.governance caduca una vez finalizada la prueba. Puedes actualizar tuCloud Object Storage Instancia Lite al plan Estándar con la opción de capa gratuita en cualquier momento durante la prueba de 30 días.

ExistenteCloud Object Storage las instancias de servicio con planes Lite que haya aprovisionado antes del 1 de julio de 2024 se conservarán hasta el 15 de diciembre de 2024. Debes actualizar tuCloud Object Storage servicio a un plan Estándar antes del 15 de diciembre de 2024.

VerCloud Object Storage planes de servicio .

Semana que finaliza el 28 de junio de 2024

Gobernar casos de uso y modelos conwatsonx.governance enAWS

28 de junio de 2024

Ahora puedes usarwatsonx.governance enAmazon Web Services (AWS ).

También puede utilizar las capacidades de la consola de gobierno de watsonx.governance para SageMaker modelos. Con esta integración, puede llevar las capacidades avanzadas de gobernanza de IA de la solución Model Risk Governance a su Amazon.SageMaker Aprendizaje automático predictivo y modelos de IA generativa.

Para más información, verwatsonx.governance enAWS .

Semana finalizada el 21 de junio de 2024

Crear despliegues desconectados para las solicitudes de gobierno para modelos de lenguaje grande (LLM) externos

21 de junio de 2024

Una plantilla de mensaje independiente es un nuevo activo para evaluar una plantilla de mensaje para un LLM alojado por un proveedor externo, comoGoogle IA de vértice,AzureOpenAI, oAWS Base. La inferencia que genera la salida para la plantilla de solicitud se realiza en el modelo remoto, pero puede evaluar la salida de la plantilla de solicitud utilizando métricas de watsonx.governance . También puede realizar un seguimiento del despliegue desconectado y de la plantilla de solicitud desconectada en un caso de uso de IA como parte de la solución de gobierno.

Para obtener más información, consulte:

Las credenciales de tarea serán necesarias para las solicitudes de trabajo de despliegue

19 de junio de 2024

Para mejorar la seguridad para ejecutar trabajos de despliegue, el usuario que solicita el trabajo deberá proporcionar credenciales de tarea en forma de clave de API. El requisito se aplicará a partir del 15 de agosto de 2024. Consulte Adición de credenciales de tarea para obtener detalles sobre la generación de la clave de API.

Captura de pantalla que muestra cómo crear credenciales de tarea a partir de Perfil y valores

Evalúe los casos de uso para la aplicabilidad de la Ley de IA de la UE

19 de junio de 2024

Al utilizar la nueva evaluación de aplicabilidad de la Ley de IA de la UE, puede completar un cuestionario simple para evaluar sus casos de uso de IA y determinar si están dentro del ámbito de la Ley de IA de la UE. La evaluación también puede ayudarle a identificar la categoría de riesgo a la que se alinean los casos de uso: prohibido, alto, limitado o mínimo. Para obtener más información, consulte Evaluación de aplicabilidad en Componentes de la solución en la consola de gobierno.

Semana finalizada el 7 de junio de 2024

Administre las actividades de riesgo y cumplimiento con la consola de Gobernanza ( IBM OpenPages)

7 de junio de 2024

Watsonx.governance ahora admite la integración opcional con la consola de gobierno. Si ha instalado el módulo Model Risk Governance de IBM OpenPages, puede configurar casos de uso de IA para sincronizar datos de gobernanza con la consola de gobernanza. Desde la consola de Gobernanza, puede crear casos de uso, ver actividades de gobernanza, administrar tareas e implementar flujos de trabajo como parte de sus procesos de gobernanza y cumplimiento. Para obtener más información, consulte:

Semana finalizada el 31 de mayo de 2024

IBM Watson Pipelines es ahora IBM Orchestration Pipelines

30 de mayo de 2024

El nuevo nombre de servicio refleja las prestaciones para orquestar partes del ciclo de vida de IA en flujos repetibles.

Etiquetar proyectos para una recuperación fácil

31 de mayo de 2024

Ahora puede asignar etiquetas a proyectos para que sean más fáciles de agrupar o recuperar. Asigne etiquetas cuando cree un proyecto nuevo o de la lista de todos los proyectos. Filtre la lista de proyectos por código para recuperar un conjunto relacionado de proyectos. Para obtener más información, consulte Creación de un proyecto.

Conectar con un nuevo origen de datos: Milvus

31 de mayo de 2024

Utilice la conexión Milvus para almacenar y confirmar la precisión de sus credenciales y detalles de conexión para acceder a un almacén de vectores Milvus. Para obtener información, consulte Conexión de Milvus.

Semana finalizada el 24 de mayo de 2024

Nuevo tutorial y vídeo

23 de mayo de 2024

Pruebe la nueva guía de aprendizaje para ver cómo evaluar un despliegue de modelo utilizando la funcionalidad de Watson OpenScale en un espacio de despliegue.

Guía de aprendizaje Descripción Experiencia para guía de aprendizaje
Evaluar un despliegue en espacios Despliegue un modelo, configure supervisores para el modelo desplegado y evalúe el modelo en un espacio de despliegue. Configure los supervisores y evalúe un modelo en un espacio de despliegue.

El modelo de fundación allam-1-13b-instruct está disponible en la región de Frankfurt

21 de mayo de 2024

El modelo de base árabe allam-1-13b-instruct de la autoridad saudí para datos e inteligencia artificial y proporcionado por IBM está disponible en watsonx.ai en el centro de datos de Frankfurt. Puede utilizar el modelo de base allam-1-13b-instruct para tareas de finalidad general, incluyendo Q & A, resumen, clasificación, generación, extracción y traducción en árabe. Para obtener más información, consulte Modelos de base soportados.

Desplegar activos de IA tradicionales y generativos con la biblioteca de cliente watsonx.ai Python

21 de mayo de 2024

La biblioteca de cliente Watson Machine Learning Python ahora forma parte de una biblioteca ampliada, la biblioteca de cliente watsonx.ai Python . Utilice la biblioteca watsonx.ai Python para trabajar con el aprendizaje automático tradicional y los activos de IA generativa. La biblioteca Watson Machine Learning persistirá, pero no se actualizará con nuevas características. Para obtener más información, consulte Biblioteca dePython.

Semana finalizada el 17 de mayo de 2024

Los modelos de inclusión de texto de terceros están disponibles en watsonx.ai

16 de mayo de 2024

Los siguientes modelos de inclusión de texto de terceros están ahora disponibles además de los modelos de IBM Slate para la coincidencia y recuperación de texto mejorada:

  • all-minilm-l12-v2
  • multilingual-e5-large

Envíe frases o pasajes a uno de los modelos de inclusión soportados utilizando la biblioteca watsonx.ai Python o la API REST para convertir texto de entrada en vectores para comparar y recuperar de forma más precisa texto similar.

Para obtener más información sobre estos modelos, consulte Modelos de inclusión soportados.

Para obtener más información sobre la conversión de texto, consulte Generación de inclusión de texto.

Semana finalizada el 10 de mayo de 2024

Los nuevos modelos de base de código Granite están disponibles en la región de Dallas

9 de mayo de 2024

Ahora puede inferir los siguientes modelos de base de código Granite proporcionados por IBM desde watsonx.ai:

  • granite-3b-code-instruct
  • granite-8b-code-instruct
  • granite-20b-code-instruct
  • granite-34b-code-instruct

Utilice los nuevos modelos de base de código Granite para las tareas de codificación programática. Los modelos de base están ajustados en una combinación de datos de instrucción para mejorar las capacidades de seguimiento de instrucción, incluyendo el razonamiento lógico y la resolución de problemas.

Para obtener más información, consulte Modelos de base soportados.

Los modelos base de InstructLab están disponibles en watsonx.ai

7 de mayo de 2024

InstructLab es una iniciativa de código abierto de Red Hat e IBM que proporciona una plataforma para aumentar las prestaciones de un modelo de base. Los siguientes modelos básicos respaldan el conocimiento y las habilidades que se aportan desdeInstructLab:

  • granite-7b-lab
  • granite-13-chat-v2
  • granite-20b-multilingual
  • merlinite-7b

Puede explorar las contribuciones de la comunidad de código abierto desde la página de taxonomía del modelo de base.

Para más información, verInstructLab-compatible modelos de fundacion .

Semana finalizada el 3 de mayo de 2024

Organizar activos de proyecto en carpetas

2 de mayo de 2024

Ahora puede crear carpetas en los proyectos para organizar activos. Un administrador del proyecto debe habilitar las carpetas, y los administradores y editores pueden crearlas y gestionarlas. Las carpetas están en versión beta y todavía no están soportadas para su uso en entornos de producción. Para obtener más información, consulte Organización de activos con carpetas (beta).

La pestaña Activos con carpetas

Semana finalizada el 26 de abril de 2024

IBM watsonx.ai está disponible en la región de Londres

25 de abril de 2023

Watsonx.ai ahora está disponible de forma general en el centro de datos de Londres y Londres se puede seleccionar como la región preferida al registrarse.

  • Los modelos de base que están totalmente soportados en Dallas también están disponibles para la inferencia en el centro de datos de Londres desde Prompt Lab o utilizando la API. Las excepciones son mt0-xxl-13b y el modelo de fundación llama-2-70b-chat , que se sustituye por el modelo de fundación llama-3-70b-instruct que ahora está disponible.
  • Ajuste los tres modelos de base ajustables desde Tuning Studio o utilizando la API.
  • Se da soporte a los dos modelos de incorporación de IBM y a la API de incorporación.

Para obtener más información, consulte Disponibilidad regional para servicios y características.

Iniciar una conversación en Prompt Lab directamente desde la página de inicio

25 de abril de 2023

Ahora puede iniciar una conversación con un modelo de base desde la página de inicio de IBM watsonx.ai . Especifique una pregunta para enviar a un modelo de base en modo de conversación o pulse Abrir Prompt Lab para elegir un modelo de base y parámetros de modelo antes de enviar la entrada de modelo.

Semana finalizada el 19 de abril de 2024

Ya están disponibles los nuevos modelos de base Meta Llama 3

18 de abril de 2024

Los siguientes modelos de base Llama 3 proporcionados por Meta están disponibles para la inferencia desde watsonx.ai:

  • llama-3-8b-instruct
  • llama-3-70b-instruct

Los nuevos modelos de base Llama 3 son modelos de lenguaje afinados de instrucción que pueden dar soporte a diversos casos de uso.

Este último lanzamiento de Llama está entrenado con más fichas y aplica nuevos procedimientos post-entrenamiento. El resultado son modelos de base con mejor comprensión del lenguaje, razonamiento, generación de código y capacidades de seguimiento de instrucción.

Para obtener más información, consulte Modelos de base soportados.

Introducción al soporte de incorporación de IBM para mejorar la coincidencia y recuperación de texto

18 de abril de 2024

Ahora puede utilizar la API de incorporaciones de IBM y los modelos de incorporación de IBM para transformar el texto de entrada en vectores para comparar y recuperar de forma más precisa texto similar.

Están disponibles los siguientes modelos de incorporación de IBM Slate:

  • slate.125m.english.rtrvr
  • slate.30m.english.rtrvr

Para obtener más información, consulte Generación de inclusión de texto.

Para obtener detalles de precios, consulte Planes deWatson Machine Learning.

IBM watsonx.governance se incluye al registrarse en IBM watsonx.ai

18 de abril de 2024

Si se registra para watsonx.ai en la región de Dallas, watsonx.governance se incluye ahora automáticamente. Consulte Registro en IBM watsonx as a Service.

Evaluar despliegues de aprendizaje automático en espacios

18 de abril de 2024

Configure las evaluaciones de watsonx.governance en los espacios de despliegue para obtener información sobre el rendimiento del modelo de aprendizaje automático. Por ejemplo, evalúe un despliegue para sesgo o supervise un despliegue para desviación. Al configurar evaluaciones, puede analizar los resultados de la evaluación y modelar registros de transacciones directamente en los espacios.

Para obtener más información, consulte Evaluación de despliegues en espacios.

Un modelo de fundación en idioma coreano está disponible en la región de Tokio

18 de abril de 2024

El modelo de fundación llama2-13b-dpo-v7 proporcionado por Minds & Company y basado en el modelo de fundación Llama 2 de Meta está disponible en la región de Tokio.

El modelo de fundación llama2-13b-dpo-v7 se especializa en tareas conversacionales en coreano e inglés. También puede utilizar el modelo de base llama2-13b-dpo-v7 para tareas de finalidad general en el idioma coreano.

Para obtener más información, consulte Modelos de base soportados.

Hay disponible un modelo de base mixtral-8x7b-instruct-v01 para la inferencia

18 de abril de 2024

El modelo de base mixtral-8x7b-instruct-v01 de Mistral AI está disponible para inferir desde watsonx.ai. El modelo de base mixtral-8x7b-instruct-v01 es un modelo generativo preentrenado que utiliza una red de mezcla de expertos dispersa para generar texto de forma más eficiente.

Puede utilizar el modelo mixtral-8x7b-instruct-v01 para tareas de uso general, incluyendo clasificación, resumen, generación de código, traducción de idioma, etc. Para obtener más información, consulte Modelos de base soportados.

El modelo de fundación mixtral-8x7b-instruct-v01-q está en desuso y se retirará el 23 de mayo de 2024. Revise las solicitudes que utilicen este modelo de base.

  • Fecha de desuso: 19 de abril de 2024
  • Fecha de retirada: 20 de junio de 2024
  • Modelo alternativo: mixtral-8x7b-instruct-v01

Las solicitudes de inferencia que se envían al modelo mixtral-8x7b-instruct-v01-q utilizando la API continúan generando salida, pero incluyen un mensaje de aviso sobre la próxima retirada del modelo. A partir del 20 de junio de 2024, las solicitudes de API para inferir los modelos no generarán salida.

Para obtener más información sobre el desuso y la retirada, consulte Ciclo de vida del modelo de fundación.

Se ha introducido una modificación en el modelo de base granite-20b-multilingual

18 de abril de 2024

La última versión de granite-20b-multilingual es 1.1.0. La modificación incluye mejoras que se han obtenido al aplicar una nueva técnica de alineación de IA al modelo de la versión 1.0 . La alineación de IA implica el uso de técnicas de aprendizaje de ajuste y refuerzo para guiar al modelo para devolver salidas que sean lo más útiles, veraces y transparentes posibles.

Para obtener más información sobre este modelo de base, consulte Modelos de base soportados.

Semana finalizada el 12 de abril de 2024

Ajuste con solicitud del modelo de base granite-13b-instruct-v2

11 de abril de 2024

Tuning Studio ahora da soporte al ajuste del modelo de base granite-13b-instruct-v2 además de los modelos de base flan-t5-xl-3b y llama-2-13b-chat . Para obtener más información, consulte Ajuste de un modelo de base.

Los valores de configuración del experimento para ajustar el modelo de base granite-13b-instruct-v2 cambian para aplicar los mejores valores predeterminados en función de la tarea. Las directrices de evaluación de ajuste le ayudan a analizar los resultados del experimento y ajustar los valores de configuración del experimento basándose en los resultados. Para obtener más información, consulte Evaluación de los resultados de un experimento de ajuste.

Un modelo de fundación en lengua árabe está disponible en la región de Frankfurt

11 de abril de 2024

El modelo de fundación jais-13b-chat proporcionado por Inception, Mohamed bin Zayed University of Artificial Intelligence y Cerebras Systems está disponible en la región de Frankfurt.

El modelo de base jais-13b-chat se especializa en tareas conversacionales en árabe e inglés. También puede utilizar el modelo de base jais-13b-chat para tareas de finalidad general en el idioma árabe, incluida la traducción de idioma entre árabe e inglés.

Para obtener más información, consulte Modelos de base soportados.

Ver el texto completo de una solicitud en Prompt Lab

11 de abril de 2024

Ahora puede revisar el texto de solicitud completo que se enviará al modelo de base, que es útil cuando su solicitud incluye variables de solicitud o cuando está trabajando en modo estructurado o modo de conversación.

Para obtener más información, consulte Prompt Lab.

Se han retirado los modelos Granite versión 1 en desuso

11 de abril de 2024

Ahora se han retirado los siguientes modelos de base:

  • granite-13b-chat-v1
  • granite-13b-instruct-v1

Revise las solicitudes que utilicen estos modelos base para utilizar los modelos base IBM Granite v2 . Para obtener más información sobre la retirada y el desuso del modelo de fundación, consulte Ciclo de vida del modelo de fundación.

Semana finalizada el 5 de abril de 2024

Utilizar tablas dinámicas para visualizar datos agregados en experimentos de Decision Optimization

5 de abril de 2024

Ahora puede utilizar tablas dinámicas para visualizar los datos de entrada y salida agregados en la vista Visualización en los experimentos de Decision Optimization . Para obtener más información, consulte Widgets de visualización en experimentos de Decision Optimization.

Nuevo tutorial y vídeo de watsonx.ai

04 de abril de 2024

Pruebe la nueva guía de aprendizaje para ver cómo utilizar watsonx.ai en un caso de uso global desde la preparación de datos hasta la ingeniería de solicitudes.

Guía de aprendizaje Descripción Experiencia para guía de aprendizaje
Pruebe el caso de uso completo de watsonx.ai Siga un caso de uso desde la preparación de datos hasta la ingeniería de solicitud. Utilice diversas herramientas como, por ejemplo, cuadernos y Prompt Lab.

Semana finalizada el 15 de marzo de 2024

La API watsonx.ai está disponible

14 de marzo de 2024

La API watsonx.ai está disponible a nivel general. Utilice la API watsonx.ai para trabajar con modelos de base mediante programación. Para obtener más información, consulte la Referencia API.

La versión de la API es 2024-03-14.

Puede seguir utilizando la biblioteca Python que está disponible para trabajar con modelos de base desde un cuaderno. Para obtener más información, consulte Biblioteca dePython.

Los nuevos modelos de fundación están disponibles en Dallas, Frankfurt y Tokio

14 de marzo de 2024

Los siguientes modelos base están ahora disponibles para la inferencia desde watsonx.ai:

  • granite-20b-multilingual: Modelo base de la familia IBM Granite que puede utilizar para diversas tareas generativas en inglés, alemán, español, francés y portugués.

  • codellama-34b-instruct-hf: modelo de generación de código programático de Code Llama que se basa en Llama 2 de Meta. Puede utilizar codellama-34b-instruct-hf para crear solicitudes para generar código basado en entradas de lenguaje natural y para completar y depurar código.

Para obtener más información, consulte Modelos de base soportados.

Semana finalizada el 8 de marzo de 2024

Tuning Studio está disponible en Frankfurt

7 de marzo de 2024

Ahora Tuning Studio está disponible para los usuarios de planes de pago en la región de Frankfurt. Tuning Studio le ayuda a guiar un modelo de base para devolver una salida útil. Puede ajustar los modelos base flan-t5-xl-3b y llama-2-70b-chat cuando utilice Tuning Studio en Frankfurt.

Para obtener más información, consulte Tuning Studio.

Ajuste rápido del modelo de fundación llama-2-13b-chat en la región de Tokio

7 de marzo de 2024

Tuning Studio ahora da soporte al ajuste del modelo de fundación llama-2-13b-chat en la región de Tokio. En primer lugar, el ingeniero solicita el modelo llama-2-70b-chat más grande en Prompt Lab para encontrar entradas de solicitud efectivas para su caso de uso. A continuación, ajuste la versión más pequeña del modelo Llama 2 para generar salidas comparables, si no mejores, con solicitudes de disparo cero.

Para obtener más información, consulte Tuning Studio.

Precio más bajo para el modelo Mixtral8x7b

5 de marzo de 2024

El modelo base mixtral-8x7b-instruct-v01-q se reclasifica de Clase 2: $0.0018/Resource Unidad a Clase 1: $0.0006/Resource Unidad, lo que hace que sea más rentable ejecutar tareas de inferencia en este modelo. La reclasificación se aplica a todas las regiones donde mixtral-8x7b-instruct-v01-q está disponible.

Para obtener más información, consulte Modelos de base soportados.

Para obtener detalles de precios, consulte Planes deWatson Machine Learning.

El atlas de riesgo de IA se actualiza y mejora

5 de marzo de 2024

Ahora puede encontrar el siguiente contenido nuevo y mejorado en el atlas de riesgos de IA:

  • Una nueva categoría de riesgos no técnicos que abarca la gobernanza, la conformidad jurídica y los riesgos de impacto social
  • Nuevos ejemplos de riesgos
  • Definiciones más claras de riesgos

Consulte AI risk atlas.

Nuevos casos de uso para watsonx

5 de marzo de 2024

Los casos de uso de watsonx están disponibles para ayudarle a ver cómo puede utilizar nuestros productos, servicios y herramientas:

  • Caso de uso de watsonx.ai : este caso de uso describe cómo puede transformar sus procesos de negocio con soluciones basadas en IA integrando machine learning e IA generativa en su infraestructura operativa.
  • Caso de uso de watsonx.governance : este caso de uso describe cómo puede definir flujos de trabajo de IA responsables, transparentes y explicables con un sistema integrado para realizar el seguimiento, la supervisión y volver a entrenar modelos de IA.

Consulte Casos de uso dewatsonx.

Semana finalizada el 1 de marzo de 2024

El modo de conversación está disponible en Prompt Lab

29 de febrero de 2024

El modo de chat en Prompt Lab es una sencilla interfaz de chat que facilita la experimentación con modelos de base. La modalidad de conversación aumenta las modalidades estructuradas y de formato libre ya disponibles que son útiles cuando se crean solicitudes de pocas o muchas para tareas como la extracción, el resumen y la clasificación. Utilice el modo Chat para simular interacciones conversacionales o de respuesta a preguntas para casos de uso de chatbot y asistente virtual.

Para obtener más información, consulte Prompt Lab.

Hay disponible un modelo de Granite en japonés en la región de Tokio

29 de febrero de 2024

El modelo de base granite-8b-japanese proporcionado por IBM está disponible en watsonx.ai en la región de Tokio. El modelo de base granite-8b-japanese se basa en el modelo de instrucción IBM Granite y está entrenado para comprender y generar texto en japonés.

Puede utilizar el modelo de base granite-8b-japanese para tareas de finalidad general en el idioma japonés, como clasificación, extracción, respuesta a preguntas y para la traducción de idiomas entre japonés e inglés.

Para obtener más información, consulte Modelos de base soportados.

Semana finalizada el 23 de febrero de 2024

Precio más bajo para los modelos Granite-13b

21 de febrero de 2024

Los modelos Granite-13b se reclasifican de Clase 2: $0.0018/Resource Unidad a Clase 1: $0.0006/Resource Unidad, lo que hace que sea más rentable ejecutar tareas de inferencia en estos modelos. La reclasificación se aplica a los modelos siguientes en todas las regiones en las que están disponibles:

  • granite-13b-chat-v2
  • granite-13b-chat-v1
  • granite-13b-instruct-v2
  • granite-13b-instruct-v1

Para obtener más información sobre estos modelos, consulte Modelos de base soportados.

Para obtener detalles de precios, consulte Planes deWatson Machine Learning.

Semana finalizada el 16 de febrero de 2024

Nuevo acceso directo para empezar a trabajar en tareas comunes

15 de febrero de 2024

Ahora puede iniciar una tarea común en el proyecto pulsando un mosaico en la sección Empezar a trabajar de la pestaña Visión general . Utilice estos accesos directos para empezar a añadir colaboradores y datos, y para experimentar y crear modelos. Pulse Ver todo para ir a una selección de herramientas.

Nuevo modelo de base mixtral-8x7b-instruct-v01-q para tareas de uso general

15 de febrero de 2024

El modelo de base mixtral-8x7b-instruct-v01-q proporcionado por Mistral AI y cuantificado por IBM está disponible en watsonx.ai. El modelo de fundación mixtral-8x7b-instruct-v01-q es una versión cuantificada del modelo de fundación Mixtral 8x7B Instruct de Mistral AI.

Puede utilizar este nuevo modelo para tareas de uso general, incluyendo clasificación, resumen, generación de código, traducción de idioma, etc. Para obtener más información, consulte Modelos de base soportados.

Los modelos siguientes están en desuso y se retirarán pronto. Revise las solicitudes que utilizan estos modelos de base para utilizar otro modelo de base, como por ejemplo mixtral-8x7b-instruct-v01-q.

Modelos de fundación en desuso
Modelo en desuso Fecha de desuso Fecha de retirada Modelo alternativo
gpt-neox-20b 15 de febrero de 2024 21 de marzo de 2024 mixtral-8x7b-instruct-v01-q
mpt-7b-instruct2 15 de febrero de 2024 21 de marzo de 2024 mixtral-8x7b-instruct-v01-q
starcoder-15.5b 15 de febrero de 2024 11 de abril de 2024 mixtral-8x7b-instruct-v01-q

Las solicitudes de inferencia que se envían a estos modelos utilizando la API siguen generando salida, pero incluyen un mensaje de aviso sobre la próxima retirada del modelo. Cuando se alcanza la fecha de retirada, las solicitudes de API para inferir los modelos no generarán salida.

Para obtener más información sobre el desuso y la retirada, consulte Ciclo de vida del modelo de fundación.

Hay disponible una modificación en el modelo de base granite-13b-chat-v2

15 de febrero de 2024

La versión más reciente de granite-13b-chat-v2 es 2.1.0. La modificación incluye mejoras que se han obtenido aplicando una nueva técnica de alineación de IA al modelo de la versión 2.0.0 . La alineación de IA implica el uso de técnicas de aprendizaje de ajuste y refuerzo para guiar al modelo para devolver salidas que sean lo más útiles, veraces y transparentes posibles. Para obtener más información, consulte la ¿Qué es la alineación de la IA? publicación de blog de IBM Research.

Nuevo tutorial y vídeo de watsonx

15 de febrero de 2024

Pruebe la nueva guía de aprendizaje de watsonx.governance para ayudarle a aprender a evaluar un modelo de aprendizaje automático para obtener equidad, precisión, desviación y explicabilidad con Watson OpenScale.

Nuevas guías de aprendizaje
Guía de aprendizaje Descripción Experiencia para guía de aprendizaje
Evaluar un modelo de aprendizaje automático Despliegue un modelo, configure supervisores para el modelo desplegado y evalúe el modelo. Ejecute un cuaderno para configurar los modelos y utilice Watson OpenScale para evaluar.

Semana finalizada el 09 de febrero de 2024

Documentación de Decision Optimization más orientada a tareas

9 de febrero de 2024

Ahora puede encontrar más fácilmente la información correcta para crear y configurar experimentos de Decision Optimization . Consulte Experimentos deDecision Optimization y sus subsecciones.

La conexión de IBM Cloud Data Engine está en desuso

8 de febrero de 2022

La conexión de IBM Cloud Data Engine está en desuso y se dejará de mantener en un futuro release. Ver Desuso del motor de datos para fechas y detalles importantes.

Nuevo entorno de Spark 3.4 para ejecutar trabajos de flujo de Data Refinery

9 de febrero de 2024

Cuando selecciona un entorno para un trabajo de flujo de Data Refinery , ahora puede seleccionar Spark predeterminado 3.4 & R 4.2, que incluye mejoras de Spark.

Entornos de Spark de Data Refinery

El entorno Spark predeterminado 3.3 & R 4.2 está en desuso y se eliminará en una actualización futura.

Actualice los trabajos de flujo de Data Refinery para utilizar el nuevo entorno Spark predeterminado 3.4 & R 4.2 . Para obtener detalles, consulte Calcular opciones de recursos para Data Refinery en proyectos.

Semana finalizada el 2 de febrero de 2024

Colección de ejemplos renombrada como concentrador de recursos

2 de febrero de 2024

La colección de ejemplos se ha renombrado como concentrador de recursos para reflejar mejor el contenido. El concentrador de recursos contiene modelos de base y proyectos de ejemplo, conjuntos de datos y cuadernos. Consulte Concentrador de recursos.

La conexión de IBM Cloud Databases for DataStax ha dejado de mantenerse

2 de febrero de 2024

La conexión de IBM Cloud Databases for DataStax se ha eliminado de IBM watsonx.ai.

La conexión de Dremio requiere actualizaciones

2 de febrero de 2024

Anteriormente, la conexión Dremio utilizaba un controlador JDBC . Ahora la conexión utiliza un conductor basado en Arrow Flight.

Importante: actualice las propiedades de conexión. Se aplican cambios diferentes a una conexión para una instancia de Dremio Software (local) o una instancia de Dremio Cloud.

Dremio Software: actualice el número de puerto.

El nuevo número de puerto predeterminado que utiliza Flight es 32010. Puede confirmar el número de puerto en el archivo dremio.conf . Ver Configurando mediante dremio.conf para información.

Además, Dremio ya no admite conexiones con IBM Cloud Satellite.

Dremio Cloud: actualice el método de autenticación y el nombre de host.

  1. Inicie sesión en Dremio y genere una señal de acceso personal. Para obtener instrucciones consulte Fichas de acceso personal.
  2. En IBM watsonx en el formulario Crear conexión: Dremio , cambie el tipo de autenticación a Señal de acceso personal y añada la información de señal. (La autenticación de Nombre de usuario y contraseña ya no se puede utilizar para conectarse a una instancia de Dremio Cloud.)
  3. Seleccione El puerto está habilitado para SSL.

Si utiliza el nombre de host predeterminado para una instancia de Dremio Cloud, debe cambiarlo:

  • Cambie sql.dremio.cloud por data.dremio.cloud
  • Cambie sql.eu.dremio.cloud por data.eu.dremio.cloud

Ajuste con solicitud del modelo de fundación llama-2-13b-chat

1 de febrero de 2024

Tuning Studio ahora da soporte al ajuste del modelo de base llama-2-13b-chat . En primer lugar, el ingeniero solicita el modelo llama-2-70b-chat más grande en Prompt Lab para encontrar entradas de solicitud efectivas para su caso de uso. A continuación, ajuste la versión más pequeña del modelo Llama 2 para generar salidas comparables, si no mejores, con solicitudes de disparo cero. El llama-2-13b-model está disponible para el ajuste de solicitudes en la región Dallas. Para obtener más información, consulte Tuning Studio.

Semana finalizada el 26 de enero de 2024

AutoAI da soporte a datos ordenados para todos los experimentos

25 de enero de 2024

Ahora puede especificar datos ordenados para todos los experimentos de AutoAI en lugar de solo experimentos de series temporales. Especifique si los datos de entrenamiento se ordenan secuencialmente, según un índice de fila. Cuando los datos de entrada son secuenciales, el rendimiento del modelo se evalúa en los registros más recientes en lugar de en un muestreo aleatorio, y los datos reservados utilizan los últimos n registros del conjunto en lugar de n registros aleatorios. Los datos secuenciales son necesarios para los experimentos de series temporales, pero son opcionales para los experimentos de clasificación y regresión.

Preguntas y respuestas con acelerador RAG

26 de enero de 2024

Ahora puede implementar una solución de pregunta y respuesta que utilice la generación aumentada de recuperación importando un proyecto de ejemplo. El proyecto de ejemplo contiene cuadernos y otros activos que convierten documentos de HTML o PDF en texto sin formato, importan segmentos de documento en un índice de vector Elasticsearch , despliegan una función Python que consulta el índice de vector, recuperan los N primeros resultados, ejecutan la inferencia LLM para generar una respuesta a la pregunta y comprueban si hay alucinaciones en la respuesta.

Pruebe Q & A con acelerador RAG.

Establecer en tema oscuro

25 de enero de 2024

Ahora puede establecer la interfaz de usuario de watsonx en tema oscuro. Pulse su avatar y seleccione Perfil y valores para abrir su perfil de cuenta. A continuación, active el conmutador de tema oscuro. El tema oscuro no está soportado en los cuadernos RStudio y Jupyter. Para obtener información sobre la gestión del perfil, consulte Gestión de los valores.

IBM watsonx.ai está disponible en la región de Tokio

25 de enero de 2024

Watsonx.ai ahora está disponible de forma general en el centro de datos de Tokio y se puede seleccionar como la región preferida al registrarse. La inferencia del modelo de base y el laboratorio de solicitud están soportados en la región de Tokio para estos modelos:

  • elyza-japanese-llama-2-7b-instruct
  • flan-t5-xl-3b
  • flan-t5-xxl-11b
  • flan-ul2-20b
  • granite-13b-chat-v2
  • granite-13b-instruct-v2
  • llama-2-70b-chat
  • llama-2-13b-chat

También disponible en la región de Tokio:

  • Solicitar el ajuste del modelo de base flan-t5-xl-3b con Tuning Studio
  • Generación de datos tabulares con el Synthetic Data Generator para utilizar para modelos de entrenamiento

Para obtener más información sobre los modelos soportados, consulte Modelos base soportados disponibles con watsonx.ai.

Un modelo Llama 2 en japonés está disponible en la región de Tokio

25 de enero de 2024

El modelo de fundación elyza-japanese-llama-2-7b-instruct proporcionado por ELYZA, Inc está disponible en instancias de watsonx.ai en el centro de datos de Tokio. El modelo elyza-japanese-llama-2-7b-instruct es una versión del modelo Llama 2 de Meta que se ha entrenado para comprender y generar texto en japonés.

Puede utilizar este nuevo modelo para tareas de finalidad general. Funciona bien para la clasificación y extracción en japonés y para la traducción entre japonés e inglés.

Semana finalizada el 12 de enero de 2024

Soporte para IBM Runtime 22.2 en desuso en Watson Machine Learning

11 de enero de 2024

IBM Runtime 22.2 está en desuso y se eliminará el 11 de abril de 2024. A partir del 7 de marzo de 2024, no puede crear cuadernos o entornos personalizados utilizando los tiempos de ejecución 22.2 . Además, no puede entrenar modelos nuevos con especificaciones de software basadas en el tiempo de ejecución 22.2 . Actualice los activos y despliegues para utilizar IBM Runtime 23.1 antes del 7 de marzo de 2024.

IBM Granite v1 están en desuso

11 de enero de 2024

Los modelos base IBM Granite de 13.000 millones de parámetros v1 están en desuso y se retirarán el 11 de abril de 2024. Si está utilizando la versión 1 de los modelos, cambie a la versión 2 de los modelos en su lugar.

Modelos base de IBM en desuso
Modelo en desuso Fecha de desuso Fecha de retirada Modelo alternativo
granite-13b-chat-v1 11 de enero de 2024 11 de abril de 2024 granite-13b-chat-v2
granite-13b-instruct-v1 11 de enero de 2024 11 de abril de 2024 granite-13b-instruct-v2

Las solicitudes de inferencia que se envían a los modelos de la versión 1 utilizando la API siguen generando salida, pero incluyen un mensaje de aviso sobre la próxima retirada del modelo. A partir del 11 de abril de 2024, las solicitudes de API para inferir los modelos no generarán salida.

Para obtener más información sobre los modelos base de IBM Granite , consulte Modelos base creados por IBM. Para obtener más información sobre el desuso y la retirada, consulte Ciclo de vida del modelo de fundación.

Semana finalizada el 15 de diciembre de 2023

Crear claves de API de usuario para trabajos y otras operaciones

15 de diciembre de 2023

Determinadas operaciones de tiempo de ejecución en IBM watsonx, como trabajos y entrenamiento de modelos, requieren una clave de API como credencial para una autorización segura. Con las claves de API de usuario, ahora puede generar y rotar una clave de API directamente en IBM watsonx según sea necesario para asegurarse de que las operaciones se ejecutan sin problemas. Las claves de API se gestionan en IBM Cloud, pero puede crearlas y rotarlas convenientemente en IBM watsonx.

La clave de API de usuario es específica de la cuenta y se crea a partir de Perfil y valores bajo su perfil de cuenta.

Para obtener más información, consulte Gestión de la clave de API de usuario.

Nuevas guías de aprendizaje y vídeos de watsonx

15 de diciembre de 2023

Pruebe las nuevas guías de aprendizaje de watsonx.governance y watsonx.ai para ayudarle a aprender a ajustar un modelo de base y a evaluar y realizar un seguimiento de una plantilla de solicitud.

Nuevas guías de aprendizaje
Guía de aprendizaje Descripción Experiencia para guía de aprendizaje
Ajustar un modelo de base Ajuste un modelo base para mejorar el rendimiento del modelo. Utilice Tuning Studio para ajustar un modelo sin codificación.
Evaluar y realizar el seguimiento de una plantilla de solicitud Evalúe una plantilla de solicitud para medir el rendimiento del modelo de base y realice un seguimiento de la plantilla de solicitud a través de su ciclo de vida. Utilice la herramienta de evaluación y un caso de uso de IA para realizar un seguimiento de la plantilla de solicitud.

Ver un vídeoEncuentra más watsonx.governance y watsonx.ai vídeos en el Videoteca.

Nueva caducidad de sesión de inicio de sesión y cierre de sesión debido a inactividad

15 de diciembre de 2023

Ahora ha finalizado la sesión de IBM Cloud debido a la caducidad de la sesión. La sesión puede caducar debido a la caducidad de la sesión de inicio de sesión (24 horas de forma predeterminada) o a la inactividad (2 horas de forma predeterminada). Puede cambiar las duraciones predeterminadas en los valores de Acceso (IAM) en IBM Cloud. Para obtener más información, consulte Establecer la caducidad de la sesión de inicio de sesión.

IBM Cloud Databases for DataStax está en desuso

15 de diciembre de 2023

El conector de IBM Cloud Databases for DataStax está en desuso y dejará de mantenerse en un futuro release.

Semana finalizada el 08 de diciembre de 2023

Tuning Studio está disponible

7 de diciembre de 2023

Tuning Studio le ayuda a guiar un modelo de base para devolver resultados útiles. Con Tuning Studio, puede ajustar el modelo base flan-t5-xl-3b para mejorar su rendimiento en tareas de procesamiento de lenguaje natural como la clasificación, el resumen y la generación. El ajuste rápido ayuda a los modelos de base más pequeños y más eficientes computacionalmente a obtener resultados comparables a los modelos más grandes de la misma familia de modelos. Al ajustar y desplegar una versión ajustada de un modelo más pequeño, puede reducir los costes de inferencia a largo plazo. Tuning Studio está disponible para los usuarios de planes de pago en la región de Dallas.

Nuevas propiedades de cliente en conexiones Db2 para la gestión de carga de trabajo

8 de diciembre de 2023

Ahora puede especificar propiedades en los campos siguientes para fines de supervisión: Nombre de aplicación, Información de contabilidad de cliente, Nombre de host de clientey Usuario de cliente. Estos campos son opcionales y están disponibles para las conexiones siguientes:

Semana finalizada el 1 de diciembre de 2023

Watsonx.governance está disponible.

1 de diciembre de 2023

Watsonx.governance amplía las prestaciones de gobierno de Watson OpenScale para evaluar los activos de modelo de base, así como los activos de aprendizaje de máquina. Por ejemplo, evalúe las plantillas de solicitud de modelo de base para dimensiones como la precisión o para detectar la presencia de un discurso odioso y abusivo. También puede definir casos de uso de IA para abordar problemas empresariales y, a continuación, realizar un seguimiento de plantillas de solicitud o datos de modelo en hojas de datos para dar soporte a los objetivos de conformidad y gobierno. Los planes y características de Watsonx.governance solo están disponibles en la región de Dallas.

Explore con el atlas de riesgos de IA

1 de diciembre de 2023

Ahora puede explorar algunos de los riesgos de trabajar con IA generativa, modelos de base y modelos de aprendizaje automático. Lea acerca de los riesgos para la privacidad, la equidad, la explicabilidad, la alineación de valores y otras áreas. Consulte AI risk atlas.

Hay disponibles nuevas versiones de los modelos IBM Granite

30 de noviembre de 2023

Las últimas versiones de los modelos de Granite incluyen estos cambios:

granito-13b-chat-v2: Ajuste para mejorar las tareas de respuesta a preguntas, resumen y generativas. Con un contexto suficiente, genera respuestas con las mejoras siguientes respecto a la versión anterior:

  • Genera respuestas más largas y de mayor calidad con un tono profesional
  • Da soporte a respuestas de cadena de pensamiento
  • Reconoce las menciones de las personas y puede detectar mejor el tono y el sentimiento
  • Maneja los espacios en blanco en la entrada de forma más ordenada

Debido a los amplios cambios, pruebe y revise las solicitudes diseñadas para v1 antes de cambiar a la versión más reciente.

granito-13b-instruct-v2: Ajuste específico para tareas de clasificación, extracción y resumen. La versión más reciente difiere de la versión anterior de las siguientes maneras:

  • Devuelve respuestas más coherentes de longitudes variadas y con un vocabulario diverso
  • Reconoce menciones de personas y puede resumir entradas más largas
  • Maneja los espacios en blanco en la entrada de forma más ordenada

Es probable que las solicitudes diseñadas que funcionan bien con v1 también funcionen bien con v2 , pero asegúrese de probar antes de cambiar de modelo.

Las últimas versiones de los modelos Granite se clasifican como modelos de Clase 2.

Algunos modelos de base ya están disponibles a un coste menor

30 de noviembre de 2023

Algunos modelos de fundación populares fueron recategorizados en clases de facturación de menor costo.

Los siguientes modelos de base han cambiado de Clase 3 a Clase 2:

  • granite-13b-chat-v1
  • granite-13b-instruct-v1
  • llama-2-70b

El siguiente modelo de fundación ha cambiado de clase 2 a clase 1:

  • llama-2-13b

Para obtener más información sobre las clases de facturación, consulte Planes deWatson Machine Learning.

Hay disponible un nuevo cuaderno de ejemplo: Introducción a RAG con Discovery

30 de noviembre de 2023

Utilice el cuaderno Introducción a RAG con descubrimiento para aprender a aplicar el patrón de generación de recuperación aumentada en IBM watsonx.ai con IBM Watson Discovery como componente de búsqueda. Para más información, ver Introducción a RAG con Discovery.

Comprender las diferencias de características entre watsonx como servicio y despliegues de software

30 de noviembre de 2023

Ahora puede comparar las características y la implementación del software IBM watsonx as a Service y watsonx en Cloud Pak for Data , versión 4.8. Consulte Diferencias de características entre despliegues de watsonx.

Cambiar la forma en que se manejan las secuencias de detención

30 de noviembre de 2023

Cuando se especifica una secuencia de detención, como un carácter de nueva línea, en el laboratorio de solicitudes, el texto de salida del modelo finaliza después de la primera aparición de la secuencia de detención. La salida del modelo se detiene incluso si la aparición se produce al principio de la salida. Anteriormente, la secuencia de detención se ignoraba si se especificaba al principio de la salida del modelo.

Semana finalizada el 10 de noviembre de 2023

Hay disponible una versión más pequeña del modelo de conversación Llama-2

9 de noviembre de 2023

Ahora puede elegir entre utilizar las versiones 13b o 70b del modelo de conversación Llama-2 . Tenga en cuenta estos factores cuando elija:

  • Coste
  • Rendimiento

La versión 13b es un modelo de Clase 2, lo que significa que es más barato de utilizar que la versión 70b . Para comparar puntos de referencia y otros factores, como las emisiones de carbono para cada tamaño de modelo, consulte la tarjeta modelo.

Utilizar variables de solicitud para crear solicitudes reutilizables

Añada flexibilidad a las solicitudes con variables de solicitud. Las variables de solicitud funcionan como marcadores en el texto estático de la entrada de solicitud que puede sustituir por texto dinámicamente en el momento de la inferencia. Puede guardar los nombres de variable de solicitud y los valores predeterminados en un activo de plantilla de solicitud para reutilizarlos o compartirlos con los colaboradores del proyecto. Para obtener más información, consulte Creación de solicitudes reutilizables.

Anuncio de soporte para las infraestructuras y especificaciones de software de Python 3.10 y R4.2 en el tiempo de ejecución 23.1

9 de noviembre de 2023

Ahora puede utilizar IBM Runtime 23.1, que incluye las infraestructuras de ciencia de datos más recientes basadas en Python 3.10 y R 4.2, para ejecutar Watson Studio cuadernos Jupyter y scripts R, entrenar modelos y ejecutar despliegues de Watson Machine Learning . Actualice los activos y despliegues para utilizar las infraestructuras y especificaciones de software de IBM Runtime 23.1 .

Utilice Apache Spark 3.4 para ejecutar cuadernos y scripts

Spark 3.4 con Python 3.10 y R 4.2 ahora está soportado como un tiempo de ejecución para cuadernos y scripts RStudio en proyectos. Para obtener detalles sobre los entornos de cuaderno disponibles, consulte Opciones de recursos de cálculo para el editor de cuadernos en proyectos y Opciones de recursos de cálculo para RStudio en proyectos.

Semana finalizada el 27 de octubre de 2023

Utilice un conector de Satellite para conectarse a una base de datos local

26 de octubre de 2023

Utilice el nuevo conector Satellite para conectarse a una base de datos a la que no se puede acceder a través de Internet (por ejemplo, detrás de un cortafuegos). Satellite Connector utiliza una comunicación ligera basada en Dockerque crea comunicaciones seguras y auditables desde el entorno local a IBM Cloud. Para obtener instrucciones, consulte Conexión a datos detrás de un cortafuegos.

Secure Gateway está en desuso

26 de octubre de 2023

IBM Cloud ha anunciado el desuso de Secure Gateway. Para obtener información, consulte la Resumen y cronograma.

Si actualmente tiene conexiones configuradas con Secure Gateway, planifique utilizar un método de comunicación alternativo. En IBM watsonx, puede utilizar el conector Satellite como sustitución de Secure Gateway. Consulte Conexión a datos detrás de un cortafuegos.

Semana finalizada el 20 de octubre de 2023

Tamaño máximo de señal aumentado

16 de octubre de 2023

Los límites aplicados anteriormente al número máximo de tokens permitidos en la salida de los modelos de base se eliminan de los planes de pago. Puede utilizar valores de señal máximos más grandes durante la ingeniería de solicitud desde Prompt Lab y la biblioteca Python . El número exacto de señales permitidas difiere según el modelo. Para obtener más información sobre los límites de señal para planes de pago y Lite, consulte Modelos de base soportados.

Semana finalizada el 13 de octubre de 2023

Nuevos cuadernos en Ejemplos

12 de octubre de 2023

Hay disponibles dos nuevos cuadernos que utilizan una base de datos de vector de Elasticsearch en la fase de recuperación del patrón de generación de recuperación aumentada. Los cuadernos muestran cómo encontrar coincidencias basadas en la similitud semántica entre los documentos indexados y el texto de consulta que se envía desde un usuario.

Soluciones intermedias en Decision Optimization

12 de octubre de 2023

Ahora puede elegir ver un ejemplo de soluciones intermedias mientras se ejecuta un experimento de Decision Optimization . Esto puede ser útil para depurar o para ver cómo progresa el solucionador. Para los modelos grandes que tardan más en resolverse, con soluciones intermedias ahora puede identificar de forma rápida y sencilla cualquier problema potencial con la solución, sin tener que esperar a que la solución se complete. Visualización gráfica que muestra estadísticas de ejecución con soluciones intermedias.Puede configurar el parámetro de entrega de solución intermedia en la configuración Ejecutar y seleccionar una frecuencia para estas soluciones. Para obtener más información, consulte Soluciones intermedias y Parámetros de configuración de ejecución.

Nuevo diálogo de modelo guardado de Decision Optimization

Al guardar un modelo para el despliegue desde la interfaz de usuario de Decision Optimization , ahora puede revisar el esquema de entrada y salida y seleccionar más fácilmente las tablas que desea incluir. También puede añadir, modificar o suprimir parámetros de configuración de ejecución, revisar el entorno y los archivos de modelo utilizados. Todos estos elementos se muestran en el mismo diálogo Guardar como modelo para despliegue . Para obtener más información, consulte Despliegue de un modelo de Decision Optimization utilizando la interfaz de usuario.

Semana finalizada el 6 de octubre de 2023

Modelos de base adicionales en Frankfurt

5 de octubre de 2023

Todos los modelos de base que están disponibles en el centro de datos de Dallas ahora también están disponibles en el centro de datos de Frankfurt. El watsonx.ai Prompt Lab y la inferencia de modelos base ahora están soportados en la región de Frankfurt para estos modelos:

  • granite-13b-chat-v1
  • granite-13b-instruct-v1
  • llama-2-70b-chat
  • gpt-neox-20b
  • mt0-xxl-13b
  • starcoder-15.5b

Para obtener más información sobre estos modelos, consulte Modelos de base soportados disponibles con watsonx.ai.

Para obtener detalles de precios, consulte Planes deWatson Machine Learning.

Controlar la colocación de una nueva columna en la operación Concatenar (Data Refinery)

6 de octubre de 2023

Ahora tiene dos opciones para especificar la posición de la nueva columna que resulta de la operación Concatenar : como la columna situada más a la derecha en el conjunto de datos o junto a la columna original.

Concatenar posición de columna de operación

Anteriormente, la nueva columna se colocaba al principio del conjunto de datos.

Importante:

Edite la operación Concatenar en cualquiera de los flujos de Data Refinery existentes para especificar la nueva posición de columna. De lo contrario, el flujo podría fallar.

Para obtener información sobre las operaciones de Data Refinery , consulte Operaciones de la GUI en Data Refinery.

Semana finalizada el 29 de septiembre de 2023

IBM Granite modelos base para la generación de lenguaje natural

28 de septiembre de 2023

Los dos primeros modelos de la familia Granite de los modelos base de IBM están ahora disponibles en la región de Dallas:

  • grite-13b-chat-v1: modelo de uso general optimizado para casos de uso de diálogo
  • grite-13b-instruct-v1: Modelo de uso general optimizado para responder a preguntas

Ambos modelos son modelos de decodificador 13B-parameter que pueden predecir y generar eficazmente el idioma en inglés. Ellos, como todos los modelos de la familia Granite , están diseñados para los negocios. Los modelos de Granite están preentrenados en varios terabytes de datos de fuentes de lenguaje general, como Internet público, y fuentes de datos específicas de la industria de los campos académico, científico, legal y financiero.

Pruébelos hoy en Prompt Lab o ejecute una cuaderno de muestra que utiliza el granite-13b-instruct-v1 Modelo para el análisis del sentimiento.

Leer el Construyendo IA para empresas: IBM's Granite modelos de fundacion publicación de blog para obtener más información.

Semana finalizada el 22 de septiembre de 2023

Modelos Java de Decision Optimization

20 de septiembre de 2023

Los modelos Java de Decision Optimization ahora se pueden desplegar en Watson Machine Learning. Utilizando la API de trabajador de Java, puede crear modelos de optimización con las API de Java de OPL, CPLEX y CP Optimizer. Ahora puede crear fácilmente los modelos localmente, empaquetarlos y desplegarlos en Watson Machine Learning utilizando el contenedor modelo que se proporciona en el trabajador de Java GitHubpúblico. Para obtener más información, consulte Despliegue de modelos Java para Decision Optimization.

Nuevos cuadernos en el concentrador de recursos

21 de septiembre de 2023

Puede utilizar los siguientes cuadernos nuevos en el concentrador de recursos:

Semana finalizada el 15 de septiembre de 2023

Guías de aprendizaje de inicio rápido de datos sintéticos y de ingeniería de solicitud

14 de septiembre de 2023

Pruebe las nuevas guías de aprendizaje para ayudarle a aprender a:

  • Modelos de base de solicitud: normalmente hay varias formas de solicitar un modelo de base para obtener un resultado satisfactorio. En Prompt Lab, puede experimentar con la solicitud de diferentes modelos de base, explorar solicitudes de ejemplo, así como guardar y compartir las mejores solicitudes. Una forma de mejorar la precisión de la salida generada es proporcionar los hechos necesarios como contexto en el texto de solicitud utilizando el patrón de generación de recuperación aumentada.
  • Generar datos sintéticos: puede generar datos tabulares sintéticos en watsonx.ai. La ventaja de los datos sintéticos es que puede obtener los datos bajo demanda y, a continuación, personalizarlos para que se ajusten a su caso de uso y producirlos en grandes cantidades.
Nuevas guías de aprendizaje
Guía de aprendizaje Descripción Experiencia para guía de aprendizaje
Solicitar un modelo de base utilizando Prompt Lab Experimente con la solicitud de diferentes modelos de base, explore las solicitudes de ejemplo y guarde y comparta sus mejores solicitudes. Solicitar un modelo utilizando Prompt Lab sin codificación.
Solicitar un modelo de base con el patrón de generación de recuperación aumentada Solicitar un modelo de base aprovechando la información de una base de conocimiento. Utilice el patrón de generación de recuperación aumentada en un cuaderno Jupyter que utilice el código Python .
Generar datos tabulares sintéticos Generar datos tabulares sintéticos utilizando un editor de flujo gráfico. Seleccione operaciones para generar datos.

Comunidad de Watsonx.ai

14 de septiembre de 2023

Ya puedes unirte al watsonx.ai Comunidad para que los arquitectos y constructores de IA aprendan, compartan ideas y se conecten con otros.

Semana finalizada el 8 de septiembre de 2023

Generar datos tabulares sintéticos con Synthetic Data Generator

7 de septiembre de 2023

Ahora disponible en las regiones de Dallas y Frankfurt, Synthetic Data Generator es una nueva herramienta de editor gráfico en watsonx.ai que puede utilizar para generar datos tabulares para utilizar para modelos de entrenamiento. Utilizando flujos visuales y un modelo estadístico, puede crear datos sintéticos basados en los datos existentes o en un esquema de datos personalizado. Puede elegir enmascarar los datos originales y exportar los datos sintéticos a una base de datos o como un archivo.

Para empezar, consulte Datos sintéticos.

Llama-2 Modelo de base para la generación de lenguaje natural y el chat

7 de septiembre de 2023

El modelo de fundación Llama-2 de Meta ya está disponible en la región de Dallas. Llama-2 El modelo de conversación es un modelo de lenguaje autorregresivo que utiliza una arquitectura de transformador optimizado. El modelo está preentrenado con datos en línea disponibles públicamente, y luego afinado utilizando el aprendizaje de refuerzo de la retroalimentación humana. El modelo está pensado para uso comercial y de investigación en escenarios de chat tipo asistente en inglés.

Extensión LangChain para la biblioteca Python de los modelos base

7 de septiembre de 2023

Ahora puede utilizar la infraestructura LangChain con modelos base en watsonx.ai con la nueva extensión LangChain para la biblioteca Python de modelos base.

Este cuaderno de muestra muestra cómo utilizar la nueva extensión: Cuaderno de muestra

Ejemplo introductorio para el patrón de generación de recuperación aumentada

7 de septiembre de 2023

La generación aumentada de recuperación es una técnica simple y potente para aprovechar una base de conocimiento para obtener resultados objetivamente precisos de los modelos de base.

Consulte: Introducción a la recuperación-generación aumentada

Semana finalizada el 1 de septiembre de 2023

Desuso de comentarios en cuadernos

31 de agosto de 2023

A partir de hoy no es posible añadir comentarios a un cuaderno desde la barra de acciones del cuaderno. Se han eliminado los comentarios existentes.

Icono de comentarios en la barra de acciones del cuaderno

StarCoder Foundation Model para la generación de código y la conversión de código

31 de agosto de 2023

El modelo StarCoder de Hugging Face ya está disponible en la región de Dallas. Utilice StarCoder para crear solicitudes para generar código o para transformar código de un lenguaje de programación a otro. Una solicitud de ejemplo muestra cómo utilizar StarCoder para generar código Python a partir de un conjunto de instrucciones. Una segunda solicitud de ejemplo muestra cómo utilizar StarCoder para transformar código escrito en C++ en código Python .

IBM watsonx.ai está disponible en la región de Frankfurt

31 de agosto de 2023

Watsonx.ai ahora está disponible a nivel general en el centro de datos de Frankfurt y se puede seleccionar como la región preferida al registrarse. La inferencia de modelo de base y de laboratorio de solicitud están soportadas en la región de Frankfurt para estos modelos:

Semana finalizada el 25 de agosto de 2023

Mejoras de memoria caché adicionales disponibles para Watson Pipelines

21 de agosto de 2023

Hay más opciones disponibles para personalizar los valores de flujo de conducto. Ahora puede ejercer un mayor control sobre cuándo se utiliza la memoria caché para las ejecuciones de interconexión. Para obtener detalles, consulte Gestión de valores predeterminados.

Semana finalizada el 18 de agosto de 2023

Actualizaciones de nombre de plan para el servicio Watson Machine Learning

18 de agosto de 2023

A partir de inmediato, los nombres de plan se actualizan para el servicio IBM Watson Machine Learning , como se indica a continuación:

  • El plan estándar v2 es ahora el plan Essentials . El plan está diseñado para proporcionar a su organización los recursos necesarios para empezar a trabajar con modelos de base y activos de aprendizaje automático.

  • El plan v2 Professional es ahora el plan Estándar . Este plan proporciona recursos diseñados para dar soporte a la mayoría de las organizaciones a través de la creación de activos para un uso productivo.

Los cambios en los nombres de plan no cambian los términos del servicio. Es decir, si está registrado para utilizar el plan estándar v2 , ahora se denominará Essentials, pero todos los detalles del plan permanecerán iguales. De forma similar, si está registrado para utilizar el plan Profesional v2 , no hay ningún cambio que no sea el cambio de nombre de plan a Estándar.

Para obtener detalles sobre lo que se incluye con cada plan, consulte Planes deWatson Machine Learning. Para obtener información sobre precios, busque su plan en Watson Machine Learning pagina del plan en el IBM Cloud catalogar.

Semana finalizada el 11 de agosto de 2023

Desuso de comentarios en cuadernos

7 de agosto de 2023

El 31 de agosto de 2023, ya no podrá añadir comentarios a un cuaderno desde la barra de acciones del cuaderno. Los comentarios existentes que se hayan añadido de esta forma se eliminarán.

Icono de comentarios en la barra de acciones del cuaderno

Semana finalizada el 4 de agosto de 2023

Aumento del límite de señal para el plan Lite

4 de agosto de 2023

Si está utilizando el plan Lite para probar modelos de base, el límite de señal para entrada y salida de solicitud ahora se incrementa de 25.000 a 50.000 por cuenta al mes. Esto le proporciona más flexibilidad para explorar modelos de base y experimentar con solicitudes.

Plantilla de análisis de texto personalizado (SPSS Modeler)

4 de agosto de 2023

Para SPSS Modeler, ahora puede cargar una plantilla de análisis de texto personalizada en un proyecto. Esto le proporciona más flexibilidad para capturar y extraer conceptos clave de una forma exclusiva para su contexto.

Semana finalizada el 28 de julio de 2023

Biblioteca Python de modelos de base disponible

27 de julio de 2023

Ahora puede solicitar modelos base en watsonx.ai mediante programación utilizando una biblioteca Python .

Consulte: Biblioteca Python de modelos de base

Semana finalizada el 14 de julio de 2023

Controlar guardaraíles de IA

14 de julio de 2023

Ahora puede controlar si los guardaraíles de IA están activados o desactivados en Prompt Lab. Los guardaraíles de IA eliminan el texto potencialmente dañino de los campos de entrada y salida. El texto dañino puede incluir el discurso de odio, el abuso y la blasfemia. Para evitar la eliminación de texto potencialmente dañino, establezca el conmutador Guardaraíles de IA en desactivado. Consulte Odio, abuso y blasfemia.

Prompt Lab con guardaraíles de IA establecidos en

La conexión de Microsoft Azure SQL Database da soporte a la autenticación de Azure Active Directory (Azure AD)

14 de julio de 2023

Ahora puede seleccionar Active Directory para la conexión Microsoft Azure SQL Database . La autenticación de Active Directory es una alternativa a la autenticación de SQL Server . Con esta mejora, los administradores pueden gestionar de forma centralizada los permisos de usuario para Azure. Para obtener más información, consulte Conexión deMicrosoft Azure SQL Database.

Semana finalizada el 7 de julio de 2023

Bienvenido a IBM watsonx.ai.

7 de julio de 2023

IBM watsonx.ai ofrece todas las herramientas que necesita para trabajar con modelos de aprendizaje automático y base.

Cómo empezar:

Pruebe la búsqueda y respuesta de IA generativa en esta documentación

7 de julio de 2023

Puede ver IA generativa en acción probando la nueva opción de búsqueda y respuesta de IA generativa en la documentación de watsonx.ai . Las respuestas las genera un modelo de lenguaje grande que se ejecuta en watsonx.ai y se basa en el contenido de la documentación. Esta característica sólo está disponible cuando está viendo la documentación mientras ha iniciado sesión en watsonx.ai.

Ingrese una pregunta en el campo de búsqueda de documentación y haga clic en el Pruebe la búsqueda y respuesta con IA generativa iconoalt="" . El Búsqueda y respuesta de IA generativa El panel se abre y responde a su pregunta.

Muestra el panel de búsqueda y respuesta de IA generativa

Búsqueda y respuesta de IA generativa
Estas respuestas las genera un modelo de lenguaje grande en watsonx.ai que se basa en el contenido de la documentación del producto. Más información