IBM modelos de base
En IBM watsonx.ai, puede utilizar modelos base de IBM creados con integridad y diseñados para la empresa.
La familia Granite de modelos de base de IBM incluye modelos de solo decodificador que pueden predecir y generar lenguaje de forma eficiente.
Los modelos se han creado con datos de confianza que tienen las características siguientes:
- Procedente de conjuntos de datos de calidad en dominios como finanzas (SEC Filings), derecho (Free Law), tecnología (Stack Exchange), ciencia ( arXiv, DeepMind Matemáticas), literatura (Proyecto Gutenberg ( PG-19)), y más.
- Cumple con los rigurosos estándares de gobierno y autorización de datos de IBM .
- Se ha borrado el odio, el abuso y la blasfemia, la duplicación de datos y los URL incluidos en la lista de elementos bloqueados, entre otras cosas.
IBM se compromete a crear IA que sea abierta, fiable, dirigida y capacitada. Para obtener más información sobre las protecciones contractuales relacionadas con la indemnización de IBM, consulte el Acuerdo de relación con el clienteIBM y la descripción del servicioIBM watsonx.ai.
Los siguientes modelos de base de IBM están disponibles en watsonx.ai:
- granite-3-2-8b-instruct
- granite-3-2b-instruct
- granite-3-8b-instruct
- granite-3-8b-base
- granite-7b-lab
- granite-8b-japanese
- granite-13b-chat-v2
- granite-13b-instruct-v2
- granite-20b-multilingual
- granite-3b-code-instruct
- granite-8b-code-instruct
- granite-20b-code-instruct
- granite-20b-code-base-schema-linking
- granite-20b-code-base-sql-gen
- granite-34b-code-instruct
- granite-guardian-3-2b
- granite-guardian-3-8b
- granite-ttm-512-96-r2
- granite-ttm-1024-96-r2
- granite-ttm-1536-96-r2
- granite-vision-3-2-2b
Para obtener más información sobre los modelos de codificador desarrollados por IBM, consulte Modelos de codificador compatibles.
Para obtener detalles sobre los modelos de base de terceros, consulte Modelos de base de terceros.
Cómo elegir un modelo
Para revisar los factores que pueden ayudarle a elegir un modelo, como las tareas e idiomas compatibles, consulte Elegir un modelo y Puntos de referencia del modelo Foundation.
Detalles del modelo de base
Los modelos de bases de datos en watsonx.ai admiten una amplia gama de casos de uso, tanto para lenguajes naturales como para lenguajes de programación. Para ver los tipos de tareas que estos modelos pueden hacer, revise y pruebe las indicaciones de muestra.
granite-3-2-8b-instruct
Granite 3.2 Instruct es un modelo de base de contexto largo que se ajusta para mejorar las capacidades de razonamiento. La capacidad de razonamiento es configurable, lo que significa que puede controlar cuándo se aplica el razonamiento.
- Uso
Capaz de realizar tareas generativas comunes, incluidas tareas relacionadas con el código, llamadas a funciones y diálogos multilingües. Se especializa en razonamiento y tareas de contexto largo, como resumir documentos largos o transcripciones de reuniones y responder a preguntas con respuestas que se basan en el contexto proporcionado por documentos largos.
- Size
8 mil millones de parámetros
- Nivel de precios API
Clase 12
- Disponibilidad
Proporcionado por IBM implementado en hardware multiusuario.
- Pruébela
- Límites de fichas
Longitud de la ventana de contexto (entrada + salida): 131 072
Nota: El número máximo de nuevos tokens, es decir, los tokens generados por el modelo de fundación por solicitud, está limitado a 16 384.
- Idiomas naturales admitidos
Inglés, alemán, español, francés, japonés, portugués, árabe, checo, italiano, coreano, holandés y chino
- Información de ajuste de instrucciones
Desarrollado sobre la base de Granite-3.1-8B-Instruct, el modelo se entrenó utilizando una combinación de conjuntos de datos de código abierto con licencia permisiva y datos sintéticos generados internamente diseñados para tareas de razonamiento.
- Arquitectura del modelo
decodificador
- Licencia
Consulte las descripciones de los dos servicios que componen watsonx.ai:
- watsonx.ai Descripción del servicio de tiempo de ejecución
- watsonx.ai Descripción del servicio de estudio
IBM -los modelos de base desarrollados se consideran parte del Servicio de IBM Cloud. Cuando utilice un modelo de base desarrollado por IBM que se proporciona en watsonx.ai, se aplicarán las protecciones contractuales relacionadas con la indemnización de IBM. Para obtener más información, consulte el Acuerdo de relación con el cliente de IBM, además de las descripciones de los servicios.
- Más información
- Lea los siguientes recursos:
Modelos de Granite Instruct 3.1
Los modelos de base de la colección Granite Instruct pertenecen a la familia de modelos IBM Granite. Los modelos de base de granite-3-2b-instruct y granite-3-8b-instruct son Granite 3.1 Instruir a los modelos de base. Estos modelos se basan en iteraciones anteriores para proporcionar un mejor soporte para las tareas de codificación y funciones intrínsecas para los agentes.
- Uso
Granite Instruct los modelos de base están diseñados para sobresalir en tareas de seguimiento de instrucciones, como resumen, resolución de problemas, traducción de textos, razonamiento, tareas de código, llamada de funciones y más.
- Tamaños
- 2000 millones de parámetros
- 8 mil millones de parámetros
- Nivel de precios API
- 2b: Clase C1
- 8b: Clase 12
Para obtener detalles sobre los precios, consulte la Tabla 2.
- Disponibilidad
Proporcionado por IBM implementado en hardware multiusuario.
- Pruébela
Experimenta con muestras:
- Límites de fichas
Longitud de la ventana de contexto (entrada + salida)
- 2b: 131 072
- 8b: 131 072
El máximo de nuevos tokens, es decir, los tokens generados por el modelo de fundación por solicitud, está limitado a 8192.
- Idiomas naturales admitidos
Inglés, alemán, español, francés, japonés, portugués, árabe, checo, italiano, coreano, holandés, chino (simplificado).
- Lenguajes de programación soportados
Los modelos de la Unidad de Respuesta Rápida ( Granite Instruct ) están entrenados con código escrito en 116 lenguajes de programación.
- Información de ajuste de instrucciones
Los modelos de Granite Instruct están ajustados con precisión. Los modelos básicos de Granite Instruct , entrenados con más de 12 billones de fichas, con una combinación de datos de instrucciones de código abierto con licencia permisiva y de propiedad.
- Arquitectura del modelo
decodificador
- Licencia
Consulte las descripciones de los dos servicios que componen watsonx.ai:
- watsonx.ai Descripción del servicio de tiempo de ejecución
- watsonx.ai Descripción del servicio de estudio
IBM -los modelos de base desarrollados se consideran parte del Servicio de IBM Cloud. Cuando utilice un modelo de base desarrollado por IBM que se proporciona en watsonx.ai, se aplicarán las protecciones contractuales relacionadas con la indemnización de IBM. Para obtener más información, consulte el Acuerdo de relación con el cliente de IBM, además de las descripciones de los servicios.
- Más información
- Lea los siguientes recursos:
granite-3-8b-base
El modelo de base Granite 8b es un modelo base que pertenece a la familia de modelos IBM Granite. El modelo se entrena con 10 billones de tokens procedentes de diversos dominios, y luego se entrena con 2 billones de tokens de datos de alta calidad que se eligen cuidadosamente para mejorar el rendimiento del modelo en tareas específicas.
- Uso
El modelo base de la base de datos de la Granite 3.0 es un modelo de referencia que puede personalizar para crear modelos especializados para escenarios de aplicación específicos.
- Size
8 mil millones de parámetros
- Nivel de precios API
Para obtener detalles sobre los precios, consulte la Tabla 4.
- Disponibilidad
Implementación bajo demanda para uso exclusivo.
- Límites de fichas
Longitud de la ventana de contexto (entrada + salida): 4096
- Idiomas naturales admitidos
Inglés, alemán, español, francés, japonés, portugués, árabe, checo, italiano, coreano, holandés, chino (simplificado).
- Arquitectura del modelo
decodificador
- Licencia
Consulte las descripciones de los dos servicios que componen watsonx.ai:
- watsonx.ai Descripción del servicio de tiempo de ejecución
- watsonx.ai Descripción del servicio de estudio
IBM -los modelos de base desarrollados se consideran parte del Servicio de IBM Cloud. Cuando utilice un modelo de base desarrollado por IBM que se proporciona en watsonx.ai, se aplicarán las protecciones contractuales relacionadas con la indemnización de IBM. Para obtener más información, consulte el Acuerdo de relación con el cliente de IBM, además de las descripciones de los servicios.
- Más información
- Lea los siguientes recursos:
granite-7b-lab
IBM proporciona el modelo de base granite-7b-lab. El modelo de base de la Fundación de la Academia de Ciencias de Nueva York ( granite-7b-lab ) utiliza un novedoso método de ajuste de alineación de la investigación de la Universidad de Columbia ( IBM ). chatBots, La alineación a gran escala para el aprendizaje automático o el aprendizaje por refuerzo es un método para añadir nuevas habilidades a los modelos de base existentes mediante la generación de datos sintéticos para las habilidades y, a continuación, el uso de esos datos para ajustar el modelo de base.
- Uso
Admite tareas de propósito general, como extracción, resumen, clasificación y más. Siga las pautas indicadas para obtener consejos sobre su uso. Para más información, consulte Solicitar un granite-7b-lab.
- Size
7 mil millones de parámetros
- Nivel de precios API
Para obtener detalles sobre los precios, consulte la Tabla 4.
- Disponibilidad
Implementación bajo demanda para uso exclusivo.
- Pruébela
- Límites de fichas
Longitud de la ventana de contexto (entrada + salida): 8192
Nota: El número máximo de nuevos tokens, es decir, los tokens generados por el modelo de fundación por solicitud, está limitado a 4096.
- Idiomas naturales admitidos
Inglés
- Información de ajuste de instrucciones
El modelo de la fundación granite-7b-lab se entrena de forma iterativa utilizando la metodología de alineación a gran escala para chatbots (LAB).
- Arquitectura del modelo
decodificador
- Licencia
Consulte las descripciones de los dos servicios que componen watsonx.ai:
- watsonx.ai Descripción del servicio de tiempo de ejecución
- watsonx.ai Descripción del servicio de estudio
IBM -los modelos de base desarrollados se consideran parte del Servicio de IBM Cloud. Cuando utilice un modelo de base desarrollado por IBM que se proporciona en watsonx.ai, se aplicarán las protecciones contractuales relacionadas con la indemnización de IBM. Para obtener más información, consulte el Acuerdo de relación con el cliente de IBM, además de las descripciones de los servicios.
- Más información
- Lea los siguientes recursos:
granite-8b-japanese
El modelo de granite-8b-japanese es proporcionado por IBM. El modelo de la fundación granite-8b-japanese es una variante instructa inicializada a partir del modelo preentrenado Granite Base 8 Billion Japanese y está entrenado para comprender y generar texto japonés.
- Uso
Útil para tareas de uso general en idioma japonés, como clasificación, extracción, preguntas y respuestas, y para la traducción de idiomas entre japonés e inglés.
- Size
8 mil millones de parámetros
- Nivel de precios API
Clase 1. Para obtener detalles sobre los precios, consulte la Tabla 2.
- Disponibilidad
- Proporcionado por IBM implementado en hardware multiusuario en el centro de datos de Tokio.
- Implementación bajo demanda para uso exclusivo, excepto en el centro de datos de Fráncfort.
El despliegue de este modelo de base proporcionado por IBM ha quedado obsoleto. Véase el ciclo de vida del modelo de la Fundación.
- Pruébela
Experimenta con muestras:
- Límites de fichas
Longitud de la ventana de contexto (entrada + salida): 4096
- Idiomas naturales admitidos
Inglés, japonés
- Información de ajuste de instrucciones
La familia de modelos de aprendizaje automático ( Granite ) se entrena con conjuntos de datos relevantes para la empresa de cinco ámbitos: Internet, académico, código, legal y financiero. El modelo de aprendizaje profundo ( granite-8b-japanese ) se entrenó previamente con un billón de tokens de texto en inglés y un billón de tokens de texto en japonés ( 0.5 ).
- Arquitectura del modelo
decodificador
- Licencia
Consulte las descripciones de los dos servicios que componen watsonx.ai:
- watsonx.ai Descripción del servicio de tiempo de ejecución
- watsonx.ai Descripción del servicio de estudio
IBM -los modelos de base desarrollados se consideran parte del Servicio de IBM Cloud. Cuando utilice un modelo de base desarrollado por IBM que se proporciona en watsonx.ai, se aplicarán las protecciones contractuales relacionadas con la indemnización de IBM. Para obtener más información, consulte el Acuerdo de relación con el cliente de IBM, además de las descripciones de los servicios.
- Más información
- Lea los siguientes recursos:
granite-13b-chat-v2
El modelo de granite-13b-chat-v2 es proporcionado por IBM. Este modelo está optimizado para casos de uso de diálogo y funciona bien con agentes virtuales y aplicaciones de chat.
Uso : genera una salida de diálogo como un chatbot. Utiliza un formato de aviso específico para cada modelo. Incluye una palabra clave en su salida que puede utilizarse como secuencia de parada para producir respuestas sucintas. Siga las pautas indicadas para obtener consejos sobre su uso. Para más información, consulte Solicitar un granite-13b-chat-v2.
- Size
13 mil millones de parámetros
- Nivel de precios API
Clase 1. Para obtener detalles sobre los precios, consulte la Tabla 2 y la Tabla 4.
- Disponibilidad
Implementación bajo demanda para uso exclusivo.
- Pruébela
- Límites de fichas
Longitud de la ventana de contexto (entrada + salida): 8192
- Idiomas naturales admitidos
Inglés
- Información de ajuste de instrucciones
La familia de modelos de aprendizaje automático ( Granite ) se entrena con conjuntos de datos relevantes para la empresa de cinco ámbitos: Internet, académico, código, legal y financiero. Los datos utilizados para entrenar los modelos se someten primero a revisiones de gobernanza de datos e IBM es y se les filtra el texto que está marcado por odio, abuso o blasfemia por el filtro HAP desarrollado por la Fundación contra la Difamación ( IBM ). IBM comparte información sobre los métodos de formación y los conjuntos de datos utilizados.
- Arquitectura del modelo
decodificador
- Licencia
Consulte las descripciones de los dos servicios que componen watsonx.ai:
- watsonx.ai Descripción del servicio de tiempo de ejecución
- watsonx.ai Descripción del servicio de estudio
IBM -los modelos de base desarrollados se consideran parte del Servicio de IBM Cloud. Cuando utilice un modelo de base desarrollado por IBM que se proporciona en watsonx.ai, se aplicarán las protecciones contractuales relacionadas con la indemnización de IBM. Para obtener más información, consulte el Acuerdo de relación con el cliente de IBM, además de las descripciones de los servicios.
- Más información
- Lea los siguientes recursos:
granite-13b-instruct-v2
El modelo de granite-13b-instruct-v2 es proporcionado por IBM. Este modelo se entrenó con datos financieros de alta calidad y es un modelo de alto rendimiento en tareas financieras. Las tareas financieras evaluadas incluyen: proporcionar puntuaciones de sentimiento para transcripciones de llamadas sobre acciones y ganancias, clasificar titulares de noticias, extraer evaluaciones de riesgo crediticio, resumir textos financieros extensos y responder preguntas financieras o relacionadas con seguros.
- Uso
Admite tareas de extracción, resumen y clasificación. Genera resultados útiles para tareas relacionadas con las finanzas. Utiliza un formato de aviso específico para cada modelo. Acepta caracteres especiales, que pueden utilizarse para generar resultados estructurados.
- Size
13 mil millones de parámetros
- Nivel de precios API
Clase 1. Para obtener detalles sobre los precios, consulte la Tabla 2 y la Tabla 4.
- Disponibilidad
- Proporcionado por IBM implementado en hardware multiusuario.
- Implementación bajo demanda para uso exclusivo.
- Pruébela
Experimenta con muestras:
- Ejemplo de tarea generativa: Generar una lista numerada en un tema determinado
- Ejemplo de tarea de respuesta a preguntas: Responder a una pregunta basada en un documento
- Ejemplo de cuaderno Python: Utilizar watsonx y un modelo Granite para analizar la satisfacción de los clientes de alquiler de coches a partir de texto
- Límites de fichas
Longitud de la ventana de contexto (entrada + salida): 8192
Nota: El número máximo de nuevos tokens, es decir, los tokens generados por el modelo de fundación por solicitud, está limitado a 4096.
- Idiomas naturales admitidos
Inglés
- Información de ajuste de instrucciones
La familia de modelos de aprendizaje automático ( Granite ) se entrena con conjuntos de datos relevantes para la empresa de cinco ámbitos: Internet, académico, código, legal y financiero. Los datos utilizados para entrenar los modelos se someten primero a revisiones de gobernanza de datos e IBM es y se les filtra el texto que está marcado por odio, abuso o blasfemia por el filtro HAP desarrollado por la Fundación contra la Difamación ( IBM ). IBM comparte información sobre los métodos de formación y los conjuntos de datos utilizados.
- Arquitectura del modelo
decodificador
- Licencia
Consulte las descripciones de los dos servicios que componen watsonx.ai:
- watsonx.ai Descripción del servicio de tiempo de ejecución
- watsonx.ai Descripción del servicio de estudio
IBM -los modelos de base desarrollados se consideran parte del Servicio de IBM Cloud. Cuando utilice un modelo de base desarrollado por IBM que se proporciona en watsonx.ai, se aplicarán las protecciones contractuales relacionadas con la indemnización de IBM. Para obtener más información, consulte el Acuerdo de relación con el cliente de IBM, además de las descripciones de los servicios.
- Más información
- Lea los siguientes recursos:
granite-20b-multilingual
Un modelo básico de la familia de joyas de Tiffany & Co. ( IBM ) Granite. El modelo de la fundación granite-20b-multilingual se basa en el modelo básico de 20 000 millones de dólares de la Fundación Granite, y está entrenado para comprender y generar texto en inglés, alemán, español, francés y portugués.
- Uso
Inglés, alemán, español, francés y portugués. Respuesta a preguntas de dominio cerrado, resumen, generación, extracción y clasificación.
Nota:Este modelo de fundación apoya las habilidades que aporta la comunidad de código abierto de InstructLab. - Size
20 000 millones de parámetros
- Nivel de precios API
Clase 1. Para obtener detalles sobre los precios, consulte la Tabla 2.
- Disponibilidad
- Proporcionado por IBM implementado en hardware multiusuario.
- Implementación bajo demanda para uso exclusivo, excepto en el centro de datos de Fráncfort.
El despliegue de este modelo de base proporcionado por IBM ha quedado obsoleto. Véase el ciclo de vida del modelo de la Fundación.
- Pruébela
- Límites de fichas
Longitud de la ventana de contexto (entrada + salida): 8192
- Idiomas naturales admitidos
Inglés, alemán, español, francés y portugués
- Información de ajuste de instrucciones
La familia de modelos de aprendizaje automático ( Granite ) se entrena con conjuntos de datos relevantes para la empresa de cinco ámbitos: Internet, académico, código, legal y financiero. Los datos utilizados para entrenar los modelos se someten primero a revisiones de gobernanza de datos e IBM es y se les filtra el texto que está marcado por odio, abuso o blasfemia por el filtro HAP desarrollado por la Fundación contra la Difamación ( IBM ). IBM comparte información sobre los métodos de formación y los conjuntos de datos utilizados.
- Arquitectura del modelo
decodificador
- Licencia
Consulte las descripciones de los dos servicios que componen watsonx.ai:
- watsonx.ai Descripción del servicio de tiempo de ejecución
- watsonx.ai Descripción del servicio de estudio
IBM -los modelos de base desarrollados se consideran parte del Servicio de IBM Cloud. Cuando utilice un modelo de base desarrollado por IBM que se proporciona en watsonx.ai, se aplicarán las protecciones contractuales relacionadas con la indemnización de IBM. Para obtener más información, consulte el Acuerdo de relación con el cliente de IBM, además de las descripciones de los servicios.
- Más información
- Lea los siguientes recursos:
Modelos de Granite Code
Modelos de base de la familia de productos IBM Granite. Los modelos de la fundación Granite Code son modelos que siguen instrucciones y se ajustan mediante una combinación de commits de Git, junto con instrucciones humanas y conjuntos de datos de instrucciones de código generado sintéticamente de código abierto.
El modelo de base granite-8b-code-instruct v2.0.0 puede procesar mensajes más grandes con una mayor longitud de ventana de contexto.
- Uso
Los siguientes modelos de base de código abierto ( Granite Code ) están diseñados para responder a instrucciones relacionadas con la codificación y pueden utilizarse para crear asistentes de codificación:
- granite-3b-code-instruct
- granite-8b-code-instruct
- granite-20b-code-instruct
- granite-34b-code-instruct
Los siguientes modelos de base de datos de Granite Code son versiones ajustadas a las instrucciones del modelo de base de datos de granite-20b-code-base que están diseñadas para tareas de generación de texto a SQL.
- granite-20b-code-base-schema-linking
- granite-20b-code-base-sql-gen
- Tamaños
- 3000 millones de parámetros
- 8 mil millones de parámetros
- 20 000 millones de parámetros
- 34 mil millones de parámetros
- Nivel de precios API
Clase 1.
Para obtener detalles sobre los precios de los modelos de código proporcionados, consulte la Tabla 2.
Para obtener detalles sobre los precios de los modelos de implementación bajo demanda, consulte la Tabla 4.
- Disponibilidad
Todos los modelos de código, excepto los modelos de texto a SQL: proporcionados por IBM implementados en hardware multitenant.
Todos los modelos de código, incluidos los modelos de base de texto a SQL: Implementación bajo demanda para uso dedicado.
- Pruébela
Experimenta con muestras:
- Límites de fichas
Longitud de la ventana de contexto (entrada + salida)
granite-3b-code-instruct : 128 000
Cuando el modelo se ejecuta solo en el entorno multitenant, se aplica un límite máximo de nuevos tokens, lo que significa que los tokens generados por el modelo base por solicitud están limitados a 8192.
granite-8b-code-instruct : 128 000
Cuando el modelo se ejecuta solo en el entorno multitenant, se aplica un límite máximo de nuevos tokens, lo que significa que los tokens generados por el modelo base por solicitud están limitados a 8192.
granite-20b-code-instruct : 8192
El máximo de nuevos tokens, es decir, los tokens generados por el modelo de fundación por solicitud, está limitado a 4096.
granite-20b-code-base-schema-linking : 8192
granite-20b-code-base-sql-gen : 8192
granite-34b-code-instruct : 8192
- Idiomas naturales admitidos
Inglés
- Lenguajes de programación soportados
Python Los modelos de la fundación Granite Code son compatibles con 116 lenguajes de programación, entre los que se incluyen JavaScript, Java, C++, Go y Rust. Para ver la lista completa, consulte los modelos de base de IBM.
- Información de ajuste de instrucciones
Estos modelos se perfeccionaron a partir de modelos básicos de Granite Code , basándose en una combinación de datos de instrucciones con licencia permisiva para mejorar las capacidades de seguimiento de instrucciones, incluidas las habilidades de razonamiento lógico y resolución de problemas.
- Arquitectura del modelo
decodificador
- Licencia
Consulte las descripciones de los dos servicios que componen watsonx.ai:
- watsonx.ai Descripción del servicio de tiempo de ejecución
- watsonx.ai Descripción del servicio de estudio
IBM -los modelos de base desarrollados se consideran parte del Servicio de IBM Cloud. Cuando utilice un modelo de base desarrollado por IBM que se proporciona en watsonx.ai, se aplicarán las protecciones contractuales relacionadas con la indemnización de IBM. Para obtener más información, consulte el Acuerdo de relación con el cliente de IBM, además de las descripciones de los servicios.
- Más información
- Lea los siguientes recursos:
- Documento de investigación sobre los modelos de código deGranite
- Escalado Granite Código modelos documento de investigación
- 3b Tarjeta de modelo (Multitenant)
- 3b Tarjeta de modelo (Dedicada)
- 8b Tarjeta de modelo (Multitenant)
- 8b Tarjeta de modelo (Dedicada)
- 20b Tarjeta de modelo (Multitenant)
- 20b Tarjeta de modelo (Dedicada)
- 20b esquema base que vincula la tarjeta modelo (dedicado)
- 20b base SQL gen modelo tarjeta (Dedicado)
- 34b Tarjeta de modelo (Multitenant)
- 34b Tarjeta de modelo (Dedicada)
Modelos de Granite Guardian
Los modelos de base de la colección Granite Guardian pertenecen a la familia de modelos IBM Granite. Los modelos de la fundación granite-guardian-3-2b y granite-guardian-3-8b son modelos de ajuste fino ( Granite Instruct ) diseñados para detectar riesgos en las indicaciones y respuestas. Los modelos de base ayudan a detectar riesgos en muchas dimensiones clave del Atlas de Riesgos de IA.
La versión de generación e 3.1 e de los modelos se entrena con una combinación de datos sintéticos adicionales y anotados por humanos para mejorar el rendimiento en cuanto a riesgos relacionados con alucinaciones y fugas.
- Uso
Granite Guardian los modelos de base están diseñados para detectar riesgos relacionados con daños en el texto de respuesta o en la respuesta del modelo (como barandillas de seguridad) y pueden utilizarse en casos de uso de generación aumentada por recuperación para evaluar la relevancia del contexto (si el contexto recuperado es relevante para la consulta), la fundamentación (si la respuesta es precisa y fiel al contexto proporcionado) y la relevancia de la respuesta (si la respuesta aborda directamente la consulta del usuario).
- Tamaños
- 2000 millones de parámetros
- 8 mil millones de parámetros
- Nivel de precios API
- 2b: Clase C1
- 8b: Clase 12
Para obtener detalles sobre los precios, consulte la Tabla 2.
- Disponibilidad
Proporcionado por IBM implementado en hardware multiusuario.
- Pruébela
Experimenta con muestras:
- Límites de fichas
Longitud de la ventana de contexto (entrada + salida)
- 2b: 131 072
- 8b: 131 072
Nota: El máximo de nuevos tokens, es decir, los tokens generados por el modelo de fundación por solicitud, está limitado a 8192.
- Idiomas naturales admitidos
Inglés
- Información de ajuste de instrucciones
Los modelos de aprendizaje profundo ( Granite Guardian ) son modelos de aprendizaje automático ( Granite Instruct ) perfeccionados mediante una combinación de datos humanos anotados y sintéticos.
- Arquitectura del modelo
decodificador
- Licencia
Consulte las descripciones de los dos servicios que componen watsonx.ai:
- watsonx.ai Descripción del servicio de tiempo de ejecución
- watsonx.ai Descripción del servicio de estudio
IBM -los modelos de base desarrollados se consideran parte del Servicio de IBM Cloud. Cuando utilice un modelo de base desarrollado por IBM que se proporciona en watsonx.ai, se aplicarán las protecciones contractuales relacionadas con la indemnización de IBM. Para obtener más información, consulte el Acuerdo de relación con el cliente de IBM, además de las descripciones de los servicios.
- Más información
- Lea los siguientes recursos:
Modelos de Granite time series
Granite time series los modelos Foundation pertenecen a la familia de modelos IBM Granite. Estos modelos son modelos compactos y preentrenados para la previsión de series temporales multivariantes de la investigación de la Universidad de Carolina del Norte ( IBM ). Las siguientes versiones están disponibles para su uso en la previsión de datos en watsonx.ai:
- granite-ttm-512-96-r2
- granite-ttm-1024-96-r2
- granite-ttm-1536-96-r2
- Uso
Puede aplicar uno de estos modelos preentrenados a sus datos de destino para obtener una previsión inicial sin tener que entrenar el modelo con sus datos. Cuando se les proporciona un conjunto de observaciones de datos históricos y cronometrados, los modelos de la fundación Granite time series , pueden aplicar su comprensión de los sistemas dinámicos para pronosticar valores de datos futuros. Estos modelos funcionan mejor con puntos de datos en intervalos de minutos u horas y generan un conjunto de datos de previsión con hasta 96 puntos de datos por canal objetivo.
- Size
1 millón de parámetros
- Nivel de precios API
- Entrada: Clase 14
- Salida: Clase 15
Para obtener detalles sobre los precios, consulte Medición de unidades de recursos para modelos de series temporales.
- Disponibilidad
Proporcionado por IBM implementado en hardware multiusuario.
- Pruébela
- Longitud del contexto
Puntos de datos mínimos requeridos por canal en la solicitud de API:
- granite-ttm-512-96-r2: 512
- granite-ttm-1024-96-r2: 1024
- granite-ttm-1536-96-r2: 1536
- Idiomas naturales admitidos
Inglés
- Información de ajuste de instrucciones
Los modelos de aprendizaje profundo ( Granite time series ) se entrenaron con casi mil millones de muestras de datos de series temporales de diversos ámbitos, como electricidad, tráfico, fabricación y otros.
- Arquitectura del modelo
decodificador
- Licencia
Consulte las descripciones de los dos servicios que componen watsonx.ai:
- watsonx.ai Descripción del servicio de tiempo de ejecución
- watsonx.ai Descripción del servicio de estudio
IBM -los modelos de base desarrollados se consideran parte del Servicio de IBM Cloud. Cuando utilice un modelo de base desarrollado por IBM que se proporciona en watsonx.ai, se aplicarán las protecciones contractuales relacionadas con la indemnización de IBM. Para obtener más información, consulte el Acuerdo de relación con el cliente de IBM, además de las descripciones de los servicios.
- Más información
- Lea los siguientes recursos:
Granite Visión 3.2 2b
Granite Visión 3.2 2b es un modelo de base de imagen a texto creado para casos de uso empresarial. Este modelo de e Granite a multimodal es capaz de asimilar imágenes y texto para tareas como la comprensión de tablas, diagramas, gráficos y mucho más.
- Uso
El modelo de base de datos granite-vision-3-2-2b está diseñado para la comprensión visual de documentos, lo que permite la extracción automatizada de contenido de tablas, gráficos, infografías, diagramas y más.
Nota : Se recomienda utilizar el modelo de procesamiento visual ( granite-vision-3-2-2b ) solo con archivos de imagen para el procesamiento visual y la comprensión de casos de uso.- Size
2000 millones de parámetros
- Nivel de precios API
Clase C1
- Disponibilidad
Proporcionado por IBM implementado en hardware multiusuario.
- Límites de fichas
Longitud de la ventana de contexto (entrada + salida): 131 072
Nota: El número máximo de nuevos tokens, es decir, los tokens generados por el modelo de fundación por solicitud, está limitado a 16 384.
- Idiomas naturales admitidos
Inglés, alemán, español, francés, japonés, portugués, árabe, checo, italiano, coreano, holandés y chino
- Información de ajuste de instrucciones
El modelo de la fundación granite-vision-3-2-2b se entrenó con un conjunto de datos seleccionados que seguían instrucciones, compuesto por diversos conjuntos de datos públicos y conjuntos de datos sintéticos adaptados para apoyar una amplia gama de tareas de comprensión de documentos e imágenes en general. Se entrenó ajustando el modelo de base de la red neuronal artificial ( granite-3-2b-instruct ) con modalidades de imagen y texto.
- Arquitectura del modelo
decodificador
- Licencia
Consulte las descripciones de los dos servicios que componen watsonx.ai:
- watsonx.ai Descripción del servicio de tiempo de ejecución
- watsonx.ai Descripción del servicio de estudio
IBM -los modelos de base desarrollados se consideran parte del Servicio de IBM Cloud. Cuando utilice un modelo de base desarrollado por IBM que se proporciona en watsonx.ai, se aplicarán las protecciones contractuales relacionadas con la indemnización de IBM. Para obtener más información, consulte el Acuerdo de relación con el cliente de IBM, además de las descripciones de los servicios.
- Más información
- Lea los siguientes recursos:
Los modelos de cimientos obsoletos se resaltan con un icono de advertencia de obsoleto . Para obtener más información sobre la retirada de productos, incluidos los detalles de la retirada de modelos de la fundación, consulte Ciclo de vida de los modelos de la fundación.