0 / 0
Volver a la versión inglesa de la documentación
Detalles del modelo de cimentación
Última actualización: 20 dic 2024
Detalles del modelo de cimentación

En IBM watsonx.ai hay disponible una colección de modelos de código abierto y de la fundación IBM. Puede inferir los modelos de cimentación en el Prompt Lab o mediante programación.

Los siguientes modelos están disponibles en watsonx.ai:

 

Para obtener más información sobre las distintas formas en que se pueden implantar estos modelos, y para ver un resumen de los precios y la información sobre la duración de la ventana contextual de los modelos, consulte Modelos de cimentación compatibles.

Cómo elegir un modelo

Para revisar los factores que pueden ayudarle a elegir un modelo, como las tareas y los idiomas admitidos, consulte Elegir un modelo y Puntos de referencia del modelo Foundation.

Detalles del modelo de cimentación

Los modelos de base disponibles admiten una serie de casos de uso tanto para lenguajes naturales como para lenguajes de programación. Para ver los tipos de tareas que pueden realizar estos modelos, revise y pruebe las indicaciones de ejemplo.

allam-1-13b-instruct

The allam-1-13b-instruct foundation model is a bilingual large language model for Arabic and English provided by the National Center for Artificial Intelligence and supported by the Saudi Authority for Data and Artificial Intelligence that is fine-tuned to support conversational tasks. La serie ALLaM es una colección de potentes modelos lingüísticos diseñados para hacer avanzar la tecnología de la lengua árabe. Estos modelos se inicializan con ponderaciones Llama-2 y se someten a entrenamiento tanto en árabe como en inglés.

Nota:Este foundation model sólo está disponible en el centro de datos de Fráncfort. Al inferir este modelo desde el Prompt Lab, desactive los guardarraíles AI.
Uso
Admite preguntas y respuestas, resumen, clasificación, generación, extracción y traducción en árabe.
Size
13.000 millones de parámetros
Nivel de precios API
Clase 2. Para más información sobre precios, véase el cuadro 3.
Disponibilidad
Proporcionado por IBM y desplegado en hardware multiusuario.
Pruébela
Experimente con muestras:
Límites de fichas
Longitud de la ventana contextual (entrada + salida): 4,096
Lenguas naturales admitidas
Árabe (árabe moderno estándar) e inglés
Instrucciones de sintonización
allam-1-13b-instruct se basa en el modelo Allam-13b-base, que es un foundation model preentrenado en un total de 3 billones de tokens en inglés y árabe, incluyendo los tokens vistos desde su inicialización. El conjunto de datos árabes contiene 500.000 millones de tokens tras la limpieza y la deduplicación. Los datos adicionales proceden de colecciones de código abierto y de rastreos web. El foundation model allam-1-13b-instruct se ha perfeccionado con un conjunto de 4 millones de pares de preguntas y respuestas en árabe y 6 millones en inglés.
Arquitectura modelo
Sólo decodificador
Licencia
Licencia comunitariaLlama 2 y licenciaALLaM
Más información
Lea el siguiente recurso:

codellama-34b-instruct

Un modelo de generación de código programático que se basa en Llama 2 de ' Meta. Code Llama está pensado para generar y discutir código.

Nota:Al inferir este modelo desde el Prompt Lab, desactive los guardarraíles AI.
Uso
Utilice Code Llama para crear mensajes que generen código basado en entradas de lenguaje natural, expliquen código o completen y depuren código.
Size
34.000 millones de parámetros
Nivel de precios API
Clase 2. Para más información sobre precios, véase el cuadro 3.
Disponibilidad
Proporcionado por IBM y desplegado en hardware multiusuario.
Pruébela
Experimente con muestras:
Límites de fichas
Longitud de la ventana contextual (entrada + salida): 16,384
Nota: El máximo de nuevos tokens, es decir, los tokens que genera el foundation model por solicitud, está limitado a 8.192.
Lenguas naturales admitidas
Inglés
Lenguajes de programación soportados
El foundation model codellama-34b-instruct-hf es compatible con muchos lenguajes de programación, como Python, C++, Java, PHP, Typescript (Javascript), C# y Bash, entre otros.
Instrucciones de sintonización
La versión ajustada de la instrucción se alimentó con la entrada de la instrucción en lenguaje natural y la salida esperada para guiar al modelo a generar respuestas útiles y seguras en lenguaje natural.
Arquitectura modelo
decodificador
Licencia
Licencia
Más información
Lea los siguientes recursos:

elyza-japanese-llama-2-7b-instruct

El modelo elyza-japanese-llama-2-7b-instruct es proporcionado por ELYZA, Inc en Hugging Face. El foundation model elyza-japanese-llama-2-7b-instruct es una versión del modelo Llama 2 de ' Meta ' entrenada para comprender y generar texto en japonés. El modelo se pone a punto para resolver diversas tareas que siguen instrucciones del usuario y para participar en un diálogo.

Uso
Uso general con indicaciones " zero- o " few-shot ". Funciona bien para la clasificación y extracción en japonés y para la traducción entre inglés y japonés. Funciona mejor cuando se le pregunta en japonés.
Size
7.000 millones de parámetros
Nivel de precios API
Clase 2. Para más información sobre precios, véase el cuadro 3.
Disponibilidad
Proporcionado por IBM y desplegado en hardware multiusuario en el centro de datos de Tokio.
Pruébela
Experimente con muestras:
Límites de fichas
Longitud de la ventana contextual (entrada + salida): 4,096
Lenguas naturales admitidas
Japonés, inglés
Instrucciones de sintonización
Para la formación en japonés se utilizaron textos en japonés procedentes de numerosas fuentes, entre ellas Wikipedia y el Open Super-large Crawled ALMAnaCH coRpus (un corpus multilingüe que se genera clasificando y filtrando el lenguaje en el corpus Common Crawl). El modelo se puso a punto con un conjunto de datos creado por ELYZA. El conjunto de datos ELYZA Tasks 100 contiene 100 tareas diversas y complejas creadas manualmente y evaluadas por humanos. El conjunto de datos ELYZA Tasks 100 está disponible públicamente en HuggingFace.
Arquitectura modelo
decodificador
Licencia
Licencia
Más información
Lea los siguientes recursos:

flan-t5-xl-3b

El modelo flan-t5-xl-3b lo proporciona Google en Hugging Face. Este modelo se basa en el modelo de transformador de transferencia de texto a textoT5) preentrenado y utiliza métodos de ajuste de instrucciones para lograr un mejor rendimiento de " zero- y " few-shot ". El modelo también se afina con datos de la cadena de pensamiento para mejorar su capacidad de realizar tareas de razonamiento.

Nota:Este foundation model puede ajustarse mediante el Tuning Studio.
Uso
Uso general con indicaciones " zero- o " few-shot ".
Size
3.000 millones de parámetros
Nivel de precios API
Clase 1. Para más información sobre precios, véanse los cuadros 3 y 5.
Disponibilidad
  • Proporcionado por IBM y desplegado en hardware multiusuario.
  • Despliegue bajo demanda para uso exclusivo.
Pruébela
Solicitudes de ejemplo
Límites de fichas
Longitud de la ventana contextual (entrada + salida): 4,096
Lenguas naturales admitidas
Multilingüe
Instrucciones de sintonización
El modelo se puso a punto en tareas que implican el razonamiento en varios pasos a partir de datos de cadenas de pensamiento, además de las tareas tradicionales de procesamiento del lenguaje natural. Se publican detalles sobre los conjuntos de datos de entrenamiento utilizados.
Arquitectura modelo
Codificador-decodificador
Licencia
licenciaApache 2.0
Más información
Lea los siguientes recursos:

flan-t5-xxl-11b

El modelo flan-t5-xxl-11b lo proporciona Google en Hugging Face. Este modelo se basa en el modelo de transformador de transferencia de texto a textoT5) preentrenado y utiliza métodos de ajuste de instrucciones para lograr un mejor rendimiento de " zero- y " few-shot ". El modelo también se afina con datos de la cadena de pensamiento para mejorar su capacidad de realizar tareas de razonamiento.

Uso
Uso general con indicaciones " zero- o " few-shot ".
Size
11.000 millones de parámetros
Nivel de precios API
Clase 2. Para más información sobre precios, véanse los cuadros 3 y 5.
Disponibilidad
  • Proporcionado por IBM y desplegado en hardware multiusuario.
  • Despliegue bajo demanda para uso exclusivo.
Pruébela
Experimente con muestras:
Límites de fichas
Longitud de la ventana contextual (entrada + salida): 4,096
Lenguas naturales admitidas
Inglés, alemán, francés
Instrucciones de sintonización
El modelo se puso a punto en tareas que implican el razonamiento en varios pasos a partir de datos de cadenas de pensamiento, además de las tareas tradicionales de procesamiento del lenguaje natural. Se publican detalles sobre los conjuntos de datos de entrenamiento utilizados.
Arquitectura modelo
Codificador-decodificador
Licencia
licenciaApache 2.0
Más información
Lea los siguientes recursos:

flan-ul2-20b

El modelo flan-ul2-20b lo proporciona Google en Hugging Face. Este modelo se entrenó utilizando los Paradigmas Unificadores de Aprendizaje de LenguasUL2). El modelo está optimizado para la generación de lenguaje, la comprensión del lenguaje, la clasificación de textos, la respuesta a preguntas, el razonamiento de sentido común, el razonamiento de textos largos, la fundamentación de conocimientos estructurados y la recuperación de información, el aprendizaje en contexto, el estímulo " zero-shot y el estímulo único.

Uso
Uso general con indicaciones " zero- o " few-shot ".
Size
20.000 millones de parámetros
Nivel de precios API
Clase 3. Para más información sobre precios, véanse los cuadros 3 y 5.
Disponibilidad
  • Proporcionado por IBM y desplegado en hardware multiusuario.
  • Despliegue bajo demanda para uso exclusivo.
Pruébela
Experimente con muestras:
Límites de fichas
Longitud de la ventana contextual (entrada + salida): 4,096
Lenguas naturales admitidas
Inglés
Instrucciones de sintonización
El modelo flan-ul2-20b se entrena previamente en la versión colosal y depurada del corpus de rastreo web de Common Crawl. El modelo se ajusta con múltiples objetivos de preentrenamiento para optimizarlo para diversas tareas de procesamiento del lenguaje natural. Se publican detalles sobre los conjuntos de datos de entrenamiento utilizados.
Arquitectura modelo
Codificador-decodificador
Licencia
licenciaApache 2.0
Más información
Lea los siguientes recursos:

granite-13b-chat-v2

El modelo granite-13b-chat-v2 lo proporciona IBM. Este modelo está optimizado para casos de uso de diálogo y funciona bien con aplicaciones de agente virtual y chat.

Uso: Genera diálogos como un chatbot. Utiliza un formato de consulta específico para cada modelo. Incluye una palabra clave en su salida que puede utilizarse como secuencia de parada para producir respuestas sucintas. Siga las instrucciones de uso. Para más información, consulte Preguntar a granite-13b-chat-v2.

Size

13.000 millones de parámetros

Nivel de precios API

Clase 1. Para más información sobre precios, véanse los cuadros 2 y 4.

Disponibilidad
  • Proporcionado por IBM y desplegado en hardware multiusuario.
  • Despliegue bajo demanda para uso exclusivo.
Pruébela

Ejemplo de mensaje

Límites de fichas

Longitud de la ventana contextual (entrada + salida): 8,192

Lenguas naturales admitidas

Inglés

Instrucciones de sintonización

La familia de modelos Granite se entrena con conjuntos de datos relevantes para la empresa procedentes de cinco dominios: Internet, académico, código, legal y financiero. Los datos utilizados para entrenar los modelos se someten primero a las revisiones de gobierno de datos IBM y se filtran de texto marcado por odio, abuso o blasfemia mediante el filtro HAP IBM. IBM comparte información sobre los métodos de formación y los conjuntos de datos utilizados.

Arquitectura modelo

decodificador

Licencia

Términos de uso

Los modelos básicos IBM se consideran parte de IBM Cloud Service. Para obtener más información sobre las protecciones contractuales relacionadas con la indemnización de IBM, consulte el Acuerdo de relación con el clienteIBM y la descripción del servicioIBM watsonx.ai.

Más información

Lea los siguientes recursos:

granite-13b-instruct-v2

IBM proporciona el modelo granite-13b-instruct-v2. Este modelo se entrenó con datos financieros de alta calidad y es uno de los que mejores resultados obtiene en tareas financieras. Las tareas financieras evaluadas incluyen: proporcionar puntuaciones de sentimiento para transcripciones de convocatorias de acciones y beneficios, clasificar titulares de noticias, extraer evaluaciones de riesgo crediticio, resumir texto financiero extenso y responder a preguntas financieras o relacionadas con seguros.

Nota:Este foundation model puede ajustarse mediante el Tuning Studio.
Uso
Admite tareas de extracción, resumen y clasificación. Genera resultados útiles para las tareas relacionadas con las finanzas. Utiliza un formato de consulta específico para cada modelo. Acepta caracteres especiales, que pueden utilizarse para generar una salida estructurada.
Size
13.000 millones de parámetros
Nivel de precios API
Clase 1. Para más información sobre precios, véanse los cuadros 2 y 4.
Disponibilidad
  • Proporcionado por IBM y desplegado en hardware multiusuario.
  • Despliegue bajo demanda para uso exclusivo.
Nota:Icono de aviso El despliegue de IBM de este foundation model ha quedado obsoleto. Para más detalles, consulte el ciclo de vida del modelo Foundation.
Pruébela

Experimente con muestras:

Límites de fichas

Longitud de la ventana contextual (entrada + salida): 8,192

Lenguas naturales admitidas

Inglés

Instrucciones de sintonización

La familia de modelos Granite se entrena con conjuntos de datos relevantes para la empresa procedentes de cinco dominios: Internet, académico, código, legal y financiero. Los datos utilizados para entrenar los modelos se someten primero a las revisiones de gobierno de datos IBM y se filtran de texto marcado por odio, abuso o blasfemia mediante el filtro HAP IBM. IBM comparte información sobre los métodos de formación y los conjuntos de datos utilizados.

Arquitectura modelo

decodificador

Licencia

Términos de uso

Los modelos básicos IBM se consideran parte de IBM Cloud Service. Para obtener más información sobre las protecciones contractuales relacionadas con la indemnización de IBM, consulte el Acuerdo de relación con el clienteIBM y la descripción del servicioIBM watsonx.ai.

Más información

Lea los siguientes recursos:

granite-7b-lab

IBM proporciona el foundation model granite-7b-lab. El foundation model granite-7b-lab utiliza un novedoso método de ajuste de alineación de IBM Research. Alineación a gran escala para chatBots, o LAB, es un método para añadir nuevas habilidades a los modelos de base existentes mediante la generación de datos sintéticos para las habilidades, y luego usar esos datos para ajustar el foundation model.

Uso
Admite tareas de propósito general, como extracción, resumen, clasificación, etc. Siga las instrucciones de uso. Para más información, véase Preguntar a granite-7b-lab.
Nota:Este foundation model es compatible con las competencias aportadas por la comunidad de código abierto de InstructLab.
Size
7.000 millones de parámetros
Nivel de precios API
Clase 1. Para más información sobre precios, véase el cuadro 2.
Disponibilidad
Proporcionado por IBM y desplegado en hardware multiusuario.
Nota:Icono de aviso El despliegue de IBM de este foundation model ha quedado obsoleto. Para más detalles, consulte el ciclo de vida del modelo Foundation.
Pruébela

Ejemplo: Generar un título para un pasaje

Límites de fichas

Longitud de la ventana contextual (entrada + salida): 8,192

Nota: El máximo de nuevos tokens, es decir, los tokens generados por el foundation model por solicitud, está limitado a 4.096.

Lenguas naturales admitidas

Inglés

Instrucciones de sintonización

El foundation model granite-7b-lab se entrena de forma iterativa utilizando la metodología de alineación a gran escala para chatbots (LAB).

Arquitectura modelo

decodificador

Licencia

Términos de uso

Los modelos básicos IBM se consideran parte de IBM Cloud Service. Cuando utilice el foundation model granite-7b-lab que se proporciona en watsonx.ai se aplicarán las protecciones contractuales relacionadas con la indemnización de IBM. Consulte el Acuerdo de relación con el clienteIBM y la descripción del servicioIBM watsonx.ai.

Más información

Lea los siguientes recursos:

granite-8b-japanese

El modelo granite-8b-japanese lo proporciona IBM. El ' granite-8b-japanese ' foundation model es una variante de instrucción inicializada a partir del modelo japonés preentrenado ' Granite Base 8 Billion y está entrenado para comprender y generar texto japonés.

Uso

Útil para tareas de propósito general en lengua japonesa, como la clasificación, la extracción, la respuesta a preguntas, y para la traducción lingüística entre el japonés y el inglés.

Size

8.000 millones de parámetros

Nivel de precios API

Clase 1. Para más información sobre precios, véase el cuadro 2.

Disponibilidad

Proporcionado por IBM y desplegado en hardware multiusuario en el centro de datos de Tokio.

Pruébela

Experimente con muestras:

Límites de fichas

Longitud de la ventana contextual (entrada + salida): 4,096

Lenguas naturales admitidas

Inglés, japonés

Instrucciones de sintonización

La familia de modelos Granite se entrena con conjuntos de datos relevantes para la empresa procedentes de cinco dominios: Internet, académico, código, legal y financiero. El modelo granite-8b-japanese se preentrenó con 1 billón de tokens de texto en inglés y 0.5 billones de tokens de texto en japonés.

Arquitectura modelo

decodificador

Licencia

Términos de uso

Los modelos básicos IBM se consideran parte de IBM Cloud Service. Para obtener más información sobre las protecciones contractuales relacionadas con la indemnización de IBM, consulte el Acuerdo de relación con el clienteIBM y la descripción del servicioIBM watsonx.ai.

Más información

Lea los siguientes recursos:

granite-20b-multilingual

Un foundation model de la familia IBM Granite. El foundation model base granite-20b-multilingual se basa en el modelo de base Granite Base 20 mil millones y está entrenado para comprender y generar texto en inglés, alemán, español, francés y portugués.

Uso
Respuesta, resumen, generación, extracción y clasificación de preguntas de dominio cerrado en inglés, alemán, español, francés y portugués.
Nota:Este foundation model es compatible con las competencias aportadas por la comunidad de código abierto de InstructLab.
Size

20.000 millones de parámetros

Nivel de precios API

Clase 1. Para más información sobre precios, véase el cuadro 2.

Disponibilidad

Proporcionado por IBM y desplegado en hardware multiusuario.

Pruébela

Ejemplo: Traducir un texto del francés al inglés

Límites de fichas

Longitud de la ventana contextual (entrada + salida): 8,192

Lenguas naturales admitidas

Inglés, alemán, español, francés y portugués

Instrucciones de sintonización

La familia de modelos Granite se entrena con conjuntos de datos relevantes para la empresa procedentes de cinco dominios: Internet, académico, código, legal y financiero. Los datos utilizados para entrenar los modelos se someten primero a las revisiones de gobierno de datos IBM y se filtran de texto marcado por odio, abuso o blasfemia mediante el filtro HAP IBM. IBM comparte información sobre los métodos de formación y los conjuntos de datos utilizados.

Arquitectura modelo

decodificador

Licencia

Términos de uso

Los modelos básicos IBM se consideran parte de IBM Cloud Service. Para obtener más información sobre las protecciones contractuales relacionadas con la indemnización de IBM, consulte el Acuerdo de relación con el clienteIBM y la descripción del servicioIBM watsonx.ai.

Más información

Lea los siguientes recursos:

granite-3-8b-base

El foundation model Granite 8b es un modelo base que pertenece a la familia de modelos IBM Granite. El modelo se entrena con 10 billones de tokens procedentes de diversos dominios y, a continuación, se entrena con 2 billones de tokens de datos de alta calidad cuidadosamente seleccionados para mejorar el rendimiento del modelo en tareas específicas.

Uso

El foundation model base de Granite 3.0 es un modelo básico que puede personalizar para crear modelos especializados para escenarios de aplicación específicos.

Tamaño disponible

8.000 millones de parámetros

Nivel de precios API

Para más información sobre precios, véase el cuadro 4.

Disponibilidad

Despliegue bajo demanda para uso exclusivo.

Límites de fichas

Longitud de la ventana contextual (entrada + salida): 4,096

Lenguas naturales admitidas

Inglés, alemán, español, francés, japonés, portugués, árabe, checo, italiano, coreano, neerlandés, chino (simplificado).

Arquitectura modelo

decodificador

Licencia

Términos de uso

Los modelos básicos IBM se consideran parte de IBM Cloud Service. Para obtener más información sobre las protecciones contractuales relacionadas con la indemnización de IBM, consulte el Acuerdo de relación con el clienteIBM y la descripción del servicioIBM watsonx.ai.

Más información

Lea los siguientes recursos:

Modelos de Granite Instruct

Los modelos de la fundación " Granite Instruct " pertenecen a la familia de modelos IBM Granite. Los modelos básicos granite-3-2b-instruct y granite-3-8b-instruct son modelos lingüísticos de tercera generación ajustados a las instrucciones para tareas de resumen, generación, codificación, etc. Los modelos básicos emplean una arquitectura de sólo descodificador al estilo GPT, con innovaciones adicionales de IBM Research y la comunidad abierta.

Uso

los modelos de la base Granite Instruct ' están diseñados para sobresalir en tareas de seguimiento de instrucciones como resumen, resolución de problemas, traducción de textos, razonamiento, tareas de codificación, llamada de funciones, etc.

Tamaños disponibles
  • 2.000 millones de parámetros
  • 8.000 millones de parámetros
Nivel de precios API
  • 2b: Clase C1
  • 8b: Clase 12

Para más información sobre precios, véase el cuadro 2.

Disponibilidad

Proporcionado por IBM y desplegado en hardware multiusuario.

Pruébela

Experimente con muestras:

Límites de fichas

Longitud de la ventana contextual (entrada + salida)

  • 2b: 131,072
  • 8b: 131,072

El máximo de nuevos tokens, es decir, de tokens generados por el foundation model por solicitud, está limitado a 8.192.

Lenguas naturales admitidas

Inglés, alemán, español, francés, japonés, portugués, árabe, checo, italiano, coreano, neerlandés, chino (simplificado).

Lenguajes de programación soportados

Los modelos " Granite Instruct " se entrenan con código escrito en 116 lenguajes de programación.

Instrucciones de sintonización

Los modelos " Granite Instruct " son modelos de base " Granite Instruct " perfeccionados y entrenados con más de 12 billones de tokens con una combinación de datos de instrucciones de código abierto y de propiedad exclusiva con licencia permitida.

Arquitectura modelo

decodificador

Licencia

Términos de uso

Los modelos básicos IBM se consideran parte de IBM Cloud Service. Para obtener más información sobre las protecciones contractuales relacionadas con la indemnización de IBM, consulte el Acuerdo de relación con el clienteIBM y la descripción del servicioIBM watsonx.ai.

Más información

Lea los siguientes recursos:

Modelos de Granite Guardian

Los modelos de la fundación " Granite Guardian " pertenecen a la familia de modelos IBM Granite. Los modelos de base granite-guardian-3-2b y granite-guardian-3-8b son modelos de " Granite Instruct de la generación 3.0 con ajuste fino, diseñados para detectar riesgos en los avisos y las respuestas. Los modelos básicos ayudan a detectar riesgos en muchas dimensiones clave del Atlas de Riesgos de la IA.

Uso

los modelos de base Granite Guardian " están diseñados para detectar los riesgos relacionados con los daños en el texto de la consulta o en la respuesta modelo (como guardarraíles) y pueden utilizarse en casos de uso de generación aumentada por recuperación para evaluar la relevancia del contexto (si el contexto recuperado es relevante para la consulta), la fundamentación (si la respuesta es precisa y fiel al contexto proporcionado) y la relevancia de la respuesta (si la respuesta responde directamente a la consulta del usuario).

Tamaños disponibles
  • 2.000 millones de parámetros
  • 8.000 millones de parámetros
Nivel de precios API
  • 2b: Clase C1
  • 8b: Clase 12

Para más información sobre precios, véase el cuadro 2.

Disponibilidad

Proporcionado por IBM y desplegado en hardware multiusuario.

Pruébela

Experimente con muestras:

Límites de fichas

Longitud de la ventana contextual (entrada + salida)

  • 2b: 8,192
  • 8b: 8,192
Lenguas naturales admitidas

Inglés

Instrucciones de sintonización

Los modelos " Granite Guardian " son modelos " Granite Instruct " perfeccionados y entrenados con una combinación de datos sintéticos y anotados por humanos.

Arquitectura modelo

decodificador

Licencia

Términos de uso

Los modelos básicos IBM se consideran parte de IBM Cloud Service. Para obtener más información sobre las protecciones contractuales relacionadas con la indemnización de IBM, consulte el Acuerdo de relación con el clienteIBM y la descripción del servicioIBM watsonx.ai.

Más información

Lea los siguientes recursos:

Modelos de Granite Code

Modelos Foundation de la familia IBM Granite. Los modelos de la fundación " Granite Code " son modelos de seguimiento de instrucciones perfeccionados mediante una combinación de commits de Git emparejados con instrucciones humanas y conjuntos de datos de instrucciones de código generados sintéticamente en código abierto.

El ' granite-8b-code-instruct ' v2.0.0 ' foundation model puede procesar peticiones más grandes con una mayor longitud de la ventana de contexto.

Nota:Estos modelos de cimientos sólo están disponibles en el centro de datos de Dallas. Cuando infiera estos modelos desde el Prompt Lab, desactive los guardarraíles AI.
Uso

Los siguientes modelos de base ' Granite Code ' están diseñados para responder a instrucciones relacionadas con la codificación y pueden utilizarse para construir asistentes de codificación:

  • granite-3b-code-instruct
  • granite-8b-code-instruct
  • granite-20b-code-instruct
  • granite-34b-code-instruct

Los siguientes modelos de base ' Granite Code ' son versiones ajustadas a las instrucciones del foundation model granite-20b-code-base que están diseñadas para tareas de generación de texto a SQL.

  • granite-20b-code-base-schema-linking
  • granite-20b-code-base-sql-gen
Tamaños disponibles
  • 3.000 millones de parámetros
  • 8.000 millones de parámetros
  • 20.000 millones de parámetros
  • 34.000 millones de parámetros
Nivel de precios API

Clase 1.

Para conocer los precios de los modelos con código, consulte el cuadro 2.

Para conocer los precios de los modelos de texto a SQL, consulte la Tabla 4.

Disponibilidad

Granite Code modelos: Proporcionados por IBM desplegados en hardware multitenant.

Modelos de código de texto a SQL: Despliegue bajo demanda para uso dedicado.

Pruébela

Experimente con muestras:

Límites de fichas

Longitud de la ventana contextual (entrada + salida)

  • granite-3b-code-instruct: 128.000

    El máximo de nuevos tokens, es decir, de tokens generados por el foundation model por solicitud, está limitado a 8.192.

  • granite-8b-code-instruct: 128.000

    El máximo de nuevos tokens, es decir, de tokens generados por el foundation model por solicitud, está limitado a 8.192.

  • granite-20b-code-instruct: 8.192

    El máximo de nuevos tokens, es decir, de tokens generados por el foundation model por solicitud, está limitado a 4.096.

  • granite-20b-code-base-schema-linking: 8.192

  • granite-20b-code-base-sql-gen: 8.192

  • granite-34b-code-instruct: 8.192

Lenguas naturales admitidas

Inglés

Lenguajes de programación soportados

Los modelos de la fundación " Granite Code " admiten 116 lenguajes de programación, entre ellos Python, Javascript, Java, C++, Go y Rust. Para ver la lista completa, consulte los modelos de cimientos deIBM.

Instrucciones de sintonización

Estos modelos se afinaron a partir de modelos base " Granite Code " sobre una combinación de datos de instrucción con licencia permisiva para mejorar las capacidades de seguimiento de instrucciones, incluido el razonamiento lógico y las habilidades de resolución de problemas.

Arquitectura modelo

decodificador

Licencia

Términos de uso

Los modelos básicos IBM se consideran parte de IBM Cloud Service. Para obtener más información sobre las protecciones contractuales relacionadas con la indemnización de IBM, consulte el Acuerdo de relación con el clienteIBM y la descripción del servicioIBM watsonx.ai.

Más información

Lea los siguientes recursos:

jais-13b-chat

El foundation model jais-13b-chat es un modelo bilingüe de gran lenguaje para árabe e inglés que se ha perfeccionado para apoyar tareas conversacionales.

Uso
Admite preguntas y respuestas, resumen, clasificación, generación, extracción y traducción en árabe.
Size
13.000 millones de parámetros
Nivel de precios API
Clase 2. Para más información sobre precios, véase el cuadro 3.
Disponibilidad
Proporcionado por IBM y desplegado en hardware multiusuario en el centro de datos de Fráncfort.
Pruébela
Ejemplo de mensaje: Chat en árabe
Límites de fichas
Longitud de la ventana contextual (entrada + salida): 2,048
Lenguas naturales admitidas
Árabe (árabe moderno estándar) e inglés
Instrucciones de sintonización
Jais-13b-chat se basa en el modelo Jais-13b, que es un foundation model entrenado con 116.000 millones de tokens árabes y 279.000 millones de tokens ingleses. Jais-13b-chat se ha perfeccionado con un conjunto de 4 millones de pares de preguntas y respuestas en árabe y 6 millones en inglés.
Arquitectura modelo
decodificador
Licencia
licenciaApache 2.0
Más información
Lea los siguientes recursos:

Llama 3.3 70B Instruct

El gran modelo lingüístico multilingüe (LLM) Llama 3.3 de ' Meta ' es un modelo generativo (texto de entrada/texto de salida) preentrenado y ajustado a las instrucciones con 70.000 millones de parámetros.

La llama-3-3-70b-instruct es una revisión del popular foundation model Llama 3.1 70B Instruct. El foundation model Llama 3.3 es mejor en codificación, razonamiento paso a paso y llamada de herramientas. A pesar de su menor tamaño, el rendimiento del modelo Llama 3.3 es similar al del modelo Llama 3.1 405b, lo que lo convierte en una gran opción para los desarrolladores.

Uso

Genera diálogos multilingües como un chatbot. Utiliza un formato de consulta específico para cada modelo.

Tamaño disponible

70.000 millones de parámetros

Nivel de precios API

Clase 2

Para más información sobre precios, véase el cuadro 3.

Disponibilidad
  • IBM proporciona una versión cuantificada del modelo desplegada en hardware multiusuario.

  • Hay dos versiones del modelo disponibles para desplegar bajo demanda para uso exclusivo:

    • llama-3-3-70b-instruct-hf: Versión original publicada en Hugging Face por Meta.
    • llama-3-3-70b-instruct: Una versión cuantizada del modelo que puede desplegarse con 2 GPUs en lugar de 4.
Pruébela

Experimente con muestras:

Límites de fichas

Longitud de la ventana contextual (entrada + salida): 131,072

Lenguas naturales admitidas

Inglés, alemán, francés, italiano, portugués, hindi, español y tailandés

Instrucciones de sintonización

Llama 3.3 se preentrenó con 15 billones de tokens de datos procedentes de fuentes públicas. Los datos de ajuste fino incluyen conjuntos de datos de instrucciones disponibles públicamente, así como más de 25 millones de ejemplos generados sintéticamente.

Arquitectura modelo

Sólo decodificador

Licencia
Más información

Lea los siguientes recursos:

Llama 3.2 Instruct

La colección de modelos de cimientos Llama 3.2 de ' Meta ' la proporciona ' Meta. Los modelos llama-3-2-1b-instruct y llama-3-2-3b-instruct son los modelos Llama 3.2 más pequeños que caben en un dispositivo móvil. Se trata de modelos ligeros, sólo de texto, que pueden utilizarse para crear agentes altamente personalizados en los dispositivos.

Por ejemplo, puedes pedir a los modelos que resuman los diez últimos mensajes que has recibido, o que resuman tu agenda para el mes que viene.

Uso

Genera diálogos como un chatbot. Utilice un formato de consulta específico para cada modelo. Su reducido tamaño y sus modestos requisitos de memoria y recursos informáticos permiten ejecutar localmente los modelos Llama 3.2 Instruct en la mayoría de los equipos, incluidos los móviles y otros dispositivos de última generación.

Tamaños disponibles
  • 1.000 millones de parámetros
  • 3.000 millones de parámetros
Nivel de precios API
  • 1b: Clase C1
  • 3b: Clase 8

Para más información sobre precios, véase el cuadro 3.

Para más información sobre precios, consulte Detalles de facturación de los activos de IA generativa.

Disponibilidad
  • Proporcionado por IBM y desplegado en hardware multiusuario.
Pruébela
Límites de fichas

Longitud de la ventana contextual (entrada + salida)

  • 1b: 131,072
  • 3b: 131,072

El máximo de nuevos tokens, es decir, de tokens generados por los modelos de la fundación por solicitud, está limitado a 8.192.

Lenguas naturales admitidas

Inglés, alemán, francés, italiano, portugués, hindi, español y tailandés

Instrucciones de sintonización

Preentrenado con hasta 9 billones de tokens de datos de fuentes públicas. Los logits de los modelos Llama 3.1 8B y 70B se incorporaron a la fase de preentrenamiento del desarrollo del modelo, en la que los resultados (logits) de estos modelos más grandes se utilizaron como objetivos a nivel de token. En el postentrenamiento, se alinea el modelo preentrenado utilizando el ajuste fino supervisado (SFT), el muestreo de rechazo (RS) y la optimización de preferencia directa (DPO).

Arquitectura modelo

Sólo decodificador

Licencia
Más información

Lea los siguientes recursos:

Llama 3.2 Vision Instruct

La colección de modelos de cimientos Llama 3.2 de ' Meta ' la proporciona ' Meta. Los modelos llama-3-2-11b-vision-instruct y llama-3-2-90b-vision-instruct se han creado para casos de uso de entrada de imágenes y salida de texto, como la comprensión a nivel de documento, la interpretación de tablas y gráficos y el subtitulado de imágenes.

Uso

Genera diálogos como un chatbot y puede realizar tareas de visión por ordenador, como clasificación, detección e identificación de objetos, transcripción de imagen a texto (incluida la escritura a mano), preguntas y respuestas contextuales, extracción y procesamiento de datos, comparación de imágenes y asistencia visual personal. Utiliza un formato de consulta específico para cada modelo.

Tamaños disponibles
  • 11.000 millones de parámetros
  • 90.000 millones de parámetros
Nivel de precios API
  • 11b: Clase 9
  • 90b: Clase 10

Para más información sobre precios, véase el cuadro 3.

Disponibilidad

Proporcionado por IBM y desplegado en hardware multiusuario.

Pruébela
Límites de fichas

Longitud de la ventana contextual (entrada + salida)

  • 11b: 131,072
  • 90b: 131,072

El máximo de nuevos tokens, es decir, de tokens generados por los modelos de la fundación por solicitud, está limitado a 8.192. Los tokens que se cuentan para una imagen que envíe al modelo no se incluyen en la longitud de la ventana contextual.

Lenguas naturales admitidas

Inglés, alemán, francés, italiano, portugués, hindi, español y tailandés con entradas de sólo texto. Inglés sólo cuando se incluye una imagen con la entrada.

Instrucciones de sintonización

los modelos Llama 3.2 Vision " utilizan ponderaciones de adaptadores de razonamiento de imágenes que se entrenan por separado de las ponderaciones del modelo lingüístico principal. Esta separación preserva el conocimiento general del modelo y lo hace más eficiente tanto en tiempo de preentrenamiento como de ejecución. Los modelos " Llama 3.2 Vision " se preentrenaron con 6.000 millones de pares de imagen y texto, lo que requirió muchos menos recursos informáticos que los necesarios para preentrenar únicamente el foundation model Llama 3.1 70B. Los modelos Llama 3.2 también funcionan con eficacia porque pueden aprovechar más recursos informáticos para el razonamiento de imágenes sólo cuando la entrada lo requiere.

Arquitectura modelo

Sólo decodificador

Licencia
Más información

Lea los siguientes recursos:

llama-guard-3-11b-vision

La colección de modelos de cimientos Llama 3.2 de ' Meta ' la proporciona ' Meta. La llama-guard-3-11b-vision es una evolución multimodal del modelo Llama-Guard-3 de sólo texto. El modelo puede utilizarse para clasificar el contenido de imágenes y texto de las entradas de los usuarios (clasificación de avisos) como seguro o inseguro.

Uso

Utiliza el modelo para comprobar la seguridad de la imagen y el texto en un aviso de imagen a texto.

Size
  • 11.000 millones de parámetros
Nivel de precios API

Clase 9. Para más información sobre precios, véase el cuadro 3.

Disponibilidad

Proporcionado por IBM y desplegado en hardware multiusuario.

Pruébela
Límites de fichas

Longitud de la ventana contextual (entrada + salida): 131,072

El máximo de nuevos tokens, es decir, de tokens generados por los modelos de la fundación por solicitud, está limitado a 8.192. Los tokens que se cuentan para una imagen que envíe al modelo no se incluyen en la longitud de la ventana contextual.

Lenguas naturales admitidas

Inglés, alemán, francés, italiano, portugués, hindi, español y tailandés con entradas de sólo texto. Inglés sólo cuando se incluye una imagen con la entrada.

Instrucciones de sintonización

Modelo preentrenado y ajustado para la clasificación de la seguridad de los contenidos. Para más información sobre los tipos de contenidos clasificados como no seguros, consulte la ficha modelo.

Arquitectura modelo

Sólo decodificador

Licencia
Más información

Lea los siguientes recursos:

Llama 3.1 8b

La colección de modelos de cimientos Llama 3.1 de ' Meta ' la proporciona ' Meta. El foundation model base de Llama 3.1 es un modelo multilingüe que admite el uso de herramientas y tiene, en general, mayores capacidades de razonamiento.

Uso
Utilícelo para resumir textos largos y con agentes conversacionales multilingües o asistentes de codificación.
Tamaño disponible
8.000 millones de parámetros
Nivel de precios API
Para más información sobre precios, véase el cuadro 5.
Disponibilidad
Despliegue bajo demanda para uso exclusivo.
Límites de fichas
Longitud de la ventana contextual (entrada + salida): 131,072
Lenguas naturales admitidas
Inglés, alemán, francés, italiano, portugués, hindi, español y tailandés
Arquitectura modelo
Sólo decodificador
Licencia
Más información
Lea los siguientes recursos:

Llama 3.1 Instruct

La colección de modelos de cimientos Llama 3.1 de ' Meta ' la proporciona ' Meta. Los modelos básicos de Llama 3.1 son modelos generativos de sólo texto preentrenados y ajustados a las instrucciones, optimizados para casos de uso de diálogo multilingüe. Los modelos utilizan el ajuste fino supervisado y el aprendizaje por refuerzo con información humana para ajustarse a las preferencias humanas de utilidad y seguridad.

El modelo llama-3-405b-instruct es el mayor foundation model código abierto de ' Meta' hasta la fecha. Este foundation model también puede utilizarse como generador de datos sintéticos, juez de clasificación de datos tras el entrenamiento o maestro/supervisor de modelos que puede mejorar las capacidades especializadas en modelos derivados más fáciles de inferir.

Uso

Genera diálogos como un chatbot. Utiliza un formato de consulta específico para cada modelo.

Tamaños disponibles
  • 8.000 millones de parámetros
  • 70.000 millones de parámetros
  • 405.000 millones de parámetros
Nivel de precios API
  • 8b: Clase 1
  • 70b: Clase 2
  • 405b: Clase 3 (entrada), Clase 7 (salida)

Para más información sobre precios, véanse los cuadros 3 y 5.

Disponibilidad
  • Proporcionado por IBM y desplegado en hardware multiusuario.
  • Despliegue el foundation model llama-3-1-8b-instruct bajo demanda para uso dedicado.
Pruébela

Ejemplo de mensaje: Conversa con Llama 3

Límites de fichas

Longitud de la ventana contextual (entrada + salida)

  • 8b y 70b: 131.072

  • 405b: 16,384

    • Aunque el modelo admite una longitud de ventana de contexto de 131.072, la ventana se limita a 16.384 para reducir el tiempo que tarda el modelo en generar una respuesta.
  • El máximo de nuevos tokens, es decir, de tokens generados por los modelos de la fundación por solicitud, está limitado a 4.096.

Lenguas naturales admitidas

Inglés, alemán, francés, italiano, portugués, hindi, español y tailandés

Instrucciones de sintonización

Llama 3.1 se preentrenó con 15 billones de tokens de datos procedentes de fuentes públicas. Los datos de ajuste fino incluyen conjuntos de datos de instrucciones disponibles públicamente, así como más de 25 millones de ejemplos generados sintéticamente.

Arquitectura modelo

Sólo decodificador

Licencia
Más información

Lea los siguientes recursos:

Llama 3 Instruct

La familia de modelos fundacionales ' Meta ' Llama 3 ' son grandes modelos lingüísticos accesibles y abiertos que se construyen con ' Meta ' Llama 3 y proporcionan ' Meta en ' Hugging Face. Los modelos básicos de Llama 3 3 son modelos lingüísticos ajustados a las instrucciones que pueden admitir diversos casos de uso.

Uso

Genera diálogos como un chatbot.

Tamaños disponibles
  • 8.000 millones de parámetros
  • 70.000 millones de parámetros
Nivel de precios API
  • 8b: Clase 1
  • 70b: Clase 2

Para más información sobre precios, véanse los cuadros 3 y 5.

Disponibilidad
  • Proporcionado por IBM y desplegado en hardware multiusuario.
  • Despliegue bajo demanda para uso exclusivo.
Pruébela

Ejemplo de mensaje: Conversa con Llama 3

Límites de fichas

Longitud de la ventana contextual (entrada + salida)

  • 8b: 8,192
  • 70b: 8,192

Nota: El máximo de nuevos tokens, es decir, los tokens generados por los modelos de la fundación por solicitud, está limitado a 4.096.

Lenguas naturales admitidas

Inglés

Instrucciones de sintonización

Llama 3 incorpora mejoras en los procedimientos de post-entrenamiento que reducen las tasas de falsos rechazos, mejoran la alineación y aumentan la diversidad en la salida del foundation model. El resultado es una mayor capacidad de razonamiento, generación de código y seguimiento de instrucciones. Llama 3 tiene más tokens de entrenamiento15T) que dan como resultado una mejor comprensión del lenguaje.

Arquitectura modelo

Sólo decodificador

Licencia

Licencia comunitaria de META LLAMA 3

Más información

Lea los siguientes recursos:

Llama 2 Chat

Los modelos Llama 2 Chat son proporcionados por ' Meta en Hugging Face. Los modelos afinados son útiles para la generación de chats. Los modelos se preentrenan con datos en línea disponibles públicamente y se perfeccionan mediante aprendizaje por refuerzo a partir de comentarios humanos.

Puede elegir entre utilizar la versión del modelo con 13.000 millones de parámetros o con 70.000 millones.

Uso
Genera diálogos como un chatbot. Utiliza un formato de consulta específico para cada modelo.
Size
  • 13.000 millones de parámetros
  • 70.000 millones de parámetros
Nivel de precios API
Clase 1. Para más información sobre precios, véanse los cuadros 3 y 5.
Disponibilidad
  • 13b
    • Proporcionado por IBM y desplegado en hardware multiusuario
    • Despliegue bajo demanda para uso exclusivo
  • 70b
    • Despliegue bajo demanda para uso exclusivo
Nota:Icono de aviso El despliegue de IBM de este foundation model ha quedado obsoleto. Para más detalles, consulte el ciclo de vida del modelo Foundation.
Pruébela
Experimente con muestras:
Límites de fichas
Longitud de la ventana contextual (entrada + salida)
  • 13b: 4,096
  • 70b: 4,096
Lenguas naturales admitidas
Inglés
Instrucciones de sintonización
Llama 2 se preentrenó con 2 billones de tokens de datos procedentes de fuentes públicas. Los datos de ajuste incluyen conjuntos de datos de instrucciones disponibles públicamente y más de un millón de ejemplos nuevos anotados por humanos.
Arquitectura modelo
Sólo decodificador
Licencia
Licencia
Más información
Lea los siguientes recursos:

mistral-large

Mistral Large 2 es un gran modelo lingüístico desarrollado por ' Mistral AI. El foundation model mistral-large domina y comprende la gramática y el contexto cultural del inglés, francés, español, alemán e italiano. El foundation model también puede entender docenas de otros idiomas. El modelo tiene una gran ventana de contexto, lo que significa que puede añadir documentos de gran tamaño como información contextual en las solicitudes que envíe para casos de uso de generación aumentada por recuperación (RAG). The mistral-large foundation model is effective at programmatic tasks, such as generating, reviewing, and commenting on code, function calling, and can generate results in JSON format.

Para más información sobre los primeros pasos, consulta la páginawatsonx.ai en el sitio web ' Mistral AI.

Uso

Adecuado para tareas complejas de razonamiento multilingüe, incluidas la comprensión de textos, la transformación y la generación de código. Debido a la gran ventana contextual del modelo, utilice el parámetro max tokens para especificar un límite de tokens cuando pregunte al modelo.

Nivel de precios API

El precio del modelo Mistral Large no se asigna mediante un multiplicador. Se utilizan los siguientes niveles de precios especiales:

  • Nivel de entrada: Mistral Large Entrada
  • Nivel de salida: Mistral Large

Para más información sobre precios, véase el cuadro 3.

Pruébela
Límites de fichas

Longitud de la ventana contextual (entrada + salida): 128,000

Nota:

  • Aunque el modelo admite una longitud de ventana de contexto de 128.000, la ventana se limita a 32.768 para reducir el tiempo que tarda el modelo en generar una respuesta.
  • El máximo de nuevos tokens, es decir, de tokens generados por el foundation model por solicitud, está limitado a 16.384.
Lenguas naturales admitidas

Inglés, francés, alemán, italiano, español, chino, japonés, coreano, portugués, neerlandés, polaco y docenas de idiomas más.

Lenguajes de programación soportados

El modelo mistral-large se ha entrenado en más de 80 lenguajes de programación, incluidos Python, Java, C, C++, JavaScript, Bash, Swift y Fortran.

Instrucciones de sintonización

El ' mistral-large ' foundation model ' está preentrenado en diversos conjuntos de datos como texto, bases de código y datos matemáticos de varios dominios.

Arquitectura modelo

Sólo decodificador

Licencia

Para conocer las condiciones de uso, incluida la información sobre las protecciones contractuales relacionadas con la indemnización limitada, consulte Condiciones de uso.

Más información

Lea los siguientes recursos:

mistral-nemo-instruct-2407

El modelo base mistral-nemo-instruct-2407 es un modelo de 12.000 millones de parámetros de " Mistral AI " construido en colaboración con " NVIDIA. Mistral NeMo obtiene unos resultados excepcionales en razonamiento, conocimiento del mundo y precisión de codificación, especialmente para un modelo de su tamaño.

Uso
El modelo " Mistral NeMo " es multilingüe y se entrena en la llamada a funciones.
Size
12.000 millones de parámetros
Nivel de precios API
Para más información sobre precios, véase el cuadro 5.
Disponibilidad
Despliegue bajo demanda para uso exclusivo.
Límites de fichas
Longitud de la ventana contextual (entrada + salida): 131,072
Lenguas naturales admitidas
Habla varios idiomas y es especialmente competente en inglés, francés, alemán, español, italiano, portugués, chino, japonés, coreano, árabe e hindi.
Lenguajes de programación soportados
El modelo " Mistral NeMo " se ha entrenado en varios lenguajes de programación.
Instrucciones de sintonización
Mistral NeMo tuvo una fase avanzada de ajuste y alineación.
Licencia
licenciaApache 2.0
Más información
Lea los siguientes recursos:

mixtral-8x7b-base

El foundation model mixtral-8x7b-base lo proporciona ' Mistral AI. El foundation model mixtral-8x7b-base es una red generativa dispersa de mezcla de expertos que agrupa los parámetros del modelo y, a continuación, para cada token elige un subconjunto de grupos (denominados expertos) para procesar el token. Como resultado, cada ficha tiene acceso a 47.000 millones de parámetros, pero sólo utiliza 13.000 millones de parámetros activos para la inferencia, lo que reduce los costes y la latencia.

Uso

Adecuado para muchas tareas, como clasificación, resumen, generación, creación y conversión de códigos y traducción de idiomas.

Size

46.46.7.000 millones de parámetros

Nivel de precios API

Para más información sobre precios, véase el cuadro 5.

Disponibilidad

Despliegue bajo demanda para uso exclusivo.

Límites de fichas

Longitud de la ventana de contexto (entrada + salida): 32,768

Nota: El máximo de nuevos tokens, es decir, los tokens generados por el foundation model por solicitud, está limitado a 16.384.

Lenguas naturales admitidas

Inglés, francés, alemán, italiano, español

Arquitectura modelo

Sólo decodificador

Licencia

licenciaApache 2.0

Más información

Lea los siguientes recursos:

mixtral-8x7b-instruct-v01

El foundation model mixtral-8x7b-instruct-v01 lo proporciona ' Mistral AI. El foundation model mixtral-8x7b-instruct-v01 es una red generativa preentrenada de mezcla dispersa de expertos que agrupa los parámetros del modelo y, a continuación, para cada token elige un subconjunto de grupos (denominados expertos) para procesar el token. Como resultado, cada ficha tiene acceso a 47.000 millones de parámetros, pero sólo utiliza 13.000 millones de parámetros activos para la inferencia, lo que reduce los costes y la latencia.

Uso

Adecuado para muchas tareas, como clasificación, resumen, generación, creación y conversión de códigos y traducción de idiomas. Debido a la ventana de contexto inusualmente grande del modelo, utilice el parámetro max tokens para especificar un límite de tokens cuando pregunte al modelo.

Size

46.46.7.000 millones de parámetros

Nivel de precios API

Clase 1. Para más información sobre precios, véase el cuadro 3.

Pruébela

Solicitudes de ejemplo

Límites de fichas

Longitud de la ventana de contexto (entrada + salida): 32,768

Nota: El máximo de nuevos tokens, es decir, los tokens generados por el foundation model por solicitud, está limitado a 16.384.

Lenguas naturales admitidas

Inglés, francés, alemán, italiano, español

Instrucciones de sintonización

El foundation model Mixtral se entrena previamente con datos de Internet. El foundation model Mixtral 8x7B Instruct se ajusta con precisión para seguir las instrucciones.

Arquitectura modelo

Sólo decodificador

Licencia

licenciaApache 2.0

Más información

Lea los siguientes recursos:

mt0-xxl-13b

El modelo mt0-xxl-13b lo proporciona BigScience en Hugging Face. El modelo está optimizado para soportar tareas de generación y traducción de idiomas con inglés, idiomas distintos del inglés y avisos multilingües.

Utilización: Uso general con indicaciones ' zero- o ' few-shot '. En las tareas de traducción, incluya un punto para indicar el final del texto que desea traducir o el modelo podría continuar la frase en lugar de traducirla.

Size
13.000 millones de parámetros
Nivel de precios API
Clase 2. Para más información sobre precios, véase el cuadro 5.
Disponibilidad
  • Desplegado bajo demanda para uso exclusivo.
Pruébela
Experimenta con las siguientes muestras:
Lenguas naturales admitidas
Multilingüe
Límites de fichas
Longitud de la ventana contextual (entrada + salida): 4,096
Lenguas naturales admitidas
El modelo se entrena previamente con datos multilingües en 108 idiomas y se perfecciona con datos multilingües en 46 idiomas para realizar tareas multilingües.
Instrucciones de sintonización
BigScience publica detalles sobre su código y sus conjuntos de datos.
Arquitectura modelo
Codificador-decodificador
Licencia
licenciaApache 2.0
Más información
Lea los siguientes recursos:

pixtral-12b

Pixtral 12B es un modelo multimodal desarrollado por Mistral Al. El foundation model pixtral-12b está entrenado para comprender tanto imágenes naturales como documentos y es capaz de ingerir imágenes en su resolución y relación de aspecto naturales, lo que proporciona flexibilidad en cuanto al número de tokens utilizados para procesar una imagen. El foundation model admite varias imágenes en su larga ventana contextual. El modelo es eficaz en tareas multimodales de entrada de imágenes y salida de texto y destaca en el seguimiento de instrucciones.

Uso
Comprensión de gráficos y figuras, respuesta a preguntas sobre documentos, razonamiento multimodal y seguimiento de instrucciones
Size
12.000 millones de parámetros
Nivel de precios API
Clase 9. Para más información sobre precios, véase el cuadro 3.

Disponibilidad

Pruébela

Chatear con documentos e imágenes

Límites de fichas

Longitud de la ventana contextual (entrada + salida): 128,000

El máximo de nuevos tokens, es decir, de tokens generados por los modelos de la fundación por solicitud, está limitado a 8.192.

Lenguas naturales admitidas

Inglés

Instrucciones de sintonización

El modelo pixtral-12b se entrena con datos de imagen y texto intercalados y se basa en el modelo Mistral Nemo con un codificador de visión de 400 millones de parámetros entrenado desde cero.

Arquitectura modelo

Sólo decodificador

Licencia

licenciaApache 2.0

Más información

Lea los siguientes recursos:

Los modelos de cimientos obsoletos se resaltan con un icono de advertencia de obsoleto Icono de aviso. For more information about deprecation, including foundation model withdrawal dates, see Ciclo de vida del modelo de cimentación.

Más información

Tema principal: Desarrollo de soluciones de IA generativa

Búsqueda y respuesta de IA generativa
Estas respuestas las genera un modelo de lenguaje grande en watsonx.ai que se basa en el contenido de la documentación del producto. Más información