En IBM watsonx.ai hay disponible una colección de modelos de código abierto y de la fundación IBM. Puede inferir los modelos de cimentación en el Prompt Lab o mediante programación.
Los siguientes modelos están disponibles en watsonx.ai:
- granite-13b-chat-v2
- granite-13b-instruct-v2
- granite-7b-lab
- granite-8b-japanese
- granite-20b-multilingual
- granite-3-2b-instruct
- granite-3-8b-instruct
- granite-3-8b-base
- granite-guardian-3-2b
- granite-guardian-3-8b
- granite-3b-code-instruct
- granite-8b-code-instruct
- granite-20b-code-instruct
- granite-20b-code-base-schema-linking
- granite-20b-code-base-sql-gen
- granite-34b-code-instruct
- allam-1-13b-instruct
- codellama-34b-instruct
- elyza-japanese-llama-2-7b-instruct
- flan-t5-xl-3b
- flan-t5-xxl-11b
- flan-ul2-20b
- jais-13b-chat
- llama-3-3-70b-instruct
- llama-3-2-1b-instruct
- llama-3-2-3b-instruct
- llama-3-2-11b-vision-instruct
- llama-3-2-90b-vision-instruct
- llama-guard-3-11b-vision
- llama-3-1-8b
- llama-3-1-8b-instruct
- llama-3-1-70b-instruct
- llama-3-405b-instruct
- llama-3-8b-instruct
- llama-3-70b-instruct
- llama-2-13b-chat
- llama-2-70b-chat
- mistral-large
- mistral-nemo-instruct-2407
- mixtral-8x7b-base
- mixtral-8x7b-instruct-v01
- mt0-xxl-13b
- pixtral-12b
Para obtener más información sobre las distintas formas en que se pueden implantar estos modelos, y para ver un resumen de los precios y la información sobre la duración de la ventana contextual de los modelos, consulte Modelos de cimentación compatibles.
Cómo elegir un modelo
Para revisar los factores que pueden ayudarle a elegir un modelo, como las tareas y los idiomas admitidos, consulte Elegir un modelo y Puntos de referencia del modelo Foundation.
Detalles del modelo de cimentación
Los modelos de base disponibles admiten una serie de casos de uso tanto para lenguajes naturales como para lenguajes de programación. Para ver los tipos de tareas que pueden realizar estos modelos, revise y pruebe las indicaciones de ejemplo.
allam-1-13b-instruct
The allam-1-13b-instruct foundation model is a bilingual large language model for Arabic and English provided by the National Center for Artificial Intelligence and supported by the Saudi Authority for Data and Artificial Intelligence that is fine-tuned to support conversational tasks. La serie ALLaM es una colección de potentes modelos lingüísticos diseñados para hacer avanzar la tecnología de la lengua árabe. Estos modelos se inicializan con ponderaciones Llama-2 y se someten a entrenamiento tanto en árabe como en inglés.
- Uso
- Admite preguntas y respuestas, resumen, clasificación, generación, extracción y traducción en árabe.
- Size
- 13.000 millones de parámetros
- Nivel de precios API
- Clase 2. Para más información sobre precios, véase el cuadro 3.
- Disponibilidad
- Proporcionado por IBM y desplegado en hardware multiusuario.
- Pruébela
- Experimente con muestras:
- Límites de fichas
- Longitud de la ventana contextual (entrada + salida): 4,096
- Lenguas naturales admitidas
- Árabe (árabe moderno estándar) e inglés
- Instrucciones de sintonización
- allam-1-13b-instruct se basa en el modelo Allam-13b-base, que es un foundation model preentrenado en un total de 3 billones de tokens en inglés y árabe, incluyendo los tokens vistos desde su inicialización. El conjunto de datos árabes contiene 500.000 millones de tokens tras la limpieza y la deduplicación. Los datos adicionales proceden de colecciones de código abierto y de rastreos web. El foundation model allam-1-13b-instruct se ha perfeccionado con un conjunto de 4 millones de pares de preguntas y respuestas en árabe y 6 millones en inglés.
- Arquitectura modelo
- Sólo decodificador
- Licencia
- Licencia comunitariaLlama 2 y licenciaALLaM
- Más información
- Lea el siguiente recurso:
codellama-34b-instruct
Un modelo de generación de código programático que se basa en Llama 2 de ' Meta. Code Llama está pensado para generar y discutir código.
- Uso
- Utilice Code Llama para crear mensajes que generen código basado en entradas de lenguaje natural, expliquen código o completen y depuren código.
- Size
- 34.000 millones de parámetros
- Nivel de precios API
- Clase 2. Para más información sobre precios, véase el cuadro 3.
- Disponibilidad
- Proporcionado por IBM y desplegado en hardware multiusuario.
- Pruébela
- Experimente con muestras:
- Límites de fichas
- Longitud de la ventana contextual (entrada + salida): 16,384
- Nota: El máximo de nuevos tokens, es decir, los tokens que genera el foundation model por solicitud, está limitado a 8.192.
- Lenguas naturales admitidas
- Inglés
- Lenguajes de programación soportados
- El foundation model codellama-34b-instruct-hf es compatible con muchos lenguajes de programación, como Python, C++, Java, PHP, Typescript (Javascript), C# y Bash, entre otros.
- Instrucciones de sintonización
- La versión ajustada de la instrucción se alimentó con la entrada de la instrucción en lenguaje natural y la salida esperada para guiar al modelo a generar respuestas útiles y seguras en lenguaje natural.
- Arquitectura modelo
- decodificador
- Licencia
- Licencia
- Más información
- Lea los siguientes recursos:
elyza-japanese-llama-2-7b-instruct
El modelo elyza-japanese-llama-2-7b-instruct es proporcionado por ELYZA, Inc en Hugging Face. El foundation model elyza-japanese-llama-2-7b-instruct es una versión del modelo Llama 2 de ' Meta ' entrenada para comprender y generar texto en japonés. El modelo se pone a punto para resolver diversas tareas que siguen instrucciones del usuario y para participar en un diálogo.
- Uso
- Uso general con indicaciones " zero- o " few-shot ". Funciona bien para la clasificación y extracción en japonés y para la traducción entre inglés y japonés. Funciona mejor cuando se le pregunta en japonés.
- Size
- 7.000 millones de parámetros
- Nivel de precios API
- Clase 2. Para más información sobre precios, véase el cuadro 3.
- Disponibilidad
- Proporcionado por IBM y desplegado en hardware multiusuario en el centro de datos de Tokio.
- Pruébela
- Experimente con muestras:
- Límites de fichas
- Longitud de la ventana contextual (entrada + salida): 4,096
- Lenguas naturales admitidas
- Japonés, inglés
- Instrucciones de sintonización
- Para la formación en japonés se utilizaron textos en japonés procedentes de numerosas fuentes, entre ellas Wikipedia y el Open Super-large Crawled ALMAnaCH coRpus (un corpus multilingüe que se genera clasificando y filtrando el lenguaje en el corpus Common Crawl). El modelo se puso a punto con un conjunto de datos creado por ELYZA. El conjunto de datos ELYZA Tasks 100 contiene 100 tareas diversas y complejas creadas manualmente y evaluadas por humanos. El conjunto de datos ELYZA Tasks 100 está disponible públicamente en HuggingFace.
- Arquitectura modelo
- decodificador
- Licencia
- Licencia
- Más información
- Lea los siguientes recursos:
flan-t5-xl-3b
El modelo flan-t5-xl-3b lo proporciona Google en Hugging Face. Este modelo se basa en el modelo de transformador de transferencia de texto a textoT5) preentrenado y utiliza métodos de ajuste de instrucciones para lograr un mejor rendimiento de " zero- y " few-shot ". El modelo también se afina con datos de la cadena de pensamiento para mejorar su capacidad de realizar tareas de razonamiento.
- Uso
- Uso general con indicaciones " zero- o " few-shot ".
- Size
- 3.000 millones de parámetros
- Nivel de precios API
- Clase 1. Para más información sobre precios, véanse los cuadros 3 y 5.
- Disponibilidad
- Proporcionado por IBM y desplegado en hardware multiusuario.
- Despliegue bajo demanda para uso exclusivo.
- Pruébela
- Solicitudes de ejemplo
- Límites de fichas
- Longitud de la ventana contextual (entrada + salida): 4,096
- Lenguas naturales admitidas
- Multilingüe
- Instrucciones de sintonización
- El modelo se puso a punto en tareas que implican el razonamiento en varios pasos a partir de datos de cadenas de pensamiento, además de las tareas tradicionales de procesamiento del lenguaje natural. Se publican detalles sobre los conjuntos de datos de entrenamiento utilizados.
- Arquitectura modelo
- Codificador-decodificador
- Licencia
- licenciaApache 2.0
- Más información
- Lea los siguientes recursos:
flan-t5-xxl-11b
El modelo flan-t5-xxl-11b lo proporciona Google en Hugging Face. Este modelo se basa en el modelo de transformador de transferencia de texto a textoT5) preentrenado y utiliza métodos de ajuste de instrucciones para lograr un mejor rendimiento de " zero- y " few-shot ". El modelo también se afina con datos de la cadena de pensamiento para mejorar su capacidad de realizar tareas de razonamiento.
- Uso
- Uso general con indicaciones " zero- o " few-shot ".
- Size
- 11.000 millones de parámetros
- Nivel de precios API
- Clase 2. Para más información sobre precios, véanse los cuadros 3 y 5.
- Disponibilidad
- Proporcionado por IBM y desplegado en hardware multiusuario.
- Despliegue bajo demanda para uso exclusivo.
- Pruébela
- Experimente con muestras:
- Límites de fichas
- Longitud de la ventana contextual (entrada + salida): 4,096
- Lenguas naturales admitidas
- Inglés, alemán, francés
- Instrucciones de sintonización
- El modelo se puso a punto en tareas que implican el razonamiento en varios pasos a partir de datos de cadenas de pensamiento, además de las tareas tradicionales de procesamiento del lenguaje natural. Se publican detalles sobre los conjuntos de datos de entrenamiento utilizados.
- Arquitectura modelo
- Codificador-decodificador
- Licencia
- licenciaApache 2.0
- Más información
- Lea los siguientes recursos:
flan-ul2-20b
El modelo flan-ul2-20b lo proporciona Google en Hugging Face. Este modelo se entrenó utilizando los Paradigmas Unificadores de Aprendizaje de LenguasUL2). El modelo está optimizado para la generación de lenguaje, la comprensión del lenguaje, la clasificación de textos, la respuesta a preguntas, el razonamiento de sentido común, el razonamiento de textos largos, la fundamentación de conocimientos estructurados y la recuperación de información, el aprendizaje en contexto, el estímulo " zero-shot y el estímulo único.
- Uso
- Uso general con indicaciones " zero- o " few-shot ".
- Size
- 20.000 millones de parámetros
- Nivel de precios API
- Clase 3. Para más información sobre precios, véanse los cuadros 3 y 5.
- Disponibilidad
- Proporcionado por IBM y desplegado en hardware multiusuario.
- Despliegue bajo demanda para uso exclusivo.
- Pruébela
- Experimente con muestras:
- Solicitudes de ejemplo
- Ejemplo de pregunta: Resumen de la convocatoria de resultados
- Ejemplo de pregunta: Resumen de la transcripción de una reunión
- Ejemplo de pregunta: Clasificación de escenarios
- Ejemplo de pregunta: Clasificación de sentimientos
- Ejemplo de mensaje: Generación de notas de agradecimiento
- Ejemplo de consulta: Extracción de entidades con nombre
- Ejemplo de pregunta: Extracción de hechos
- Cuaderno de muestra: Utilizar watsonx para resumir documentos de ciberseguridad
- Cuaderno de muestra: Utilizar watsonx y LangChain para responder a preguntas mediante la generación aumentada por recuperación (RAG)
- Cuaderno de muestra: Utilizar watsonx, Elasticsearch y LangChain para responder preguntas (RAG)
- Cuaderno de muestra: Utilización de watsonx y de la biblioteca Python Elasticsearch para responder a preguntas (RAG)
- Límites de fichas
- Longitud de la ventana contextual (entrada + salida): 4,096
- Lenguas naturales admitidas
- Inglés
- Instrucciones de sintonización
- El modelo flan-ul2-20b se entrena previamente en la versión colosal y depurada del corpus de rastreo web de Common Crawl. El modelo se ajusta con múltiples objetivos de preentrenamiento para optimizarlo para diversas tareas de procesamiento del lenguaje natural. Se publican detalles sobre los conjuntos de datos de entrenamiento utilizados.
- Arquitectura modelo
- Codificador-decodificador
- Licencia
- licenciaApache 2.0
- Más información
- Lea los siguientes recursos:
granite-13b-chat-v2
El modelo granite-13b-chat-v2 lo proporciona IBM. Este modelo está optimizado para casos de uso de diálogo y funciona bien con aplicaciones de agente virtual y chat.
Uso: Genera diálogos como un chatbot. Utiliza un formato de consulta específico para cada modelo. Incluye una palabra clave en su salida que puede utilizarse como secuencia de parada para producir respuestas sucintas. Siga las instrucciones de uso. Para más información, consulte Preguntar a granite-13b-chat-v2.
- Size
13.000 millones de parámetros
- Nivel de precios API
Clase 1. Para más información sobre precios, véanse los cuadros 2 y 4.
- Disponibilidad
- Proporcionado por IBM y desplegado en hardware multiusuario.
- Despliegue bajo demanda para uso exclusivo.
- Pruébela
- Límites de fichas
Longitud de la ventana contextual (entrada + salida): 8,192
- Lenguas naturales admitidas
Inglés
- Instrucciones de sintonización
La familia de modelos Granite se entrena con conjuntos de datos relevantes para la empresa procedentes de cinco dominios: Internet, académico, código, legal y financiero. Los datos utilizados para entrenar los modelos se someten primero a las revisiones de gobierno de datos IBM y se filtran de texto marcado por odio, abuso o blasfemia mediante el filtro HAP IBM. IBM comparte información sobre los métodos de formación y los conjuntos de datos utilizados.
- Arquitectura modelo
decodificador
- Licencia
-
Los modelos básicos IBM se consideran parte de IBM Cloud Service. Para obtener más información sobre las protecciones contractuales relacionadas con la indemnización de IBM, consulte el Acuerdo de relación con el clienteIBM y la descripción del servicioIBM watsonx.ai.
- Más información
Lea los siguientes recursos:
granite-13b-instruct-v2
IBM proporciona el modelo granite-13b-instruct-v2. Este modelo se entrenó con datos financieros de alta calidad y es uno de los que mejores resultados obtiene en tareas financieras. Las tareas financieras evaluadas incluyen: proporcionar puntuaciones de sentimiento para transcripciones de convocatorias de acciones y beneficios, clasificar titulares de noticias, extraer evaluaciones de riesgo crediticio, resumir texto financiero extenso y responder a preguntas financieras o relacionadas con seguros.
- Uso
- Admite tareas de extracción, resumen y clasificación. Genera resultados útiles para las tareas relacionadas con las finanzas. Utiliza un formato de consulta específico para cada modelo. Acepta caracteres especiales, que pueden utilizarse para generar una salida estructurada.
- Size
- 13.000 millones de parámetros
- Nivel de precios API
- Clase 1. Para más información sobre precios, véanse los cuadros 2 y 4.
- Disponibilidad
- Proporcionado por IBM y desplegado en hardware multiusuario.
- Despliegue bajo demanda para uso exclusivo.
- Pruébela
Experimente con muestras:
- Ejemplo 3b: Elaborar una lista numerada sobre un tema concreto
- Ejemplo 4c: Responder a una pregunta basándose en un documento
- Muestra 4d: Responder a preguntas de conocimientos generales
- Ejemplo de pregunta: Preguntas y respuestas sobre finanzas
- Cuaderno de muestra: Utilizar watsonx e ibm/granite-13b-instruct para analizar la satisfacción del cliente de alquiler de coches a partir de un texto
- Límites de fichas
Longitud de la ventana contextual (entrada + salida): 8,192
- Lenguas naturales admitidas
Inglés
- Instrucciones de sintonización
La familia de modelos Granite se entrena con conjuntos de datos relevantes para la empresa procedentes de cinco dominios: Internet, académico, código, legal y financiero. Los datos utilizados para entrenar los modelos se someten primero a las revisiones de gobierno de datos IBM y se filtran de texto marcado por odio, abuso o blasfemia mediante el filtro HAP IBM. IBM comparte información sobre los métodos de formación y los conjuntos de datos utilizados.
- Arquitectura modelo
decodificador
- Licencia
-
Los modelos básicos IBM se consideran parte de IBM Cloud Service. Para obtener más información sobre las protecciones contractuales relacionadas con la indemnización de IBM, consulte el Acuerdo de relación con el clienteIBM y la descripción del servicioIBM watsonx.ai.
- Más información
Lea los siguientes recursos:
granite-7b-lab
IBM proporciona el foundation model granite-7b-lab. El foundation model granite-7b-lab utiliza un novedoso método de ajuste de alineación de IBM Research. Alineación a gran escala para chatBots, o LAB, es un método para añadir nuevas habilidades a los modelos de base existentes mediante la generación de datos sintéticos para las habilidades, y luego usar esos datos para ajustar el foundation model.
- Uso
- Admite tareas de propósito general, como extracción, resumen, clasificación, etc. Siga las instrucciones de uso. Para más información, véase Preguntar a granite-7b-lab.
- Size
- 7.000 millones de parámetros
- Nivel de precios API
- Clase 1. Para más información sobre precios, véase el cuadro 2.
- Disponibilidad
- Proporcionado por IBM y desplegado en hardware multiusuario.
- Pruébela
- Límites de fichas
Longitud de la ventana contextual (entrada + salida): 8,192
Nota: El máximo de nuevos tokens, es decir, los tokens generados por el foundation model por solicitud, está limitado a 4.096.
- Lenguas naturales admitidas
Inglés
- Instrucciones de sintonización
El foundation model granite-7b-lab se entrena de forma iterativa utilizando la metodología de alineación a gran escala para chatbots (LAB).
- Arquitectura modelo
decodificador
- Licencia
-
Los modelos básicos IBM se consideran parte de IBM Cloud Service. Cuando utilice el foundation model granite-7b-lab que se proporciona en watsonx.ai se aplicarán las protecciones contractuales relacionadas con la indemnización de IBM. Consulte el Acuerdo de relación con el clienteIBM y la descripción del servicioIBM watsonx.ai.
- Más información
Lea los siguientes recursos:
granite-8b-japanese
El modelo granite-8b-japanese lo proporciona IBM. El ' granite-8b-japanese ' foundation model es una variante de instrucción inicializada a partir del modelo japonés preentrenado ' Granite Base 8 Billion y está entrenado para comprender y generar texto japonés.
- Uso
Útil para tareas de propósito general en lengua japonesa, como la clasificación, la extracción, la respuesta a preguntas, y para la traducción lingüística entre el japonés y el inglés.
- Size
8.000 millones de parámetros
- Nivel de precios API
Clase 1. Para más información sobre precios, véase el cuadro 2.
- Disponibilidad
Proporcionado por IBM y desplegado en hardware multiusuario en el centro de datos de Tokio.
- Pruébela
Experimente con muestras:
- Límites de fichas
Longitud de la ventana contextual (entrada + salida): 4,096
- Lenguas naturales admitidas
Inglés, japonés
- Instrucciones de sintonización
La familia de modelos Granite se entrena con conjuntos de datos relevantes para la empresa procedentes de cinco dominios: Internet, académico, código, legal y financiero. El modelo granite-8b-japanese se preentrenó con 1 billón de tokens de texto en inglés y 0.5 billones de tokens de texto en japonés.
- Arquitectura modelo
decodificador
- Licencia
-
Los modelos básicos IBM se consideran parte de IBM Cloud Service. Para obtener más información sobre las protecciones contractuales relacionadas con la indemnización de IBM, consulte el Acuerdo de relación con el clienteIBM y la descripción del servicioIBM watsonx.ai.
- Más información
Lea los siguientes recursos:
granite-20b-multilingual
Un foundation model de la familia IBM Granite. El foundation model base granite-20b-multilingual se basa en el modelo de base Granite Base 20 mil millones y está entrenado para comprender y generar texto en inglés, alemán, español, francés y portugués.
- Uso
- Respuesta, resumen, generación, extracción y clasificación de preguntas de dominio cerrado en inglés, alemán, español, francés y portugués.
- Size
20.000 millones de parámetros
- Nivel de precios API
Clase 1. Para más información sobre precios, véase el cuadro 2.
- Disponibilidad
Proporcionado por IBM y desplegado en hardware multiusuario.
- Pruébela
- Límites de fichas
Longitud de la ventana contextual (entrada + salida): 8,192
- Lenguas naturales admitidas
Inglés, alemán, español, francés y portugués
- Instrucciones de sintonización
La familia de modelos Granite se entrena con conjuntos de datos relevantes para la empresa procedentes de cinco dominios: Internet, académico, código, legal y financiero. Los datos utilizados para entrenar los modelos se someten primero a las revisiones de gobierno de datos IBM y se filtran de texto marcado por odio, abuso o blasfemia mediante el filtro HAP IBM. IBM comparte información sobre los métodos de formación y los conjuntos de datos utilizados.
- Arquitectura modelo
decodificador
- Licencia
-
Los modelos básicos IBM se consideran parte de IBM Cloud Service. Para obtener más información sobre las protecciones contractuales relacionadas con la indemnización de IBM, consulte el Acuerdo de relación con el clienteIBM y la descripción del servicioIBM watsonx.ai.
- Más información
Lea los siguientes recursos:
granite-3-8b-base
El foundation model Granite 8b es un modelo base que pertenece a la familia de modelos IBM Granite. El modelo se entrena con 10 billones de tokens procedentes de diversos dominios y, a continuación, se entrena con 2 billones de tokens de datos de alta calidad cuidadosamente seleccionados para mejorar el rendimiento del modelo en tareas específicas.
- Uso
El foundation model base de Granite 3.0 es un modelo básico que puede personalizar para crear modelos especializados para escenarios de aplicación específicos.
- Tamaño disponible
8.000 millones de parámetros
- Nivel de precios API
Para más información sobre precios, véase el cuadro 4.
- Disponibilidad
Despliegue bajo demanda para uso exclusivo.
- Límites de fichas
Longitud de la ventana contextual (entrada + salida): 4,096
- Lenguas naturales admitidas
Inglés, alemán, español, francés, japonés, portugués, árabe, checo, italiano, coreano, neerlandés, chino (simplificado).
- Arquitectura modelo
decodificador
- Licencia
-
Los modelos básicos IBM se consideran parte de IBM Cloud Service. Para obtener más información sobre las protecciones contractuales relacionadas con la indemnización de IBM, consulte el Acuerdo de relación con el clienteIBM y la descripción del servicioIBM watsonx.ai.
- Más información
Lea los siguientes recursos:
Modelos de Granite Instruct
Los modelos de la fundación " Granite Instruct " pertenecen a la familia de modelos IBM Granite. Los modelos básicos granite-3-2b-instruct y granite-3-8b-instruct son modelos lingüísticos de tercera generación ajustados a las instrucciones para tareas de resumen, generación, codificación, etc. Los modelos básicos emplean una arquitectura de sólo descodificador al estilo GPT, con innovaciones adicionales de IBM Research y la comunidad abierta.
- Uso
los modelos de la base Granite Instruct ' están diseñados para sobresalir en tareas de seguimiento de instrucciones como resumen, resolución de problemas, traducción de textos, razonamiento, tareas de codificación, llamada de funciones, etc.
- Tamaños disponibles
- 2.000 millones de parámetros
- 8.000 millones de parámetros
- Nivel de precios API
- 2b: Clase C1
- 8b: Clase 12
Para más información sobre precios, véase el cuadro 2.
- Disponibilidad
Proporcionado por IBM y desplegado en hardware multiusuario.
- Pruébela
Experimente con muestras:
- Límites de fichas
Longitud de la ventana contextual (entrada + salida)
- 2b: 131,072
- 8b: 131,072
El máximo de nuevos tokens, es decir, de tokens generados por el foundation model por solicitud, está limitado a 8.192.
- Lenguas naturales admitidas
Inglés, alemán, español, francés, japonés, portugués, árabe, checo, italiano, coreano, neerlandés, chino (simplificado).
- Lenguajes de programación soportados
Los modelos " Granite Instruct " se entrenan con código escrito en 116 lenguajes de programación.
- Instrucciones de sintonización
Los modelos " Granite Instruct " son modelos de base " Granite Instruct " perfeccionados y entrenados con más de 12 billones de tokens con una combinación de datos de instrucciones de código abierto y de propiedad exclusiva con licencia permitida.
- Arquitectura modelo
decodificador
- Licencia
-
Los modelos básicos IBM se consideran parte de IBM Cloud Service. Para obtener más información sobre las protecciones contractuales relacionadas con la indemnización de IBM, consulte el Acuerdo de relación con el clienteIBM y la descripción del servicioIBM watsonx.ai.
- Más información
Lea los siguientes recursos:
Modelos de Granite Guardian
Los modelos de la fundación " Granite Guardian " pertenecen a la familia de modelos IBM Granite. Los modelos de base granite-guardian-3-2b y granite-guardian-3-8b son modelos de " Granite Instruct de la generación 3.0 con ajuste fino, diseñados para detectar riesgos en los avisos y las respuestas. Los modelos básicos ayudan a detectar riesgos en muchas dimensiones clave del Atlas de Riesgos de la IA.
- Uso
los modelos de base Granite Guardian " están diseñados para detectar los riesgos relacionados con los daños en el texto de la consulta o en la respuesta modelo (como guardarraíles) y pueden utilizarse en casos de uso de generación aumentada por recuperación para evaluar la relevancia del contexto (si el contexto recuperado es relevante para la consulta), la fundamentación (si la respuesta es precisa y fiel al contexto proporcionado) y la relevancia de la respuesta (si la respuesta responde directamente a la consulta del usuario).
- Tamaños disponibles
- 2.000 millones de parámetros
- 8.000 millones de parámetros
- Nivel de precios API
- 2b: Clase C1
- 8b: Clase 12
Para más información sobre precios, véase el cuadro 2.
- Disponibilidad
Proporcionado por IBM y desplegado en hardware multiusuario.
- Pruébela
Experimente con muestras:
- Límites de fichas
Longitud de la ventana contextual (entrada + salida)
- 2b: 8,192
- 8b: 8,192
- Lenguas naturales admitidas
Inglés
- Instrucciones de sintonización
Los modelos " Granite Guardian " son modelos " Granite Instruct " perfeccionados y entrenados con una combinación de datos sintéticos y anotados por humanos.
- Arquitectura modelo
decodificador
- Licencia
-
Los modelos básicos IBM se consideran parte de IBM Cloud Service. Para obtener más información sobre las protecciones contractuales relacionadas con la indemnización de IBM, consulte el Acuerdo de relación con el clienteIBM y la descripción del servicioIBM watsonx.ai.
- Más información
Lea los siguientes recursos:
Modelos de Granite Code
Modelos Foundation de la familia IBM Granite. Los modelos de la fundación " Granite Code " son modelos de seguimiento de instrucciones perfeccionados mediante una combinación de commits de Git emparejados con instrucciones humanas y conjuntos de datos de instrucciones de código generados sintéticamente en código abierto.
El ' granite-8b-code-instruct ' v2.0.0 ' foundation model puede procesar peticiones más grandes con una mayor longitud de la ventana de contexto.
- Uso
Los siguientes modelos de base ' Granite Code ' están diseñados para responder a instrucciones relacionadas con la codificación y pueden utilizarse para construir asistentes de codificación:
- granite-3b-code-instruct
- granite-8b-code-instruct
- granite-20b-code-instruct
- granite-34b-code-instruct
Los siguientes modelos de base ' Granite Code ' son versiones ajustadas a las instrucciones del foundation model granite-20b-code-base que están diseñadas para tareas de generación de texto a SQL.
- granite-20b-code-base-schema-linking
- granite-20b-code-base-sql-gen
- Tamaños disponibles
- 3.000 millones de parámetros
- 8.000 millones de parámetros
- 20.000 millones de parámetros
- 34.000 millones de parámetros
- Nivel de precios API
Clase 1.
Para conocer los precios de los modelos con código, consulte el cuadro 2.
Para conocer los precios de los modelos de texto a SQL, consulte la Tabla 4.
- Disponibilidad
Granite Code modelos: Proporcionados por IBM desplegados en hardware multitenant.
Modelos de código de texto a SQL: Despliegue bajo demanda para uso dedicado.
- Pruébela
Experimente con muestras:
- Límites de fichas
Longitud de la ventana contextual (entrada + salida)
granite-3b-code-instruct: 128.000
El máximo de nuevos tokens, es decir, de tokens generados por el foundation model por solicitud, está limitado a 8.192.
granite-8b-code-instruct: 128.000
El máximo de nuevos tokens, es decir, de tokens generados por el foundation model por solicitud, está limitado a 8.192.
granite-20b-code-instruct: 8.192
El máximo de nuevos tokens, es decir, de tokens generados por el foundation model por solicitud, está limitado a 4.096.
granite-20b-code-base-schema-linking: 8.192
granite-20b-code-base-sql-gen: 8.192
granite-34b-code-instruct: 8.192
- Lenguas naturales admitidas
Inglés
- Lenguajes de programación soportados
Los modelos de la fundación " Granite Code " admiten 116 lenguajes de programación, entre ellos Python, Javascript, Java, C++, Go y Rust. Para ver la lista completa, consulte los modelos de cimientos deIBM.
- Instrucciones de sintonización
Estos modelos se afinaron a partir de modelos base " Granite Code " sobre una combinación de datos de instrucción con licencia permisiva para mejorar las capacidades de seguimiento de instrucciones, incluido el razonamiento lógico y las habilidades de resolución de problemas.
- Arquitectura modelo
decodificador
- Licencia
-
Los modelos básicos IBM se consideran parte de IBM Cloud Service. Para obtener más información sobre las protecciones contractuales relacionadas con la indemnización de IBM, consulte el Acuerdo de relación con el clienteIBM y la descripción del servicioIBM watsonx.ai.
- Más información
Lea los siguientes recursos:
jais-13b-chat
El foundation model jais-13b-chat es un modelo bilingüe de gran lenguaje para árabe e inglés que se ha perfeccionado para apoyar tareas conversacionales.
- Uso
- Admite preguntas y respuestas, resumen, clasificación, generación, extracción y traducción en árabe.
- Size
- 13.000 millones de parámetros
- Nivel de precios API
- Clase 2. Para más información sobre precios, véase el cuadro 3.
- Disponibilidad
- Proporcionado por IBM y desplegado en hardware multiusuario en el centro de datos de Fráncfort.
- Pruébela
- Ejemplo de mensaje: Chat en árabe
- Límites de fichas
- Longitud de la ventana contextual (entrada + salida): 2,048
- Lenguas naturales admitidas
- Árabe (árabe moderno estándar) e inglés
- Instrucciones de sintonización
- Jais-13b-chat se basa en el modelo Jais-13b, que es un foundation model entrenado con 116.000 millones de tokens árabes y 279.000 millones de tokens ingleses. Jais-13b-chat se ha perfeccionado con un conjunto de 4 millones de pares de preguntas y respuestas en árabe y 6 millones en inglés.
- Arquitectura modelo
- decodificador
- Licencia
- licenciaApache 2.0
- Más información
- Lea los siguientes recursos:
Llama 3.3 70B Instruct
El gran modelo lingüístico multilingüe (LLM) Llama 3.3 de ' Meta ' es un modelo generativo (texto de entrada/texto de salida) preentrenado y ajustado a las instrucciones con 70.000 millones de parámetros.
La llama-3-3-70b-instruct es una revisión del popular foundation model Llama 3.1 70B Instruct. El foundation model Llama 3.3 es mejor en codificación, razonamiento paso a paso y llamada de herramientas. A pesar de su menor tamaño, el rendimiento del modelo Llama 3.3 es similar al del modelo Llama 3.1 405b, lo que lo convierte en una gran opción para los desarrolladores.
- Uso
Genera diálogos multilingües como un chatbot. Utiliza un formato de consulta específico para cada modelo.
- Tamaño disponible
70.000 millones de parámetros
- Nivel de precios API
Clase 2
Para más información sobre precios, véase el cuadro 3.
- Disponibilidad
IBM proporciona una versión cuantificada del modelo desplegada en hardware multiusuario.
Hay dos versiones del modelo disponibles para desplegar bajo demanda para uso exclusivo:
- llama-3-3-70b-instruct-hf: Versión original publicada en Hugging Face por Meta.
- llama-3-3-70b-instruct: Una versión cuantizada del modelo que puede desplegarse con 2 GPUs en lugar de 4.
- Pruébela
Experimente con muestras:
- Límites de fichas
Longitud de la ventana contextual (entrada + salida): 131,072
- Lenguas naturales admitidas
Inglés, alemán, francés, italiano, portugués, hindi, español y tailandés
- Instrucciones de sintonización
Llama 3.3 se preentrenó con 15 billones de tokens de datos procedentes de fuentes públicas. Los datos de ajuste fino incluyen conjuntos de datos de instrucciones disponibles públicamente, así como más de 25 millones de ejemplos generados sintéticamente.
- Arquitectura modelo
Sólo decodificador
- Licencia
- Más información
Lea los siguientes recursos:
Llama 3.2 Instruct
La colección de modelos de cimientos Llama 3.2 de ' Meta ' la proporciona ' Meta. Los modelos llama-3-2-1b-instruct y llama-3-2-3b-instruct son los modelos Llama 3.2 más pequeños que caben en un dispositivo móvil. Se trata de modelos ligeros, sólo de texto, que pueden utilizarse para crear agentes altamente personalizados en los dispositivos.
Por ejemplo, puedes pedir a los modelos que resuman los diez últimos mensajes que has recibido, o que resuman tu agenda para el mes que viene.
- Uso
Genera diálogos como un chatbot. Utilice un formato de consulta específico para cada modelo. Su reducido tamaño y sus modestos requisitos de memoria y recursos informáticos permiten ejecutar localmente los modelos Llama 3.2 Instruct en la mayoría de los equipos, incluidos los móviles y otros dispositivos de última generación.
- Tamaños disponibles
- 1.000 millones de parámetros
- 3.000 millones de parámetros
- Nivel de precios API
- 1b: Clase C1
- 3b: Clase 8
Para más información sobre precios, véase el cuadro 3.
Para más información sobre precios, consulte Detalles de facturación de los activos de IA generativa.
- Disponibilidad
- Proporcionado por IBM y desplegado en hardware multiusuario.
- Pruébela
- Límites de fichas
Longitud de la ventana contextual (entrada + salida)
- 1b: 131,072
- 3b: 131,072
El máximo de nuevos tokens, es decir, de tokens generados por los modelos de la fundación por solicitud, está limitado a 8.192.
- Lenguas naturales admitidas
Inglés, alemán, francés, italiano, portugués, hindi, español y tailandés
- Instrucciones de sintonización
Preentrenado con hasta 9 billones de tokens de datos de fuentes públicas. Los logits de los modelos Llama 3.1 8B y 70B se incorporaron a la fase de preentrenamiento del desarrollo del modelo, en la que los resultados (logits) de estos modelos más grandes se utilizaron como objetivos a nivel de token. En el postentrenamiento, se alinea el modelo preentrenado utilizando el ajuste fino supervisado (SFT), el muestreo de rechazo (RS) y la optimización de preferencia directa (DPO).
- Arquitectura modelo
Sólo decodificador
- Licencia
- Más información
Lea los siguientes recursos:
Llama 3.2 Vision Instruct
La colección de modelos de cimientos Llama 3.2 de ' Meta ' la proporciona ' Meta. Los modelos llama-3-2-11b-vision-instruct y llama-3-2-90b-vision-instruct se han creado para casos de uso de entrada de imágenes y salida de texto, como la comprensión a nivel de documento, la interpretación de tablas y gráficos y el subtitulado de imágenes.
- Uso
Genera diálogos como un chatbot y puede realizar tareas de visión por ordenador, como clasificación, detección e identificación de objetos, transcripción de imagen a texto (incluida la escritura a mano), preguntas y respuestas contextuales, extracción y procesamiento de datos, comparación de imágenes y asistencia visual personal. Utiliza un formato de consulta específico para cada modelo.
- Tamaños disponibles
- 11.000 millones de parámetros
- 90.000 millones de parámetros
- Nivel de precios API
- 11b: Clase 9
- 90b: Clase 10
Para más información sobre precios, véase el cuadro 3.
- Disponibilidad
Proporcionado por IBM y desplegado en hardware multiusuario.
- Pruébela
- Límites de fichas
Longitud de la ventana contextual (entrada + salida)
- 11b: 131,072
- 90b: 131,072
El máximo de nuevos tokens, es decir, de tokens generados por los modelos de la fundación por solicitud, está limitado a 8.192. Los tokens que se cuentan para una imagen que envíe al modelo no se incluyen en la longitud de la ventana contextual.
- Lenguas naturales admitidas
Inglés, alemán, francés, italiano, portugués, hindi, español y tailandés con entradas de sólo texto. Inglés sólo cuando se incluye una imagen con la entrada.
- Instrucciones de sintonización
los modelos Llama 3.2 Vision " utilizan ponderaciones de adaptadores de razonamiento de imágenes que se entrenan por separado de las ponderaciones del modelo lingüístico principal. Esta separación preserva el conocimiento general del modelo y lo hace más eficiente tanto en tiempo de preentrenamiento como de ejecución. Los modelos " Llama 3.2 Vision " se preentrenaron con 6.000 millones de pares de imagen y texto, lo que requirió muchos menos recursos informáticos que los necesarios para preentrenar únicamente el foundation model Llama 3.1 70B. Los modelos Llama 3.2 también funcionan con eficacia porque pueden aprovechar más recursos informáticos para el razonamiento de imágenes sólo cuando la entrada lo requiere.
- Arquitectura modelo
Sólo decodificador
- Licencia
- Más información
Lea los siguientes recursos:
llama-guard-3-11b-vision
La colección de modelos de cimientos Llama 3.2 de ' Meta ' la proporciona ' Meta. La llama-guard-3-11b-vision es una evolución multimodal del modelo Llama-Guard-3 de sólo texto. El modelo puede utilizarse para clasificar el contenido de imágenes y texto de las entradas de los usuarios (clasificación de avisos) como seguro o inseguro.
- Uso
Utiliza el modelo para comprobar la seguridad de la imagen y el texto en un aviso de imagen a texto.
- Size
- 11.000 millones de parámetros
- Nivel de precios API
Clase 9. Para más información sobre precios, véase el cuadro 3.
- Disponibilidad
Proporcionado por IBM y desplegado en hardware multiusuario.
- Pruébela
- Límites de fichas
Longitud de la ventana contextual (entrada + salida): 131,072
El máximo de nuevos tokens, es decir, de tokens generados por los modelos de la fundación por solicitud, está limitado a 8.192. Los tokens que se cuentan para una imagen que envíe al modelo no se incluyen en la longitud de la ventana contextual.
- Lenguas naturales admitidas
Inglés, alemán, francés, italiano, portugués, hindi, español y tailandés con entradas de sólo texto. Inglés sólo cuando se incluye una imagen con la entrada.
- Instrucciones de sintonización
Modelo preentrenado y ajustado para la clasificación de la seguridad de los contenidos. Para más información sobre los tipos de contenidos clasificados como no seguros, consulte la ficha modelo.
- Arquitectura modelo
Sólo decodificador
- Licencia
- Más información
Lea los siguientes recursos:
Llama 3.1 8b
La colección de modelos de cimientos Llama 3.1 de ' Meta ' la proporciona ' Meta. El foundation model base de Llama 3.1 es un modelo multilingüe que admite el uso de herramientas y tiene, en general, mayores capacidades de razonamiento.
- Uso
- Utilícelo para resumir textos largos y con agentes conversacionales multilingües o asistentes de codificación.
- Tamaño disponible
- 8.000 millones de parámetros
- Nivel de precios API
- Para más información sobre precios, véase el cuadro 5.
- Disponibilidad
- Despliegue bajo demanda para uso exclusivo.
- Límites de fichas
- Longitud de la ventana contextual (entrada + salida): 131,072
- Lenguas naturales admitidas
- Inglés, alemán, francés, italiano, portugués, hindi, español y tailandés
- Arquitectura modelo
- Sólo decodificador
- Licencia
- Más información
- Lea los siguientes recursos:
Llama 3.1 Instruct
La colección de modelos de cimientos Llama 3.1 de ' Meta ' la proporciona ' Meta. Los modelos básicos de Llama 3.1 son modelos generativos de sólo texto preentrenados y ajustados a las instrucciones, optimizados para casos de uso de diálogo multilingüe. Los modelos utilizan el ajuste fino supervisado y el aprendizaje por refuerzo con información humana para ajustarse a las preferencias humanas de utilidad y seguridad.
El modelo llama-3-405b-instruct es el mayor foundation model código abierto de ' Meta' hasta la fecha. Este foundation model también puede utilizarse como generador de datos sintéticos, juez de clasificación de datos tras el entrenamiento o maestro/supervisor de modelos que puede mejorar las capacidades especializadas en modelos derivados más fáciles de inferir.
- Uso
Genera diálogos como un chatbot. Utiliza un formato de consulta específico para cada modelo.
- Tamaños disponibles
- 8.000 millones de parámetros
- 70.000 millones de parámetros
- 405.000 millones de parámetros
- Nivel de precios API
- 8b: Clase 1
- 70b: Clase 2
- 405b: Clase 3 (entrada), Clase 7 (salida)
Para más información sobre precios, véanse los cuadros 3 y 5.
- Disponibilidad
- Proporcionado por IBM y desplegado en hardware multiusuario.
- Despliegue el foundation model llama-3-1-8b-instruct bajo demanda para uso dedicado.
- Pruébela
- Límites de fichas
Longitud de la ventana contextual (entrada + salida)
8b y 70b: 131.072
405b: 16,384
- Aunque el modelo admite una longitud de ventana de contexto de 131.072, la ventana se limita a 16.384 para reducir el tiempo que tarda el modelo en generar una respuesta.
El máximo de nuevos tokens, es decir, de tokens generados por los modelos de la fundación por solicitud, está limitado a 4.096.
- Lenguas naturales admitidas
Inglés, alemán, francés, italiano, portugués, hindi, español y tailandés
- Instrucciones de sintonización
Llama 3.1 se preentrenó con 15 billones de tokens de datos procedentes de fuentes públicas. Los datos de ajuste fino incluyen conjuntos de datos de instrucciones disponibles públicamente, así como más de 25 millones de ejemplos generados sintéticamente.
- Arquitectura modelo
Sólo decodificador
- Licencia
- Más información
Lea los siguientes recursos:
Llama 3 Instruct
La familia de modelos fundacionales ' Meta ' Llama 3 ' son grandes modelos lingüísticos accesibles y abiertos que se construyen con ' Meta ' Llama 3 y proporcionan ' Meta en ' Hugging Face. Los modelos básicos de Llama 3 3 son modelos lingüísticos ajustados a las instrucciones que pueden admitir diversos casos de uso.
- Uso
Genera diálogos como un chatbot.
- Tamaños disponibles
- 8.000 millones de parámetros
- 70.000 millones de parámetros
- Nivel de precios API
- 8b: Clase 1
- 70b: Clase 2
Para más información sobre precios, véanse los cuadros 3 y 5.
- Disponibilidad
- Proporcionado por IBM y desplegado en hardware multiusuario.
- Despliegue bajo demanda para uso exclusivo.
- Pruébela
- Límites de fichas
Longitud de la ventana contextual (entrada + salida)
- 8b: 8,192
- 70b: 8,192
Nota: El máximo de nuevos tokens, es decir, los tokens generados por los modelos de la fundación por solicitud, está limitado a 4.096.
- Lenguas naturales admitidas
Inglés
- Instrucciones de sintonización
Llama 3 incorpora mejoras en los procedimientos de post-entrenamiento que reducen las tasas de falsos rechazos, mejoran la alineación y aumentan la diversidad en la salida del foundation model. El resultado es una mayor capacidad de razonamiento, generación de código y seguimiento de instrucciones. Llama 3 tiene más tokens de entrenamiento15T) que dan como resultado una mejor comprensión del lenguaje.
- Arquitectura modelo
Sólo decodificador
- Licencia
- Más información
Lea los siguientes recursos:
Llama 2 Chat
Los modelos Llama 2 Chat son proporcionados por ' Meta en Hugging Face. Los modelos afinados son útiles para la generación de chats. Los modelos se preentrenan con datos en línea disponibles públicamente y se perfeccionan mediante aprendizaje por refuerzo a partir de comentarios humanos.
Puede elegir entre utilizar la versión del modelo con 13.000 millones de parámetros o con 70.000 millones.
- Uso
- Genera diálogos como un chatbot. Utiliza un formato de consulta específico para cada modelo.
- Size
- 13.000 millones de parámetros
- 70.000 millones de parámetros
- Nivel de precios API
- Clase 1. Para más información sobre precios, véanse los cuadros 3 y 5.
- Disponibilidad
- 13b
- Proporcionado por IBM y desplegado en hardware multiusuario
- Despliegue bajo demanda para uso exclusivo
- 70b
- Despliegue bajo demanda para uso exclusivo
- 13b
- Pruébela
- Experimente con muestras:
- Límites de fichas
- Longitud de la ventana contextual (entrada + salida)
- 13b: 4,096
- 70b: 4,096
- Lenguas naturales admitidas
- Inglés
- Instrucciones de sintonización
- Llama 2 se preentrenó con 2 billones de tokens de datos procedentes de fuentes públicas. Los datos de ajuste incluyen conjuntos de datos de instrucciones disponibles públicamente y más de un millón de ejemplos nuevos anotados por humanos.
- Arquitectura modelo
- Sólo decodificador
- Licencia
- Licencia
- Más información
- Lea los siguientes recursos:
mistral-large
Mistral Large 2 es un gran modelo lingüístico desarrollado por ' Mistral AI. El foundation model mistral-large domina y comprende la gramática y el contexto cultural del inglés, francés, español, alemán e italiano. El foundation model también puede entender docenas de otros idiomas. El modelo tiene una gran ventana de contexto, lo que significa que puede añadir documentos de gran tamaño como información contextual en las solicitudes que envíe para casos de uso de generación aumentada por recuperación (RAG). The mistral-large foundation model is effective at programmatic tasks, such as generating, reviewing, and commenting on code, function calling, and can generate results in JSON format.
Para más información sobre los primeros pasos, consulta la páginawatsonx.ai en el sitio web ' Mistral AI.
- Uso
Adecuado para tareas complejas de razonamiento multilingüe, incluidas la comprensión de textos, la transformación y la generación de código. Debido a la gran ventana contextual del modelo, utilice el parámetro max tokens para especificar un límite de tokens cuando pregunte al modelo.
- Nivel de precios API
El precio del modelo Mistral Large no se asigna mediante un multiplicador. Se utilizan los siguientes niveles de precios especiales:
- Nivel de entrada: Mistral Large Entrada
- Nivel de salida: Mistral Large
Para más información sobre precios, véase el cuadro 3.
- Pruébela
- Límites de fichas
Longitud de la ventana contextual (entrada + salida): 128,000
Nota:
- Aunque el modelo admite una longitud de ventana de contexto de 128.000, la ventana se limita a 32.768 para reducir el tiempo que tarda el modelo en generar una respuesta.
- El máximo de nuevos tokens, es decir, de tokens generados por el foundation model por solicitud, está limitado a 16.384.
- Lenguas naturales admitidas
Inglés, francés, alemán, italiano, español, chino, japonés, coreano, portugués, neerlandés, polaco y docenas de idiomas más.
- Lenguajes de programación soportados
El modelo mistral-large se ha entrenado en más de 80 lenguajes de programación, incluidos Python, Java, C, C++, JavaScript, Bash, Swift y Fortran.
- Instrucciones de sintonización
El ' mistral-large ' foundation model ' está preentrenado en diversos conjuntos de datos como texto, bases de código y datos matemáticos de varios dominios.
- Arquitectura modelo
Sólo decodificador
- Licencia
Para conocer las condiciones de uso, incluida la información sobre las protecciones contractuales relacionadas con la indemnización limitada, consulte Condiciones de uso.
- Más información
Lea los siguientes recursos:
mistral-nemo-instruct-2407
El modelo base mistral-nemo-instruct-2407 es un modelo de 12.000 millones de parámetros de " Mistral AI " construido en colaboración con " NVIDIA. Mistral NeMo obtiene unos resultados excepcionales en razonamiento, conocimiento del mundo y precisión de codificación, especialmente para un modelo de su tamaño.
- Uso
- El modelo " Mistral NeMo " es multilingüe y se entrena en la llamada a funciones.
- Size
- 12.000 millones de parámetros
- Nivel de precios API
- Para más información sobre precios, véase el cuadro 5.
- Disponibilidad
- Despliegue bajo demanda para uso exclusivo.
- Límites de fichas
- Longitud de la ventana contextual (entrada + salida): 131,072
- Lenguas naturales admitidas
- Habla varios idiomas y es especialmente competente en inglés, francés, alemán, español, italiano, portugués, chino, japonés, coreano, árabe e hindi.
- Lenguajes de programación soportados
- El modelo " Mistral NeMo " se ha entrenado en varios lenguajes de programación.
- Instrucciones de sintonización
- Mistral NeMo tuvo una fase avanzada de ajuste y alineación.
- Licencia
- licenciaApache 2.0
- Más información
- Lea los siguientes recursos:
mixtral-8x7b-base
El foundation model mixtral-8x7b-base lo proporciona ' Mistral AI. El foundation model mixtral-8x7b-base es una red generativa dispersa de mezcla de expertos que agrupa los parámetros del modelo y, a continuación, para cada token elige un subconjunto de grupos (denominados expertos) para procesar el token. Como resultado, cada ficha tiene acceso a 47.000 millones de parámetros, pero sólo utiliza 13.000 millones de parámetros activos para la inferencia, lo que reduce los costes y la latencia.
- Uso
Adecuado para muchas tareas, como clasificación, resumen, generación, creación y conversión de códigos y traducción de idiomas.
- Size
46.46.7.000 millones de parámetros
- Nivel de precios API
Para más información sobre precios, véase el cuadro 5.
- Disponibilidad
Despliegue bajo demanda para uso exclusivo.
- Límites de fichas
Longitud de la ventana de contexto (entrada + salida): 32,768
Nota: El máximo de nuevos tokens, es decir, los tokens generados por el foundation model por solicitud, está limitado a 16.384.
- Lenguas naturales admitidas
Inglés, francés, alemán, italiano, español
- Arquitectura modelo
Sólo decodificador
- Licencia
- Más información
Lea los siguientes recursos:
mixtral-8x7b-instruct-v01
El foundation model mixtral-8x7b-instruct-v01 lo proporciona ' Mistral AI. El foundation model mixtral-8x7b-instruct-v01 es una red generativa preentrenada de mezcla dispersa de expertos que agrupa los parámetros del modelo y, a continuación, para cada token elige un subconjunto de grupos (denominados expertos) para procesar el token. Como resultado, cada ficha tiene acceso a 47.000 millones de parámetros, pero sólo utiliza 13.000 millones de parámetros activos para la inferencia, lo que reduce los costes y la latencia.
- Uso
Adecuado para muchas tareas, como clasificación, resumen, generación, creación y conversión de códigos y traducción de idiomas. Debido a la ventana de contexto inusualmente grande del modelo, utilice el parámetro max tokens para especificar un límite de tokens cuando pregunte al modelo.
- Size
46.46.7.000 millones de parámetros
- Nivel de precios API
Clase 1. Para más información sobre precios, véase el cuadro 3.
- Pruébela
- Límites de fichas
Longitud de la ventana de contexto (entrada + salida): 32,768
Nota: El máximo de nuevos tokens, es decir, los tokens generados por el foundation model por solicitud, está limitado a 16.384.
- Lenguas naturales admitidas
Inglés, francés, alemán, italiano, español
- Instrucciones de sintonización
El foundation model Mixtral se entrena previamente con datos de Internet. El foundation model Mixtral 8x7B Instruct se ajusta con precisión para seguir las instrucciones.
- Arquitectura modelo
Sólo decodificador
- Licencia
- Más información
Lea los siguientes recursos:
mt0-xxl-13b
El modelo mt0-xxl-13b lo proporciona BigScience en Hugging Face. El modelo está optimizado para soportar tareas de generación y traducción de idiomas con inglés, idiomas distintos del inglés y avisos multilingües.
Utilización: Uso general con indicaciones ' zero- o ' few-shot '. En las tareas de traducción, incluya un punto para indicar el final del texto que desea traducir o el modelo podría continuar la frase en lugar de traducirla.
- Size
- 13.000 millones de parámetros
- Nivel de precios API
- Clase 2. Para más información sobre precios, véase el cuadro 5.
- Disponibilidad
- Desplegado bajo demanda para uso exclusivo.
- Pruébela
- Experimenta con las siguientes muestras:
- Lenguas naturales admitidas
- Multilingüe
- Límites de fichas
- Longitud de la ventana contextual (entrada + salida): 4,096
- Lenguas naturales admitidas
- El modelo se entrena previamente con datos multilingües en 108 idiomas y se perfecciona con datos multilingües en 46 idiomas para realizar tareas multilingües.
- Instrucciones de sintonización
- BigScience publica detalles sobre su código y sus conjuntos de datos.
- Arquitectura modelo
- Codificador-decodificador
- Licencia
- licenciaApache 2.0
- Más información
- Lea los siguientes recursos:
pixtral-12b
Pixtral 12B es un modelo multimodal desarrollado por Mistral Al. El foundation model pixtral-12b está entrenado para comprender tanto imágenes naturales como documentos y es capaz de ingerir imágenes en su resolución y relación de aspecto naturales, lo que proporciona flexibilidad en cuanto al número de tokens utilizados para procesar una imagen. El foundation model admite varias imágenes en su larga ventana contextual. El modelo es eficaz en tareas multimodales de entrada de imágenes y salida de texto y destaca en el seguimiento de instrucciones.
- Uso
- Comprensión de gráficos y figuras, respuesta a preguntas sobre documentos, razonamiento multimodal y seguimiento de instrucciones
- Size
- 12.000 millones de parámetros
- Nivel de precios API
- Clase 9. Para más información sobre precios, véase el cuadro 3.
Disponibilidad
- Pruébela
- Límites de fichas
Longitud de la ventana contextual (entrada + salida): 128,000
El máximo de nuevos tokens, es decir, de tokens generados por los modelos de la fundación por solicitud, está limitado a 8.192.
- Lenguas naturales admitidas
Inglés
- Instrucciones de sintonización
El modelo pixtral-12b se entrena con datos de imagen y texto intercalados y se basa en el modelo Mistral Nemo con un codificador de visión de 400 millones de parámetros entrenado desde cero.
- Arquitectura modelo
Sólo decodificador
- Licencia
- Más información
Lea los siguientes recursos:
Los modelos de cimientos obsoletos se resaltan con un icono de advertencia de obsoleto . For more information about deprecation, including foundation model withdrawal dates, see Ciclo de vida del modelo de cimentación.
Más información
Tema principal: Desarrollo de soluciones de IA generativa