Traducción no actualizada
En IBM watsonx.ai hay disponible una colección de modelos de código abierto y de la fundación IBM para realizar inferencias. Encuentre los modelos básicos que mejor se adapten a las necesidades de su aplicación de IA generativa y a su presupuesto.
Los modelos de base que están disponibles para la inferencia desde watsonx.ai se alojan de varias maneras:
- Modelos de cimentación proporcionados con watsonx.ai
- Modelos básicos IBM que IBM despliega en hardware multiusuario y que están disponibles para inferencias. Se paga por fichas utilizadas. Consulte los modelos de la Fundación proporcionados con watsonx.ai.
- Implantar modelos de cimientos bajo demanda
- Una instancia de un foundation model IBM que usted despliega y que está dedicado a su uso de inferencia. Sólo los colegas que tienen acceso a la implantación pueden inferir el foundation model. Un despliegue dedicado significa interacciones más rápidas y receptivas sin límites de velocidad. El alojamiento del foundation model fundación se paga por horas. Véase Despliegue de modelos de cimientos a petición.
- Modelos fundacionales personalizados
- Modelos de la Fundación curados por usted que importa y despliega en watsonx.ai. La instancia del foundation model personalizado que despliega está dedicada para su uso. Un despliegue dedicado significa interacciones más rápidas y con mayor capacidad de respuesta. El alojamiento del foundation model fundación se paga por horas. Véase Modelos de cimientos personalizados.
- Modelos de cimentación ajustados a las necesidades
- Un subconjunto de los modelos de cimentación disponibles que pueden personalizarse según sus necesidades mediante el ajuste rápido del modelo desde la API o Tuning Studio. A prompt-tuned foundation model relies on the underlying IBM-deployed foundation model. Pagas por los recursos que consumes para afinar el modelo. Una vez ajustado el modelo, se paga por fichas utilizadas para inferir el modelo. Véanse los modelos de cimentación sintonizados con Prompt.
Si desea desplegar modelos de cimentación en su propio centro de datos, puede adquirir el software watsonx.ai. Para obtener más información, consulte Descripción general de IBM watsonx as a Service y el software IBM watsonx.governance.
Comparación de métodos de implantación
Para ayudarle a elegir el método de implantación adecuado, consulte la tabla comparativa.
Tipo de despliegue | Disponible desde | Mecanismo de despliegue | entorno de alojamiento | Método de facturación | Política de amortización |
---|---|---|---|---|---|
Modelos de cimentación proporcionados con watsonx.ai | - Resource hub>Pay per token - Prompt Lab |
Curado y desplegado por IBM | Hardware multiusuario | Por fichas utilizadas | Obsoleto según el ciclo de vida publicado |
Implantar modelos de cimientos bajo demanda | - Resource hub>Pago por horas - Prompt Lab |
Curado y desplegado por IBM a petición suya | Hardware dedicado | Por hora de despliegue | Su modelo desplegado no está obsoleto |
Modelos fundacionales personalizados | • Prompt Lab | Curada y desplegada por usted | Hardware dedicado | Por hora de despliegue | No obsoleto |
Modelos de cimentación ajustados a las necesidades | • Prompt Lab | Ajustado y desplegado por usted | Hardware multiusuario | - La formación se factura por la CUH - La inferencia se factura por los tokens utilizados |
Obsoleto cuando el modelo subyacente está obsoleto a menos que añada el modelo subyacente como un foundation model personalizado |
Para obtener más información sobre cómo se calcula y controla el precio de los modelos, consulte Detalles de facturación de los activos de IA generativa.
Modelos de cimientos compatibles por método de implantación
watsonx.ai pone a su disposición varios modelos de base que puede utilizar inmediatamente o que puede desplegar en hardware dedicado para uso de su organización.
Modelos de cimentación proporcionados con watsonx.ai
Una colección de modelos de base de IBM y de código abierto se despliegan en IBM watsonx.ai. Puede solicitar estos modelos de cimentación en el Prompt Lab o mediante programación.
IBM utiliza los siguientes modelos de fundamentos para la inferencia en watsonx.ai:
- granite-13b-instruct-v2
- granite-8b-japanese
- granite-20b-multilingual
- granite-3-2b-instruct
- granite-3-8b-instruct
- granite-3-2-8b-instruct-preview-rc
- granite-guardian-3-2b
- granite-guardian-3-8b
- granite-3b-code-instruct
- granite-8b-code-instruct
- granite-20b-code-instruct
- granite-34b-code-instruct
- granite-ttm-512-96-r2
- granite-ttm-1024-96-r2
- granite-ttm-1536-96-r2
- allam-1-13b-instruct
- codellama-34b-instruct
- elyza-japanese-llama-2-7b-instruct
- flan-t5-xl-3b
- flan-t5-xxl-11b
- flan-ul2-20b
- jais-13b-chat
- llama-3-3-70b-instruct
- llama-3-2-1b-instruct
- llama-3-2-3b-instruct
- llama-3-2-11b-vision-instruct
- llama-3-2-90b-vision-instruct
- llama-guard-3-11b-vision-instruct
- llama-3-1-8b-instruct
- llama-3-1-70b-instruct
- llama-3-405b-instruct
- llama-3-70b-instruct (Solo regiones de Londres y Sídney)
- llama-2-13b-chat
- mistral-large
- mistral-small-24b-instruct-2501
- mixtral-8x7b-instruct-v01
- pixtral-12b
Para empezar a inferir un foundation model proporcionado, siga estos pasos:
- En el menú principal, seleccione Centro de recursos.
- Haga clic en Ver todo en la sección Pago por token.
- Haga clic en un mosaico de foundation model y, a continuación, haga clic en Abrir en Prompt Lab.
Modelos básicos de IBM proporcionados con watsonx.ai
En la siguiente tabla se enumeran los modelos de base IBM compatibles que IBM proporciona para la inferencia.
El uso se mide en Unidades de Recursos (RU); cada unidad equivale a 1.000 tokens de la entrada y salida de la inferencia foundation model. Para obtener más información sobre cómo se calcula y controla el precio de los modelos, consulte Detalles de facturación de los activos de IA generativa.
Algunos modelos de IBM Foundation también están disponibles en repositorios de terceros, como Hugging Face. IBM no indemnizará los modelos de IBM Foundation que usted obtenga de un repositorio de terceros. Sólo los modelos fundacionales IBM a los que acceda desde watsonx.ai están indemnizados por IBM. Para obtener más información sobre las protecciones contractuales relacionadas con la indemnización de IBM, consulte el Acuerdo de relación con el cliente IBM y la descripción del servicio IBM watsonx.ai.
Nombre de modelo | API model_id | Precio de USD/1,000 fichas) |
Precio de USD/1,000 fichas) |
Ventana contextual (tokens de entrada + salida) |
Más información |
---|---|---|---|---|---|
granite-13b-instruct-v2 | ibm/granite-13b-instruct-v2 |
$0.0006 | $0.0006 | 8.192 | - Modelo de ficha - Página web - Documento de investigación Nota: Este foundation model puede ajustarse rápidamente.
|
granite-8b-japanese | ibm/granite-8b-japanese |
$0.0006 | $0.0006 | 4.096 | - Ficha modelo - Página web - Documento de investigación |
granite-20b-multilingual | ibm/granite-20b-multilingual |
$0.0006 | $0.0006 | 8.192 | - Ficha modelo - Página web - Documento de investigación |
granite-3-2b-instruct | ibm/granite-3-2b-instruct |
$0.0001 | $0.0001 | 131.072 | - Ficha modelo - Página web - Documento de investigación |
granite-3-8b-instruct | ibm/granite-3-8b-instruct |
$0.0002 | $0.0002 | 131.072 | - Ficha modelo - Página web - Documento de investigación |
granite-3-2-8b-instruct-preview-rc |
ibm/granite-3-2-8b-instruct-preview-rc |
Sin coste durante la vista previa técnica | Sin coste durante la vista previa técnica | 131.072 | - Ficha modelo - Página web - Documento de investigación |
granite-guardian-3-2b | ibm/granite-guardian-3-2b |
$0.0001 | $0.0001 | 131.072 | - Modelo de tarjeta " - Página web |
granite-guardian-3-8b | ibm/granite-guardian-3-8b |
$0.0002 | $0.0002 | 131.072 | - Modelo de tarjeta " - Página web |
granite-3b-code-instruct | ibm/granite-3b-code-instruct |
$0.0006 | $0.0006 | 128.000 | - Ficha modelo - Página web - Documento de investigación |
granite-8b-code-instruct | ibm/granite-8b-code-instruct |
$0.0006 | $0.0006 | 128.000 | - Ficha modelo - Página web - Documento de investigación |
granite-20b-code-instruct | ibm/granite-20b-code-instruct |
$0.0006 | $0.0006 | 8.192 | - Ficha modelo - Página web - Documento de investigación |
granite-34b-code-instruct | ibm/granite-34b-code-instruct |
$0.0006 | $0.0006 | 8.192 | - Ficha modelo - Página web - Documento de investigación |
Nombre de modelo | API model_id | Precio de entrada ( ) (puntos de datos USD/1,000 ) |
Precio de salida ( USD/1,000 data points) |
Longitud del contexto Puntos de datos mínimos |
Más información |
---|---|---|---|---|---|
granite-ttm-512-96-r2 | ibm/granite-ttm-512-96-r2 |
$0.00013 | $0.00038 | 512 | - Modelo de ficha - Página web - Documento de investigación |
granite-ttm-1024-96-r2 | ibm/granite-ttm-1024-96-r2 |
$0.00013 | $0.00038 | 1024 • Tarjeta de modelo • Sitio web • Documento de investigación |
|
granite-ttm-1536-96-r2 | ibm/granite-ttm-1536-96-r2 |
$0.00013 | $0.00038 | 1.536 | - Modelo de ficha - Página web - Documento de investigación |
Modelos de fundaciones de terceros proporcionados con watsonx.ai
La siguiente tabla enumera los modelos de fundaciones de terceros compatibles que se proporcionan con watsonx.ai.
El uso se mide en Unidades de Recursos (RU); cada unidad equivale a 1.000 tokens de la entrada y salida de la inferencia foundation model. Para obtener más información sobre cómo se calcula y controla el precio de los modelos, consulte Detalles de facturación de los activos de IA generativa.
Nombre de modelo | API model_id | Proveedor | Precio de USD/1,000 fichas) |
Precio de USD/1,000 fichas) |
Ventana contextual (tokens de entrada + salida) |
Más información |
---|---|---|---|---|---|---|
allam-1-13b-instruct | sdaia/allam-1-13b-instruct |
Centro Nacional de Inteligencia Artificial y Autoridad Saudita de Datos e Inteligencia Artificial | $0.0018 | $0.0018 | 4.096 | - Modelo de tarjeta |
codellama-34b-instruct | codellama/codellama-34b-instruct-hf |
Code Llama | $0.0018 | $0.0018 | 16.384 | - Modelo de tarjeta " - " Meta AI Blog |
elyza-japanese-llama-2-7b-instruct | elyza/elyza-japanese-llama-2-7b-instruct |
ELYZA, Inc | $0.0018 | $0.0018 | 4.096 | - Modelo de tarjeta - Blog en note.com |
flan-t5-xl-3b | google/flan-t5-xl |
$0.0006 | $0.0006 | 4.096 | - Ficha modelo - Documento de investigación Nota: Este foundation model puede ajustarse rápidamente.
|
|
flan-t5-xxl-11b | google/flan-t5-xxl |
$0.0018 | $0.0018 | 4.096 | - Modelo de tarjeta " - Documento de investigación |
|
flan-ul2-20b | google/flan-ul2 |
$0.0050 | $0.0050 | 4.096 | • Modelo de tarjeta • documento de investigación UL2 • Documento de investigación sobre el flan |
|
jais-13b-chat | core42/jais-13b-chat |
Inception, Mohamed bin Zayed University of Artificial Intelligence (MBZUAI) y Cerebras Systems | $0.0018 | $0.0018 | 2.048 | - Modelo de tarjeta " - Documento de investigación |
llama-3-3-70b-instruct | meta-llama/llama-3-3-70b-instruct |
Meta | $0.00071 | $0.00071 | 131.072 | - Modelo de tarjeta - ' Meta AI blog |
llama-3-2-1b-instruct | meta-llama/llama-3-2-1b-instruct |
Meta | $0.0001 | $0.0001 | 131.072 | - Modelo de ficha - ' Meta AI blog - Documento de investigación |
llama-3-2-3b-instruct | meta-llama/llama-3-2-3b-instruct |
Meta | $0.00015 | $0.00015 | 131.072 | - Modelo de ficha - ' Meta AI blog - Documento de investigación |
llama-3-2-11b-vision-instruct | meta-llama/llama-3-2-11b-vision-instruct |
Meta | $0.00035 | $0.00035 | 131.072 | - Modelo de ficha - ' Meta AI blog - Documento de investigación |
llama-3-2-90b-vision-instruct | meta-llama/llama-3-2-90b-vision-instruct |
Meta | $0.0020 | $0.0020 | 131.072 | - Modelo de ficha - ' Meta AI blog - Documento de investigación |
llama-guard-3-11b-vision | meta-llama/llama-guard-3-11b-vision |
Meta | $0.00035 | $0.00035 | 131.072 | - Modelo de ficha - ' Meta AI blog - Documento de investigación |
llama-3-1-8b-instruct | meta-llama/llama-3-1-8b-instruct |
Meta | $0.0006 | $0.0006 | 131.072 | - Modelo de tarjeta - ' Meta AI blog |
llama-3-1-70b-instruct | meta-llama/llama-3-1-70b-instruct |
Meta | $0.0018 | $0.0018 | 131.072 | - Modelo de tarjeta - ' Meta AI blog |
llama-3-405b-instruct | meta-llama/llama-3-405b-instruct |
Meta | $0.0050 | $0.016 | 16.384 | - Modelo de tarjeta - ' Meta AI blog |
llama-3-70b-instruct | meta-llama/llama-3-70b-instruct |
Meta | $0.0018 | $0.0018 | 8.192 | - Modelo de tarjeta - ' Meta AI blog |
llama-2-13b-chat | meta-llama/llama-2-13b-chat |
Meta | $0.0006 | $0.0006 | 4.096 | - Modelo de tarjeta " - Documento de investigación |
mistral-large | mistralai/mistral-large |
Mistral AI | $0.003 | $0.01 | 32.768 | - Ficha de modelo " - Entrada de blog para Mistral Large 2 |
mistral-small-24b-instruct-2501 | mistralai/mistral-small-24b-instruct-2501 |
Mistral AI | $0.00035 | $0.00035 | 32.768 | • Tarjeta de modelo • Entrada de blog para Mistral Small 3 |
mixtral-8x7b-instruct-v01 | mistralai/mixtral-8x7b-instruct-v01 |
Mistral AI | $0.0006 | $0.0006 | 32.768 | - Modelo de tarjeta " - Documento de investigación |
mt0-xxl-13b | bigscience/mt0-xxl |
BigScience | $0.0018 | $0.0018 | 4.096 | - Modelo de tarjeta " - Documento de investigación |
pixtral-12b | mistralai/pixtral-12 |
Mistral AI | $0.00035 | $0.00035 | 128.000 | - Modelo de ficha - Blog de Pixtral 12B |
- Para obtener más información sobre los modelos de base admitidos que IBM proporciona para incrustar y renumerar texto, consulte Modelos de codificador admitidos.
- Para ver una lista de los modelos que se ofrecen en cada centro de datos regional, consulte Disponibilidad regional del foundation model.
- Para obtener información sobre precios y limitación de tarifas, consulte watsonx.ai Planes de tiempo de ejecución.
Modelos fundacionales personalizados
Además de trabajar con modelos de base curados por IBM, puede cargar y desplegar sus propios modelos de base. Una vez desplegados y registrados los modelos personalizados en watsonx.ai, puede crear avisos que inferencien los modelos personalizados desde Prompt Lab y desde la API watsonx.ai.
Para obtener más información sobre cómo cargar, registrar y desplegar un " foundation model" personalizado, consulte " Desplegar un " foundation model personalizado .
Implantar modelos de cimientos bajo demanda
Elija un foundation model de un conjunto de modelos IBM para desplegarlo para uso exclusivo de su organización.
Los siguientes modelos de la base de despliegue bajo demanda están disponibles para su despliegue para inferencias en watsonx.ai:
- granite-3-8b-base
- granite-7b-lab
- granite-13b-chat-v2
- granite-13b-instruct-v2
- granite-8b-code-instruct
- granite-20b-code-instruct
- granite-34b-code-instruct
- granite-20b-code-base-schema-linking
- granite-20b-code-base-sql-gen
- deepseek-r1-distill-llama-8b
- deepseek-r1-distill-llama-70b
- flan-t5-xl-3b
- flan-t5-xxl-11b
- flan-ul2-20b
- llama-2-13b-chat
- llama-2-70b-chat
- llama-3-8b-instruct
- llama-3-70b-instruct
- llama-3-1-8b
- llama-3-1-8b-instruct
- llama-3-1-70b-instruct
- llama-3-3-70b-instruct
- llama-3-3-70b-instruct-hf
- mistral-large-instruct-2407
- mistral-large-instruct-2411
- mistral-nemo-instruct-2407
- mixtral-8x7b-base
- mixtral-8x7b-instruct-v01
- mt0-xxl-13b
Para implementar un despliegue bajo demanda foundation model, siga estos pasos:
- En el menú principal, seleccione Centro de recursos.
- Haga clic en Ver todo en la sección Pago por hora.
- Haga clic en un mosaico de foundation model y, a continuación, haga clic en Implementar.
Para más información, consulte Implementación de modelos de base bajo demanda.
Implantar modelos de cimientos bajo demanda de IBM
En la siguiente tabla se enumeran los modelos de IBM Foundation disponibles para su despliegue bajo demanda.
Algunos modelos de IBM Foundation también están disponibles en repositorios de terceros, como Hugging Face. IBM no indemnizará los modelos de IBM Foundation que usted obtenga de un repositorio de terceros. Sólo los modelos fundacionales IBM a los que acceda desde watsonx.ai están indemnizados por IBM. Para obtener más información sobre las protecciones contractuales relacionadas con la indemnización de IBM, consulte el Acuerdo de relación con el cliente IBM y la descripción del servicio IBM watsonx.ai.
Nombre de modelo | Precio por hora en USD | Categoría de alojamiento de modelos | Ventana contextual (tokens de entrada + salida) |
---|---|---|---|
granite-7b-lab | $5.22 | Pequeña | 4.096 |
granite-13b-chat-v2 | $5.22 | Pequeña | 8.192 |
granite-13b-instruct-v2 | $5.22 | Pequeña | 8.192 |
granite-8b-code-instruct | $5.22 | Pequeña | 128.000 |
granite-20b-code-instruct | $5.22 | Pequeña | 8.192 |
granite-34b-code-instruct | $5.22 | Pequeña | 8.192 |
granite-20b-code-base-schema-linking | $5.22 | Pequeña | 8.192 |
granite-20b-code-base-sql-gen | $5.22 | Pequeña | 8.192 |
granite-3-8b-base | $5.22 | Pequeña | 4.096 |
Implantar modelos de cimientos bajo demanda de terceros
En la siguiente tabla se enumeran los modelos de bases de terceros que están disponibles para su implantación bajo demanda.
Nombre de modelo | Proveedor | Precio por hora en USD | Categoría de alojamiento de modelos | Ventana contextual (tokens de entrada + salida) |
---|---|---|---|---|
deepseek-r1-distill-llama-8b | DeepSeek IA | $5.22 | Pequeña | 131.072 |
deepseek-r1-distill-llama-70b | DeepSeek IA | $20.85 | Grande | 131.072 |
flan-t5-xl-3b | $5.22 | Pequeña | 4.096 | |
flan-t5-xxl-11b | $5.22 | Pequeña | 4.096 | |
flan-ul2-20b | $5.22 | Pequeña | 4.096 | |
llama-2-13b-chat | Meta | $5.22 | Pequeña | 4.096 |
llama-2-70b-chat | Meta | $20.85 | Grande | 4.096 |
llama-3-8b-instruct | Meta | $5.22 | Pequeña | 8.192 |
llama-3-70b-instruct | Meta | $20.85 | Grande | 8.192 |
llama-3-1-8b | Meta | $5.22 | Pequeña | 131.072 |
llama-3-1-8b-instruct | Meta | $5.22 | Pequeña | 131.072 |
llama-3-1-70b-instruct | Meta | $20.85 | Grande | 131.072 |
llama-3-3-70b-instruct | Meta | $10.40 | Medio | 131.072 |
llama-3-3-70b-instruct-hf | Meta | $20.85 | Grande | 131.072 |
mixtral-8x7b-base | Mistral AI | $10.40 | Medio | 32.768 |
mixtral-8x7b-instruct-v01 | Mistral AI | $10.40 | Medio | 32.768 |
mistral-large-instruct-2407 | Mistral AI | 55.15 (Ver nota) | Grande | 131.072 |
mistral-large-instruct-2411 | Mistral AI | 55.15 (Ver nota) | Grande | 131.072 |
mistral-nemo-instruct-2407 | Mistral AI | $5.22 | Pequeña | 131.072 |
mt0-xxl-13b | BigScience | $5.22 | Pequeña | 4.096 |
Alojamiento: $ 20.85 + Acceso: $ 34.30 = Total: $ 55.15 USD por hora
Modelos de cimentación ajustados a las necesidades
Puede personalizar los siguientes modelos de base ajustándolos en watsonx.ai:
Para más información, consulta Tuning Studio.
Más información
- Detalles del modelo de cimentación
- Detalles de facturación de los activos de IA generativa
- Disponibilidad regional del foundation model
Tema principal: Desarrollo de soluciones de IA generativas