0 / 0
Volver a la versión inglesa de la documentación

Modelos de cimientos de codificador admitidos en watsonx.ai

Última actualización: 04 mar 2025
Modelos de cimientos de codificador admitidos en watsonx.ai

Utilice modelos de base sólo codificadores que se despliegan en IBM watsonx.ai para ayudar con la búsqueda semántica, la comparación de documentos y las tareas de reordenación.

Puede elegir el tipo de modelo de base de datos de solo codificador que mejor se adapte a sus necesidades o utilizar ambos tipos como parte de un flujo de trabajo de búsqueda y recuperación en dos pasos. Puede utilizar los siguientes tipos de modelos de base de codificador solo en watsonx.ai:

Incorporación de modelos de cimentación

Utilice modelos de incrustación cuando desee generar representaciones vectoriales del texto que luego pueda comparar matemáticamente. Los modelos de incrustación son más rápidos y eficaces que los modelos de reranker, pero menos precisos.

Para más información, consulte Incrustación de modelos.

Modelos de cimentación del reanker

Utilice los modelos reranker cuando desee generar puntuaciones para cada pasaje de un pequeño conjunto de pasajes para encontrar el o los dos más relacionados con una consulta. Los modelos de reanker son más precisos, pero menos eficaces que los modelos de incrustación. Cuantas más entradas envíe, más tiempo tardarán los modelos de reranker en procesar el texto.

Para obtener más información, consulte Modelos de ranker.

Para utilizar los dos tipos de modelos de base solo de codificador juntos para tareas de búsqueda y recuperación, puede hacer lo siguiente:

  1. Utilice un modelo de incrustación para realizar una búsqueda semántica amplia que devuelva muchos resultados.
  2. Utilice un modelo reranker para reducir los resultados principales del paso 1 a una única respuesta o a una lista corta de las mejores respuestas.

Para obtener más información sobre los modelos de base generativos, consulte Modelos de base soportados. A diferencia de los modelos generativos, no se pueden añadir modelos de incrustación como modelos base personalizados.

Tareas admitidas por los modelos de base sólo codificador

Puedes utilizar modelos de sólo codificador en watsonx.ai para las siguientes tareas:

Vectorización de texto desde API
Especifica un modelo de incrustación que se utilizará para convertir texto en incrustaciones de texto mediante la API REST de watsonx.ai. Véase Vectorizar texto.
Pasajes de la API
Especifique un modelo de reranker que se utilizará para comparar pasajes con una consulta y clasificar los pasajes de mayor a menor relación mediante la API REST de watsonx.ai. Ver pasajes de documentos de Reranking.
AutoAI para RAG
Utilice modelos de incrustación con AutoAI para crear flujos de trabajo de generación mejorada de recuperación mediante programación. Consulte Automatización de un patrón RAG con el SDK AutoAI.
Chat con documentos en Prompt Lab
Utilice modelos de incrustación para vectorizar documentos que se utilizarán como información de base que envíe al modelo de base a partir de las indicaciones del Prompt Lab. Consulte Adición de documentos vectorizados para obtener indicaciones sobre el modelo de base de conexión a tierra.

En la siguiente tabla se muestran los tipos de tareas que admiten los modelos de base sólo codificador de IBM watsonx.ai. Una marca de verificación (✓) indica que la tarea que se nombra en el encabezado de la columna es compatible con el modelo de la fundación.

Tabla 1. Soporte de tareas de modelo de base solo codificador
Modelo Vectorizar texto desde API Rerank pasajes desde API AutoAI para RAG Chat con documentos en Prompt Lab
all-minilm-l6-v2
all-minilm-l12-v2
ELSER (Elastic Learned Sparse EncodeR)
granite-embedding-107m-multilingual
granite-embedding-278m-multilingual
ms-marco-minilm-l-12-v2
multilingual-e5-large
slate-30m-english-rtrvr-v2
slate-30m-english-rtrvr
slate-125m-english-rtrvr-v2
slate-125m-english-rtrvr

Modelos de incrustación

Los modelos de incrustación son modelos que se utilizan para vectorizar documentos y generar incrustaciones de texto que ayuden en las tareas de búsqueda y comparación. Una incrustación de texto codifica el significado de una frase o pasaje en una matriz de números que se conoce como vector. Para obtener más información sobre la vectorización, consulte Generación de texto incrustado.

Una vez convertidos los pasajes en vectores, puede calcular la similitud de los pasajes vectorizados independientes utilizando funciones matemáticas, como la similitud del coseno. La mayoría de los modelos de incrustación son modelos bicodificadores. Utilice un modelo de bicodificación cuando sea esencial una alta capacidad de recuperación, es decir, cuando no quiera pasar por alto ninguna coincidencia posible y necesite comprobar la similitud de muchos pasajes de forma eficaz.

Los siguientes modelos de incrustación pueden utilizarse desde la API en watsonx.ai:

Para obtener una lista de los modelos de incrustación disponibles, utilice el método List the available foundation models de la API watsonx.ai as a service. Especifique el parámetro " filters=function_embedding " para devolver sólo los modelos de incrustación.

curl -X GET \
  'https://{cluster_url}/ml/v1/foundation_model_specs?version=2024-07-25&filters=function_embedding'

Capacidades de procesamiento del lenguaje natural

IBM Los modelos de pizarra también alimentan un conjunto de bibliotecas que puede utilizar para tareas comunes de procesamiento del lenguaje natural (PLN), como clasificación, extracción de entidades, análisis de sentimientos y más.

Para obtener más información sobre cómo utilizar las capacidades de NLP de los modelos Slate, consulte la biblioteca de NLP de Watson.

Visión general de los modelos de incrustación de IBM

La siguiente tabla enumera los modelos de incrustación de IBM que puede utilizar desde la API.

Tabla 2. Modelos de incrustación de IBM en watsonx.ai
Nombre de modelo ID de modelo API PrecioUSD/1,000 fichas) Número máximo de tokens de entrada Número de dimensiones Más información
granite-embedding-107m-multilingual ibm/granite-embedding-107m-multilingual $0.0001 512 384 Tarjeta modelo
granite-embedding-278m-multilingual ibm/granite-embedding-278m-multilingual $0.0001 512 768 Tarjeta modelo
slate-125m-english-rtrvr-v2 ibm/slate-125m-english-rtrvr-v2 $0.0001 512 768 Tarjeta modelo
slate-125m-english-rtrvr ibm/slate-125m-english-rtrvr $0.0001 512 768 Tarjeta modelo
slate-30m-english-rtrvr-v2 ibm/slate-30m-english-rtrvr-v2 $0.0001 512 384 Tarjeta modelo
slate-30m-english-rtrvr ibm/slate-30m-english-rtrvr $0.0001 512 384 Tarjeta modelo

Modelos de incrustación de terceros

La siguiente tabla enumera los modelos de incrustación de terceros que puede utilizar desde la API.

Tabla 3. Modelos de incrustación de terceros en watsonx.ai
Nombre de modelo ID de modelo API Proveedor PrecioUSD/1,000 fichas) Número máximo de tokens de entrada Número de dimensiones Más información
all-minilm-l6-v2 sentence-transformers/all-minilm-l6-v2 Comunidad de procesamiento de lenguaje natural (NLP) y visión por ordenador (CV) de código abierto $0.0001 256 384 - Modelo de tarjeta
all-minilm-l12-v2 sentence-transformers/all-minilm-l12-v2 Comunidad de procesamiento de lenguaje natural (NLP) y visión por ordenador (CV) de código abierto $0.0001 256 384 - Modelo de tarjeta
multilingual-e5-large intfloat/multilingual-e5-large Microsoft $0.0001 512 1.024 - Tarjeta modelo
" - Documento de investigación

 

Modelos de reranker

Los modelos de reordenación son modelos de codificación cruzada que se utilizan para ordenar los pasajes de mayor a menor relevancia para una consulta. A diferencia de los modelos bicodificadores, los modelos de codificación cruzada procesan conjuntamente un pasaje y una consulta, y generan una puntuación para la similitud de las dos entradas. El modelo repite este paso de comparación de similitudes para cada pasaje que incluya. Este método es una mejor opción cuando tiene un conjunto más pequeño de pasajes para puntuar y desea encontrar la mejor respuesta.

Los modelos reranker disponibles en watsonx.ai no pueden utilizarse para generar incrustaciones de texto.

El siguiente modelo reranker se puede utilizar desde la API en watsonx.ai:

Para obtener una lista de los modelos de reranker disponibles, utilice el método List the available foundation models de la API watsonx.ai as a service. Especifique el parámetro ' filters=function_rerank ' para devolver sólo los modelos de reranker disponibles.

curl -X GET \
  'https://{region}/ml/v1/foundation_model_specs?version=2024-07-25&filters=function_rerank'

Modelos de rederanqueo

La siguiente tabla enumera los modelos de reevaluación que puede utilizar en watsonx.ai:

Tabla 4. Modelos de reanálisis en watsonx.ai
Nombre de modelo ID de modelo API Proveedor PrecioUSD/1,000 fichas) Número máximo de tokens de entrada Más información
ms-marco-minilm-l-12-v2 cross-encoder/ms-marco-minilm-l-12-v2 Microsoft $0.000005 512 - Modelo de tarjeta

Detalles del modelo sólo codificador

Puede utilizar la biblioteca Python watsonx.ai o la API REST para enviar frases o pasajes a uno de los modelos de base de codificador único compatibles.

all-minilm-l6-v2

El modelo de incrustación de la tecnología de reconocimiento de voz ( all-minilm-l6-v2 ) ha sido creado por la comunidad de procesamiento del lenguaje natural (NLP) y visión por ordenador (CV) de código abierto y lo proporciona Hugging Face. Utilice el modelo como un codificador de frases y párrafos cortos. Dado un texto de entrada, el modelo genera un vector que captura la información semántica del texto.

El modelo de incrustación " all-minilm-l6-v2 " es similar al modelo de incrustación " all-minilm-l12-v2 ", salvo que el modelo " all-minilm-l6-v2 " tiene seis capas de incrustación en lugar de las doce capas del modelo " all-minilm-l12-v2 ".

Utilización: Utilice los vectores de frases generados por el modelo de incrustación all-minilm-l6-v2 para tareas como la recuperación de información, la agrupación y la detección de similitudes entre frases.

Nivel de precios API: Clase C1. Para más información sobre precios, véase el cuadro 3.

Número de dimensiones: 384

Límites de señal de entrada: 256

Idiomas naturales soportados: Inglés

Información sobre el ajuste: Este modelo de incrustación es una versión del modelo MiniLM-L6-H384-uncased de Microsoft previamente entrenado y ajustado en un conjunto de datos que contiene mil millones de pares de frases.

Arquitectura de modelo: sólo codificador

Licencia: Apache 2.0 license

Más información

all-minilm-l12-v2

El modelo de incrustación de la tecnología de reconocimiento de voz ( all-minilm-l12-v2 ) ha sido creado por la comunidad de procesamiento del lenguaje natural (NLP) y visión por ordenador (CV) de código abierto y lo proporciona Hugging Face. Utilice el modelo como un codificador de frases y párrafos cortos. Dado un texto de entrada, genera un vector que captura la información semántica del texto.

El modelo de incrustación " all-minilm-l12-v2 " es similar al modelo de incrustación " all-minilm-l6-v2 ", salvo que el modelo " all-minilm-l12-v2 " tiene doce capas de incrustación en lugar de las seis capas del modelo " all-minilm-l6-v2 ".

Uso: Utiliza los vectores de frases que genera el modelo de incrustación all-minilm-l12-v2 para tareas como la recuperación de información, la agrupación y para detectar la similitud de las frases.

Nivel de precios API: Clase C1. Para más información sobre precios, véase el cuadro 3.

Número de dimensiones: 384

Límites de señal de entrada: 256

Idiomas naturales soportados: Inglés

Información de ajuste preciso: este modelo de inclusión es una versión del modelo MiniLM-L12-H384-uncased preentrenado de Microsoft que se ajusta con pares de frases de más de 1.000 millones de frases.

Arquitectura de modelo: sólo codificador

Licencia: Apache 2.0 license

Más información

granite-embedding-107m-multilingual

El modelo granite-embedding-107m-multilingual es un modelo de 107 millones de parámetros del paquete Granite Embeddings proporcionado por IBM. El modelo puede utilizarse para generar incrustaciones de texto de alta calidad. El modelo se entrena utilizando una combinación de conjuntos de datos de pares de relevancia de código abierto con licencias permisivas y favorables a las empresas, y conjuntos de datos generados y recopilados por IBM. Es compatible con 12 idiomas: Inglés, alemán, español, francés, japonés, portugués, árabe, checo, italiano, coreano, holandés y chino.

Utilización : Utilice el modelo granite-embedding-107m-multilingual para producir una incrustación para una entrada dada, como una consulta, un pasaje o un documento. El modelo se entrena para maximizar la similitud coseno entre dos textos de entrada.

Nivel de precios API: Clase C1. Para más información sobre precios, véase el cuadro 2.

Número de dimensiones: 384

Límites de señal de entrada: 512

Idiomas naturales admitidos : Inglés, alemán, español, francés, japonés, portugués, árabe, checo, italiano, coreano, neerlandés y chino

Información de ajuste : El modelo granite-embedding-107m-multilingual es una versión del modelo XLM RoBERTa, que es una versión multilingüe de RoBERTa preentrenada en 2.5 TB de datos CommonCrawl filtrados. El modelo se entrenó continuamente en una mezcla de conjuntos de datos multilingües para tareas basadas en la recuperación.

Arquitectura de modelo: sólo codificador

Licencia: Apache 2.0 license

Más información

granite-embedding-278m-multilingual

El modelo granite-embedding-278m-multilingual es un modelo de 278 millones de parámetros del paquete Granite Embeddings proporcionado por IBM. El modelo puede utilizarse para generar incrustaciones de texto de alta calidad. El modelo se entrena utilizando una combinación de conjuntos de datos de pares de relevancia de código abierto con licencias permisivas y favorables a las empresas, y conjuntos de datos generados y recopilados por IBM. Es compatible con 12 idiomas: Inglés, alemán, español, francés, japonés, portugués, árabe, checo, italiano, coreano, holandés y chino.

Utilización : Utilice el modelo granite-embedding-278m-multilingual para producir una incrustación para una entrada dada, como una consulta, un pasaje o un documento. El modelo se entrena para maximizar la similitud coseno entre dos textos de entrada.

Nivel de precios API: Clase C1. Para más información sobre precios, véase el cuadro 2.

Número de dimensiones: 384

Límites de señal de entrada: 512

Idiomas naturales admitidos : Inglés, alemán, español, francés, japonés, portugués, árabe, checo, italiano, coreano, neerlandés y chino

Información de ajuste : El modelo granite-embedding-107m-multilingual es una versión del modelo XLM RoBERTa, que es una versión multilingüe de RoBERTa preentrenada en 2.5 TB de datos CommonCrawl filtrados. El modelo se entrenó continuamente en una mezcla de conjuntos de datos multilingües para tareas basadas en la recuperación.

Arquitectura de modelo: sólo codificador

Licencia: Apache 2.0 license

Más información

ms-marco-minilm-l-12-v2

El modelo de reordenación de palabras clave ( ms-marco-minilm-l-12-v2 ) ha sido creado por Microsoft y lo proporciona Hugging Face. Utiliza el modelo como rastreador de pasajes y documentos. Dado un texto de consulta y un conjunto de pasajes de documentos, ordena la lista de pasajes de mayor a menor relación con la consulta.

Utilización: Utilice el modelo reranker ms-marco-minilm-l-12-v2 cuando disponga de un pequeño conjunto de pasajes que desee puntuar frente a una consulta y la precisión sea esencial. Por ejemplo, cuando tiene menos de 100 pasajes y desea puntuarlos en función de su similitud con el texto de la consulta.

Nivel de precios API: Clase 11. Para más información sobre precios, véase el cuadro 4.

Límites de señal de entrada: 512

Idiomas naturales soportados: Inglés

Información de ajuste: El modelo ms-marco-minilm-l-12-v2 fue entrenado en la tarea MS Marco Passage Ranking. MS MARCO (Microsoft Machine Reading Comprehension) es un conjunto de datos a gran escala que se utiliza para la comprensión lectora automática, la respuesta a preguntas y la clasificación de pasajes.

Arquitectura de modelo: sólo codificador

Licencia: Apache 2.0 license

Más información

multilingual-e5-large

El modelo de incrustación de ventanas emergentes ( multilingual-e5-large ) ha sido creado por Microsoft y es proporcionado por Hugging Face.

La arquitectura del modelo de inclusión tiene 24 capas que se utilizan secuencialmente para procesar datos.

Uso: se utiliza para casos de uso en los que desea generar incorporaciones de texto para texto en un idioma distinto del inglés. El modelo multilingual-e5-large es útil para tareas como la recuperación de pasajes o información, la similitud semántica, la minería de bitext y la recuperación de paráfrasis.

Nivel de precios API: Clase C1. Para más información sobre precios, véase el cuadro 3.

Número de dimensiones: 1,024

Límites de señal de entrada: 512

Lenguajes naturales soportados: hasta 100 idiomas. Consulte la tarjeta modelo para obtener más detalles.

Información de ajuste : El modelo multilingual-e5-large es una versión del modelo XLM RoBERTa, que es una versión multilingüe de RoBERTa preentrenada en 2.5 TB de datos CommonCrawl filtrados. El modelo se entrenó continuamente con una mezcla de conjuntos de datos multilingües.

Arquitectura de modelo: sólo codificador

Licencia: Código de conducta de código abierto de Microsoft

Más información

slate-125m-english-rtrvr

Los modelos de base slate-125m-english-rtrvr-v2 y slate-125m-english-rtrvr son proporcionados por IBM. Los modelos de incrustación IBM Slate 125m generan incrustaciones para diversas entradas, como consultas, pasajes o documentos.

El objetivo de entrenamiento es maximizar la similitud de coseno entre una consulta y un pasaje. Este proceso produce dos incrustaciones de frase, una que representa la pregunta y otra que representa el pasaje, permitiendo la comparación de los dos a través de la similitud coseno.

Uso: De dos a tres veces más lento pero rinde ligeramente mejor que el modelo de incrustación IBM Slate 30m.

Nivel de precios API: Clase C1. Para más información sobre precios, véase el cuadro 2.

Número de dimensiones: 768

Límites de señal de entrada: 512

Idiomas naturales soportados: Inglés

Información de ajuste preciso: esta versión del modelo se ha ajustado para ser mejor en las tareas basadas en la recuperación de sentencias.

Arquitectura de modelo: sólo codificador

Licencia: Condiciones de uso

Más información

slate-30m-english-rtrvr

Los modelos de base slate-30m-english-rtrvr-v2 y slate-30m-english-rtrvr son versiones destiladas del slate-125m-english-rtrvr, todos ellos proporcionados por IBM. El modelo de incrustación IBM Slate se entrena para maximizar la similitud del coseno entre dos entradas de texto, de modo que las incrustaciones puedan evaluarse posteriormente en función de la similitud.

La arquitectura del modelo de inclusión tiene 6 capas que se utilizan secuencialmente para procesar datos.

Uso: De dos a tres veces más rápido y tiene puntuaciones de rendimiento ligeramente inferiores al modelo de incrustación IBM Slate 125m.

Nivel de precios API: Clase C1. Para más información sobre precios, véase el cuadro 2.

Pruébelo: Utilización de texto vectorizado con tareas de generación aumentadas de recuperación

Número de dimensiones: 384

Límites de señal de entrada: 512

Idiomas naturales soportados: Inglés

Información de ajuste preciso: esta versión del modelo se ha ajustado para ser mejor en las tareas basadas en la recuperación de sentencias.

Arquitectura de modelo: sólo codificador

Licencia: Condiciones de uso

Más información

Más información

Tema principal: Modelos de fundaciones subvencionadas