Modelos de cimientos de codificador admitidos en watsonx.ai
Utilice modelos de base sólo codificadores que se despliegan en IBM watsonx.ai para ayudar con la búsqueda semántica, la comparación de documentos y las tareas de reordenación.
Puede elegir el tipo de modelo de base de datos de solo codificador que mejor se adapte a sus necesidades o utilizar ambos tipos como parte de un flujo de trabajo de búsqueda y recuperación en dos pasos. Puede utilizar los siguientes tipos de modelos de base de codificador solo en watsonx.ai:
- Incorporación de modelos de cimentación
Utilice modelos de incrustación cuando desee generar representaciones vectoriales del texto que luego pueda comparar matemáticamente. Los modelos de incrustación son más rápidos y eficaces que los modelos de reranker, pero menos precisos.
Para más información, consulte Incrustación de modelos.
- Modelos de cimentación del reanker
Utilice los modelos reranker cuando desee generar puntuaciones para cada pasaje de un pequeño conjunto de pasajes para encontrar el o los dos más relacionados con una consulta. Los modelos de reanker son más precisos, pero menos eficaces que los modelos de incrustación. Cuantas más entradas envíe, más tiempo tardarán los modelos de reranker en procesar el texto.
Para obtener más información, consulte Modelos de ranker.
Para utilizar los dos tipos de modelos de base solo de codificador juntos para tareas de búsqueda y recuperación, puede hacer lo siguiente:
- Utilice un modelo de incrustación para realizar una búsqueda semántica amplia que devuelva muchos resultados.
- Utilice un modelo reranker para reducir los resultados principales del paso 1 a una única respuesta o a una lista corta de las mejores respuestas.
Para obtener más información sobre los modelos de base generativos, consulte Modelos de base soportados. A diferencia de los modelos generativos, no se pueden añadir modelos de incrustación como modelos base personalizados.
Tareas admitidas por los modelos de base sólo codificador
Puedes utilizar modelos de sólo codificador en watsonx.ai para las siguientes tareas:
- Vectorización de texto desde API
- Especifica un modelo de incrustación que se utilizará para convertir texto en incrustaciones de texto mediante la API REST de watsonx.ai. Véase Vectorizar texto.
- Pasajes de la API
- Especifique un modelo de reranker que se utilizará para comparar pasajes con una consulta y clasificar los pasajes de mayor a menor relación mediante la API REST de watsonx.ai. Ver pasajes de documentos de Reranking.
- AutoAI para RAG
- Utilice modelos de incrustación con AutoAI para crear flujos de trabajo de generación mejorada de recuperación mediante programación. Consulte Automatización de un patrón RAG con el SDK AutoAI.
- Chat con documentos en Prompt Lab
- Utilice modelos de incrustación para vectorizar documentos que se utilizarán como información de base que envíe al modelo de base a partir de las indicaciones del Prompt Lab. Consulte Adición de documentos vectorizados para obtener indicaciones sobre el modelo de base de conexión a tierra.
En la siguiente tabla se muestran los tipos de tareas que admiten los modelos de base sólo codificador de IBM watsonx.ai. Una marca de verificación (✓) indica que la tarea que se nombra en el encabezado de la columna es compatible con el modelo de la fundación.
Modelo | Vectorizar texto desde API | Rerank pasajes desde API | AutoAI para RAG | Chat con documentos en Prompt Lab |
---|---|---|---|---|
all-minilm-l6-v2 | ✓ | ✓ | ||
all-minilm-l12-v2 | ✓ | ✓ | ||
ELSER (Elastic Learned Sparse EncodeR) | ✓ | |||
granite-embedding-107m-multilingual | ✓ | ✓ | ||
granite-embedding-278m-multilingual | ✓ | ✓ | ||
ms-marco-minilm-l-12-v2 | ✓ | |||
multilingual-e5-large | ✓ | ✓ | ✓ | |
slate-30m-english-rtrvr-v2 | ✓ | ✓ | ||
slate-30m-english-rtrvr | ✓ | ✓ | ||
slate-125m-english-rtrvr-v2 | ✓ | ✓ | ||
slate-125m-english-rtrvr | ✓ | ✓ | ✓ |
Modelos de incrustación
Los modelos de incrustación son modelos que se utilizan para vectorizar documentos y generar incrustaciones de texto que ayuden en las tareas de búsqueda y comparación. Una incrustación de texto codifica el significado de una frase o pasaje en una matriz de números que se conoce como vector. Para obtener más información sobre la vectorización, consulte Generación de texto incrustado.
Una vez convertidos los pasajes en vectores, puede calcular la similitud de los pasajes vectorizados independientes utilizando funciones matemáticas, como la similitud del coseno. La mayoría de los modelos de incrustación son modelos bicodificadores. Utilice un modelo de bicodificación cuando sea esencial una alta capacidad de recuperación, es decir, cuando no quiera pasar por alto ninguna coincidencia posible y necesite comprobar la similitud de muchos pasajes de forma eficaz.
Los siguientes modelos de incrustación pueden utilizarse desde la API en watsonx.ai:
- granite-embedding-107m-multilingual
- granite-embedding-278m-multilingual
- slate-30m-english-rtrvr-v2
- slate-30m-english-rtrvr
- slate-125m-english-rtrvr-v2
- slate-125m-english-rtrvr
- all-minilm-l6-v2
- all-minilm-l12-v2
- multilingual-e5-large
Para obtener una lista de los modelos de incrustación disponibles, utilice el método List the available foundation models de la API watsonx.ai as a service. Especifique el parámetro " filters=function_embedding
" para devolver sólo los modelos de incrustación.
curl -X GET \
'https://{cluster_url}/ml/v1/foundation_model_specs?version=2024-07-25&filters=function_embedding'
Capacidades de procesamiento del lenguaje natural
IBM Los modelos de pizarra también alimentan un conjunto de bibliotecas que puede utilizar para tareas comunes de procesamiento del lenguaje natural (PLN), como clasificación, extracción de entidades, análisis de sentimientos y más.
Para obtener más información sobre cómo utilizar las capacidades de NLP de los modelos Slate, consulte la biblioteca de NLP de Watson.
Visión general de los modelos de incrustación de IBM
La siguiente tabla enumera los modelos de incrustación de IBM que puede utilizar desde la API.
Nombre de modelo | ID de modelo API | PrecioUSD/1,000 fichas) | Número máximo de tokens de entrada | Número de dimensiones | Más información |
---|---|---|---|---|---|
granite-embedding-107m-multilingual | ibm/granite-embedding-107m-multilingual |
$0.0001 | 512 | 384 | Tarjeta modelo |
granite-embedding-278m-multilingual | ibm/granite-embedding-278m-multilingual |
$0.0001 | 512 | 768 | Tarjeta modelo |
slate-125m-english-rtrvr-v2 | ibm/slate-125m-english-rtrvr-v2 |
$0.0001 | 512 | 768 | Tarjeta modelo |
slate-125m-english-rtrvr | ibm/slate-125m-english-rtrvr |
$0.0001 | 512 | 768 | Tarjeta modelo |
slate-30m-english-rtrvr-v2 | ibm/slate-30m-english-rtrvr-v2 |
$0.0001 | 512 | 384 | Tarjeta modelo |
slate-30m-english-rtrvr | ibm/slate-30m-english-rtrvr |
$0.0001 | 512 | 384 | Tarjeta modelo |
Modelos de incrustación de terceros
La siguiente tabla enumera los modelos de incrustación de terceros que puede utilizar desde la API.
Nombre de modelo | ID de modelo API | Proveedor | PrecioUSD/1,000 fichas) | Número máximo de tokens de entrada | Número de dimensiones | Más información |
---|---|---|---|---|---|---|
all-minilm-l6-v2 | sentence-transformers/all-minilm-l6-v2 |
Comunidad de procesamiento de lenguaje natural (NLP) y visión por ordenador (CV) de código abierto | $0.0001 | 256 | 384 | - Modelo de tarjeta |
all-minilm-l12-v2 | sentence-transformers/all-minilm-l12-v2 |
Comunidad de procesamiento de lenguaje natural (NLP) y visión por ordenador (CV) de código abierto | $0.0001 | 256 | 384 | - Modelo de tarjeta |
multilingual-e5-large | intfloat/multilingual-e5-large |
Microsoft | $0.0001 | 512 | 1.024 | - Tarjeta modelo " - Documento de investigación |
- Para obtener una lista de los modelos que se proporcionan en cada centro de datos regional, consulte Disponibilidad regional de modelos base.
- El uso del modelo se mide en Unidades de Recursos (RU). Cada unidad equivale a 1000 fichas de la entrada que se envía al modelo de la fundación. Para más información, consulte Detalles de facturación de los activos de IA generativa.
Modelos de reranker
Los modelos de reordenación son modelos de codificación cruzada que se utilizan para ordenar los pasajes de mayor a menor relevancia para una consulta. A diferencia de los modelos bicodificadores, los modelos de codificación cruzada procesan conjuntamente un pasaje y una consulta, y generan una puntuación para la similitud de las dos entradas. El modelo repite este paso de comparación de similitudes para cada pasaje que incluya. Este método es una mejor opción cuando tiene un conjunto más pequeño de pasajes para puntuar y desea encontrar la mejor respuesta.
Los modelos reranker disponibles en watsonx.ai no pueden utilizarse para generar incrustaciones de texto.
El siguiente modelo reranker se puede utilizar desde la API en watsonx.ai:
Para obtener una lista de los modelos de reranker disponibles, utilice el método List the available foundation models de la API watsonx.ai as a service. Especifique el parámetro ' filters=function_rerank
' para devolver sólo los modelos de reranker disponibles.
curl -X GET \
'https://{region}/ml/v1/foundation_model_specs?version=2024-07-25&filters=function_rerank'
Modelos de rederanqueo
La siguiente tabla enumera los modelos de reevaluación que puede utilizar en watsonx.ai:
Nombre de modelo | ID de modelo API | Proveedor | PrecioUSD/1,000 fichas) | Número máximo de tokens de entrada | Más información |
---|---|---|---|---|---|
ms-marco-minilm-l-12-v2 | cross-encoder/ms-marco-minilm-l-12-v2 |
Microsoft | $0.000005 | 512 | - Modelo de tarjeta |
- Para obtener una lista de los modelos que se proporcionan en cada centro de datos regional, consulte Disponibilidad regional de modelos base.
- El uso del modelo se mide en Unidades de Recursos (RU). Cada unidad equivale a 1000 fichas de la entrada que se envía al modelo de la fundación. Para más información, consulte Detalles de facturación de los activos de IA generativa.
Detalles del modelo sólo codificador
Puede utilizar la biblioteca Python watsonx.ai o la API REST para enviar frases o pasajes a uno de los modelos de base de codificador único compatibles.
all-minilm-l6-v2
El modelo de incrustación de la tecnología de reconocimiento de voz ( all-minilm-l6-v2 ) ha sido creado por la comunidad de procesamiento del lenguaje natural (NLP) y visión por ordenador (CV) de código abierto y lo proporciona Hugging Face. Utilice el modelo como un codificador de frases y párrafos cortos. Dado un texto de entrada, el modelo genera un vector que captura la información semántica del texto.
El modelo de incrustación " all-minilm-l6-v2 " es similar al modelo de incrustación " all-minilm-l12-v2 ", salvo que el modelo " all-minilm-l6-v2 " tiene seis capas de incrustación en lugar de las doce capas del modelo " all-minilm-l12-v2 ".
Utilización: Utilice los vectores de frases generados por el modelo de incrustación all-minilm-l6-v2 para tareas como la recuperación de información, la agrupación y la detección de similitudes entre frases.
Nivel de precios API: Clase C1. Para más información sobre precios, véase el cuadro 3.
Número de dimensiones: 384
Límites de señal de entrada: 256
Idiomas naturales soportados: Inglés
Información sobre el ajuste: Este modelo de incrustación es una versión del modelo MiniLM-L6-H384-uncased de Microsoft previamente entrenado y ajustado en un conjunto de datos que contiene mil millones de pares de frases.
Arquitectura de modelo: sólo codificador
Licencia: Apache 2.0 license
Más información
all-minilm-l12-v2
El modelo de incrustación de la tecnología de reconocimiento de voz ( all-minilm-l12-v2 ) ha sido creado por la comunidad de procesamiento del lenguaje natural (NLP) y visión por ordenador (CV) de código abierto y lo proporciona Hugging Face. Utilice el modelo como un codificador de frases y párrafos cortos. Dado un texto de entrada, genera un vector que captura la información semántica del texto.
El modelo de incrustación " all-minilm-l12-v2 " es similar al modelo de incrustación " all-minilm-l6-v2 ", salvo que el modelo " all-minilm-l12-v2 " tiene doce capas de incrustación en lugar de las seis capas del modelo " all-minilm-l6-v2 ".
Uso: Utiliza los vectores de frases que genera el modelo de incrustación all-minilm-l12-v2 para tareas como la recuperación de información, la agrupación y para detectar la similitud de las frases.
Nivel de precios API: Clase C1. Para más información sobre precios, véase el cuadro 3.
Número de dimensiones: 384
Límites de señal de entrada: 256
Idiomas naturales soportados: Inglés
Información de ajuste preciso: este modelo de inclusión es una versión del modelo MiniLM-L12-H384-uncased preentrenado de Microsoft que se ajusta con pares de frases de más de 1.000 millones de frases.
Arquitectura de modelo: sólo codificador
Licencia: Apache 2.0 license
Más información
granite-embedding-107m-multilingual
El modelo granite-embedding-107m-multilingual es un modelo de 107 millones de parámetros del paquete Granite Embeddings proporcionado por IBM. El modelo puede utilizarse para generar incrustaciones de texto de alta calidad. El modelo se entrena utilizando una combinación de conjuntos de datos de pares de relevancia de código abierto con licencias permisivas y favorables a las empresas, y conjuntos de datos generados y recopilados por IBM. Es compatible con 12 idiomas: Inglés, alemán, español, francés, japonés, portugués, árabe, checo, italiano, coreano, holandés y chino.
Utilización : Utilice el modelo granite-embedding-107m-multilingual para producir una incrustación para una entrada dada, como una consulta, un pasaje o un documento. El modelo se entrena para maximizar la similitud coseno entre dos textos de entrada.
Nivel de precios API: Clase C1. Para más información sobre precios, véase el cuadro 2.
Número de dimensiones: 384
Límites de señal de entrada: 512
Idiomas naturales admitidos : Inglés, alemán, español, francés, japonés, portugués, árabe, checo, italiano, coreano, neerlandés y chino
Información de ajuste : El modelo granite-embedding-107m-multilingual es una versión del modelo XLM RoBERTa, que es una versión multilingüe de RoBERTa preentrenada en 2.5 TB de datos CommonCrawl filtrados. El modelo se entrenó continuamente en una mezcla de conjuntos de datos multilingües para tareas basadas en la recuperación.
Arquitectura de modelo: sólo codificador
Licencia: Apache 2.0 license
Más información
granite-embedding-278m-multilingual
El modelo granite-embedding-278m-multilingual es un modelo de 278 millones de parámetros del paquete Granite Embeddings proporcionado por IBM. El modelo puede utilizarse para generar incrustaciones de texto de alta calidad. El modelo se entrena utilizando una combinación de conjuntos de datos de pares de relevancia de código abierto con licencias permisivas y favorables a las empresas, y conjuntos de datos generados y recopilados por IBM. Es compatible con 12 idiomas: Inglés, alemán, español, francés, japonés, portugués, árabe, checo, italiano, coreano, holandés y chino.
Utilización : Utilice el modelo granite-embedding-278m-multilingual para producir una incrustación para una entrada dada, como una consulta, un pasaje o un documento. El modelo se entrena para maximizar la similitud coseno entre dos textos de entrada.
Nivel de precios API: Clase C1. Para más información sobre precios, véase el cuadro 2.
Número de dimensiones: 384
Límites de señal de entrada: 512
Idiomas naturales admitidos : Inglés, alemán, español, francés, japonés, portugués, árabe, checo, italiano, coreano, neerlandés y chino
Información de ajuste : El modelo granite-embedding-107m-multilingual es una versión del modelo XLM RoBERTa, que es una versión multilingüe de RoBERTa preentrenada en 2.5 TB de datos CommonCrawl filtrados. El modelo se entrenó continuamente en una mezcla de conjuntos de datos multilingües para tareas basadas en la recuperación.
Arquitectura de modelo: sólo codificador
Licencia: Apache 2.0 license
Más información
ms-marco-minilm-l-12-v2
El modelo de reordenación de palabras clave ( ms-marco-minilm-l-12-v2 ) ha sido creado por Microsoft y lo proporciona Hugging Face. Utiliza el modelo como rastreador de pasajes y documentos. Dado un texto de consulta y un conjunto de pasajes de documentos, ordena la lista de pasajes de mayor a menor relación con la consulta.
Utilización: Utilice el modelo reranker ms-marco-minilm-l-12-v2 cuando disponga de un pequeño conjunto de pasajes que desee puntuar frente a una consulta y la precisión sea esencial. Por ejemplo, cuando tiene menos de 100 pasajes y desea puntuarlos en función de su similitud con el texto de la consulta.
Nivel de precios API: Clase 11. Para más información sobre precios, véase el cuadro 4.
Límites de señal de entrada: 512
Idiomas naturales soportados: Inglés
Información de ajuste: El modelo ms-marco-minilm-l-12-v2 fue entrenado en la tarea MS Marco Passage Ranking. MS MARCO (Microsoft Machine Reading Comprehension) es un conjunto de datos a gran escala que se utiliza para la comprensión lectora automática, la respuesta a preguntas y la clasificación de pasajes.
Arquitectura de modelo: sólo codificador
Licencia: Apache 2.0 license
Más información
multilingual-e5-large
El modelo de incrustación de ventanas emergentes ( multilingual-e5-large ) ha sido creado por Microsoft y es proporcionado por Hugging Face.
La arquitectura del modelo de inclusión tiene 24 capas que se utilizan secuencialmente para procesar datos.
Uso: se utiliza para casos de uso en los que desea generar incorporaciones de texto para texto en un idioma distinto del inglés. El modelo multilingual-e5-large es útil para tareas como la recuperación de pasajes o información, la similitud semántica, la minería de bitext y la recuperación de paráfrasis.
Nivel de precios API: Clase C1. Para más información sobre precios, véase el cuadro 3.
Número de dimensiones: 1,024
Límites de señal de entrada: 512
Lenguajes naturales soportados: hasta 100 idiomas. Consulte la tarjeta modelo para obtener más detalles.
Información de ajuste : El modelo multilingual-e5-large es una versión del modelo XLM RoBERTa, que es una versión multilingüe de RoBERTa preentrenada en 2.5 TB de datos CommonCrawl filtrados. El modelo se entrenó continuamente con una mezcla de conjuntos de datos multilingües.
Arquitectura de modelo: sólo codificador
Licencia: Código de conducta de código abierto de Microsoft
Más información
slate-125m-english-rtrvr
Los modelos de base slate-125m-english-rtrvr-v2 y slate-125m-english-rtrvr son proporcionados por IBM. Los modelos de incrustación IBM Slate 125m generan incrustaciones para diversas entradas, como consultas, pasajes o documentos.
El objetivo de entrenamiento es maximizar la similitud de coseno entre una consulta y un pasaje. Este proceso produce dos incrustaciones de frase, una que representa la pregunta y otra que representa el pasaje, permitiendo la comparación de los dos a través de la similitud coseno.
Uso: De dos a tres veces más lento pero rinde ligeramente mejor que el modelo de incrustación IBM Slate 30m.
Nivel de precios API: Clase C1. Para más información sobre precios, véase el cuadro 2.
Número de dimensiones: 768
Límites de señal de entrada: 512
Idiomas naturales soportados: Inglés
Información de ajuste preciso: esta versión del modelo se ha ajustado para ser mejor en las tareas basadas en la recuperación de sentencias.
Arquitectura de modelo: sólo codificador
Licencia: Condiciones de uso
Más información
slate-30m-english-rtrvr
Los modelos de base slate-30m-english-rtrvr-v2 y slate-30m-english-rtrvr son versiones destiladas del slate-125m-english-rtrvr, todos ellos proporcionados por IBM. El modelo de incrustación IBM Slate se entrena para maximizar la similitud del coseno entre dos entradas de texto, de modo que las incrustaciones puedan evaluarse posteriormente en función de la similitud.
La arquitectura del modelo de inclusión tiene 6 capas que se utilizan secuencialmente para procesar datos.
Uso: De dos a tres veces más rápido y tiene puntuaciones de rendimiento ligeramente inferiores al modelo de incrustación IBM Slate 125m.
Nivel de precios API: Clase C1. Para más información sobre precios, véase el cuadro 2.
Pruébelo: Utilización de texto vectorizado con tareas de generación aumentadas de recuperación
Número de dimensiones: 384
Límites de señal de entrada: 512
Idiomas naturales soportados: Inglés
Información de ajuste preciso: esta versión del modelo se ha ajustado para ser mejor en las tareas basadas en la recuperación de sentencias.
Arquitectura de modelo: sólo codificador
Licencia: Condiciones de uso
Más información
Más información
- Para obtener más información sobre el uso de modelos de incrustación de texto ( IBM ) para convertir oraciones y pasajes en incrustaciones de texto, consulte Generación de incrustaciones de texto.
- Añadir documentos vectorizados
- Pasajes de reagrupación utilizando la API
Tema principal: Modelos de fundaciones subvencionadas