Volver a la versión inglesa de la documentaciónCodificación de soluciones de IA generativas
Codificación de soluciones de IA generativas
Última actualización: 12 dic 2024
IBM watsonx.ai tiene API REST que dan soporte a tareas programáticas para trabajar con modelos base. Estas API se ejercen en una biblioteca Python y un paquete Node.js que puede utilizar para aprovechar los modelos base en las aplicaciones de IA generativas.
Para encontrar más recursos que pueden ayudarle con las tareas de codificación, incluidos ejemplos de código y comunidades en las que puede debatir consejos y trucos y encontrar respuestas a preguntas habituales, vaya al Centro de Desarrolladores dewatsonx.
Tareas que puede realizar mediante programación
Puede utilizar la API REST watsonx.ai , la biblioteca Python o el SDK Node.js para realizar las tareas siguientes mediante programación:
Tarea | Python | Node.js | API REST |
---|---|---|---|
Obtener detalles sobre los modelos de base disponibles | Obtener las especificaciones del modelo | Ejemplo | Enumere los modelos de base compatibles |
Comprobar las señales que calcula un modelo para una solicitud | Tokenizar modelos de base integrados | Ejemplo | Tokenización de texto |
Obtener una lista de los modelos de cimientos personalizados disponibles | Modelos personalizados | Recupere las implementaciones Utilice el parámetro type=custom_foundation_model . |
|
Inferencia de un foundation model | Generar texto | Ejemplo | Generación de texto |
Inferencia de un foundation model despliegue bajo demanda | Generar texto | Inferir texto | |
Configurar los guardarraíles de IA al inferir un foundation model | Eliminación de contenidos nocivos | Utilice el campo " moderations " para aplicar filtros a la entrada y salida foundation model. Ver texto de inferencia |
|
Chatea con un foundation model | ModelInference.chat() | Ejemplo | Inferir texto |
Llamada de herramientas desde el chat | ModelInference.chat() | Inferir texto | |
Puesta a punto de un foundation model | Consulte la documentación | Ejemplo | Consulte la documentación |
Inferencia un foundation model afinado | Generar texto | Ejemplo | Inferir texto |
Lista de todas las plantillas de avisos | Lista de todas las plantillas de indicaciones | Obtenga una plantilla de aviso | |
Lista de plantillas desplegadas | Lista de plantillas de indicaciones implementadas | Enumere las implementaciones (tipo=prompt_template) | |
Inferencia de un foundation model mediante una plantilla de consulta | Administrador de plantillas de indicaciones | Ejemplo | Inferir texto |
Vectorizar texto | Incrustar documentos | Ejemplo | Incrustación de texto |
Extraer texto de documentos | Extracciones de texto | extracción de texto | |
Volver a clasificar los pasajes de los documentos | Reordenar | Generar rerank | |
Previsión de valores futuros | TSModelInference | Pronóstico de series temporales | |
Integrar con LangChain | Extensión IBM en LangChain | - Chat API - Modelos Foundation - Modelos Embedding |
|
Integrar con LlamaIndex | • IBM LLM en LlamaIndex • Integraciones IBM en LlamaIndex |
Más información
- Credenciales para acceso programático
- Buscar el ID de proyecto
- ID de modelo de fundación
- Biblioteca dePython
- SDK Node.js
- API REST
- Vectorizar texto
- Nueva clasificación de los pasajes de los documentos
- Extraer texto de documentos
- Añadir la función de chat generativo a sus aplicaciones con la API de chat
- Creación de flujos de trabajo basados en agentes con la API de chat
- Previsión de valores futuros
Tema principal: Desarrollo de soluciones de IA generativas