0 / 0
Volver a la versión inglesa de la documentación
Prompt Lab

Prompt Lab

En Prompt Lab en IBM watsonx.ai, puede experimentar con la solicitud de diferentes modelos de base, explorar solicitudes de ejemplo y guardar y compartir sus mejores solicitudes.

Puede utilizar Prompt Lab para diseñar solicitudes efectivas que envíe a los modelos de base desplegados para la inferencia. No utilice Prompt Lab para crear nuevos modelos base.

Este vídeo proporciona un método visual para aprender los conceptos y tareas de esta documentación.

Requisitos

Si se ha registrado en watsonx.ai y tiene un proyecto de recinto de seguridad, se cumplen todos los requisitos y está listo para utilizar Prompt Lab.

Debe cumplir estos requisitos para utilizar Prompt Lab:

  • Debe tener un proyecto.
  • Debe tener el rol de Editor o de Administrador en el proyecto.
  • El proyecto debe tener una instancia de servicio de Watson Machine Learning asociada. De lo contrario, es posible que se le solicite que asocie el servicio cuando abra Prompt Lab.

Creación y ejecución de una solicitud

Para crear y ejecutar una solicitud nueva, realice los pasos siguientes:

  1. Desde elwatsonx.ai pagina de inicio , elija un proyecto y luego haga clic en Chatee y cree indicaciones con modelos básicos teja.

  2. Opcional: elija una modalidad de edición diferente en la que trabajar, como por ejemplo Formato libre.

  3. Seleccione un modelo de base.

    Sugerencia: Para ver todos los modelos de base disponibles, elimine los filtros de búsqueda que se apliquen.
  4. Opcional: actualice los parámetros del modelo o añada variables de solicitud.

  5. Especifique una solicitud.

  6. Pulse el icono Enviar Icono Enviar.

    En modalidad Estructurada o Formato libre , pulse Generar.

  7. Puede cancelar una solicitud de inferencia en cualquier momento pulsando el icono Detener Icono Detener.

    Las señales de la entrada se cuentan como señales utilizadas. También se cuentan las señales generadas por el modelo como salida antes de que se cancelara la solicitud.

  8. Para conservar el trabajo de modo que pueda reutilizar o compartir una solicitud con colaboradores en el proyecto actual, guarde el trabajo como un activo de proyecto. Para obtener más información, consulte Guardar solicitudes.

Para ejecutar una solicitud de ejemplo, realice los pasos siguientes:

  1. En el menú Solicitudes de ejemplo de Prompt Lab, seleccione una solicitud de ejemplo.

    La solicitud se abre en el editor y se selecciona un modelo adecuado.

  2. Pulse Generar.

Opciones de edición de solicitud

Escriba la solicitud en el editor de solicitudes. El editor de solicitudes tiene las siguientes modalidades de edición:

Modo de conversación

Puede chatear con el modelo de base para ver cómo maneja el modelo las tareas de diálogo o de respuesta a preguntas.

Inicie la conversación enviando una consulta o solicitud para que responda el modelo de base. De forma alternativa, puede pulsar un ejemplo de inicio rápido para enviarlo al modelo. Las muestras de inicio rápido se envían al modelo de fundación Llama. Si desea trabajar con un modelo de base diferente, añada su propio texto de solicitud.

Cada turno posterior de la conversación se basa en la información que se ha intercambiado anteriormente.

Nota:No puede realizar cambios mientras haya una conversación en curso. Pulse Borrar conversación icono Borrar icono de conversación para detener y realizar cambios.

Antes de iniciar un chat, revise y ajuste la elección del modelo y la configuración de los parámetros. Para dar soporte a intercambios de diálogo largos, el parámetro Número máximo de señales se establece en un valor predeterminado alto. Es posible que desee añadir una secuencia de detención para evitar que el modelo genere salidas de trabajo, por ejemplo.

Plantillas de chat

El texto predefinido denominado solicitud del sistema se incluye al inicio de la conversación para establecer reglas básicas para la conversación. Para revisar y personalizar el texto, haga clic en el icono Editar aviso del sistema Editar solicitud del sistema.

Algunos modelos base recomiendan plantillas específicas que identifican diferentes segmentos de la solicitud, como por ejemplo la instrucción de solicitud y la entrada de usuario. El modo de conversación ajusta la sintaxis de la entrada de solicitud para que se ajuste al formato recomendado de cada modelo de base. Puede hacer clic en el icono Ver texto de aviso completo Ver texto de solicitud completo para ver el texto de aviso completo que se enviará al modelo de cimentación.

Indicaciones de conexión a tierra en hechos

Para ayudar al modelo de base a devolver la salida de hechos, añada documentos con información relevante a la solicitud. Haga clic en el icono Cargar documentos Icono de carga de documentos y, a continuación, seleccione Añadir documentos. Para obtener más información, consulte Preguntas del modelo de cimentación en información contextual.

También puedes agregar datos relevantes de un almacén de vectores de terceros. Haga clic en el icono Preparación con documentos Toma de tierra con icono de documentos al principio de la página y, a continuación, seleccione el índice vectorial. Para más información, ver Agregar datos básicos para modelos de IA generativa .

Funciones omitidas en el modo chat.

Las características siguientes se omiten del modo de conversación:

  • El recuento de uso de señal no se muestra en modalidad de conversación.

    Tenga en cuenta que el historial de conversaciones se envía con cada nueva solicitud que envíe, lo que contribuye al recuento global de señales.

    Puede comprobar el recuento de señales utilizando la API. Haga clic en el icono Ver texto completo Ver texto de solicitud completo para abrir y copiar el texto completo y, a continuación, utilice el método Tokenización de texto para contar los tokens.

  • No puede definir variables de solicitud en modalidad de conversación. Como consecuencia, no puede controlar las plantillas de solicitud de conversación guardadas.

Vea este vídeo que muestra el modo Chat en Prompt Lab.

Este vídeo proporciona un método visual para aprender los conceptos y tareas de esta documentación.

Modalidad estructurada

El modo estructurado está diseñado para ayudar a los nuevos usuarios a crear solicitudes eficaces. El texto de los campos se envía al modelo en un formato de plantilla.

Añada partes de la solicitud en los campos adecuados:

  • Instrucción: añada una instrucción si tiene sentido para su caso de uso. Una instrucción es una declaración imperativa, como por ejemplo Resuma el artículo siguiente.

  • Ejemplos: añada uno o más pares de ejemplos que contengan la entrada y la salida correspondiente que desee. Proporcionar algunos pares de entrada y salida de ejemplo en la solicitud se denomina solicitud de pocas puntuaciones.

    Si necesita un prefijo específico para la entrada o la salida, puede sustituir las etiquetas predeterminadas, "Entrada:" o "Salida:", por las etiquetas que desea utilizar. Por ejemplo, puede sustituir las etiquetas predeterminadas por etiquetas personalizadas que se utilizaron en los datos de entrenamiento cuando se ajustó un modelo de base.

    Se añade un espacio entre la etiqueta de ejemplo y el texto de ejemplo.

  • Probar la entrada: en el área Intentar , especifique la entrada final de la solicitud.

Modalidad de formato libre

Añada la solicitud en texto sin formato. El texto de solicitud se envía al modelo exactamente como lo ha escrito.

El modo de formato libre es una buena opción cuando desea enviar una entrada estructurada y saber cómo dar formato a la solicitud.

Opciones de configuración de modelo y solicitud

Debe especificar qué modelo se debe solicitar y, opcionalmente, puede establecer parámetros que controlen el resultado generado.

Opciones de modelo

En Prompt Lab, puede enviar la solicitud a cualquiera de los modelos soportados por watsonx.ai. Puede elegir modelos utilizados recientemente en la lista desplegable. O bien, puede pulsar Ver todos los modelos base para ver todos los modelos soportados, filtrarlos por tarea y leer información de alto nivel sobre los modelos.

Si ha ajustado un modelo de base mediante Tuning Studio y ha desplegado el modelo ajustado o ha desplegado un modelo de base personalizado, el modelo ajustado o personalizado también estará disponible para realizar consultas desde el Laboratorio de consultas.

Parámetros del modelo

Para controlar cómo genera el modelo la salida en respuesta a la solicitud, puede especificar parámetros de decodificación y criterios de detención. Para obtener más información, consulte Parámetros de modelo para solicitar.

Variables de solicitud

Para añadir flexibilidad a las solicitudes, puede definir variables de solicitud. Una variable de solicitud es una palabra clave de marcador que se incluye en el texto estático de la solicitud en el momento de la creación y se sustituye por texto dinámicamente en el tiempo de ejecución. Para obtener más información, consulte Creación de solicitudes reutilizables.

Ver texto de solicitud completo

Es posible que desee ver el texto de solicitud completo que se enviará al modelo de base en las situaciones siguientes:

  • Cuando las variables de solicitud están en uso, para ver los valores de variable resueltos en contexto.
  • En modalidad de conversación, donde los formatos de solicitud recomendados para diferentes modelos de base se aplican automáticamente.
  • En modalidad estructurada, donde se añaden partes de la solicitud en campos separados.

Límites de seguridad de IA

Cuando se establece el conmutador Guardaraíles de AI en Activado, el lenguaje dañino se elimina automáticamente del texto de solicitud de entrada y de la salida generada por el modelo. En concreto, cualquier frase de la entrada o salida que contenga un lenguaje dañino se sustituye por un mensaje que dice que se ha eliminado un texto potencialmente dañino.

Nota:Esta característica solo está soportada para modelos en inglés. Si está trabajando con un modelo de base no inglés, inhabilite Guardaraíles de IA.

Para obtener más información, consulte Eliminación de contenido dañino.

Código de solicitud

Si desea ejecutar la solicitud mediante programación, puede ver y copiar el código de solicitud o utilizar la biblioteca Python .

Ver código

Al hacer clic en el icono Ver código Ver código, se muestra un comando cURL que puede llamar desde fuera del Laboratorio de avisos para enviar el aviso y los parámetros actuales al modelo seleccionado y obtener una respuesta generada.

El comando incluye un marcador de posición para unIBM Cloud Ficha IAM. Para obtener información sobre cómo generar el token de acceso, consulte Generación de un token de IBM Cloud IAM.

Alternativa programática a Prompt Lab

La interfaz gráfica de Prompt Lab es un gran lugar para experimentar e iterar con sus solicitudes. Sin embargo, también puede solicitar modelos de base en watsonx.ai mediante programación utilizando la biblioteca Python o la API REST. Para obtener más detalles, consulte Coding generative AI solutions.

Solicitudes disponibles

En el panel lateral, puede acceder a las solicitudes de ejemplo, al historial de sesiones y a las solicitudes guardadas.

Ejemplos

Hay disponible una colección de solicitudes de ejemplo en Prompt Lab. Los ejemplos muestran los parámetros de modelo y texto de solicitud efectivos para diferentes tareas, incluyendo clasificación, extracción, generación de contenido, respuesta a preguntas y resumen.

Cuando pulsa una muestra, el texto de solicitud se carga en el editor, se selecciona un modelo adecuado y los parámetros óptimos se configuran automáticamente.

Historial

A medida que experimenta con diferentes texto de solicitud, opciones de modelo y parámetros, los detalles se capturan en el historial de sesiones cada vez que envía la solicitud. Para cargar una solicitud anterior, pulse la entrada en el historial y, a continuación, pulse Restaurar.

Guardado

En el menú Plantillas de solicitud guardadas , puede cargar las solicitudes que haya guardado en el proyecto actual como un activo de plantilla de solicitud.

Cuando se suministra watsonx.governance , si la plantilla de solicitud incluye al menos una variable de solicitud, puede evaluar la eficacia de las respuestas del modelo. Para obtener más información, consulte Evaluación de plantillas de solicitud en proyectos.

Más información


Tema principal: Desarrollo de soluciones de IA generativas

Búsqueda y respuesta de IA generativa
Estas respuestas las genera un modelo de lenguaje grande en watsonx.ai que se basa en el contenido de la documentación del producto. Más información