Prompt Lab
En Prompt Lab en IBM watsonx.ai, puede experimentar con la solicitud de diferentes modelos de base, explorar solicitudes de ejemplo y guardar y compartir sus mejores solicitudes.
Puede utilizar Prompt Lab para diseñar solicitudes efectivas que envíe a los modelos de base desplegados para la inferencia. No utilice Prompt Lab para crear nuevos modelos base.
Este vídeo proporciona un método visual para aprender los conceptos y tareas de esta documentación.
Requisitos
Si se ha registrado en watsonx.ai y tiene un proyecto de recinto de seguridad, se cumplen todos los requisitos y está listo para utilizar Prompt Lab.
Debe cumplir estos requisitos para utilizar Prompt Lab:
- Debe tener un proyecto.
- Debe tener el rol de Editor o de Administrador en el proyecto.
- El proyecto debe tener una instancia de servicio de Watson Machine Learning asociada. De lo contrario, es posible que se le solicite que asocie el servicio cuando abra Prompt Lab.
Creación y ejecución de una solicitud
Para crear y ejecutar una solicitud nueva, realice los pasos siguientes:
Desde elwatsonx.ai pagina de inicio , elija un proyecto y luego haga clic en Chatee y cree indicaciones con modelos básicos teja.
Opcional: elija una modalidad de edición diferente en la que trabajar, como por ejemplo Formato libre.
Seleccione un modelo de base.
Sugerencia: Para ver todos los modelos de base disponibles, elimine los filtros de búsqueda que se apliquen.Opcional: actualice los parámetros del modelo o añada variables de solicitud.
Especifique una solicitud.
Pulse el icono Enviar .
En modalidad Estructurada o Formato libre , pulse Generar.
Puede cancelar una solicitud de inferencia en cualquier momento pulsando el icono Detener .
Las señales de la entrada se cuentan como señales utilizadas. También se cuentan las señales generadas por el modelo como salida antes de que se cancelara la solicitud.
Para conservar el trabajo de modo que pueda reutilizar o compartir una solicitud con colaboradores en el proyecto actual, guarde el trabajo como un activo de proyecto. Para obtener más información, consulte Guardar solicitudes.
Para ejecutar una solicitud de ejemplo, realice los pasos siguientes:
En el menú Solicitudes de ejemplo de Prompt Lab, seleccione una solicitud de ejemplo.
La solicitud se abre en el editor y se selecciona un modelo adecuado.
Pulse Generar.
Opciones de edición de solicitud
Escriba la solicitud en el editor de solicitudes. El editor de solicitudes tiene las siguientes modalidades de edición:
Modo de conversación
Puede chatear con el modelo de base para ver cómo maneja el modelo las tareas de diálogo o de respuesta a preguntas.
Inicie la conversación enviando una consulta o solicitud para que responda el modelo de base. De forma alternativa, puede pulsar un ejemplo de inicio rápido para enviarlo al modelo. Las muestras de inicio rápido se envían al modelo de fundación Llama. Si desea trabajar con un modelo de base diferente, añada su propio texto de solicitud.
Cada turno posterior de la conversación se basa en la información que se ha intercambiado anteriormente.
Antes de iniciar un chat, revise y ajuste la elección del modelo y la configuración de los parámetros. Para dar soporte a intercambios de diálogo largos, el parámetro Número máximo de señales se establece en un valor predeterminado alto. Es posible que desee añadir una secuencia de detención para evitar que el modelo genere salidas de trabajo, por ejemplo.
Plantillas de chat
El texto predefinido denominado solicitud del sistema se incluye al inicio de la conversación para establecer reglas básicas para la conversación. Para revisar y personalizar el texto, haga clic en el icono Editar aviso del sistema .
Algunos modelos base recomiendan plantillas específicas que identifican diferentes segmentos de la solicitud, como por ejemplo la instrucción de solicitud y la entrada de usuario. El modo de conversación ajusta la sintaxis de la entrada de solicitud para que se ajuste al formato recomendado de cada modelo de base. Puede hacer clic en el icono Ver texto de aviso completo para ver el texto de aviso completo que se enviará al modelo de cimentación.
Indicaciones de conexión a tierra en hechos
Para ayudar al modelo de base a devolver la salida de hechos, añada documentos con información relevante a la solicitud. Haga clic en el icono Cargar documentos y, a continuación, seleccione Añadir documentos. Para obtener más información, consulte Preguntas del modelo de cimentación en información contextual.
También puedes agregar datos relevantes de un almacén de vectores de terceros. Haga clic en el icono Preparación con documentos al principio de la página y, a continuación, seleccione el índice vectorial. Para más información, ver Agregar datos básicos para modelos de IA generativa .
Funciones omitidas en el modo chat.
Las características siguientes se omiten del modo de conversación:
El recuento de uso de señal no se muestra en modalidad de conversación.
Tenga en cuenta que el historial de conversaciones se envía con cada nueva solicitud que envíe, lo que contribuye al recuento global de señales.
Puede comprobar el recuento de señales utilizando la API. Haga clic en el icono Ver texto completo para abrir y copiar el texto completo y, a continuación, utilice el método Tokenización de texto para contar los tokens.
No puede definir variables de solicitud en modalidad de conversación. Como consecuencia, no puede controlar las plantillas de solicitud de conversación guardadas.
Vea este vídeo que muestra el modo Chat en Prompt Lab.
Este vídeo proporciona un método visual para aprender los conceptos y tareas de esta documentación.
Modalidad estructurada
El modo estructurado está diseñado para ayudar a los nuevos usuarios a crear solicitudes eficaces. El texto de los campos se envía al modelo en un formato de plantilla.
Añada partes de la solicitud en los campos adecuados:
Instrucción: añada una instrucción si tiene sentido para su caso de uso. Una instrucción es una declaración imperativa, como por ejemplo Resuma el artículo siguiente.
Ejemplos: añada uno o más pares de ejemplos que contengan la entrada y la salida correspondiente que desee. Proporcionar algunos pares de entrada y salida de ejemplo en la solicitud se denomina solicitud de pocas puntuaciones.
Si necesita un prefijo específico para la entrada o la salida, puede sustituir las etiquetas predeterminadas, "Entrada:" o "Salida:", por las etiquetas que desea utilizar. Por ejemplo, puede sustituir las etiquetas predeterminadas por etiquetas personalizadas que se utilizaron en los datos de entrenamiento cuando se ajustó un modelo de base.
Se añade un espacio entre la etiqueta de ejemplo y el texto de ejemplo.
Probar la entrada: en el área Intentar , especifique la entrada final de la solicitud.
Modalidad de formato libre
Añada la solicitud en texto sin formato. El texto de solicitud se envía al modelo exactamente como lo ha escrito.
El modo de formato libre es una buena opción cuando desea enviar una entrada estructurada y saber cómo dar formato a la solicitud.
Opciones de configuración de modelo y solicitud
Debe especificar qué modelo se debe solicitar y, opcionalmente, puede establecer parámetros que controlen el resultado generado.
Opciones de modelo
En Prompt Lab, puede enviar la solicitud a cualquiera de los modelos soportados por watsonx.ai. Puede elegir modelos utilizados recientemente en la lista desplegable. O bien, puede pulsar Ver todos los modelos base para ver todos los modelos soportados, filtrarlos por tarea y leer información de alto nivel sobre los modelos.
Si ha ajustado un modelo de base mediante Tuning Studio y ha desplegado el modelo ajustado o ha desplegado un modelo de base personalizado, el modelo ajustado o personalizado también estará disponible para realizar consultas desde el Laboratorio de consultas.
Parámetros del modelo
Para controlar cómo genera el modelo la salida en respuesta a la solicitud, puede especificar parámetros de decodificación y criterios de detención. Para obtener más información, consulte Parámetros de modelo para solicitar.
Variables de solicitud
Para añadir flexibilidad a las solicitudes, puede definir variables de solicitud. Una variable de solicitud es una palabra clave de marcador que se incluye en el texto estático de la solicitud en el momento de la creación y se sustituye por texto dinámicamente en el tiempo de ejecución. Para obtener más información, consulte Creación de solicitudes reutilizables.
Ver texto de solicitud completo
Es posible que desee ver el texto de solicitud completo que se enviará al modelo de base en las situaciones siguientes:
- Cuando las variables de solicitud están en uso, para ver los valores de variable resueltos en contexto.
- En modalidad de conversación, donde los formatos de solicitud recomendados para diferentes modelos de base se aplican automáticamente.
- En modalidad estructurada, donde se añaden partes de la solicitud en campos separados.
Límites de seguridad de IA
Cuando se establece el conmutador Guardaraíles de AI en Activado, el lenguaje dañino se elimina automáticamente del texto de solicitud de entrada y de la salida generada por el modelo. En concreto, cualquier frase de la entrada o salida que contenga un lenguaje dañino se sustituye por un mensaje que dice que se ha eliminado un texto potencialmente dañino.
Para obtener más información, consulte Eliminación de contenido dañino.
Código de solicitud
Si desea ejecutar la solicitud mediante programación, puede ver y copiar el código de solicitud o utilizar la biblioteca Python .
Ver código
Al hacer clic en el icono Ver código , se muestra un comando cURL que puede llamar desde fuera del Laboratorio de avisos para enviar el aviso y los parámetros actuales al modelo seleccionado y obtener una respuesta generada.
El comando incluye un marcador de posición para unIBM Cloud Ficha IAM. Para obtener información sobre cómo generar el token de acceso, consulte Generación de un token de IBM Cloud IAM.
Alternativa programática a Prompt Lab
La interfaz gráfica de Prompt Lab es un gran lugar para experimentar e iterar con sus solicitudes. Sin embargo, también puede solicitar modelos de base en watsonx.ai mediante programación utilizando la biblioteca Python o la API REST. Para obtener más detalles, consulte Coding generative AI solutions.
Solicitudes disponibles
En el panel lateral, puede acceder a las solicitudes de ejemplo, al historial de sesiones y a las solicitudes guardadas.
Ejemplos
Hay disponible una colección de solicitudes de ejemplo en Prompt Lab. Los ejemplos muestran los parámetros de modelo y texto de solicitud efectivos para diferentes tareas, incluyendo clasificación, extracción, generación de contenido, respuesta a preguntas y resumen.
Cuando pulsa una muestra, el texto de solicitud se carga en el editor, se selecciona un modelo adecuado y los parámetros óptimos se configuran automáticamente.
Historial
A medida que experimenta con diferentes texto de solicitud, opciones de modelo y parámetros, los detalles se capturan en el historial de sesiones cada vez que envía la solicitud. Para cargar una solicitud anterior, pulse la entrada en el historial y, a continuación, pulse Restaurar.
Guardado
En el menú Plantillas de solicitud guardadas , puede cargar las solicitudes que haya guardado en el proyecto actual como un activo de plantilla de solicitud.
Cuando se suministra watsonx.governance , si la plantilla de solicitud incluye al menos una variable de solicitud, puede evaluar la eficacia de las respuestas del modelo. Para obtener más información, consulte Evaluación de plantillas de solicitud en proyectos.
Más información
Pruebe estas guías de aprendizaje:
Vea estos otros vídeos de laboratorio de solicitud:
Tema principal: Desarrollo de soluciones de IA generativas