Utiliza el Generador de frases de Tiffany ( Prompt Lab ) en IBM watsonx.ai para experimentar con diferentes modelos de frases de base, explorar muestras de frases y guardar y compartir tus mejores frases.
Primeros pasos con Prompt Lab
Copy link to section
Si te registraste en watsonx.ai y tienes un proyecto sandbox, todos los requisitos están cumplidos y estás listo para usar el Prompt Lab.
Debe cumplir los siguientes requisitos para utilizar el Prompt Lab :
Debe tener un proyecto.
El proyecto debe tener asociada una instancia del servicio watsonx.ai Runtime. De lo contrario, es posible que se le pida que asocie el servicio cuando abra el Prompt Lab.
Permisos necesarios
Para ejecutar mensajes, debe tener el rol de administrador o editor en un proyecto.
En el Prompt Lab se diseñan instrucciones eficaces que se envían a modelos de fundamentos desplegados para la inferencia. No se utiliza el Prompt Lab para crear nuevos modelos de cimientos.
Este vídeo proporciona un método visual para aprender los conceptos y tareas de esta documentación.
Creación y ejecución de una solicitud
Copy link to section
Para crear y ejecutar una solicitud nueva, realice los pasos siguientes:
En la página de inicio dewatsonx.ai, elija un proyecto y, a continuación, haga clic en el mosaico Nuevo activo > Chat y mensajes de construcción con modelos de cimentación.
Opcional: elija una modalidad de edición diferente en la que trabajar, como por ejemplo Formato libre.
Selecciona un modelo de base.
Sugerencia: Para ver todos los modelos de base disponibles, elimine los filtros de búsqueda que se apliquen.
Opcional: actualice los parámetros del modelo o añada variables de solicitud.
Especifique una solicitud.
Haga clic en el icono Enviar.
En modalidad Estructurada o Formato libre , pulse Generar.
Puede cancelar una solicitud de inferencia en cualquier momento haciendo clic en el icono Detener.
Las señales de la entrada se cuentan como señales utilizadas. También se cuentan las señales generadas por el modelo como salida antes de que se cancelara la solicitud.
Para conservar el trabajo de modo que pueda reutilizar o compartir una solicitud con colaboradores en el proyecto actual, guarde el trabajo como un activo de proyecto. Para obtener más información, consulte Guardar solicitudes.
Para ejecutar una solicitud de ejemplo, realice los pasos siguientes:
En el menú Mensajes de muestra del Prompt Lab, seleccione un mensaje de muestra.
La solicitud se abre en el editor y se selecciona un modelo adecuado.
Pulse Generar.
Opciones de edición de solicitud
Copy link to section
Escriba la solicitud en el editor de solicitudes. El editor de solicitudes tiene las siguientes modalidades de edición:
Puede chatear con la modelo de la fundación para ver cómo maneja las tareas de diálogo o de preguntas y respuestas.
Inicie el chat enviando una consulta o solicitud para que la modelo de la fundación responda. De forma alternativa, puede pulsar un ejemplo de inicio rápido para enviarlo al modelo. Se envían muestras de inicio rápido al modelo de la fundación Llama. Si desea trabajar con un modelo de base diferente, añada su propio texto de aviso.
Cada turno posterior de la conversación se basa en la información que se ha intercambiado anteriormente.
Nota:No puede realizar cambios mientras haya una conversación en curso. Haga clic en el icono Borrar chat para detenerlo y realizar cambios.
Antes de iniciar un chat, revise y ajuste la elección del modelo y la configuración de los parámetros. Para dar soporte a intercambios de diálogo largos, el parámetro Número máximo de señales se establece en un valor predeterminado alto. Es posible que desee añadir una secuencia de detención para evitar que el modelo genere salidas de trabajo, por ejemplo.
Plantillas de chat
Copy link to section
El texto predefinido denominado solicitud del sistema se incluye al inicio de la conversación para establecer reglas básicas para la conversación. Para revisar y personalizar el texto, haga clic en el icono de edición del sistema.
Algunos modelos base recomiendan plantillas específicas que identifican diferentes segmentos de la solicitud, como por ejemplo la instrucción de solicitud y la entrada de usuario. El modo de chat ajusta la sintaxis de su entrada de comandos para ajustarse al formato recomendado por cada modelo de fundación. Puede hacer clic en el icono Ver texto completo del mensaje para ver el texto completo del mensaje que se enviará al modelo de la fundación.
Indicaciones de conexión a tierra en hechos
Copy link to section
Para ayudar al modelo de la fundación a devolver resultados fácticos, agregue documentos con información relevante a la solicitud. Haga clic en el icono Cargar documentos y, a continuación, seleccione Añadir documentos. Para más información, consulta Chatear con documentos e imágenes.
Las características siguientes se omiten del modo de conversación:
El recuento de uso de señal no se muestra en modalidad de conversación.
Tenga en cuenta que el historial de conversaciones se envía con cada nueva solicitud que envíe, lo que contribuye al recuento global de señales.
Puede comprobar el recuento de señales utilizando la API. Haga clic en el icono Ver texto completo del mensaje para abrir y copiar el texto completo del mensaje y, a continuación, utilice el método de tokenización de texto para contar los tokens.
No puede definir variables de solicitud en modalidad de conversación. Como consecuencia, no puede controlar las plantillas de solicitud de conversación guardadas.
Vea este vídeo que muestra el modo Chat en el Prompt Lab.
Este vídeo proporciona un método visual para aprender los conceptos y tareas de esta documentación.
Modalidad estructurada
Copy link to section
El modo estructurado está diseñado para ayudar a los nuevos usuarios a crear solicitudes eficaces. El texto de los campos se envía al modelo en un formato de plantilla.
Añada partes de la solicitud en los campos adecuados:
Instrucción: añada una instrucción si tiene sentido para su caso de uso. Una instrucción es una declaración imperativa, como por ejemplo Resuma el artículo siguiente.
Ejemplos: añada uno o más pares de ejemplos que contengan la entrada y la salida correspondiente que desee. Proporcionar algunos pares de entrada y salida de ejemplo en la solicitud se denomina solicitud de pocas puntuaciones.
Si necesita un prefijo específico para la entrada o la salida, puede sustituir las etiquetas predeterminadas, "Entrada:" o "Salida:", por las etiquetas que desea utilizar. Por ejemplo, puede reemplazar las etiquetas predeterminadas por etiquetas personalizadas que se utilizaron en los datos de entrenamiento cuando se ajustó un modelo de base.
Se añade un espacio entre la etiqueta de ejemplo y el texto de ejemplo.
Probar la entrada: en el área Intentar , especifique la entrada final de la solicitud.
Modalidad de formato libre
Copy link to section
Añada la solicitud en texto sin formato. El texto de solicitud se envía al modelo exactamente como lo ha escrito.
El modo de formato libre es una buena opción cuando desea enviar una entrada estructurada y saber cómo dar formato a la solicitud.
Opciones de configuración de modelo y solicitud
Copy link to section
Debe especificar qué modelo se debe solicitar y, opcionalmente, puede establecer parámetros que controlen el resultado generado.
Opciones de modelo
Copy link to section
En el Prompt Lab, puede enviar su aviso a cualquiera de los modelos compatibles con watsonx.ai. Puede elegir modelos utilizados recientemente en la lista desplegable. O bien, puede pulsar Ver todos los modelos base para ver todos los modelos soportados, filtrarlos por tarea y leer información de alto nivel sobre los modelos.
Si ha ajustado un modelo de base utilizando el Tuning Studio y ha implementado el modelo ajustado, o ha implementado un modelo de base personalizado, el modelo ajustado o personalizado también está disponible para su consulta en el Prompt Lab.
Parámetros del modelo
Copy link to section
Para controlar cómo genera el modelo la salida en respuesta a la solicitud, puede especificar parámetros de decodificación y criterios de detención. Para obtener más información, consulte Parámetros de modelo para solicitar.
Variables de solicitud
Copy link to section
Para añadir flexibilidad a las solicitudes, puede definir variables de solicitud. Una variable de solicitud es una palabra clave de marcador que se incluye en el texto estático de la solicitud en el momento de la creación y se sustituye por texto dinámicamente en el tiempo de ejecución. Para obtener más información, consulte Creación de solicitudes reutilizables.
Ver texto de solicitud completo
Copy link to section
Es posible que desee ver el texto completo del aviso que se enviará al modelo de la fundación en las siguientes situaciones:
Cuando las variables de solicitud están en uso, para ver los valores de variable resueltos en contexto.
En modalidad de conversación, donde los formatos de solicitud recomendados para diferentes modelos de base se aplican automáticamente.
En modalidad estructurada, donde se añaden partes de la solicitud en campos separados.
Límites de seguridad de IA
Copy link to section
Cuando se establece el conmutador Guardaraíles de AI en Activado, el lenguaje dañino se elimina automáticamente del texto de solicitud de entrada y de la salida generada por el modelo. En concreto, cualquier frase de la entrada o salida que contenga un lenguaje dañino se sustituye por un mensaje que dice que se ha eliminado un texto potencialmente dañino.
Nota:Esta característica solo está soportada para modelos en inglés. Si estás trabajando con un modelo de base que no está en inglés, desactiva las barreras de seguridad de IA.
Si desea ejecutar la solicitud mediante programación, puede ver y copiar el código de solicitud o utilizar la biblioteca Python .
Ver código
Copy link to section
Cuando haces clic en el icono Ver código, se muestra un comando cURL que puedes llamar desde fuera de Prompt Lab para enviar el mensaje y los parámetros actuales al modelo seleccionado y obtener una respuesta generada.
El comando incluye un marcador de posición para unIBM Cloud Ficha IAM. Para obtener información sobre cómo generar el token de acceso, consulte Generación de un token de IBM Cloud IAM.
Alternativa programática al Prompt Lab
Copy link to section
La interfaz gráfica Prompt Lab es un excelente lugar para experimentar e iterar con sus prompts. Sin embargo, también puede solicitar modelos de cimentación en watsonx.ai mediante programación utilizando la biblioteca Python o la API REST. Para obtener más detalles, consulte Coding generative AI solutions.
Solicitudes disponibles
Copy link to section
En el panel lateral, puede acceder a las solicitudes de ejemplo, al historial de sesiones y a las solicitudes guardadas.
Ejemplos
Copy link to section
En el Prompt Lab encontrará una colección de ejemplos de avisos. Los ejemplos muestran los parámetros de modelo y texto de solicitud efectivos para diferentes tareas, incluyendo clasificación, extracción, generación de contenido, respuesta a preguntas y resumen.
Cuando pulsa una muestra, el texto de solicitud se carga en el editor, se selecciona un modelo adecuado y los parámetros óptimos se configuran automáticamente.
Historial
Copy link to section
A medida que experimenta con diferentes texto de solicitud, opciones de modelo y parámetros, los detalles se capturan en el historial de sesiones cada vez que envía la solicitud. Para cargar una solicitud anterior, pulse la entrada en el historial y, a continuación, pulse Restaurar.
Guardado
Copy link to section
En el menú Plantillas de solicitud guardadas , puede cargar las solicitudes que haya guardado en el proyecto actual como un activo de plantilla de solicitud.
Cuando se suministra watsonx.governance , si la plantilla de solicitud incluye al menos una variable de solicitud, puede evaluar la eficacia de las respuestas del modelo. Para obtener más información, consulte Evaluación de plantillas de solicitud en proyectos.
Acerca de las cookies de este sitioNuestros sitios web necesitan algunas cookies para funcionar correctamente (necesarias). Además, se pueden utilizar otras cookies con su consentimiento para analizar el uso del sitio, para mejorar la experiencia del usuario y para publicidad.Para obtener más información, consulte sus opciones de preferencias de cookies. Al visitar nuestro sitio web, acepta que procesemos la información tal y como se describe en ladeclaración de privacidad de IBM.Para facilitar la navegación, sus preferencias de cookies se compartirán entre los dominios web de IBM que se muestran aquí.