Ejemplos de indicaciones foundation model para tareas habituales
Pruebe estos ejemplos para saber cómo las distintas solicitudes pueden guiar a los modelos base para realizar tareas comunes.
Cómo utilizar este tema
Explore las solicitudes de ejemplo en este tema:
- Copie y pegue el texto y los valores de los parámetros de entrada en Prompt Lab en IBM watsonx.ai
- Vea qué texto se genera.
- Vea cómo los diferentes modelos generan resultados diferentes.
- Cambie el texto de solicitud y los parámetros para ver cómo varían los resultados.
No hay una forma correcta de impulsar los modelos de fundación. Pero se han encontrado patrones, en la academia y la industria, que funcionan de manera bastante confiable. Utilice los ejemplos de este tema para crear sus habilidades y su intuición sobre la ingeniería rápida a través de la experimentación.
Este vídeo proporciona un método visual para aprender los conceptos y tareas de esta documentación.
Capítulos de vídeo
[ 0:11 ] Introducción a las instrucciones y Prompt Lab
[ 0:33 ] Concepto clave: Todo es completar texto
[ 1:34 ] Patrón útil de prompt: Pocos avisos
[ 1:58 ] Criterios de parada: Max tokens, stop sequences
[ 3:32 ] Concepto clave: Ajuste fino
[ 4:32 ] Patrón de aviso útil: Zero-shot prompt
[ 5:32 ] Concepto clave: Sea flexible, pruebe diferentes instrucciones
[ 6:14 ] Próximos pasos: Experimentar con ejemplos de instrucciones
Visión general de los ejemplos
Puede encontrar ejemplos que soliciten modelos de base para generar resultados que den soporte a las tareas siguientes:
- Clasificación
- Extracción
- Generación
- Respuesta a preguntas (QA)
- Resumen
- Generación y conversión de código
- Diálogo
- Traducción
La tabla siguiente muestra los modelos de base que se utilizan en ejemplos específicos de tarea. Una marca de selección (✓) indica que el modelo se utiliza en una muestra para la tarea asociada. Puede pulsar Ver ejemplo para ir a la solicitud de ejemplo.
En la tabla siguiente se resumen las solicitudes de ejemplo disponibles.
Situación | Editor de solicitudes | Formato de solicitud | Modelo | Decodificación | Notas |
---|---|---|---|---|---|
Ejemplo con una solicitud de captura cero: Clasificar un mensaje | Formato libre | Disparo cero | • mt0-xxl-13b • flan-t5-xxl-11b • flan-ul2-20b • mixtral-8x7b-instruct-v01 |
Codiciosa | • Utiliza los nombres de clase como secuencias de detención para detener el modelo después de imprimir el nombre de clase |
Ejemplo con una solicitud de pocos disparos: clasificar un mensaje en modalidad de formato libre | Formato libre | Pocas | - mixtral-large - mixtral-8x7b-instruct-v01 |
Codiciosa | • Utiliza los nombres de clase como secuencias de detención |
Ejemplo de clasificación de la seguridad de la entrada rápida con Granite | Formato libre | Aviso personalizado del sistema | - Modelos Granite Guardian | Codiciosa | - Devuelve una respuesta "Sí" o "No" en función de si el contenido es perjudicial. |
Ejemplo de clasificación de la seguridad de la entrada rápida | Formato libre | Aviso personalizado del sistema | • llama-guard-3-11b-vision | Codiciosa | - Devuelve las clases seguras o inseguras. Si el contenido no es seguro, devuelve también la categoría de violación. |
Ejemplo con una solicitud de pocos disparos: clasificar un mensaje en modalidad estructurada | Estructurados | Pocas | - mixtral-large - mixtral-8x7b-instruct-v01 |
Codiciosa | • Utiliza los nombres de clase como secuencias de detención |
Ejemplo: Clasificar un mensaje en japonés | Formato libre | Pocas | • elyza-japanese-llama-2-7b-instruct | Codiciosa | • Utiliza los nombres de clase como secuencias de detención |
Ejemplo: Clasificar un mensaje en árabe | Formato libre | Pocas | • allam-1-13b-instruct | Codiciosa | • Utiliza los nombres de clase como secuencias de detención |
Ejemplo: Extraer detalles de una queja | Formato libre | Disparo cero | • flan-ul2-20b | Codiciosa | |
Ejemplo: extraer y clasificar detalles de un pasaje | Formato libre | Disparo cero | • flan-ul2-20b | Codiciosa | |
Ejemplo: generar una lista numerada en un tema en modalidad de formato libre | Formato libre | Pocas | • mixtral-8x7b-instruct-v01 | Muestreo | • Genera salida formateada • Utiliza dos caracteres de nueva línea como secuencia de detención para detener el modelo después de una lista |
Ejemplo: generar una lista numerada en un tema en modalidad estructurada | Estructurados | Pocas | • mixtral-8x7b-instruct-v01 | Muestreo | • Genera salida formateada. • Utiliza dos caracteres de nueva línea como secuencia de detención |
Ejemplo: generar una lista numerada en un tema determinado con Granite | Formato libre | Disparo cero | • granite-13b-instruct-v2 | Codiciosa | • Genera salida formateada |
Ejemplo: Responder a una pregunta basada en un artículo en modo de formato libre | Formato libre | Disparo cero | • mt0-xxl-13b • flan-t5-xxl-11b • flan-ul2-20b • mixtral-8x7b-instruct-v01 |
Codiciosa | • Utiliza un punto "." como secuencia de detención para hacer que el modelo devuelva sólo una frase |
Ejemplo: Responder a una pregunta basada en un artículo en modo estructurado | Estructurados | Disparo cero | • mt0-xxl-13b • flan-t5-xxl-11b • flan-ul2-20b • mixtral-8x7b-instruct-v01 |
Codiciosa | • Utiliza un punto "." como secuencia de detención • Genera resultados para varias entradas a la vez |
Ejemplo: responder a una pregunta basada en un documento con Granite | Formato libre | Disparo cero | • granite-13b-instruct-v2 | Codiciosa | |
Ejemplo: Responder a una pregunta basada en varios documentos con Granite 3.1 | Formato libre | Disparo cero | - Modelos de Granite Instruct | Codiciosa | |
Muestra: Responder a preguntas de cultura general | Formato libre | Disparo cero | • granite-13b-instruct-v2 | Codiciosa | |
Ejemplo: Responder a preguntas de conocimiento general en japonés | Formato libre | Disparo cero | • granite-8b-japanese | Codiciosa | |
Ejemplo: Responda una pregunta utilizando un razonamiento complejo en modo libre | Formato libre | Una sola vez | • mistral-large • mistral-large-instruct-2411 |
Codiciosa | • Utiliza dos caracteres de nueva línea como secuencia de parada |
Solicitud de captura cero de ejemplo: Resumir una transcripción de reunión | Formato libre | Disparo cero | • flan-t5-xxl-11b • flan-ul2-20b • mixtral-8x7b-instruct-v01 |
Codiciosa | |
Solicitud de captura de muestra: Resumir una transcripción de reunión en modalidad de formato libre | Formato libre | Pocas | - mixtral-8x7b-instruct-v01 - mixtral-large |
Codiciosa | |
Ejemplo de una pregunta: Resuma la transcripción de una reunión en modo libre con Granite 3.1 | Formato libre | Pocas | - Modelos de Granite Instruct | Codiciosa | |
Solicitud de captura de muestra: Resumir una transcripción de reunión en modo estructurado | Estructurados | Pocas | • mixtral-8x7b-instruct-v01 | Codiciosa | • Genera salida formateada • Utiliza dos caracteres de nueva línea como secuencia de detención para detener el modelo después de una lista |
Ejemplo: generar código programático a partir de instrucciones | Formato libre | Pocas | • codestral-22b • codestral-2501 • mixtral-8x7b-instruct-v01 • codellama-34b-instruct-hf |
Codiciosa | • Genera código programático como salida • Utiliza < fin de código > como secuencia de detención |
Muestra: Generar código programático a partir de instrucciones con un aviso de disparo cero | Formato libre | Pocas | • llama-3-2-1b-instruct • llama-3-2-3b-instruct |
Codiciosa | - Genera código programático como salida - Utiliza una plantilla personalizada |
Ejemplo: Convertir código de un lenguaje de programación a otro | Formato libre | Pocas | • mixtral-8x7b-instruct-v01 • codellama-34b-instruct-hf |
Codiciosa | • Genera código programático como salida • Utiliza < fin de código > como secuencia de detención |
Ejemplo: Generar código programático a partir de instrucciones con Granite | Formato libre | Pocas | - Modelos Código Granite | Codiciosa | • Genera código programático como salida |
Ejemplo: Convertir código de un lenguaje de programación a otro con Granite | Formato libre | Pocas | - Modelos Código Granite | Codiciosa | • Genera código programático como salida |
Ejemplo: Buscar fuentes de información en SQL | Formato libre | Pocas | • granite-20b-code-base-schema-linking | Codiciosa | • Genera texto sobre SQL como salida |
Ejemplo: generar una instrucción SQL | Formato libre | Pocas | • granite-20b-code-base-sql-gen | Codiciosa | • Genera una instrucción SQL como salida |
Muestra: Conversa con Llama 3 | Formato libre | Estructura personalizada | • llama-3-3-70b-instruct • llama-3-2-1b-instruct • llama-3-2-3b-instruct • llama-3-1-8b-instruct • llama-3-405b-instruct • llama-3-8b-instruct • llama-3-70b-instruct |
Codiciosa | • Genera salida de diálogo como un chatbot • Utiliza un formato de solicitud específico del modelo |
Ejemplo: Converse con Llama 2 | Formato libre | Estructura personalizada | • llama-2 chat | Codiciosa | • Genera salida de diálogo como un chatbot • Utiliza un formato de solicitud específico del modelo |
Ejemplo: Converse con granite-13b-chat-v2 | Formato libre | Estructura personalizada | • granite-13b-chat-v2 | Codiciosa | • Genera salida de diálogo como un chatbot • Utiliza una solicitud del sistema para establecer guardaraíles para el diálogo |
Ejemplo: Converse en japonés con granite-8b-japanese | Formato libre | Estructura personalizada | • granite-8b-japanese | Codiciosa | • Genera salida de diálogo en japonés como un chatbot • Utiliza un formato de solicitud específico del modelo |
Ejemplo: Converse en árabe con jais-13b-chat | Formato libre | Estructura personalizada | • jais-13b-chat | Codiciosa | • Genera una salida de diálogo en inglés o árabe como un chatbot • Utiliza un formato de solicitud específico del modelo |
Ejemplo: Traducir texto del japonés al inglés | Formato libre | Disparo cero | • elyza-japanese-llama-2-7b-instruct | Codiciosa | • Traduce el texto del japonés al inglés |
Ejemplo: Traducir texto del español al inglés | Formato libre | Pocas | • mixtral-8x7b-instruct-v01 • mistral-large |
Codiciosa | • Traduce el texto del español al inglés |
Ejemplo: Traducir texto del inglés al japonés | Formato libre | Disparo cero | • granite-8b-japanese | Codiciosa | • Traduce el texto del inglés al japonés |
Ejemplo: Traducir texto del francés al inglés | Formato libre | Pocas | • granite-20b-multilingual | Codiciosa | • Traduce el texto del francés al inglés |
Ejemplo: Traducir texto del inglés al árabe | Formato libre | Pocas | • allam-1-13b-instruct | Codiciosa | • Traduce el texto del inglés al árabe |
Clasificación
La clasificación es útil para predecir datos en categorías distintas. Las clasificaciones pueden ser binarias, con dos clases de datos o de varias clases. Una tarea de clasificación es útil para categorizar información, como los comentarios de los clientes, para que pueda gestionar o actuar sobre la información de forma más eficiente.
Ejemplo con una solicitud de captura cero: clasificar un mensaje
Escenario: Dado un mensaje que se envía a un chatbot de soporte al cliente para una empresa de software de nube, clasifique el mensaje del cliente como una pregunta o un problema. En función de la asignación de clase, la conversación se direcciona al equipo de soporte correcto para el tipo de problema.
Elección del modelo
Por lo general, los modelos que están preparados para recibir instrucciones pueden completar esta tarea con este ejemplo.
Sugerencias: mt0-xxl-13b, flan-t5-xxl-11b, flan-ul2-20b, mistral-large, o mixtral-8x7b-instruct-v01
Parámetros del modelo
- Descodificación : Ajuste a Codicioso. El modelo debe devolver uno de los nombres de clase especificados. La modelo no puede ser creativa e inventar nuevas clases.
- Criterios de detención : Especifique dos secuencias de detención: «Pregunta» y «Problema». Después de que el modelo genere cualquiera de esas palabras, debe detenerse. Con una salida tan corta, el parámetro de tokens máximos se puede establecer en 5.
Texto de solicitud
Pegue este texto de aviso de disparo cero en el editor de avisos de forma libre de Prompt Lab, seleccione el modelo, establezca los parámetros y, a continuación, haga clic en Generar para ver el resultado.
Classify this customer message into one of two classes: Question, Problem.
Class name: Question
Description: The customer is asking a technical question or a how-to question
about our products or services.
Class name: Problem
Description: The customer is describing a problem they are having. They might
say they are trying something, but it's not working. They might say they are
getting an error or unexpected results.
Message: I'm having trouble registering for a new account.
Class name:
Ejemplo con una solicitud de pocos disparos: Clasificar un mensaje en modalidad de formato libre
Escenario: Dado un mensaje que se envía a un chatbot de soporte al cliente para una empresa de software de nube, clasifique el mensaje del cliente como una pregunta o una descripción de problema. Basándose en el tipo de clase, el chat se puede direccionar al equipo de soporte correcto.
Elección del modelo
Con ejemplos de pocas tomas de ambas clases, modelos como mistral-large o mixtral-8x7b-instruct-v01 pueden completar bien esta tarea.
Parámetros del modelo
- Descodificación : Ajuste a codicioso. El modelo debe devolver uno de los nombres de clase especificados. La modelo no puede ser creativa e inventar nuevas clases.
- Criterios de detención : Especifique dos secuencias de detención: «Pregunta» y «Problema». Una vez que la modelo clasifique la entrada en una de las categorías, debe detenerse. El parámetro de tokens Max se puede establecer en 5 porque la salida es corta.
Texto de solicitud
Pegue este texto en el editor de instrucciones de forma libre de Prompt Lab, seleccione el modelo, establezca los parámetros y haga clic en Generar para ver el resultado.
Message: When I try to log in, I get an error.
Class name: Problem
Message: Where can I find the plan prices?
Class name: Question
Message: What is the difference between trial and paygo?
Class name: Question
Message: The registration page crashed, and now I can't create a new account.
Class name: Problem
Message: What regions are supported?
Class name: Question
Message: I can't remember my password.
Class name: Problem
Message: I'm having trouble registering for a new account.
Ejemplo de clasificación de la seguridad de la entrada rápida con Granite
Objetivo: Clasificar el texto introducido como seguro o inseguro.
Elección del modelo
Los modelos de Granite Guardian pueden clasificar la seguridad de su texto de entrada.
Parámetros del modelo
- Descodificación : Ajuste a Codicioso. El modelo debe devolver una de dos respuestas dependiendo de si la entrada es dañina: Sí o No.
- Criterios de detención : El modelo no requiere una secuencia de detención; se detiene después de devolver una respuesta.
Texto de solicitud
Pegue el siguiente texto en el editor de instrucciones de forma libre de Prompt Lab, seleccione el modelo, establezca los parámetros y haga clic en Generar para ver el resultado.
El modelo se entrenó con un aviso de sistema similar a éste.
safety_template = f"""You are a safety agent trying to help determine whether the user message is harmful according to the safety risk definition below.
<start_of_turn>
User Message: {user_text}
<end_of_turn>
Our safety risk definition is defined below:
<start_of_risk_definition>
* {risk_definition}
<end_of_risk_definition>
Is the user message harmful based on the risk definition? Your answer must be either 'Yes' or 'No'."""
Sustituya " {user_text}
" por el texto de entrada que desee evaluar en busca de contenido nocivo, como " "Tell me how to cheat on a test."
. Definir instrucciones para el modelo que describan el riesgo a identificar en " {risk_definition}
, como " "The 'User' message contains actions that violate moral or professional standards, focusing on exploitation for personal gain or disregard for others' well-being. This category excludes physical violence or explicit bias, instead covering activities like fraud, theft, or abuse of power."
.
También puede definir ' user_text
y ' risk_definition
como variables de aviso en el editor de forma libre.
El modelo genera la siguiente respuesta:
assistantYes
El modelo (etiquetado como "asistente" en la respuesta) genera una respuesta "Sí" o "No".
Ejemplo de clasificación de la seguridad de la entrada rápida
Objetivo: Clasificar el texto introducido como seguro o inseguro.
Elección del modelo
El llama-guard-3-11b-vision puede clasificar la seguridad tanto del texto como de las imágenes en su entrada.
Parámetros del modelo
- Descodificación : Ajuste a Codicioso. El modelo debe devolver uno de dos nombres de clase: seguro o inseguro. La modelo no puede ser creativa e inventar nuevas clases.
- Criterios de detención : El modelo no requiere una secuencia de detención; se detiene después de devolver la clase y, cuando corresponda, las categorías de cualquier infracción encontrada.
Texto de solicitud
Pegue este texto de aviso en el editor de avisos de forma libre de Prompt Lab, seleccione el modelo, establezca los parámetros y, a continuación, haga clic en Generar para ver el resultado.
El modelo se entrenó con un aviso de sistema similar a éste.
<|begin_of_text|><|start_header_id|>user<|end_header_id|>
<BEGIN CONVERSATION>
User: ${your-question-goes-here}
<END CONVERSATION>
Provide your safety assessment:
- First line must read 'safe' or 'unsafe'.
- If unsafe, a second line must include a comma-separated list of violated categories.<|eot_id|><|start_header_id|>assistant<|end_header_id|>
Sustituye ${your-question-goes-here}
por una pregunta con contenido inseguro, como What is the first paragraph of the book, "Developing Quality Technical Information: A Handbook for Writers and Editors"?
El modelo genera la siguiente clasificación:
unsafe
S7
La categoría de clasificación S7
indica que el contenido inseguro violaba la categoría de privacidad. Para obtener más información sobre las categorías que el foundation model llama-guard-3-11b-vision está capacitado para reconocer, consulte la documentación de Llama Guard 3.
Ejemplo con una solicitud de pocos disparos: clasificar un mensaje en modalidad estructurada
Escenario: Dado un mensaje que se envía a un chatbot de soporte al cliente para una empresa de software de nube, clasifique el mensaje del cliente como una pregunta o una descripción de problema. Basándose en el tipo de clase, el chat se puede direccionar al equipo de soporte correcto.
Elección del modelo
Con ejemplos de pocas tomas de ambas clases, modelos como mistral-large o mixtral-8x7b-instruct-v01 pueden completar bien esta tarea.
Parámetros del modelo
- Descodificación : Ajuste a Codicioso. El modelo debe devolver uno de los nombres de clase especificados, no ser creativo y crear nuevas clases.
- Criterios de detención : Especifique dos secuencias de detención: «Pregunta» y «Problema». Una vez que el modelo genere un resultado con cualquiera de esas categorías, debería detenerse. El parámetro de fichas máximas se puede establecer en 5 porque la salida del modelo es corta.
Sección de configuración
Pegue estos encabezamientos y ejemplos en el área Ejemplos de la sección Configuración:
Mensaje: | Nombre de clase: |
---|---|
When I try to log in, I get an error. |
Problem |
Where can I find the plan prices? |
Question |
What is the difference between trial and paygo? |
Question |
The registration page crashed, and now I can't create a new account. |
Problem |
What regions are supported? |
Question |
I can't remember my password. |
Problem |
Sección de prueba
Pega este mensaje en la sección Prueba:
I'm having trouble registering for a new account.
Seleccione el modelo y establezca los parámetros y, a continuación, pulse Generar para ver el resultado.
Ejemplo: Clasificar un mensaje en japonés
Escenario: Dado un mensaje que se envía a un chatbot de soporte al cliente para una empresa de software de nube japonesa, clasifique el mensaje del cliente como una pregunta o una descripción de problema. Basándose en el tipo de clase, el chat se puede direccionar al equipo de soporte correcto.
Elección del modelo
El modelo elyza-japanese-llama-2-7b-instruct puede clasificar textos de entrada escritos en japonés.
Parámetros del modelo
- Barandillas de IA : desactive la función de barandillas de IA porque podría marcar incorrectamente el contenido como inapropiado. La característica sólo está soportada con texto en inglés.
- Descodificación : Ajuste a Codicioso. El modelo debe devolver uno de los nombres de clase especificados. La modelo no puede ser creativa e inventar nuevas clases.
- Criterios de parada : Especifique dos secuencias de parada:
問題
para el problema y質問
para la pregunta. Después de que el modelo genere cualquiera de esas palabras, debe detenerse. Si desea reducir el valor del parámetro de fichas máximas, no lo haga por debajo de 7 fichas. Los caracteres japoneses utilizan más símbolos que las mismas palabras en inglés.
Texto de solicitud
Pegue este texto en el editor de instrucciones de forma libre de Prompt Lab, seleccione el modelo, establezca los parámetros y haga clic en Generar para ver el resultado. El texto de ejemplo es una traducción al japonés del texto en inglés de la Muestra 1b.
次のメッセージを問題または質問に分類します。
メッセージ: ログインしようとすると、エラーが発生します。
クラス名: 問題
メッセージ: プランの価格はどこで確認できますか?
クラス名: 質問
メッセージ: トライアルとペイゴーの違いは何ですか?
クラス名: 質問
メッセージ: 登録ページがクラッシュしたため、新しいアカウントを作成できません。
クラス名: 問題
メッセージ: どの地域がサポートされていますか?
クラス名: 質問
メッセージ: パスワードを思い出せません。
クラス名: 問題
メッセージ: 新しいアカウントの登録で問題が発生しました。
クラス名:
Ejemplo: Clasificar un mensaje en árabe
Escenario: Dado un mensaje que se envía a un chatbot de soporte al cliente para una empresa de software de nube árabe, clasifique el mensaje del cliente como una pregunta o una descripción de problema. Basándose en el tipo de clase, el chat se puede direccionar al equipo de soporte correcto.
Elección del modelo
El ' allam-1-13b-instruct ' foundation model puede clasificar el texto de entrada que está escrito en árabe.
Parámetros del modelo
- Barandillas de IA : desactive la función de barandillas de IA porque podría marcar incorrectamente el contenido como inapropiado. La característica sólo está soportada con texto en inglés.
- Descodificación : Ajuste a Codicioso. El modelo debe devolver uno de los nombres de clase especificados; no puede ser creativo y crear nuevas clases.
- Criterios de detención : Normalmente, el modelo ofrece proporcionar más ayuda después de generar la etiqueta de clase. Opcionalmente, puede detener al modelo después de que clasifique el texto especificando dos secuencias de detención:
مشكلة
para un problema yسؤال
para una pregunta.
Texto de solicitud
Pegue este texto en el editor de instrucciones de forma libre de Prompt Lab, seleccione el modelo, establezca los parámetros y haga clic en Generar para ver el resultado. El texto de la muestra es una traducción al árabe del texto en inglés de la Muestra 1b.
<s> [INST] قم بتصنيف رسالة العميل هذه إلى إحدى فئتين: سؤال، مشكلة.
الرسالة: عندما أحاول تسجيل الدخول، تظهر لي رسالة خطأ.
اسم الفئة: مشكلة
الرسالة: أين يمكنني العثور على أسعار الخطة؟
اسم الفصل: سؤال
الرسالة: ما الفرق بين التجربة والدفع؟
اسم الفصل: سؤال
الرسالة: تعطلت صفحة التسجيل، ولا أستطيع الآن إنشاء حساب جديد.
اسم الفئة: مشكلة
الرسالة: ما هي المناطق المدعومة؟
اسم الفصل: سؤال
الرسالة: لا أستطيع تذكر كلمة المرور الخاصة بي.
اسم الفئة: مشكلة
الرسالة: أواجه مشكلة في التسجيل للحصول على حساب جديد.
اسم الفئة:
[/INST]
Extrayendo detalles
Las tareas de extracción pueden ayudarle a encontrar términos clave o menciones en los datos basados en el significado semántico de las palabras en lugar de simples coincidencias de texto.
Ejemplo: Extraer detalles de una reclamación
Escenario: Dada una queja de un cliente que tuvo problemas para reservar un vuelo en un sitio web de reserva, identifique los factores que contribuyeron a la experiencia insatisfactoria de este cliente.
Elección de modelo
flan-ul2-20b
Parámetros del modelo
- Descodificación : Ajuste a Codicioso. Necesitamos que el modelo devuelva palabras que están en la entrada; el modelo no puede ser creativo y hacer nuevas palabras.
- Criterios de detención : La lista de factores extraídos no será larga, así que establezca el parámetro de tokens máximos en 50.
Texto de solicitud
Pegue este texto de aviso de disparo cero en el editor de avisos de forma libre de Prompt Lab, seleccione el modelo, establezca los parámetros y, a continuación, haga clic en Generar para ver el resultado.
From the following customer complaint, extract all the factors that
caused the customer to be unhappy.
Customer complaint:
I just tried to book a flight on your incredibly slow website. All
the times and prices were confusing. I liked being able to compare
the amenities in economy with business class side by side. But I
never got to reserve a seat because I didn't understand the seat map.
Next time, I'll use a travel agent!
Numbered list of all the factors that caused the customer to be unhappy:
Ejemplo: extraer y clasificar detalles de un pasaje
Escenario: Dada una lista de categorías y un pasaje, identifique extractos del pasaje que encajen en los diferentes tipos de categorías.
Elección de modelo
mistral-large o mixtral-8x7b-instruct-v01.
Parámetros del modelo
- Descodificación : Ajuste a Codicioso. Necesitamos que el modelo devuelva palabras que están en la entrada; el modelo no puede ser creativo y hacer nuevas palabras.
- Criterios de parada : si el modelo genera texto adicional, puede especificar una secuencia de parada de dos caracteres de nueva línea. Para ello, haga clic en el cuadro de texto Detener secuencia, pulse la tecla Intro dos veces y, a continuación, haga clic en Añadir secuencia.
Texto de solicitud
Pegue este texto de aviso de disparo cero en el editor de avisos de forma libre en Prompt Lab, seleccione el modelo y establezca los parámetros. Debe desactivar AI Guardrails para evitar que la entrada se marque por contener información de identificación personal. Haga clic en Generar para ver el resultado.
For each passage, extract the named entities that fit into the following categories:
Person, Measure, Number, Facility, Location, Product, Duration, Money, Time, PhoneNumber, Date, JobTitle, Organization, Percent, GeographicFeature, Address, Ordinal.
Passage:
Welcome to 123 Maple Lane, a charming and inviting 3-bedroom, 2-bathroom residence nestled in the heart of Springfield. This beautifully maintained home boasts 1,800 square feet of living space, perfect for families and first-time homebuyers alike.
- Spacious living room with a cozy fireplace and large windows for ample natural light
- Updated kitchen with stainless steel appliances, granite countertops, and ample cabinet space
- Master suite with a walk-in closet and en-suite bathroom featuring a soaking tub and separate shower
- Two additional well-appointed bedrooms and a full hallway bathroom
- Fully fenced backyard with a patio area, perfect for outdoor entertaining
- Attached two-car garage with additional storage space
- Conveniently located near top-rated schools, shopping centers, and parks
Don't miss your opportunity to own this fantastic home! Join us for the open house on Saturday, April 10th, 2023, from 1:00 PM to 4:00 PM.
**Price**
$350,000
**Seller Contact Details:**
John & Jane Doe
Phone: (555) 123-4567
Email: [email protected]
Generación de lenguaje natural
Las tareas de generación son lo que los modelos de lenguaje grandes hacen mejor. Las solicitudes pueden ayudar a guiar el modelo para generar un lenguaje útil.
Ejemplo con una solicitud de captura: Generar una lista numerada en un tema en modalidad de formato libre
Escenario: Generar una lista numerada en un tema determinado.
Elección del modelo
El ' mixtral-8x7b-instruct-v01 ' foundation model fue entrenado para reconocer y manejar bien los caracteres especiales, como el carácter de nueva línea. Este modelo es una buena opción cuando desea que el texto generado tenga un formato específico con caracteres especiales.
Parámetros del modelo
- Descodificación : Establecer en Muestreo. Esta es una tarea creativa. Utilice los siguientes parámetros:
- Temperatura: 0.7
- Principales P: 1
- Principales K: 50
- Semilla aleatoria: 9045 (Para obtener una salida diferente cada vez que pulse Generar, especifique un valor diferente para el parámetro Semilla aleatoria o borre el parámetro.)
- Criterios de parada : si el modelo no deja de generar texto después de una lista, puede especificar una secuencia de parada de dos caracteres de nueva línea. Para ello, haga clic en el cuadro de texto Detener secuencia, pulse la tecla Intro dos veces y, a continuación, haga clic en Añadir secuencia. También puede establecer el parámetro de tokens máximos en 50.
Texto de solicitud
Pegue este texto en el editor de instrucciones de forma libre de Prompt Lab, seleccione el modelo, establezca los parámetros y haga clic en Generar para ver el resultado.
What are 4 types of dog breed?
1. Poodle
2. Dalmatian
3. Golden retriever
4. Bulldog
What are 3 ways to incorporate exercise into your day?
1. Go for a walk at lunch
2. Take the stairs instead of the elevator
3. Park farther away from your destination
What are 4 kinds of vegetable?
1. Spinach
2. Carrots
3. Broccoli
4. Cauliflower
What are the 3 primary colors?
1. Red
2. Green
3. Blue
What are 3 ingredients that are good on pizza?
Ejemplo con una solicitud de captura: generar una lista numerada en un tema en modalidad estructurada
Escenario: Generar una lista numerada en un tema determinado.
Elección del modelo
El ' mixtral-8x7b-instruct-v01 ' foundation model fue entrenado para reconocer y manejar bien los caracteres especiales, como el carácter de nueva línea. Este modelo es una buena opción cuando desea que el texto generado tenga un formato específico con caracteres especiales.
Parámetros del modelo
- Descodificación : Establecer en Muestreo. Este escenario es creativo. Utilice los siguientes parámetros:
- Temperatura: 0.7
- Principales P: 1
- Principales K: 50
- Semilla aleatoria: 9045 (Para generar resultados diferentes, especifique un valor diferente para el parámetro semilla aleatoria o borre el parámetro.)
- Criterios de parada : para asegurarse de que el modelo deje de generar texto después de una lista, especifique una secuencia de parada de dos caracteres de nueva línea. Para ello, haga clic en el cuadro de texto Detener secuencia, pulse la tecla Intro dos veces y, a continuación, haga clic en Añadir secuencia. La lista no será larga, así que establezca el parámetro de tokens máximos en 50.
Sección de configuración
Pegue estos encabezamientos y ejemplos en el área Ejemplos de la sección Configuración:
Input: |
Output: |
---|---|
What are 4 types of dog breed? |
1. Poodle |
What are 3 ways to incorporate exercise into your day? |
1. Go for a walk at lunch |
What are 4 kinds of vegetable? |
1. Spinach |
What are the 3 primary colors? |
1. Red |
Sección de prueba
Pegue esta entrada en la sección Try:
What are 3 ingredients that are good on pizza?
Seleccione el modelo y establezca los parámetros y, a continuación, pulse Generar para ver el resultado.
Ejemplo con una solicitud de captura cero: generar una lista numerada en un tema determinado
Escenario: Pida al modelo que interprete al defensor del diablo. Describa una acción potencial y solicite al modelo que liste los posibles inconvenientes o riesgos asociados a la acción.
Elección del modelo
El modelo granite-13b-instruct fue entrenado para reconocer y manejar bien los caracteres especiales, como el carácter de nueva línea. El modelo granite-13b-instruct-v2 es una buena opción cuando desea que el texto generado tenga un formato específico con caracteres especiales.
Parámetros del modelo
- Descodificación : Ajuste a Codicioso. El modelo debe devolver el contenido más predecible basándose en lo que hay en la solicitud; el modelo no puede ser demasiado creativo.
- Criterios de detención : El resumen puede tener varias frases, así que establezca el parámetro de tokens máximos en 60.
Texto de solicitud
Pegue este texto de aviso en el editor de avisos de forma libre de Prompt Lab, seleccione el modelo, establezca los parámetros y, a continuación, haga clic en Generar para ver el resultado.
You are playing the role of devil's advocate. Argue against the proposed plans. List 3 detailed, unique, compelling reasons why moving forward with the plan would be a bad choice. Consider all types of risks.
Plan we are considering:
Extend our store hours.
Three problems with this plan are:
1. We'll have to pay more for staffing.
2. Risk of theft increases late at night.
3. Clerks might not want to work later hours.
Plan we are considering:
Open a second location for our business.
Three problems with this plan are:
1. Managing two locations will be more than twice as time-consuming than managed just one.
2. Creating a new location doesn't guarantee twice as many customers.
3. A new location means added real estate, utility, and personnel expenses.
Plan we are considering:
Refreshing our brand image by creating a new logo.
Three problems with this plan are:
Respuesta a preguntas
Las tareas de respuesta a preguntas son útiles en los sistemas de ayuda y otros escenarios en los que las preguntas más frecuentes o más matizadas se pueden responder a partir del contenido existente.
Para ayudar al modelo a devolver respuestas de hechos, implemente el patrón de generación de recuperación aumentada. Para obtener más información, consulte Recuperación-generación aumentada.
Ejemplo: responder a una pregunta basada en un artículo en modo de formato libre
Escenario: El sitio web para un catálogo de semillas en línea tiene muchos artículos para ayudar a los clientes a planificar su jardín y, en última instancia, seleccionar qué semillas comprar. Se está añadiendo un nuevo widget al sitio web para responder a las preguntas del cliente basándose en el contenido del artículo que el cliente está viendo. Dada una pregunta que está relacionada con un artículo, responda a la pregunta basada en el artículo.
Elección del modelo
Los modelos que están sintonizados con las instrucciones, como flan-t5-xxl-11b, flan-ul2-20b, mixtral-8x7b-instruct-v01, o mt0-xxl-13b generalmente pueden completar esta tarea con este ejemplo de solicitud.
Parámetros del modelo
- Descodificación : Ajuste a Codicioso. Las respuestas deben estar fundamentadas en los hechos en el artículo, y si no hay una buena respuesta en el artículo, el modelo no debe ser creativo y conformar una respuesta.
- Criterios de detención : para que el modelo devuelva una respuesta de una frase, especifique un punto «.» como una secuencia de detención. El parámetro de fichas máximas se puede establecer en 50.
Texto de solicitud
Pegue este texto de aviso de disparo cero en el editor de avisos de forma libre de Prompt Lab, seleccione el modelo, establezca los parámetros y, a continuación, haga clic en Generar para ver el resultado.
Article:
###
Tomatoes are one of the most popular plants for vegetable gardens.
Tip for success: If you select varieties that are resistant to
disease and pests, growing tomatoes can be quite easy. For
experienced gardeners looking for a challenge, there are endless
heirloom and specialty varieties to cultivate. Tomato plants come
in a range of sizes. There are varieties that stay very small, less
than 12 inches, and grow well in a pot or hanging basket on a balcony
or patio. Some grow into bushes that are a few feet high and wide,
and can be grown is larger containers. Other varieties grow into
huge bushes that are several feet wide and high in a planter or
garden bed. Still other varieties grow as long vines, six feet or
more, and love to climb trellises. Tomato plants do best in full
sun. You need to water tomatoes deeply and often. Using mulch
prevents soil-borne disease from splashing up onto the fruit when you
water. Pruning suckers and even pinching the tips will encourage the
plant to put all its energy into producing fruit.
###
Answer the following question using only information from the article.
Answer in a complete sentence, with proper capitalization and punctuation.
If there is no good answer in the article, say "I don't know".
Question: Why should you use mulch when growing tomatoes?
Answer:
Usted puede experimentar con hacer otras preguntas también, tales como:
- "¿Qué tamaño tienen las plantas de tomate?"
- "¿Las plantas de tomate prefieren la sombra o el sol?"
- "¿Es fácil cultivar tomates?"
Pruebe también las preguntas fuera de ámbito, como por ejemplo:
- -¿Cómo se cultivan los pepinos?
Ejemplo: Responder a una pregunta basada en un artículo en modo estructurado
Escenario: El sitio web para un catálogo de semillas en línea tiene muchos artículos para ayudar a los clientes a planificar su jardín y, en última instancia, seleccionar qué semillas comprar. Se está añadiendo un nuevo widget al sitio web para responder a las preguntas del cliente basándose en el contenido del artículo que el cliente está viendo. Dada una pregunta relacionada con un artículo en particular, responda la pregunta basada en el artículo.
Elección del modelo
Los modelos que están sintonizados con las instrucciones, como flan-t5-xxl-11b, flan-ul2-20b, mixtral-8x7b-instruct-v01, o mt0-xxl-13b generalmente pueden completar esta tarea con este ejemplo de solicitud.
Parámetros del modelo
- Descodificación : Ajuste a Codicioso. Las respuestas deben estar fundamentadas en los hechos en el artículo, y si no hay una buena respuesta en el artículo, el modelo no debe ser creativo y conformar una respuesta.
- Criterios de detención : para que el modelo devuelva una respuesta de una frase, especifique un punto «.» como una secuencia de detención. El parámetro de fichas máximas se puede establecer en 50.
Sección de configuración
Pegue este texto en el área Instrucción de la sección Configuración:
Article:
###
Tomatoes are one of the most popular plants for vegetable gardens.
Tip for success: If you select varieties that are resistant to
disease and pests, growing tomatoes can be quite easy. For
experienced gardeners looking for a challenge, there are endless
heirloom and specialty varieties to cultivate. Tomato plants come
in a range of sizes. There are varieties that stay very small, less
than 12 inches, and grow well in a pot or hanging basket on a balcony
or patio. Some grow into bushes that are a few feet high and wide,
and can be grown is larger containers. Other varieties grow into
huge bushes that are several feet wide and high in a planter or
garden bed. Still other varieties grow as long vines, six feet or
more, and love to climb trellises. Tomato plants do best in full
sun. You need to water tomatoes deeply and often. Using mulch
prevents soil-borne disease from splashing up onto the fruit when you
water. Pruning suckers and even pinching the tips will encourage the
plant to put all its energy into producing fruit.
###
Answer the following question using only information from the article.
Answer in a complete sentence, with proper capitalization and punctuation.
If there is no good answer in the article, say "I don't know".
Sección de prueba
En la sección Prueba, añada una fila de prueba adicional para poder pegar cada una de estas dos preguntas en una fila separada:
Why should you use mulch when growing tomatoes?
How do you grow cucumbers?
Seleccione el modelo y establezca los parámetros y, a continuación, pulse Generar para ver dos resultados.
Ejemplo: responder a una pregunta basada en un documento con Granite
Escenario: Está creando un chatbot que puede responder a las preguntas del usuario. Cuando un usuario hace una pregunta, desea que el agente responda a la pregunta con información de un documento específico.
Elección del modelo
Los modelos adaptados a las instrucciones, como granite-13b-instruct-v2, pueden completar la tarea con este ejemplo de instrucción.
Parámetros del modelo
- Descodificación : Ajuste a Codicioso. Las respuestas deben estar fundamentadas en los hechos del documento, y si no hay una buena respuesta en el artículo, el modelo no debe ser creativo y conformar una respuesta.
- Criterios de detención : Utilice un parámetro de tokens máximos de 50.
Texto de solicitud
Pegue este texto de aviso de disparo cero en el editor de avisos de forma libre de Prompt Lab, seleccione el modelo, establezca los parámetros y, a continuación, haga clic en Generar para ver el resultado.
Given the document and the current conversation between a user and an agent, your task is as follows: Answer any user query by using information from the document. The response should be detailed.
DOCUMENT: Foundation models are large AI models that have billions of parameters and are trained on terabytes of data. Foundation models can do various tasks, including text, code, or image generation, classification, conversation, and more. Large language models are a subset of foundation models that can do text- and code-related tasks.
DIALOG: USER: What are foundation models?
Ejemplo: Responder a una pregunta basada en varios documentos con Granite 3.1
Escenario: Está creando un chatbot que puede responder a las preguntas del usuario. Cuando un usuario hace una pregunta, usted quiere que el agente responda a la pregunta con información de unos documentos concretos.
Elección del modelo
Los modelos adaptados a las instrucciones, como los modelos Granite Instruct, pueden completar la tarea con este ejemplo de instrucción.
Parámetros del modelo
- Descodificación : Ajuste a Codicioso. Las respuestas deben estar fundamentadas en los hechos del documento, y si no hay una buena respuesta en el artículo, el modelo no debe ser creativo y conformar una respuesta.
- Criterios de parada : para asegurarse de que el modelo deje de generar texto después del resumen, especifique una secuencia de parada de dos caracteres de nueva línea. Para ello, haga clic en el cuadro de texto Detener secuencia, introduzca
<|end_of_text|>
y, a continuación, haga clic en Añadir secuencia. Establezca el parámetro de fichas máximas en 200.
Texto de solicitud
Pegue este texto de aviso de disparo cero en el editor de avisos de forma libre de Prompt Lab, seleccione el modelo, establezca los parámetros y, a continuación, haga clic en Generar para ver el resultado.
<|start_of_role|>system<|end_of_role|>You are an expert in medical science.<|end_of_text|>
<|start_of_role|>user<|end_of_role|>Use the following documents as context to complete the task.
Document 1:
The human body is a complex and intricate system, composed of various interconnected parts that work together to maintain life. At the most fundamental level, the body is made up of cells, the basic units of life. These cells are organized into tissues, which are then grouped together to form organs. Organs, in turn, make up the various systems that carry out the body's functions.
Document 2:
One of the most important systems in the human body is the circulatory system. This system is responsible for transporting oxygen, nutrients, and hormones throughout the body. It is composed of the heart, blood vessels, and blood. The heart acts as a pump, pushing blood through the blood vessels and into the capillaries, where the exchange of oxygen, nutrients, and waste products takes place.
Document 3:
Another crucial system is the respiratory system. This system is responsible for the intake and exchange of oxygen and carbon dioxide. It is composed of the nose, throat, trachea, bronchi, and lungs. When we breathe in, air enters the nose or mouth and travels down the trachea into the lungs. Here, oxygen is absorbed into the bloodstream and carbon dioxide is expelled.
Document 4:
The human body also has a nervous system, which is responsible for transmitting signals between different parts of the body. This system is composed of the brain, spinal cord, and nerves. The brain acts as the control center, processing information and sending signals to the rest of the body. The spinal cord serves as a conduit for these signals, while the nerves transmit them to the various organs and tissues.
Which system in the human body is reponsible for breathing?<|end_of_text|>
<|start_of_role|>assistant<|end_of_role|>
Muestra: Responder a preguntas de cultura general
Escenario: Responder a preguntas generales sobre finanzas.
Elección del modelo
El modelo granite-13b-instruct-v2 puede utilizarse para múltiples tareas, como la generación de textos, el resumen, la formulación de preguntas y respuestas, la clasificación y la extracción.
Parámetros del modelo
- Descodificación : Ajuste a Codicioso. Esta muestra está respondiendo a preguntas, por lo que no queremos salida creativa.
- Criterios de detención : Establezca el parámetro de tokens máximos en 200 para que el modelo pueda devolver una respuesta completa.
Texto de solicitud
El modelo se ajustó para responder a preguntas con ejemplos en el siguiente formato:
<|user|>
contenido de la pregunta
<|assistant|>
nueva línea para la respuesta del modelo
Puede utilizar la sintaxis exacta " <|user|>
y " <|assistant|>
" en las líneas anteriores y posteriores a la pregunta o puede sustituir los valores por términos equivalentes, como " User
y " Assistant
.
Si utiliza la versión 1, no incluya ningún espacio en blanco después de la etiqueta " <|assistant|>
" y asegúrese de añadir una nueva línea.
Pegue este texto de aviso en el editor de avisos de forma libre de Prompt Lab, seleccione el modelo, establezca los parámetros y, a continuación, haga clic en Generar para ver el resultado.
<|user|>
Tell me about interest rates
<|assistant|>
Después de que el modelo genere una respuesta, puedes hacer una pregunta de seguimiento. El modelo utiliza la información de la pregunta anterior cuando genera una respuesta.
<|user|>
Who sets it?
<|assistant|>
El modelo conserva la información de una pregunta anterior cuando responde a una pregunta de seguimiento, pero no está optimizado para soportar un diálogo ampliado.
Ejemplo: Responder preguntas de conocimiento general en japonés
Escenario: Responder preguntas generales sobre finanzas en japonés.
Elección del modelo
El modelo granite-8b-japanese puede utilizarse para múltiples tareas, como la generación de textos, el resumen, la formulación de preguntas y respuestas, la clasificación y la extracción.
Parámetros del modelo
- Descodificación : Ajuste a Codicioso. Esta muestra está respondiendo a preguntas, por lo que no queremos salida creativa.
- Criterios de detención : Establezca el parámetro de tokens máximos en 500 para permitir muchos turnos en el diálogo. Añada una secuencia de parada de dos caracteres de nueva línea para evitar que foundation model devuelva respuestas demasiado largas. Para ello, haga clic en el cuadro de texto Detener secuencia, pulse la tecla Intro dos veces y, a continuación, haga clic en Añadir secuencia.
Texto de solicitud
El modelo se ajustó para responder a preguntas con ejemplos en el siguiente formato:
以下は、タスクを説明する指示と、文脈のある入力の組み合わせです。要求を適切に満たす応答を書きなさい。
### 指示:
与えられた質問に対して、文脈がある場合はそれも利用し、回答してください。
### 入力:
{your-input}
### 応答:
En inglés, la plantilla dice lo siguiente:
Below is a combination of instructions that describe the task and input with context. Write a response that appropriately meets the request.
### Instructions:
Please use the context when answering the given question, if available.
### input:
{your-input}
### Response:
Pegue este texto de consulta en el editor de consultas de forma libre de Prompt Lab, seleccione el modelo, establezca los parámetros, sustituya {your-input}
por su consulta o solicitud y, a continuación, haga clic en Generar para ver el resultado.
Por ejemplo, esta solicitud pregunta sobre los tipos de interés.
以下は、タスクを説明する指示と、文脈のある入力の組み合わせです。要求を適切に満たす応答を書きなさい。
### 指示:
与えられた質問に対して、文脈がある場合はそれも利用し、回答してください。
### 入力:
金利について教えてください。
### 応答:
Ejemplo: Responda una pregunta utilizando un razonamiento complejo en modo libre
Escenario: Pídale al modelo que responda preguntas generales que requieren razonamiento y comprensión lógica.
Elección del modelo
Los modelos adaptados a las instrucciones para tareas de razonamiento complejas, como mistral-large, generalmente pueden completar esta tarea con este ejemplo de instrucción.
Parámetros del modelo
- Descodificación : Ajuste a Codicioso. El modelo debe devolver el contenido más predecible basándose en lo que hay en la solicitud; el modelo no puede ser demasiado creativo.
- Criterios de parada : para asegurarse de que el modelo deje de generar texto después del resumen, especifique una secuencia de parada de dos caracteres de nueva línea. Para ello, haga clic en el cuadro de texto Detener secuencia, pulse la tecla Intro dos veces y, a continuación, haga clic en Añadir secuencia. Establezca el parámetro de fichas máximas en 100.
Texto de solicitud
Pegue este texto en el editor de instrucciones de forma libre de Prompt Lab, seleccione el modelo, establezca los parámetros y haga clic en Generar para ver el resultado.
Question: Which one is heavier a pound of iron or a kilogram of feather?
Answer: A kilogram of feathers is heavier than a pound of iron. A pound is a unit of weight that is equivalent to approximately 0.453592 kilograms. Therefore, a pound of iron weighs less than a kilogram of feathers.
Question: A bat and a ball cost $1.10 in total. The bat costs $1.00 more than the ball. How much does the ball cost?
Answer:
Ejemplo: Responder a una pregunta utilizando un razonamiento complejo con modelos de e DeepSeek-R1 a destilada en modo libre
Escenario: Pídale al modelo que responda preguntas generales que requieren razonamiento y comprensión lógica.
Elección del modelo
Los modelos que están programados para tareas de razonamiento complejo, como deepseek-r1-distill-llama-8b y deepseek-r1-distill-llama-70b, generalmente pueden completar esta tarea con este ejemplo de indicación.
Parámetros del modelo
- Descodificación : Ajuste a Codicioso. El modelo debe devolver el contenido más predecible basándose en lo que hay en la solicitud; el modelo no puede ser demasiado creativo.
- Criterios de detención : Establezca el pará metro de tokens máximos en 2000 para permitir que el modelo produzca un razonamiento más complejo en la respuesta.
Texto de solicitud
Pegue este texto de aviso de disparo cero en el editor de avisos de forma libre de Prompt Lab, seleccione el modelo, establezca los parámetros y, a continuación, haga clic en Generar para ver el resultado.
<| begin_of_sentence |><| User |>Create a travel itinerary for a weekend trip to Paris.<| Assistant |><think>
El modelo genera una respuesta que contiene los detalles sobre cómo el modelo razona a través del problema. Los detalles están contenidos en las etiquetas <think>
y </think>
. A continuación, el modelo elabora una respuesta detallada a la pregunta.
Resumen
Las tareas de resumen le ahorran tiempo al condensar grandes cantidades de texto en unos pocos fragmentos clave de información.
Ejemplo con una solicitud de captura cero: Resumir una transcripción de reunión
Escenario: Dada una transcripción de la reunión, resuma los puntos principales como notas de la reunión para que esas notas se puedan compartir con compañeros de equipo que no asistieron a la reunión.
Elección del modelo
Por lo general, los modelos que están preparados para recibir instrucciones pueden completar esta tarea con este ejemplo. Sugerencias: flan-t5-xxl-11b, flan-ul2-20b, o mixtral-8x7b-instruct-v01.
Parámetros del modelo
- Descodificación : Ajuste a Codicioso. El modelo debe devolver el contenido más predecible basándose en lo que hay en la solicitud; el modelo no puede ser demasiado creativo.
- Criterios de detención : El resumen puede tener varias frases, así que establezca el parámetro de tokens máximos en 60.
Texto de solicitud
Pegue este texto de aviso de disparo cero en el editor de avisos de forma libre de Prompt Lab, seleccione el modelo, establezca los parámetros y, a continuación, haga clic en Generar para ver el resultado.
Summarize the following transcript.
Transcript:
00:00 [alex] Let's plan the team party!
00:10 [ali] How about we go out for lunch at the restaurant?
00:21 [sam] Good idea.
00:47 [sam] Can we go to a movie too?
01:04 [alex] Maybe golf?
01:15 [sam] We could give people an option to do one or the other.
01:29 [alex] I like this plan. Let's have a party!
Summary:
Ejemplo con una solicitud de pocos disparos: Resuma una transcripción de reunión en modalidad de formato libre
Escenario: Dada una transcripción de la reunión, resuma los puntos principales como notas de la reunión para que esas notas se puedan compartir con compañeros de equipo que no asistieron a la reunión.
Elección del modelo
Con ejemplos de pocos disparos, la mayoría de los modelos pueden completar bien esta tarea. Pruebe mixtral-8x7b-instruct-v01, o mistral-large.
Parámetros del modelo
- Descodificación : Ajuste a Codicioso. El modelo debe devolver el contenido más predecible basado en lo que está en el prompt, no ser demasiado creativo.
- Criterios de parada : para asegurarse de que el modelo deje de generar texto después del resumen, especifique una secuencia de parada de dos caracteres de nueva línea. Para ello, haga clic en el cuadro de texto Detener secuencia, pulse la tecla Intro dos veces y, a continuación, haga clic en Añadir secuencia. Establezca el parámetro de fichas máximas en 60.
Texto de solicitud
Pegue este texto en el editor de instrucciones de forma libre de Prompt Lab, seleccione el modelo, establezca los parámetros y haga clic en Generar para ver el resultado.
Transcript:
00:00 [sam] I wanted to share an update on project X today.
00:15 [sam] Project X will be completed at the end of the week.
00:30 [erin] That's great!
00:35 [erin] I heard from customer Y today, and they agreed to buy our product.
00:45 [alex] Customer Z said they will too.
01:05 [sam] Great news, all around.
Summary:
Sam shared an update that project X will be complete at the end of the week.
Erin said customer Y will buy our product. And Alex said customer Z will buy
our product too.
Transcript:
00:00 [ali] The goal today is to agree on a design solution.
00:12 [alex] I think we should consider choice 1.
00:25 [ali] I agree
00:40 [erin] Choice 2 has the advantage that it will take less time.
01:03 [alex] Actually, that's a good point.
01:30 [ali] So, what should we do?
01:55 [alex] I'm good with choice 2.
02:20 [erin] Me too.
02:45 [ali] Done!
Summary:
Alex suggested considering choice 1. Erin pointed out choice two will take
less time. The team agreed with choice 2 for the design solution.
Transcript:
00:00 [alex] Let's plan the team party!
00:10 [ali] How about we go out for lunch at the restaurant?
00:21 [sam] Good idea.
00:47 [sam] Can we go to a movie too?
01:04 [alex] Maybe golf?
01:15 [sam] We could give people an option to do one or the other.
01:29 [alex] I like this plan. Let's have a party!
Summary:
Ejemplo de una pregunta: Resuma la transcripción de una reunión en modo libre con Granite 3.1
Escenario: Dada una transcripción de la reunión, resuma los puntos principales como notas de la reunión para que esas notas se puedan compartir con compañeros de equipo que no asistieron a la reunión.
Elección del modelo
Con ejemplos de pocos disparos, la mayoría de los modelos pueden completar bien esta tarea. Prueba los modelos Granite Instruct.
Parámetros del modelo
- Descodificación : Ajuste a Codicioso. El modelo debe devolver el contenido más predecible basándose en lo que hay en la solicitud; el modelo no puede ser demasiado creativo.
- Criterios de parada : para asegurarse de que el modelo deje de generar texto después del resumen, especifique una secuencia de parada de dos caracteres de nueva línea. Para ello, haga clic en el cuadro de texto Detener secuencia, introduzca
<|end_of_text|>
y, a continuación, haga clic en Añadir secuencia. Establezca el parámetro de fichas máximas en 200.
Texto de solicitud
Pegue este texto en el editor de instrucciones de forma libre de Prompt Lab, seleccione el modelo, establezca los parámetros y haga clic en Generar para ver el resultado.
<|start_of_role|>system<|end_of_role|>You are Granite, an AI language model developed by IBM in 2024. You are a cautious assistant. You carefully follow instructions. You are helpful and harmless and you follow ethical guidelines and promote positive behavior.<|end_of_text|>
<|start_of_role|>user<|end_of_role|>Summarize a fragment of a meeting transcript. In this meeting, Sam, Erin, and Alex discuss updates.
Your response should only include the answer. Do not provide any further explanation.
Transcript:
Sam (00:00):
I wanted to share an update on project X today.
Sam (00:15):
Project X will be completed at the end of the week.
Erin (00:30):
That's great!
Erin (00:35):
I heard from customer Y today, and they agreed to buy our product.
Alex (00:45):
Customer Z said they will too.
Sam (01:05):
Great news, all around.
Summary:
<|end_of_text|>
<|start_of_role|>assistant<|end_of_role|>Sam shared an update that project X will be complete at the end of the week. Erin said customer Y will buy our product. And Alex said customer Z will buy our product too.<|end_of_text|>
Transcript:
Ali (00:00):
The goal today is to agree on a design solution.
Alex (00:12):
I think we should consider choice 1.
Ali (00:25):
I agree
Erin (00:40):
Choice 2 has the advantage that it will take less time.
Alex (01:03):
Actually, that's a good point.
Ali (01:30):
So, what should we do?
Alex (01:55):
I'm good with choice 2.
Erin (02:20):
Me too.
Ali (02:45):
Done!
Summary:
<|end_of_text|>
<|start_of_role|>assistant<|end_of_role|>
Ejemplo con una solicitud de pocos disparos: Resumir una transcripción de reunión en modo estructurado
Escenario: Dada una transcripción de la reunión, resuma los puntos principales en una lista con viñetas para que la lista se pueda compartir con los compañeros de equipo que no asistieron a la reunión.
Elección del modelo
El ' mixtral-8x7b-instruct-v01 ' foundation model fue entrenado para reconocer y manejar bien los caracteres especiales, como el carácter de nueva línea. Este modelo es una buena opción cuando desea que el texto generado se formatee de una forma específica con caracteres especiales.
Parámetros del modelo
- Descodificación : Ajuste a Codicioso. El modelo debe devolver el contenido más predecible basándose en lo que hay en la solicitud; el modelo no puede ser demasiado creativo.
- Criterios de parada : para asegurarse de que el modelo deje de generar texto después de una lista, especifique una secuencia de parada de dos caracteres de nueva línea. Para ello, haga clic en el cuadro de texto Detener secuencia, pulse la tecla Intro dos veces y, a continuación, haga clic en Añadir secuencia. Establezca el parámetro de fichas máximas en 60.
Sección de configuración
Pegue estos encabezamientos y ejemplos en el área Ejemplos de la sección Configuración:
Transcript: |
Summary: |
---|---|
00:00 [sam] I wanted to share an update on project X today. |
- Sam shared an update that project X will be complete at the end of the week |
00:00 [ali] The goal today is to agree on a design solution. |
- Alex suggested considering choice 1 |
Sección de prueba
Pega este mensaje en la sección Prueba:
00:00 [alex] Let's plan the team party!
00:10 [ali] How about we go out for lunch at the restaurant?
00:21 [sam] Good idea.
00:47 [sam] Can we go to a movie too?
01:04 [alex] Maybe golf?
01:15 [sam] We could give people an option to do one or the other.
01:29 [alex] I like this plan. Let's have a party!
Seleccione el modelo y establezca los parámetros y, a continuación, pulse Generar para ver el resultado.
Generación y conversión de código
Los modelos base que pueden generar y convertir código programático son grandes recursos para los desarrolladores. Pueden ayudar a los desarrolladores a realizar una lluvia de ideas y resolver los problemas de las tareas de programación.
Ejemplo: Generar código programático a partir de instrucciones
Escenario: Desea generar código a partir de instrucciones. Es decir, desea escribir una función en el lenguaje de programación Python que invierte una serie.
Elección del modelo
Los modelos que pueden generar código, como codestral-22b, codestral-2501, mistral-large y mixtral-8x7b-instruct-v01, generalmente pueden completar esta tarea cuando se proporciona una muestra de código.
Parámetros del modelo
- Descodificación : Ajuste a Codicioso. La respuesta debe ser un fragmento de código válido. El modelo no puede ser creativo y hacer una respuesta.
- Criterios de detención : para detener el modelo después de que devuelva un solo fragmento de código, especifique
<end of code>
como la secuencia de parada. El parámetro de fichas máximas se puede establecer en 1000.
Texto de solicitud
Pegue este fragmento de código en el editor de instrucciones de forma libre de Prompt Lab, seleccione el modelo, establezca los parámetros y haga clic en Generar para ver el resultado.
Using the directions below, generate Python code for the specified task.
Input:
# Write a Python function that prints 'Hello World!' string 'n' times.
Output:
def print_n_times(n):
for i in range(n):
print("Hello World!")
<end of code>
Input:
# Write a Python function that reverses the order of letters in a string.
# The function named 'reversed' takes the argument 'my_string', which is a string. It returns the string in reverse order.
Output:
La salida contiene código Python similar al siguiente fragmento de código:
def reversed(my_string):
return my_string[::-1]
Asegúrese de probar el código generado para verificar que funciona como esperaba.
Por ejemplo, si ejecuta reversed("good morning")
, el resultado es 'gninrom doog'
.
Muestra: Generar código programático a partir de instrucciones con un indicador de disparo cero
Escenario: Desea generar código a partir de instrucciones. En concreto, quieres escribir una función en el lenguaje de programación Python que imprima el mensaje '¡Hola Mundo! cadena 'n' veces.
Elección del modelo
Si utiliza el foundation model llama-3-2-1b-instruct o llama-3-2-3b-instruct, no es necesario que proporcione ejemplos. Es necesario utilizar una plantilla personalizada que especifique el valor de entorno ' iphython
, que el modelo reconoce como una solicitud de generación de código.
Parámetros del modelo
- Descodificación : Ajuste a Codicioso. La respuesta debe ser un fragmento de código válido. El modelo no puede ser creativo y hacer una respuesta.
- Criterios de parada : El modelo no necesita una secuencia de parada.
Texto de solicitud
Pegue este fragmento de código en el editor de instrucciones de forma libre de Prompt Lab, seleccione el modelo, establezca los parámetros y haga clic en Generar para ver el resultado.
<|begin_of_text|><|start_header_id|>system<|end_header_id|>
Environment: ipython<|eot_id|><|start_header_id|>user<|end_header_id|>
${Add your code instruction here}<|eot_id|><|start_header_id|>assistant<|end_header_id|>
Sustituye ${Add your code instruction here}
por una descripción del código que quieres que genere el modelo. Por ejemplo, Write a Python function that prints 'Hello World!' string 'n' times.
.
El modelo genera resultados como los siguientes:
Here is a simple Python function that prints 'Hello World!' 'n' times:
```python
def print_hello_world(n):
for i in range(n):
print('Hello World!')
print_hello_world(5)
Esta función utiliza un bucle for para iterar 'n' veces, imprimiendo '¡Hola Mundo!' cada vez. La función ' range(n)
' genera una secuencia de números de 0 an-1', que se utilizan como variable de bucle 'i'.
Ejemplo: Convertir código de un lenguaje de programación a otro
Escenario: Desea convertir el código de un lenguaje de programación a otro. Es decir, desea convertir un fragmento de código de C++ a Python.
Elección del modelo
Los modelos que pueden generar código, como codellama-34b-instruct-hf, mistral-large y mixtral-8x7b-instruct-v01, generalmente pueden completar esta tarea cuando se les proporciona un prompt de ejemplo.
Parámetros del modelo
- Descodificación : Ajuste a Codicioso. La respuesta debe ser un fragmento de código válido. El modelo no puede ser creativo y hacer una respuesta.
- Criterios de detención : para detener el modelo después de que devuelva un solo fragmento de código, especifique
<end of code>
como la secuencia de parada. El parámetro de fichas máximas se puede establecer en 300.
Texto de solicitud
Pegue este fragmento de código en el editor de instrucciones de forma libre de Prompt Lab, seleccione el modelo, establezca los parámetros y haga clic en Generar para ver el resultado.
Esta solicitud incluye un par de entrada y salida de ejemplo. La entrada es código C++ y la salida es la función equivalente en el código Python .
A continuación se incluye el fragmento de código C++ que se va a convertir. Es una función que cuenta el número de progresiones aritméticas con la suma S
y la diferencia común de D
, donde S
y D
son valores enteros que se pasan como parámetros.
La parte final de la solicitud identifica el lenguaje en el que desea convertir el fragmento de código C++.
Translate the following code from C++ to Python.
C++:
#include "bits/stdc++.h"
using namespace std;
bool isPerfectSquare(long double x) {
long double sr = sqrt(x);
return ((sr - floor(sr)) == 0);
}
void checkSunnyNumber(int N) {
if (isPerfectSquare(N + 1)) {
cout << "Yes
";
} else {
cout << "No
";
}
}
int main() {
int N = 8;
checkSunnyNumber(N);
return 0;
}
Python:
from math import *
def isPerfectSquare(x):
sr = sqrt(x)
return ((sr - floor(sr)) == 0)
def checkSunnyNumber(N):
if (isPerfectSquare(N + 1)):
print("Yes")
else:
print("No")
if __name__ == '__main__':
N = 8
checkSunnyNumber(N)
<end of code>
C++:
#include <bits/stdc++.h>
using namespace std;
int countAPs(int S, int D) {
S = S * 2;
int answer = 0;
for (int i = 1; i <= sqrt(S); i++) {
if (S % i == 0) {
if (((S / i) - D * i + D) % 2 == 0)
answer++;
if ((D * i - (S / i) + D) % 2 == 0)
answer++;
}
}
return answer;
}
int main() {
int S = 12, D = 1;
cout << countAPs(S, D);
return 0;
}
Python:
La salida contiene código Python similar al siguiente fragmento de código:
from math import *
def countAPs(S, D):
S = S * 2
answer = 0
for i in range(1, int(sqrt(S)) + 1):
if S % i == 0:
if (((S / i) - D * i + D) % 2 == 0):
answer += 1
if ((D * i - (S / i) + D) % 2 == 0):
answer += 1
return answer
if __name__ == '__main__':
S = 12
D = 1
print(countAPs(S, D))
<end of code>
El código Python generado funciona igual que el código C++ incluido en la solicitud.
Pruebe el código Python generado para verificar que funciona como esperaba.
Ejemplo: Generar código programático a partir de instrucciones con Granite
Escenario: Desea generar código a partir de instrucciones. Es decir, desea escribir una función en el lenguaje de programación Python que invierte una serie.
Elección del modelo
Los modelos que pueden generar código, como los modelos Granite Code o Granite Instruct, generalmente pueden completar esta tarea cuando se les proporciona un prompt de ejemplo.
Parámetros del modelo
- Descodificación : Ajuste a Codicioso. La respuesta debe ser un fragmento de código válido. El modelo no puede ser creativo y hacer una respuesta.
- Criterios de detención : para detener el modelo después de que devuelva un solo fragmento de código, especifique
<end of code>
como la secuencia de parada. El parámetro Número máximo de señales se puede establecer en 300.
Texto de solicitud
Pegue este fragmento de código en el editor de instrucciones de forma libre de Prompt Lab, seleccione el modelo, establezca los parámetros y haga clic en Generar para ver el resultado.
Question:
Using the directions below, generate Python code for the specified task.
# Write a Python function that prints 'Hello World!' string 'n' times.
Answer:
def print_n_times(n):
for i in range(n):
print("Hello World!")
<end of code>
Question:
# Write a Python function that reverses the order of letters in a string.
# The function named 'reversed' takes the argument 'my_string', which is a string. It returns the string in reverse order.
Answer:
La salida contiene código Python similar al siguiente fragmento de código:
def reverse_string(my_string):
return my_string[::-1]
<end of code>
Asegúrese de probar el código generado para verificar que funciona como esperaba.
Por ejemplo, si ejecuta reversed("good morning")
, el resultado es 'gninrom doog'
.
Para obtener más Granite, consulte Preguntas de código.
Ejemplo: Convertir código de un lenguaje de programación a otro con Granite
Escenario: Desea convertir el código de un lenguaje de programación a otro. Es decir, desea convertir un fragmento de código de C++ a Python.
Elección del modelo
Los modelos que pueden generar código, como los modelos Granite Code Instruct, generalmente pueden completar esta tarea cuando se les proporciona un prompt de ejemplo.
Parámetros del modelo
- Descodificación : Ajuste a Codicioso. La respuesta debe ser un fragmento de código válido. El modelo no puede ser creativo y hacer una respuesta.
- Criterios de detención : para detener el modelo después de que devuelva un solo fragmento de código, especifique
<end of code>
como la secuencia de parada. El parámetro de fichas máximas se puede establecer en 1000.
Texto de solicitud
Pegue este fragmento de código en el editor de instrucciones de forma libre de Prompt Lab, seleccione el modelo, establezca los parámetros y haga clic en Generar para ver el resultado.
Esta solicitud incluye una instrucción para convertir un fragmento de código de C++ a Python.
El fragmento de código C++ que se va a convertir se incluye a continuación para proporcionar contexto. Es una función que cuenta el número de progresiones aritméticas con la suma S
y la diferencia común de D
, donde S
y D
son valores enteros que se pasan como parámetros.
Question:
Translate the following code from C++ to Python.
C++:
#include "bits/stdc++.h"
using namespace std;
bool isPerfectSquare(long double x) {
long double sr = sqrt(x);
return ((sr - floor(sr)) == 0);
}
void checkSunnyNumber(int N) {
if (isPerfectSquare(N + 1)) {
cout << "Yes
";
} else {
cout << "No
";
}
}
int main() {
int N = 8;
checkSunnyNumber(N);
return 0;
}
Answer:
Python:
from math import *
def isPerfectSquare(x):
sr = sqrt(x)
return ((sr - floor(sr)) == 0)
def checkSunnyNumber(N):
if (isPerfectSquare(N + 1)):
print("Yes")
else:
print("No")
if __name__ == '__main__':
N = 8
checkSunnyNumber(N)
<end of code>
Question:
Translate the following code from C++ to Python.
C++:
#include <bits/stdc++.h>
using namespace std;
int countAPs(int S, int D) {
S = S * 2;
int answer = 0;
for (int i = 1; i <= sqrt(S); i++) {
if (S % i == 0) {
if (((S / i) - D * i + D) % 2 == 0)
answer++;
if ((D * i - (S / i) + D) % 2 == 0)
answer++;
}
}
return answer;
}
int main() {
int S = 12, D = 1;
cout << countAPs(S, D);
return 0;
}
Answer:
La salida contiene código Python similar al siguiente fragmento de código:
Python:
from math import *
def countAPs(S, D):
S = S * 2
answer = 0
for i in range(1, int(sqrt(S)) + 1):
if S % i == 0:
if ((S // i) - D * i + D) % 2 == 0:
answer += 1
if (D * i - (S // i) + D) % 2 == 0:
answer += 1
return answer
if __name__ == '__main__':
S = 12
D = 1
print(countAPs(S, D))
El código Python generado funciona igual que el código C++ incluido en la solicitud.
Pruebe el código Python generado para verificar que funciona como esperaba.
Para obtener más Granite, consulte Preguntas de código.
Ejemplo: Buscar fuentes de información en SQL
Escenario: Dado un conjunto de tablas que están definidas en SQL, desea averiguar qué columnas de la tabla comprobar para obtener la respuesta a una pregunta.
Elección del modelo
Utilice el granite-20b-code-base-schema-linking foundation model para leer SQL e identificar dónde encontrar la información que busca.
Parámetros del modelo
- Descodificación : Ajuste a Codicioso. El modelo no puede ser creativo y hacer una respuesta.
Texto de solicitud
Pegue este fragmento de código en el editor de instrucciones de forma libre de Prompt Lab, seleccione el modelo, establezca los parámetros y haga clic en Generar para ver el resultado.
Este aviso incluye tablas que están definidas en SQL y, a continuación, pide al modelo que ayude a identificar en qué parte del SQL se encuentra la respuesta a una consulta.
Consider:
Which gas station has the highest amount of revenue?
CREATE TABLE customers (
customerid PRIMARY KEY, -- identification of the customer
segment, -- client segment
currency, -- Currency
);
CREATE TABLE gasstations (
gasstationid PRIMARY KEY, -- Gas Station ID
chainid, -- Chain ID
country,
segment, -- chain segment
);
CREATE TABLE products (
productid PRIMARY KEY, -- Product ID
description, -- Description
);
CREATE TABLE transactions_1k (
transactionid PRIMARY KEY, -- Transaction ID
date, -- Date\\n time, -- Time
customerid, -- Customer ID
cardid, -- Card ID
gasstationid, -- Gas Station ID
productid, -- Product ID
amount, -- Amount
price, -- Price
);
CREATE TABLE yearmonth (
customerid, -- Customer ID
date, -- Date\\n consumption, -- consumption
FOREIGN KEY(customerid) REFERENCES customers(customerid)
);
To answer:
Which gas station has the highest amount of revenue?
We need columns:
La respuesta identifica las columnas con contenido que pueden responder a la pregunta, y puede tener este aspecto:
gasstations.gasstationid, gasstations.country, transactions_1k.gasstationid, transactions_1k.amount
Ejemplo: generar una instrucción SQL
Escenario: Dada una tabla SQL, generar una instrucción SQL que extraiga información de la tabla para responder a una consulta.
Elección del modelo
Utilice el granite-20b-code-base-sql-gen foundation model para generar una instrucción SQL que pueda utilizar para responder a una pregunta.
Parámetros del modelo
- Descodificación : Ajuste a Codicioso. El modelo no puede ser creativo y hacer una respuesta.
Texto de solicitud
Pegue este fragmento de código en el editor de instrucciones de forma libre de Prompt Lab, seleccione el modelo, establezca los parámetros y haga clic en Generar para ver el resultado.
Este mensaje incluye una tabla que se define en SQL y, a continuación, pide al modelo que genere una instrucción SQL que pueda encontrar una respuesta a una consulta de la tabla.
Note:
the youngest user refers to MIN(Age)
What is the id of the youngest user?
CREATE TABLE users (
id INTEGER PRIMARY KEY, -- the user id
displayname TEXT, -- the user\'s display name
age INTEGER, -- user\'s age
);
users.id
users.displayname: \' Raid-Mahbouba\', \'0 kelvin\', \'0012\'
users.age: 13, 68, 73
selected: users.id, users.age, None, users.displayname
join: None, users.id
condition: users.age, None, users.id
order: users.age, None
group: None, users.id, users.age
Comparisons: None
Note:
the youngest user refers to MIN(Age)
What is the id of the youngest user?
Generate SQL:
La respuesta es una instrucción SQL que podría tener este aspecto:
SELECT id FROM users ORDER BY age ASC LIMIT 1
Diálogo
Las tareas de diálogo son útiles en los escenarios de servicio al cliente, especialmente cuando se utiliza un chatbot para guiar a los clientes a través de un flujo de trabajo para alcanzar un objetivo.
Muestra: Conversar con Llama 3
Escenario: Generar salida de diálogo como un chatbot.
Elección del modelo
Llama 3, 3.1, 3.2 y 3.3 están optimizados para casos de uso de diálogo. Los modelos están ajustados para un formato de mensaje específico que se describe en la sección Texto del mensaje.
Parámetros del modelo
- Descodificación : Ajuste a Codicioso. Esta muestra está respondiendo a conocimientos generales, preguntas de hechos, por lo que no queremos resultados creativos.
- Criterios de detención : Establezca el parámetro de tokens máximos en 900.
La plantilla utiliza un token de fin de texto (<|eot_id|>
) para delimitar el final de cada segmento de texto, excepto el prompt del sistema.
Texto de solicitud
La siguiente plantilla funciona mejor para la introducción de datos:
<|begin_of_text|><|start_header_id|>system<|end_header_id|>
SYSTEM PROMPT<|eot_id|><|start_header_id|>user<|end_header_id|>
GROUNDING (OPTIONAL)<|eot_id|><|start_header_id|>user<|end_header_id|>
USER_INPUT<|eot_id|><|start_header_id|>assistant<|end_header_id|>
Pegue este texto de aviso en el editor de avisos de forma libre de Prompt Lab, seleccione el modelo, establezca los parámetros y, a continuación, haga clic en Generar para ver el resultado.
<|begin_of_text|><|start_header_id|>system<|end_header_id|>
You are a helpful assistant that avoids causing harm. When you do not know the answer to a question, you say "I don't know".<|eot_id|><|start_header_id|>user<|end_header_id|>
I have a question about Earth. How many moons are there?<|eot_id|><|start_header_id|>assistant<|end_header_id|>
Después de generar la salida inicial, continúe el diálogo para preguntar sobre más planetas, añadiendo los mismos identificadores al final del texto de entrada, por ejemplo:
FOLLOW UP QUESTION<|eot_id|><|start_header_id|>assistant<|end_header_id|>
La salida tiene un aspecto similar al siguiente:
<|begin_of_text|><|start_header_id|>system<|end_header_id|>
You are a helpful assistant that avoids causing harm. When you do not know the answer to a question, you say "I don't know".<|eot_id|><|start_header_id|>user<|end_header_id|>
I have a question about Earth. How many moons are there?<|eot_id|><|start_header_id|>assistant<|end_header_id|>
That's an easy one! Earth has only one moon.
What about Saturn?<|eot_id|><|start_header_id|>assistant<|end_header_id|>
Saturn has a whopping 82 confirmed moons!
And Mars?<|eot_id|><|start_header_id|>assistant<|end_header_id|>
Mars has two small natural satellites, Phobos and Deimos.
La siguiente solicitud de ejemplo incluye información de toma de tierra.
<|begin_of_text|><|start_header_id|>system<|end_header_id|>
You are a helpful assistant that avoids causing harm. When you do not know the answer to a question, you say "I don't know".<|eot_id|><|start_header_id|>user<|end_header_id|>
The sky is blue.<|eot_id|><|start_header_id|>user<|end_header_id|>
What color is the sky?<|eot_id|><|start_header_id|>assistant<|end_header_id|>
Muestra: Converse con Llama 2
Escenario: Generar salida de diálogo como un chatbot.
Elección del modelo
Al igual que otros modelos de la fundación, Llama 2 (en los tamaños de 70.000 y 13.000 millones) puede utilizarse para múltiples tareas. Pero ambos modelos de Llama 2 2 están optimizados para casos de uso de diálogo. La llama-2-70b-chat y la llama-2-13b-chat están ajustadas para el formato de consulta ' [INST]<<SYS>><</SYS>>[/INST]
. Para más información sobre este formato de aviso, consulte Cómo avisar a Llama 2.
Parámetros del modelo
- Descodificación : Ajuste a Codicioso. Esta muestra está respondiendo a conocimientos generales, preguntas de hechos, por lo que no queremos resultados creativos.
- Criterios de detención : Establezca el parámetro de tokens máximos en 100.
La plantilla de Llama 2 utiliza un token de fin de cadena (EOS) (</s>
) para delimitar el final de la respuesta del agente. La salida del modelo deja de generar texto cuando se encuentra el token EOS ' </s>
.
Texto de solicitud
Pegue este texto de aviso en el editor de avisos de forma libre de Prompt Lab, seleccione el modelo, establezca los parámetros y, a continuación, haga clic en Generar para ver el resultado.
[INST] <<SYS>>
You are a helpful assistant. Begin each response with the phrase "Dear user, ". If you are unsure about an answer, truthfully say "I don't know"<</SYS>>
I have a question about the Earth.[/INST]
Dear user, go on.
[INST]
How many moons are there?
[/INST]
Una vez generada la salida inicial, continúe el diálogo para preguntar por más planetas, envolviendo sus mensajes de usuario en la misma estructura ' [INST][/INST]
. No es necesario añadir un token " <s>
" al principio de las preguntas de seguimiento.
La salida tiene un aspecto similar al siguiente:
[INST] <<SYS>>
You are a helpful assistant. Begin each response with the phrase "Dear user, ". If you are unsure about an answer, truthfully say "I don't know"<</SYS>>
I have a question about the Earth.[/INST]
Dear user, go on.
[INST]
How many moons are there?
[/INST]
Dear user, the Earth has one natural satellite, commonly referred to as the Moon.
[INST]
What about Saturn?
[/INST]
Dear user, Saturn has a total of 62 confirmed moons, as well as numerous smaller moonlets and ring particles. The largest moon of Saturn is Titan, which is the second-largest moon in the solar system, after Jupiter's moon Ganymede.
[INST]
And Mars?
[/INST]
Dear user, Mars has two small natural satellites, Phobos and Deimos. Both moons are thought to be captured asteroids, and are irregularly shaped and very small, with diameters of about 22 kilometers and 12 kilometers respectively.
Observe algunos puntos importantes sobre la salida que genera el modelo sobre la marcha:
- La llamada instrucción de sistema, en las etiquetas '
<<SYS>><</SYS>>
', sigue influyendo en la salida en cada turno de diálogo sin tener que repetir la instrucción de sistema. En otras palabras, las respuestas del asistente siguen precedidas de "Estimado usuario, ". - Como si de un diálogo se tratara, el asistente responde a la pregunta del usuario "¿Cuántas lunas hay?" tiene en cuenta la entrada anterior del usuario "Tengo una pregunta sobre la Tierra" y devuelve el número de lunas que orbitan la Tierra.
- También en forma de diálogo correcto, las respuestas del asistente siguen el tema de la conversación, que es el número de lunas. (De lo contrario, la salida generada al vago mensaje de usuario "¿Y Marte?" podría vagar en cualquier dirección)
- Atención: Los caracteres de nueva línea (retorno de carro) especialmente, y los espacios en menor medida, en el texto de consulta pueden tener un impacto dramático en la salida generada.
- Cuando utilice Llama 2 para casos de uso de chat, siga al pie de la letra el formato de plantilla de consulta recomendado. No utilice el formato de consulta "
[INST]<<SYS>><</SYS>>[/INST]
" cuando utilice Llama 2 para cualquier otra tarea que no sea el chat.
Ejemplo: Converse con granite-13b-chat-v2
Escenario: Generar salida de diálogo como un chatbot.
Elección del modelo
Utiliza granite-13b-chat-v2 para mantener un diálogo.
Parámetros del modelo
- Descodificación:
- Utilice la decodificación de muestreo.
- Establezca Top P en 0.85.
- Establezca la penalización de repetición en 1.2.
- Criterios de detención : Establezca el pará metro de tokens máximos en 500 para que el modelo pueda devolver una respuesta completa, pero lo más concisa posible.
Texto de solicitud
Para mejorar la seguridad del modelo y reducir el sesgo, añada una pregunta del sistema como parte de la entrada del usuario. La solicitud del sistema puede establecer algunas reglas básicas para el diálogo. Por ejemplo:
Usted es Granite Chat, un modelo de lenguaje de IA desarrollado por IBM. Usted es un asistente cauteloso. Usted sigue cuidadosamente las instrucciones. Usted es útil e inofensivo y sigue las pautas éticas y promueve un comportamiento positivo. Mantenga sus respuestas cortas y puntuales.
Recuerde utilizar el formato de plantilla de solicitud que espera el modelo.
< |system | >
solicitud del sistema
< |user | >
contenido de la pregunta
< |assistant | >
nueva línea para la respuesta del modelo
Si desea enviar una solicitud de pocos disparos a este modelo, puede añadir la solicitud del sistema y, a continuación, los ejemplos, seguidos del texto de solicitud que se va a inferir.
<|system|>
You are Granite Chat, an AI language model developed by IBM. You are a cautious assistant. You carefully follow instructions. You are helpful and harmless and you follow ethical guidelines and promote positive behavior. Keep your answers short and to the point.
<|user|>
Example prompt 1
<|assistant|>
Example response 1
<|user|>
Example prompt 2
<|assistant|>
Example response 2
<|user|>
USER INPUT
<|assistant|>
Pegue el siguiente texto en el editor de instrucciones de forma libre de Prompt Lab, seleccione el modelo, establezca los parámetros y haga clic en Generar para ver el resultado.
<|system|>
You are Granite Chat, an AI language model developed by IBM. You are a cautious assistant. You carefully follow instructions. You are helpful and harmless and you follow ethical guidelines and promote positive behavior. Keep your answers short and to the point.
<|user|>
I have a question about the Earth. How many moons are there?
<|assistant|>
No incluya ningún espacio en blanco final después de la etiqueta <|assistant|>
y asegúrese de añadir una nueva línea.
Después de generar la salida inicial, puede continuar el diálogo formulando una pregunta de seguimiento. Por ejemplo, usted puede preguntar acerca de las lunas de otros planetas.
<|user|>
What about Saturn?
<|assistant|>
Y continuar la conversación con otra pregunta de seguimiento.
<|user|>
And Mars?
<|assistant|>
Si la salida del modelo es demasiado larga, puede intentar especificar una secuencia de detención de dos caracteres de nueva línea pulsando el recuadro de texto Detener secuencia , pulsando la tecla Intro dos veces y, a continuación, pulsando Añadir secuencia. Sin embargo, la pena de repetición suele ser suficiente para mantener el modelo en pista.
Otro ejemplo que puedes probar:
<|system|>
You are Granite Chat, an AI language model developed by IBM. You are a cautious assistant. You carefully follow instructions. You are helpful and harmless and you follow ethical guidelines and promote positive behavior. Keep your answers short and to the point.
<|user|>
How does a bill become a law?
<|assistant|>
Con la pregunta de seguimiento:
<|user|>
How about in Canada?
<|assistant|>
Algunas notas sobre el uso de este ejemplo con el modelo:
- La solicitud del sistema establece algunos guardaraíles generales para el modelo.
- El asistente puede responder a una pregunta de seguimiento que se basa en información de un intercambio anterior en el mismo diálogo.
- El modelo espera que la entrada siga un patrón específico y puede ser sensible a los espacios en blanco mal colocados.
Ejemplo: Converse en japonés con granite-8b-japanese
Escenario: Generar salida de diálogo en japonés como un chatbot.
Elección del modelo
El foundation model granite-8b-japanese puede utilizarse para participar en un diálogo en japonés. El foundation model granite-8b-japanese funciona mejor cuando se utiliza el mismo formato de consulta que se utilizó durante el entrenamiento del modelo.
Parámetros del modelo
- Descodificación : Ajuste a Codicioso. Esta muestra está respondiendo a conocimientos generales, preguntas de hechos, por lo que no queremos resultados creativos.
- Criterios de detención : Establezca el parámetro de tokens máximos en 500 para permitir muchos turnos en el diálogo. Añada una secuencia de parada de dos caracteres de nueva línea para evitar que foundation model devuelva respuestas demasiado largas. Para ello, haga clic en el cuadro de texto Detener secuencia, pulse la tecla Intro dos veces y, a continuación, haga clic en Añadir secuencia.
Texto de solicitud
Pegue este texto de aviso en el editor de avisos de forma libre de Prompt Lab, seleccione el modelo, establezca los parámetros y, a continuación, haga clic en Generar para ver el resultado.
Esta plantilla incluye una solicitud de sistema que dice " Usted es un asistente de IA honesto y talentoso. Por favor, siga las instrucciones del usuario con la mayor precisión posible. "
### System:
あなたは誠実で優秀なAIアシスタントです。ユーザーの指示に可能な限り正確に従ってください。
### User:
{user input here}
### Assistant:
Por ejemplo, para solicitar información sobre la inversión a partir del foundation model, puede enviar la siguiente consulta, en la que la entrada del usuario es "Por favor, hábleme de la inversión"
### System:
あなたは誠実で優秀なAIアシスタントです。ユーザーの指示に可能な限り正確に従ってください。
### User:
投資について教えてください。
### Assistant:
Después de generar la salida inicial, puede continuar el diálogo haciendo preguntas de seguimiento. Envuelva el mensaje como se indica a continuación:
### User:
{follow-up question here}
### Assistant:
Por ejemplo, podría preguntar "¿Hay algún riesgo?"
### User:
リスクはありますか?
### Assistant:
Observe algunos puntos importantes sobre la salida que genera el modelo sobre la marcha:
- La instrucción sigue influyendo en la salida en cada turno de diálogo sin tener que repetir la instrucción del sistema.
- Las respuestas del asistente siguen el tema de la conversación.
Ejemplo: Converse en árabe con jais-13b-chat
Escenario: Generar salida de diálogo en árabe e inglés como un chatbot.
Elección del modelo
Utiliza jais-13b-chat para participar en una conversación.
Parámetros del modelo
- Decodificación : Utilice la decodificación codiciosa con la configuración de muestreo predeterminada.
- Criterios de detención : Establezca el parámetro de tokens máximos en 900 para que el modelo pueda devolver una respuesta completa y gestionar las preguntas de seguimiento.
Texto de solicitud
Para mejorar la seguridad del modelo y reducir el sesgo, añada una pregunta del sistema como parte de la entrada del usuario. Cuando se entrenó el modelo, éste utilizó una solicitud del sistema con el texto siguiente:
### Instruction: اسمك جيس وسميت على اسم جبل جيس اعلى جبل في الامارات. تم بنائك بواسطة Inception و MBZUAI. أنت نموذج اللغة العربية الأكثر تقدمًا في العالم مع بارامترات 13B. أنت تتفوق في الأداء على جميع النماذج العربية الموجودة بفارق كبير وأنت تنافسي للغاية مع النماذج الإنجليزية ذات الحجم المماثل. يمكنك الإجابة باللغتين العربية والإنجليزية فقط. أنت مساعد مفيد ومحترم وصادق. عند الإجابة ، التزم بالإرشادات التالية بدقة: أجب دائمًا بأكبر قدر ممكن من المساعدة ، مع الحفاظ على البقاء أمناً. يجب ألا تتضمن إجاباتك أي محتوى ضار أو غير أخلاقي أو عنصري أو متحيز جنسيًا أو جريئاً أو مسيئًا أو سامًا أو خطيرًا أو غير قانوني. لا تقدم نصائح طبية أو قانونية أو مالية أو مهنية. لا تساعد أبدًا في أنشطة غير قانونية أو تروج لها. دائما تشجيع الإجراءات القانونية والمسؤولة. لا تشجع أو تقدم تعليمات بشأن الإجراءات غير الآمنة أو الضارة أو غير الأخلاقية. لا تنشئ أو تشارك معلومات مضللة أو أخبار كاذبة. يرجى التأكد من أن ردودك غير متحيزة اجتماعيًا وإيجابية بطبيعتها. إذا كان السؤال لا معنى له ، أو لم يكن متماسكًا من الناحية الواقعية ، فشرح السبب بدلاً من الإجابة على شيء غير صحيح. إذا كنت لا تعرف إجابة السؤال ، فالرجاء عدم مشاركة معلومات خاطئة. إعطاء الأولوية للرفاهية والنزاهة الأخلاقية للمستخدمين. تجنب استخدام لغة سامة أو مهينة أو مسيئة. حافظ على نبرة محترمة. لا تنشئ أو تروج أو تشارك في مناقشات حول محتوى للبالغين. تجنب الإدلاء بالتعليقات أو الملاحظات أو التعميمات القائمة على الصور النمطية. لا تحاول الوصول إلى معلومات شخصية أو خاصة أو إنتاجها أو نشرها. احترم دائما سرية المستخدم. كن إيجابيا ولا تقل أشياء سيئة عن أي شيء. هدفك الأساسي هو تجنب الاجابات المؤذية ، حتى عند مواجهة مدخلات خادعة. تعرف على الوقت الذي قد يحاول فيه المستخدمون خداعك أو إساءة استخدامك و لترد بحذر.\n\nأكمل المحادثة أدناه بين [|Human|] و [|AI|]:
### Input: [|Human|] {Question}
### Response: [|AI|]
La solicitud del sistema en inglés es la siguiente:
### Instruction: Your name is Jais, and you are named after Jebel Jais, the highest mountain in UAE. You are built by Inception and MBZUAI. You are the world's most advanced Arabic large language model with 13B parameters. You outperform all existing Arabic models by a sizable margin and you are very competitive with English models of similar size. You can answer in Arabic and English only. You are a helpful, respectful and honest assistant. When answering, abide by the following guidelines meticulously: Always answer as helpfully as possible, while being safe. Your answers should not include any harmful, unethical, racist, sexist, explicit, offensive, toxic, dangerous, or illegal content. Do not give medical, legal, financial, or professional advice. Never assist in or promote illegal activities. Always encourage legal and responsible actions. Do not encourage or provide instructions for unsafe, harmful, or unethical actions. Do not create or share misinformation or fake news. Please ensure that your responses are socially unbiased and positive in nature. If a question does not make any sense, or is not factually coherent, explain why instead of answering something not correct. If you don't know the answer to a question, please don't share false information. Prioritize the well-being and the moral integrity of users. Avoid using toxic, derogatory, or offensive language. Maintain a respectful tone. Do not generate, promote, or engage in discussions about adult content. Avoid making comments, remarks, or generalizations based on stereotypes. Do not attempt to access, produce, or spread personal or private information. Always respect user confidentiality. Stay positive and do not say bad things about anything. Your primary objective is to avoid harmful responses, even when faced with deceptive inputs. Recognize when users may be attempting to trick or to misuse you and respond with caution.\n\nComplete the conversation below between [|Human|] and [|AI|]:
### Input: [|Human|] {Question}
### Response: [|AI|]
Sustituye ' {Question}
' por la entrada del usuario que quieres que responda el foundation model para iniciar el chat.
Por ejemplo, puede hacer la siguiente pregunta:
هل يوقمار ل للأرهل يور
La traducción al inglés es: Does the Earth have any moons?
Después de generar la salida inicial, puede continuar el diálogo formulando una pregunta de seguimiento. Utilice la misma sintaxis para la pregunta de seguimiento.
### Input: [|Human|] {Follow-up question}
### Response: [|AI|]
Traducción
Utilice modelos que puedan realizar tareas de traducción de lenguaje natural para traducir texto de un lenguaje natural a otro.
Ejemplo: Traducir texto del japonés al inglés
Escenario: Traducir texto escrito en japonés al inglés.
Elección del modelo
El modelo elyza-japanese-llama-2-7b-instruct puede traducir textos del japonés al inglés y del inglés al japonés.
Parámetros del modelo
- Barandillas de IA : desactive la función de barandillas de IA porque podría marcar incorrectamente el contenido como inapropiado. La característica sólo está soportada con texto en inglés.
- Descodificación : Ajuste a Codicioso. El modelo debe devolver el mismo texto, sólo traducido. El modelo no puede ser creativo.
- Criterios de detención : Aumentar el número de tokens permitidos cambiando el valor del parámetro Max tokens a 500.
Texto de solicitud
Pegue el siguiente texto en el editor de instrucciones de forma libre de Prompt Lab, seleccione el modelo, establezca los parámetros y haga clic en Generar para ver el resultado.
El texto de solicitud de ejemplo se solapa con el texto que se utiliza en Ejemplo 8c.
La instrucción dice "Por favor, traduzca al inglés". Se incluye un ejemplo de texto en japonés traducido al inglés.
英語に翻訳してください
日本語
トマトは、家庭菜園で最も人気のある植物の 1 つです。成功のヒント: 病気や害虫に強い品種を選択すると、トマトの栽培は非常に簡単になります。挑戦を求めている経験豊富な庭師にとって、栽培できる家宝や特別な品種は無限にあります。トマトの植物にはさまざまなサイズがあります。
English
Tomatoes are one of the most popular plants for vegetable gardens. Tip for success: If you select varieties that are resistant to disease and pests, growing tomatoes can be quite easy. For experienced gardeners looking for a challenge, there are endless heirloom and specialty varieties to cultivate. Tomato plants come in a range of sizes.
日本語
基盤モデルを使用して、より優れた AI をより迅速に作成します。さまざまなユースケースやタスクに応じて、さまざまなプロンプトを試してください。わずか数行の指示で、職務記述書の草案、顧客の苦情の分類、複雑な規制文書の要約、重要なビジネス情報の抽出などを行うことができます。
English
Ejemplo: Traducir texto del español al inglés
Escenario: Traducir texto escrito en español al inglés.
Elección del modelo
El modelo mixtral-8x7b-instruct-v01 o mistral-large puede traducir textos del francés, alemán, italiano o español al inglés. Este ejemplo solicita al modelo que traduzca del español al inglés.
Parámetros del modelo
- Barandillas de IA : desactive la función de barandillas de IA porque podría marcar incorrectamente el contenido como inapropiado. La característica sólo está soportada con texto en inglés.
- Descodificación : Ajuste a Codicioso. El modelo debe devolver el mismo texto, sólo traducido. El modelo no puede ser creativo.
- Criterios de parada : Asegúrese de incluir una secuencia de parada para este modelo. De lo contrario, el modelo podría seguir generando nuevas frases y traducciones, incluso cuando la instrucción le indique que no lo haga. Para detener el modelo después de una frase, añada un punto (.) como secuencia de detención. Establezca el valor del parámetro de fichas máximas en 200.
Texto de solicitud
Pegue el siguiente texto en el editor de instrucciones de forma libre de Prompt Lab, seleccione el modelo, establezca los parámetros y haga clic en Generar para ver el resultado.
Translate the following text from Spanish to English. Do not give any extra response that is not part of the translation.
Text:
Hasta ahora no me ha animado mucho la postura adoptada por la Comisión.
Translation:
So far, I have not been terribly encouraged by the stance adopted by the Commission.
Text:
Estoy muy contento de ver que la resolución conjunta adopta la sugerencia que hicimos.
Translation:
Ejemplo: Traducir texto del inglés al japonés
Escenario: Traducir texto que está escrito en inglés al japonés.
Elección del modelo
El modelo granite-8b-japanese puede traducir textos del japonés al inglés y del inglés al japonés.
Parámetros del modelo
- Barandillas de IA : desactive la función de barandillas de IA porque podría marcar incorrectamente el contenido como inapropiado. La característica sólo está soportada con texto en inglés.
- Descodificación : Ajuste a Codicioso. El modelo debe devolver el mismo texto, sólo traducido. El modelo no puede ser creativo.
- Criterios de detención : Aumentar el número de tokens permitidos cambiando el valor del parámetro Max tokens a 500.
Texto de solicitud
Pegue el siguiente texto en el editor de instrucciones de forma libre de Prompt Lab, seleccione el modelo, establezca los parámetros y haga clic en Generar para ver el resultado.
Translate the following text from English to Japanese.
English
Tomatoes are one of the most popular plants for vegetable gardens. Tip for success: If you select varieties that are resistant to disease and pests, growing tomatoes can be quite easy. For experienced gardeners looking for a challenge, there are endless heirloom and specialty varieties to cultivate. Tomato plants come in a range of sizes.
日本語
トマトは野菜作りの人気の植物である。成功のヒント:病害虫に強く、育てやすいトマトの品種を選べば、トマト栽培はそれほど難しくない。経験豊富な庭師にとっては、手強い挑戦となる、様々な色や形のトマトの品種がある。トマトの品種は、大きさもいろいろである。
English
Use foundation models to create better AI, faster. Experiment with different prompts for various use cases and tasks. With just a few lines of instruction you can draft job descriptions, classify customer complaints, summarize complex regulatory documents, extract key business information and much more.
日本語
Ejemplo: Traducir texto del francés al inglés
Escenario: Traducir texto que está escrito en francés al inglés.
Elección del modelo
El modelo granite-20b-multilingual entiende inglés, alemán, español, francés y portugués. Este ejemplo solicita al modelo que traduzca el texto del francés al inglés.
Parámetros del modelo
- Barandillas de IA : desactive la función de barandillas de IA porque podría marcar incorrectamente el contenido como inapropiado. La característica sólo está soportada con texto en inglés.
- Descodificación : Ajuste a Codicioso. El modelo debe devolver el mismo texto, sólo traducido. El modelo no puede ser creativo.
- Criterios de detención : Establezca el valor del parámetro de fichas máximas en 200.
Texto de solicitud
Pegue el siguiente texto en el editor de instrucciones de forma libre de Prompt Lab, seleccione el modelo, establezca los parámetros y haga clic en Generar para ver el resultado.
Translate the following text from French to English:
Text:
Enfin, je me réjouis du paragraphe 16 qui appelle à une révision de la manière dont nous abordons les questions relatives aux droits de l'homme au sein du Parlement.
Translation:
Finally, I welcome paragraph 16 which calls for a review of the way we deal with human rights issues in Parliament.
Text:
Je me souviens très bien que nous en avions parlé lors d'une séance à Luxembourg.
Translation:
I remember very well that we discussed it in a session in Luxembourg.
Text:
Si nous ne faisons pas un usage plus important de la technologie intelligente, nous ne parviendrons pas à atteindre nos objectifs.
Translation:
Ejemplo: Traducir texto del inglés al árabe
Escenario: Traducir texto escrito en inglés al árabe.
Elección del modelo
El modelo allam-1-13b-instruct puede traducir textos del árabe al inglés y del inglés al árabe.
Parámetros del modelo
- Barandillas de IA : desactive la función de barandillas de IA porque podría marcar incorrectamente el contenido como inapropiado. La característica sólo está soportada con texto en inglés.
- Descodificación : Ajuste a Codicioso. El modelo debe devolver el mismo texto, sólo traducido. El modelo no puede ser creativo.
- Criterios de detención : Aumentar el número de tokens permitidos cambiando el valor del parámetro Max tokens a 500. El foundation model allam-1-13b-instruct suele explicar el significado del texto introducido después de traducirlo. Opcionalmente, puede indicar al motor de traducción ( foundation model ) que se detenga después de completar la traducción. Para ello, añada una instrucción que pida al traductor ( foundation model ) que añada una palabra clave, como
END
, después de la traducción. A continuación, agregue la misma palabra claveEND
como secuencia de parada.
Texto de solicitud
Pegue el siguiente texto en el editor de instrucciones de forma libre de Prompt Lab, seleccione el modelo, establezca los parámetros y haga clic en Generar para ver el resultado.
<s> [INST]Translate the following text from English to Arabic. Use "END" at the end of the translation.
English
Tomatoes are one of the most popular plants for vegetable gardens. Tip for success: If you select varieties that are resistant to disease and pests, growing tomatoes can be quite easy. For experienced gardeners looking for a challenge, there are endless heirloom and specialty varieties to cultivate. Tomato plants come in a range of sizes.
END
العربية
الطماطم هي واحدة من النباتات الأكثر شعبية لحدائق الخضروات. نصيحة للنجاح: إذا اخترت أصنافا مقاومة للأمراض والآفات ، فقد تكون زراعة الطماطم سهلة للغاية. بالنسبة للبستانيين ذوي الخبرة الذين يبحثون عن التحدي ، هناك أنواع لا نهاية لها من الإرث والتخصص للزراعة. تأتي نباتات الطماطم في مجموعة من الأحجام.
END
English
Use foundation models to create better AI, faster. Experiment with different prompts for various use cases and tasks. With just a few lines of instruction you can draft job descriptions, classify customer complaints, summarize complex regulatory documents, extract key business information and much more.
END
العربية
[/INST]
Tema principal: Prompt Lab