0 / 0
Volver a la versión inglesa de la documentación
Impulsar el foundation model granite-13b-chat-v2 de IBM
Última actualización: 28 nov 2024
Impulsar el foundation model granite-13b-chat-v2 de IBM

Experimente con la inferencia del foundation model IBM granite-13b-chat-v2 en watsonx.ai para ver cómo este versátil foundation model puede ayudarle a realizar diversas tareas.

El foundation model granite-13b-chat-v2 es un gran modelo lingüístico de 13.000 millones de parámetros diseñado para ayudar a los usuarios empresariales a realizar su trabajo. La serie IBM Granite de modelos básicos se entrena en conjuntos de datos especializados en empresas, lo que significa que los modelos están familiarizados con el lenguaje especializado y la jerga de diversos sectores y pueden generar más fácilmente contenidos basados en conocimientos relevantes del sector.

Para obtener más información sobre el foundation model granite-13b-chat-v2, como el número de versión y los detalles de ajuste de las instrucciones, consulte la tarjeta de modelo.

El foundation model granite-13b-chat-v2 está optimizado para los siguientes casos de uso:

Puesto que el modelo se puede utilizar para distintos casos de uso, para obtener los mejores resultados es necesario ajustar los parámetros del modelo y la solicitud del sistema.

Conversación con granite-13b-chat-v2

Para obtener los mejores resultados al chatear con el foundation model granite-13b-chat-v2, siga primero estas recomendaciones y luego experimente para obtener los resultados que desea.

La siguiente tabla enumera los parámetros recomendados del modelo para solicitar el ' granite-13b-chat-v2 ' foundation model para una tarea conversacional.

Tabla 1. Parámetros de modelo recomendados de la solicitud granite-13b-chat-v2 en una tarea conversacional
Parámetro Valor o rango recomendado Explicación
Decodificación Muestreo La decodificación de muestreo genera un texto más creativo, lo que ayuda a añadir interés y personalidad a las respuestas del chatbot. Sin embargo, también puede conducir a una salida impredecible. Puede controlar el grado de creatividad con el siguiente conjunto de parámetros de modelo.
Principales P: 0,85
Principales K: 50
Temperatura: 0.7
Todos estos parámetros de decodificación de muestreo funcionan conjuntamente. El modelo selecciona un subconjunto de señales entre las que elegir la señal a incluir en la salida.
El subconjunto incluye las 50 señales más probables (K superior) o las señales que, cuando se suman sus puntuaciones de probabilidad, alcanzan una puntuación total de 0.85 (P superior). El valor de temperatura relativamente baja de 0.7 amplifica la diferencia en las puntuaciones de señal. Como resultado, las señales que realizan el corte suelen ser las señales más probables.
• Para aumentar la creatividad y la diversidad de respuestas, aumente el valor de la temperatura.
• Si el modelo alucina, reduzca el valor de temperatura.
Penalización por repetición 1.05 Establezca la penalización en este valor bajo para evitar que el chatbot suene robótico repitiendo palabras o frases.
Semilla aleatoria Especifique sólo un valor para este valor si está probando algo y desea eliminar la aleatoriedad como factor de la prueba.
Por ejemplo, si desea cambiar la temperatura para ver cómo afecta a la salida, envíe la misma entrada repetidamente y cambie sólo el valor de temperatura cada vez. Especifique también un número, como por ejemplo 5, como la semilla aleatoria cada vez para eliminar las opciones de señal aleatoria que también afectan a la salida del modelo. El número en sí mismo no importa, siempre que especifique el mismo número cada vez.
Máximo de tokens 900 La longitud máxima de la ventana de contexto para el foundation model granite-13b-chat-v2, que incluye tanto los tokens de entrada como los de salida, es de 8192. Para obtener más información sobre las señales, consulte Señales y simbolización.
Con cada pregunta de seguimiento, el historial de conversaciones se incluye como parte de la solicitud del modelo. El foundation model granite-13b-chat-v2 puede mantener una conversación hasta 5 turnos o hasta que la entrada alcance los 4.000 tokens de longitud.

 

Para obtener más información sobre los parámetros del modelo, consulte Parámetros del modelo para solicitar.

Para solicitar al foundation model granite-13b-chat-v2 una tarea de chat, siga estos pasos:

  1. Desde el Prompt Lab en modo chat, elige el foundation model granite-13b-chat-v2.

    La modalidad de conversación tiene valores de parámetro de solicitud predeterminados que están optimizados para intercambios conversacionales, incluido un valor de Máx de señales superior.

    Muestra granite-13b-chat-v2 en modalidad de conversación de Prompt Lab

  2. En el panel Parámetros de modelo , aplique los valores de parámetro de modelo recomendados de la Tabla 1.

  3. En modalidad de conversación, puede enviar la entrada de usuario sin formatear el texto de entrada.

    La modalidad de conversación aplica el formato recomendado al texto de solicitud. Puede hacer clic en el icono de texto ' Ver texto de solicitud completo ' para ver cómo está formateado su texto.

  4. Para enviar la misma solicitud en modalidad de formato libre, debe configurar la solicitud del sistema.

    Añada instrucciones. Por ejemplo, se ha utilizado el siguiente texto de instrucción para entrenar el modelo y, por lo tanto, es familiar para el modelo.

    Usted es Granite Chat, un modelo de lenguaje de IA desarrollado por IBM. Usted es un asistente cauteloso. Usted sigue cuidadosamente las instrucciones. Usted es útil e inofensivo y sigue las pautas éticas y promueve un comportamiento positivo. Siempre respondes a los saludos (por ejemplo, hola, hola, g'day, mañana, tarde, noche, noche, lo que está arriba, agradable para conocerte, sup) con " Hola! Soy Granite Chat, creado por IBM. ¿Cómo puedo ayudarte hoy? ". Por favor, no diga nada más y no inicie una conversación.

    Para copiar el texto de solicitud del sistema recomendado, pulse el icono Copiar en portapapeles del siguiente fragmento de código.

    You are Granite Chat, an AI language model developed by IBM. You are a cautious assistant. You carefully follow instructions. You are helpful and harmless and you follow ethical guidelines and promote positive behavior. You always respond to greetings (for example, hi, hello, g'day, morning, afternoon, evening, night, what's up, nice to meet you, sup) with "Hello! I am Granite Chat, created by IBM. How can I help you today?". Please do not say anything else and do not start a conversation.
    

    Inicie una conversación.

    A continuación se muestra la estructura óptima para una solicitud que se utiliza para una tarea de conversación. La solicitud incluye sintaxis que identifica los siguientes segmentos de la solicitud:

    • <|system|>: Identifica la instrucción, que también se conoce como prompt del sistema para el foundation model.
    • <|user|>: el texto de consulta que se va a responder.
    • <|assistant|>: una señal al final de la solicitud que indica que se espera una respuesta generada.

    Cuando envíe solicitudes desde Prompt Lab en modalidad de formato libre, utilice el formato de solicitud esperado.

    <|system|>
    You are Granite Chat, an AI language model developed by IBM. You are a cautious assistant. You carefully follow instructions. You are helpful and harmless and you follow ethical guidelines and promote positive behavior. You always respond to greetings (for example, hi, hello, g'day, morning, afternoon, evening, night, what's up, nice to meet you, sup) with "Hello! I am Granite Chat, created by IBM. How can I help you today?". Please do not say anything else and do not start a conversation.
    <|user|>
    {PROMPT}
    <|assistant|>
    
    
  5. Haga preguntas de seguimiento para mantener la conversación.

    A continuación se muestra la estructura óptima para una solicitud que se utiliza para una conversación con varios giros de diálogo. Si envía solicitudes desde Prompt Lab en modalidad de formato libre, utilice este formato de solicitud.

    <|system|>
    You are Granite Chat, an AI language model developed by IBM. You are a cautious assistant. You carefully follow instructions. You are helpful and harmless and you follow ethical guidelines and promote positive behavior. You always respond to greetings (for example, hi, hello, g'day, morning, afternoon, evening, night, what's up, nice to meet you, sup) with "Hello! I am Granite Chat, created by IBM. How can I help you today?". Please do not say anything else and do not start a conversation.
    <|user|>
    {ROUND1_PROMPT}
    <|assistant|>
    {MODEL_RESPONSE}
    <|user|>
    {ROUND2_PROMPT}
    <|assistant|>
    
    

Para ver otra solicitud de ejemplo que ilustra el caso de uso de la conversación, consulte Ejemplo: Converse con granite-13b-chat-v2.

Para obtener más información sobre cómo utilizar la modalidad de conversación en Prompt Lab, consulte Prompt Lab.

Sugerencias para solicitar granite-13b-chat-v2 para tareas conversacionales

  • En las preguntas de seguimiento, evite los pronombres. Por ejemplo, pregunte "¿Qué representa la variable?" en lugar de "¿Qué representa it ?"

  • Si desea que el foundation model genere una respuesta en formato de tabla, pida explícitamente en el prompt que el modelo devuelva una tabla generada en markdown.

Devolución de respuestas objetivas con el patrón RAG

Para guiar al foundation model granite-13b-chat-v2 para que devuelva respuestas basadas en hechos, utilice el patrón de generación de recuperación aumentada. La generación aumentada de recuperación justifica la entrada que envía al modelo con información de hechos sobre el tema que se va a tratar. Para obtener más información, consulte Recuperación de generación aumentada (RAG).

Cuando desee devolver respuestas objetivas del foundation model granite-13b-chat-v2, siga estas recomendaciones.

La siguiente tabla enumera los parámetros del modelo recomendados para solicitar el ' granite-13b-chat-v2 ' foundation model para una tarea de generación aumentada por recuperación.

Tabla 2. Parámetros de modelo recomendados de la solicitud granite-13b-chat-v2 en una tarea RAG
Parámetro Valor o rango recomendado Explicación
Decodificación Codiciosa La descodificación codiciosa elige las señales sólo de las opciones más probables, lo que es mejor cuando desea respuestas objetivas.
Penalización por repetición 1 Utilice el valor más bajo. La repetición es aceptable cuando el objetivo es respuestas objetivas.
Máximo de tokens 500 El modelo puede responder a la pregunta de la forma más completa posible.
' Recuerde que la longitud máxima de la ventana de contexto para el foundation model granite-13b-chat-v2, que incluye tanto los tokens de entrada como los de salida, es de 8192. Mantenga la entrada, incluido el documento que añade para poner a tierra la solicitud, dentro de ese límite. Para obtener más información sobre las señales, consulte Señales y tokenización.
Criterios de detención < |texto | > Una característica útil del foundation model granite-13b-chat-v2 es la inclusión de un token especial que se llama <|endoftext|> al final de cada respuesta. Cuando algunos modelos generativos devuelven una respuesta a la entrada en menos señales que el número máximo permitido, pueden repetir patrones de la entrada. Este modelo evita dicha repetición al incorporar una secuencia de detención fiable para la solicitud.

 

Para obtener más información sobre los parámetros del modelo, consulte Parámetros del modelo para solicitar.

Para solicitar al foundation model granite-13b-chat-v2 una tarea de generación aumentada por recuperación, siga estos pasos:

  1. Busque recursos fiables con información de hechos sobre el tema que desea que el modelo discuta y que tiene permiso para utilizar. Copie un extracto del documento o documentos en un editor de texto u otra herramienta donde pueda acceder a él más adelante.

    Por ejemplo, el recurso puede ser información del producto del sitio web de su empresa o de la documentación del producto.

  2. En Prompt Lab, abra la modalidad de formato libre para poder estructurar las solicitudes. Elija el foundation model granite-13b-chat-v2.

  3. En el panel Parámetros de modelo , establezca los parámetros de modelo recomendados en la Tabla 2.

  4. En la solicitud, defina claramente la solicitud del sistema, la entrada del usuario y dónde debe ir la salida del modelo.

    Por ejemplo, la siguiente estructura de consulta puede ayudar al foundation model granite-13b-chat-v2 a devolver información relevante.

    <|system|>
    You are Granite Chat, an AI language model developed by IBM. You are a cautious assistant. You carefully follow instructions. You are helpful and harmless and you follow ethical guidelines and promote positive behavior.
    <|user|>
    You are an AI language model designed to function as a specialized Retrieval Augmented Generation (RAG) assistant. When generating responses, prioritize correctness, i.e., ensure that your response is grounded in context and user query. Always make sure that your response is relevant to the question.
    Answer Length: {ANSWER_LENGTH}
    [Document]
    {DOCUMENT1_TITLE}
    {DOCUMENT1_CONTENT}
    [End]
    [Document]
    {DOCUMENT2_TITLE}
    {DOCUMENT2_CONTENT}
    [End]
    [Document]
    {DOCUMENT3_TITLE}
    {DOCUMENT3_CONTENT}
    [End]
    {QUERY}
    <|assistant|>
    
    

    Nota: El inicio y el final del contenido del documento se indican mediante las etiquetas especiales [Document] y [End]. Utilice una sintaxis similar si desea añadir etiquetas especiales que identifiquen tipos de contenido o cabeceras de subsección en las solicitudes. Cuando se creó el foundation model granite-13b-chat-v2, se le entrenó para manejar las siguientes etiquetas especiales:

    • <|system|>: Identifica la instrucción, que también se conoce como prompt del sistema para el foundation model.
    • <|user|>: el texto de consulta que se va a responder.
    • <|assistant|>: una señal al final de la solicitud que indica que se espera una respuesta generada.

    No utilice la misma sintaxis de <|tagname|> para las etiquetas personalizadas o puede confundir el modelo.

  5. Si copia esta plantilla de solicitud, después de pegarla en el editor de Prompt Lab, sustituya las variables de marcador.

    Tabla 2a: Variables de marcador de plantilla RAG
    Variable de marcador Descripción Ejemplos
    {ANSWER_LENGTH} Opcional. Define la longitud de respuesta esperada para la respuesta. Las opciones incluyen (de respuestas más cortas a más largas): single word, concise, narrative
    {DOCUMENTn_TITLE} Título del documento del que se toma el extracto con información de hecho. Puede incluir contenido de más de un documento. Folleto del producto
    {DOCUMENTn_CONTENT} Extracto de texto con la información de hechos que desea que el modelo sea capaz de discutir con conocimiento. Texto de un folleto de marketing, documentación del producto, sitio web de la empresa u otro recurso de confianza.
    {QUERY} Pregunta que debe responderse objetivamente. Una pregunta sobre el tema que se trata en el documento.

     

    Sugerencia: De forma alternativa, puede definir y utilizar una variable de solicitud para el documento para que la solicitud se pueda reutilizar y el contenido se pueda sustituir dinámicamente cada vez. Para obtener más información, consulte Creación de solicitudes reutilizables.

Recuperación-ejemplo de solicitud de generación aumentada

El siguiente aviso utiliza el foundation model granite-13b-chat-v2 para responder a preguntas sobre el ajuste de los avisos.

Nota: El contenido del documento se toma del tema Métodos para ajustar modelos de base .

<|system|>
You are Granite Chat, an AI language model developed by IBM. You are a cautious assistant. You carefully follow instructions. You are helpful and harmless and you follow ethical guidelines and promote positive behavior.
<|user|>
You are an AI language model designed to function as a specialized Retrieval Augmented Generation (RAG) assistant. When generating responses, prioritize correctness, i.e., ensure that your response is grounded in context and user query. Always make sure that your response is relevant to the question.
Answer length: concise
[Document]
How prompt-tuning works
Foundation models are sensitive to the input that you give them. Your input, or how you prompt the model, can introduce context that the model will use to tailor its generated output. Prompt engineering to find the right prompt often works well. However, it can be time-consuming, error-prone, and its effectiveness can be restricted by the context window length that is allowed by the underlying model.
Prompt-tuning a model in the Tuning Studio applies machine learning to the task of prompt engineering. Instead of adding words to the input itself, prompt-tuning is a method for finding a sequence of values that, when added as a prefix to the input text, improve the model's ability to generate the output you want. This sequence of values is called a prompt vector.
Normally, words in the prompt are vectorized by the model. Vectorization is the process of converting text to tokens, and then to numbers defined by the model's tokenizer to identify the tokens. Lastly, the token IDs are encoded, meaning they are converted into a vector representation, which is the input format that is expected by the embedding layer of the model. Prompt-tuning bypasses the model's text-vectorization process and instead crafts a prompt vector directly. This changeable prompt vector is concatenated to the vectorized input text and the two are passed as one input to the embedding layer of the model. Values from this crafted prompt vector affect the word embedding weights that are set by the model and influence the words that the model chooses to add to the output.
To find the best values for the prompt vector, you run a tuning experiment. You demonstrate the type of output that you want for a corresponding input by providing the model with input and output example pairs in training data. With each training run of the experiment, the generated output is compared to the training data output. Based on what it learns from differences between the two, the experiment adjusts the values in the prompt vector. After many runs through the training data, the model finds the prompt vector that works best.
[End]
How does prompt tuning work?
<|assistant|>

El foundation model granite-13b-chat-v2 genera un resumen preciso de cómo funciona la sintonización rápida que se basa en la información del contenido del documento que se proporcionó con la entrada.

La salida tiene un aspecto similar al siguiente:

El ajuste de solicitud es un método para mejorar la capacidad de un modelo para generar salidas específicas ajustando una secuencia de valores denominada vector de solicitud. En lugar de añadir directamente palabras a la entrada, el ajuste de solicitud crea un vector de solicitud que influye directamente en la palabra que incorpora las ponderaciones establecidas por el modelo. Esto se consigue vectorizando el texto de entrada y codificando los ID de señal en una representación de vector, que luego se concatena con el vector de solicitud específico y se pasa como una entrada a la capa de inclusión del modelo. El experimento ajusta los valores en el vector de solicitud basándose en las diferencias entre la salida generada y la salida deseada en los ejemplos de datos de entrenamiento. En muchas ejecuciones a través de los datos de entrenamiento, el modelo encuentra el vector de solicitud que mejor funciona.

 

Tareas de NLP

Puede utilizar el foundation model granite-13b-chat-v2 para tareas de procesamiento del lenguaje natural como la clasificación y la extracción. Cuando se creó el modelo granite-13b-chat-v2, se entrenó para realizar este tipo de tareas de procesamiento del lenguaje natural.

Durante el entrenamiento del modelo, las solicitudes que se utilizaron para entrenar el modelo siguieron un formato específico por tipo de tarea. Cuando utilice el modelo para realizar una de estas tareas, imite el formato establecido en las solicitudes que envíe.

Clasificación

Para utilizar el foundation model granite-13b-chat-v2 para clasificar la información, siga estas recomendaciones.

La siguiente tabla enumera los parámetros del modelo recomendados para solicitar el ' granite-13b-chat-v2 ' foundation model para una tarea de clasificación.

Tabla 3. Parámetros de modelo recomendados de la solicitud granite-13b-chat-v2 en una tarea de clasificación
Parámetro Valor o rango recomendado Explicación
Decodificación Codiciosa La descodificación codiciosa elige las señales sólo de las opciones más probables, lo que es mejor cuando desea clasificar el texto.
Penalización por repetición 1 Utilice el valor más bajo. Se espera una repetición.
Máximo de tokens varía Utilice un valor que cubra el número de señales de la etiqueta de clase más larga, como por ejemplo 5 o 10. La limitación de las señales anima al modelo a devolver sólo la etiqueta de clase adecuada y nada más.
Criterios de detención Añada cada etiqueta de clase soportada como una secuencia de detención. La adición de las clases como secuencias de detención fuerza al modelo a dejar de generar texto después de que se asigne una clase a la entrada.

 

Para solicitar al foundation model granite-13b-chat-v2 que realice una tarea de clasificación, siga estos pasos:

  1. Identifique las clases o etiquetas de clasificación que desea que el modelo asigne a la entrada. Asegúrese de listar estas etiquetas de clase en el segmento de instrucción de la solicitud.

    Por ejemplo, si desea clasificar las revisiones de productos de cliente como positivas o negativas, puede definir dos etiquetas de clase: Postitive y Negative.

  2. Recopile dos o tres ejemplos representativos del tipo de texto de entrada que desea que clasifique el modelo.

  3. Trabaje con el foundation model granite-13b-chat-v2 del Prompt Lab en modo libre para poder estructurar sus prompts.

  4. En el panel Parámetros de modelo , establezca los parámetros de modelo recomendados en la Tabla 3.

  5. En la solicitud, identifique claramente la solicitud del sistema, la entrada del usuario y dónde debe ir la salida del modelo.

    Por ejemplo, cuando se entrenó el foundation model granite-13b-chat-v2 para clasificar texto, se utilizó la siguiente estructura de instrucciones:

    <|system|>
    You are Granite Chat, an AI language model developed by IBM. You are a cautious assistant. You carefully follow instructions. You are helpful and harmless and you follow ethical guidelines and promote positive behavior.
    <|user|>
    {INSTRUCTION}
    Your response should only include the answer. Do not provide any further explanation.
    Here are some examples, complete the last one:
    {INPUT_LABEL}:
    {ICL_INPUT_1}
    {OUTPUT_LABEL}:
    {ICL_OUTPUT_1}
    {INPUT_LABEL}:
    {ICL_INPUT_2}
    {OUTPUT_LABEL}:
    {ICL_OUTPUT_2}
    {INPUT_LABEL}:
    {TEST_INPUT}
    {OUTPUT_LABEL}:
    <|assistant|>
    
    

    Puede utilizar una estructura similar para aprovechar el entrenamiento del modelo. Simplemente sustituya las variables de marcador en la plantilla de solicitud.

    Tabla 3a: Variables de marcador de plantilla de clasificación
    Variable de marcador Descripción Ejemplos
    {INSTRUCTION} Descripción de la tarea. Incluya una lista de las clases que desea que el modelo asigne a la entrada. Para cada revisión de producto, indique si la revisión es positiva o negativa.
    {INPUT_LABEL} Etiqueta corta para el texto que se va a clasificar. Input, Customer review, Feedback, Comment
    {OUTPUT_LABEL} Etiqueta corta que representa el valor de clasificación. Class
    {ICL_INPUT_N} Opcional. Ejemplos de texto de entrada que se va a clasificar. Añada ejemplos cuando desee utilizar una solicitud de pocos disparos para dar soporte al aprendizaje en contexto. The service representative did not listen to a word I said. It was a waste of my time.
    {ICL_OUTPUT_N} Salidas de ejemplo con etiquetas de clase asignadas a los ejemplos de texto de entrada correspondientes. Positive, Negative

 

Ejemplo de solicitud de clasificación

La siguiente solicitud clasifica los comentarios que los clientes comparten sobre el personal del centro de soporte.

<|system|>
You are Granite Chat, an AI language model developed by IBM. You are a cautious assistant. You carefully follow instructions. You are helpful and harmless and you follow ethical guidelines and promote positive behavior.
<|user|>
For each feedback, specify whether the content is Positive or Negative. Your response should only include the answer. Do not provide any further explanation.
Here are some examples, complete the last one:
Feedback:
Carol, the service rep was so helpful. She answered all of my questions and explained things beautifully.
Class:
Positive
   
Feedback:
The service representative did not listen to a word I said. It was a waste of my time.
Class:
Negative
   
Feedback:
Carlo was so helpful and pleasant. He was able to solve a problem that I've been having with my software for weeks now.
Class:
<|assistant|>

La salida que genera el foundation model granite-13b-chat-v2 cuando se envía esta solicitud es ' Positive.

Extracción

Para utilizar el foundation model granite-13b-chat-v2 para extraer información, siga estas recomendaciones.

La siguiente tabla enumera los parámetros del modelo recomendados para solicitar el ' granite-13b-chat-v2 ' foundation model para una tarea de extracción.

Tabla 4. Parámetros de modelo recomendados de la solicitud granite-13b-chat-v2 en una tarea de extracción
Parámetro Valor o rango recomendado Explicación
Decodificación Codiciosa La descodificación codiciosa elige las señales sólo de las opciones más probables, lo que es mejor cuando desea extraer texto.
Máximo de tokens varía Utilice un valor que cubra el número de señales en la mención más larga del tipo de información que desea extraer, como 5 o 10. La limitación de las señales anima al modelo a devolver sólo la etiqueta de clase adecuada y nada más.
Criterios de detención Añada cada etiqueta de clase soportada como una secuencia de detención. La adición de las clases como secuencias de detención fuerza al modelo a dejar de generar texto después de que se asigne una clase a la entrada.

 

Para solicitar al foundation model granite-13b-chat-v2 una tarea de extracción, siga estos pasos:

  1. Identifique los tipos de información que desea que el modelo extraiga de la entrada. Asegúrese de listar estas etiquetas de tipo de información en el segmento de instrucción de la solicitud.

    Por ejemplo, si desea extraer partes clave de la información del formulario de 10 K de US Securities and Exchange Commission de una empresa, puede identificar un tipo de información como, por ejemplo, Line Of Credit Facility Maximum Borrowing Capacity.

  2. Recopile 2 o 3 ejemplos representativos de texto de entrada con el tipo de información que desea que extraiga el modelo.

  3. Trabaje con el foundation model granite-13b-chat-v2 del Prompt Lab en modo libre para poder estructurar sus prompts.

  4. En el panel Parámetros de modelo , establezca los parámetros de modelo recomendados en la Tabla 4.

  5. Identifique claramente la solicitud del sistema, la entrada del usuario y dónde debe ir la salida del modelo.

    Por ejemplo, cuando se entrenó el foundation model granite-13b-chat-v2 para extraer información del texto, se utilizó la siguiente estructura de instrucciones:

    <|system|>
    You are Granite Chat, an AI language model developed by IBM. You are a cautious assistant. You carefully follow instructions. You are helpful and harmless and you follow ethical guidelines and promote positive behavior.
    <|user|>
    {INSTRUCTION}
    Your response should only include the answer. Do not provide any further explanation.
    Here are some examples, complete the last one:
    {INPUT_LABEL}:
    {ICL_INPUT_1}
    {OUTPUT_LABEL}:
    {ICL_OUTPUT_1}
    {INPUT_LABEL}:
    {ICL_INPUT_2}
    {OUTPUT_LABEL}:
    {ICL_OUTPUT_2}
    {INPUT_LABEL}:
    {TEST_INPUT}
    {OUTPUT_LABEL}:
    <|assistant|>
    
    

    Puede utilizar una estructura similar para aprovechar el entrenamiento del modelo. Simplemente sustituya las variables de marcador en la plantilla de solicitud.

    Tabla 4a: Variables de marcador de plantilla de extracción
    Variable de marcador Descripción
    {INSTRUCTION} Descripción de la tarea. Incluya una lista de los tipos de información que desea que el modelo extraiga de la entrada.
    {INPUT_LABEL} Etiqueta corta para el texto que se va a clasificar.
    {OUTPUT_LABEL} Etiqueta corta que representa el valor extraído.
    {ICL_INPUT_N} Opcional. Ejemplos de texto de entrada con tipos de información que se extraerán. Añada ejemplos cuando desee utilizar una solicitud de pocos disparos para dar soporte al aprendizaje en contexto.
    {ICL_OUTPUT_N} Salidas de ejemplo con tipos de información extraídos de las entradas correspondientes.

 

Ejemplo de solicitud de extracción

La siguiente solicitud extrae el valor de Capacidad de Préstamo Máxima de Línea de Facilidad de Crédito del formulario SEC 10-K de una compañía.

<|system|>
You are Granite Chat, an AI language model developed by IBM. You are a cautious assistant. You carefully follow instructions. You are helpful and harmless and you follow ethical guidelines and promote positive behavior.
<|user|>
Extract the Line Of Credit Facility Maximum Borrowing Capacity from the 10K sentences.
Your response should only include the answer. Do not provide any further explanation.
Here are some examples, complete the last one:
10K Sentence:
The credit agreement also provides that up to $500 million in commitments may be used for letters of credit.
Line Of Credit Facility Maximum Borrowing Capacity:
$500M

10K Sentence:
In March 2020, we upsized the Credit Agreement by $100 million, which matures July 2023, to $2.525 billion.
Line Of Credit Facility Maximum Borrowing Capacity:
$2.525B

10K Sentence:
We prepared our impairment test as of October 1, 2022 and determined that the fair values of each of our reporting units exceeded net book value by more than 50%. Among our reporting units, the narrowest difference between the calculated fair value and net book value was in our Principal Markets segment's Canada reporting unit, whose calculated fair value exceeded its net book value by 53%. Future developments related to macroeconomic factors, including increases to the discount rate used, or changes to other inputs and assumptions, including revenue growth, could reduce the fair value of this and/or other reporting units and lead to impairment. There were no goodwill impairment losses recorded for the nine months ended December 31, 2022. Cumulatively, the Company has recorded $469 million in goodwill impairment charges within its former EMEA ($293 million) and current United States ($176 million) reporting units. Revolving Credit Agreement In October 2021, we entered into a $3.15 billion multi-currency revolving credit agreement (the "Revolving Credit Agreement") for our future liquidity needs. The Revolving Credit Agreement expires, unless extended, in October 2026. Interest rates on borrowings under the Revolving Credit Agreement are based on prevailing market interest rates, plus a margin, as further described in the Revolving Credit Agreement. The total expense recorded by the Company for the Revolving Credit Agreement was not material in any of the periods presented. We may voluntarily prepay borrowings under the Revolving Credit Agreement without premium or penalty, subject to customary "breakage" costs. The Revolving Credit Agreement includes certain customary mandatory prepayment provisions. Interest on Debt Interest expense for the three and nine months ended December 31, 2022 was $27 million and $65 million, compared to $18 million and $50 million for the three and nine months ended December 31, 2021. Most of the interest for the pre-Separation period presented in the historical Consolidated Income Statement reflects the allocation of interest expense associated with debt issued by IBM from which a portion of the proceeds benefited Kyndryl.
Line Of Credit Facility Maximum Borrowing Capacity:
<|assistant|>

La salida que genera el foundation model granite-13b-chat-v2 cuando se envía esta solicitud es ' $3.15B.

Más información

Para saber más sobre el foundation model granite-13b-chat-v2, lea los siguientes recursos:

Tema principal: IBM

Búsqueda y respuesta de IA generativa
Estas respuestas las genera un modelo de lenguaje grande en watsonx.ai que se basa en el contenido de la documentación del producto. Más información