0 / 0

Creación de un experimento de sintonización de señales

Última actualización: 01 may 2025
Creación de un experimento de sintonización de señales

Cree un experimento de ajuste rápido que pueda ejecutar para ajustar rápidamente un modelo de base.

Tarea previa : Tuning Studio

Para continuar con el ajuste rápido de un modelo de cimentación, siga estos pasos:

  1. Elija cómo inicializar el aviso entre las siguientes opciones:

    Text
    Utiliza el texto que especifiques.
    RANDOM
    Utiliza valores que se generan para usted como parte del experimento de ajuste.

    Estas opciones están relacionadas con el método de ajuste rápido de los modelos. Para obtener más información sobre cómo afecta cada opción al experimento de sintonización, consulte Cómo funciona la sintonización rápida.

  2. Requerido sólo para el método de inicialización de texto: Añade el texto de inicialización que quieras incluir con el prompt.

    • Para una tarea de clasificación, proporcione una instrucción que describa lo que desea clasificar y enumere las etiquetas de clase que se utilizarán. Por ejemplo, Clasificar si el sentimiento de cada comentario es Positivo o Negativo.
    • Para una tarea generativa, describa lo que desea que el modelo proporcione en la salida. Por ejemplo, Presente argumentos a favor de permitir a los empleados trabajar desde casa algunos días a la semana.
    • Para una tarea de resumen, dé una instrucción como, Resuma los puntos principales de la transcripción de una reunión.
  3. Elija un tipo de tarea.

    Elija el tipo de tarea que más se ajuste a lo que quiere que haga el modelo:

    Clasificación
    Predice etiquetas categóricas a partir de características. Por ejemplo, ante un conjunto de comentarios de un cliente, puede etiquetar cada afirmación como una pregunta o un problema. Al separar los problemas de los clientes, puede encontrarlos y abordarlos más rápidamente. Este tipo de tarea se encarga de la clasificación de una sola etiqueta.
    Generación
    Genera texto. Por ejemplo, escribe un correo electrónico promocional.
    Resumen
    Genera textos que describen las ideas principales que se expresan en un cuerpo de texto. Por ejemplo, resume un trabajo de investigación.

    Sea cual sea la tarea que elija, la entrada se envía al modelo de base subyacente como un tipo de solicitud generativa durante el experimento. La información adicional que comparte sobre su objetivo se utiliza en tareas de clasificación, por ejemplo, cuando los nombres de las clases que especifica se tienen en cuenta en las indicaciones que se utilizan para ajustar el modelo.

  4. Requerido sólo para tareas de clasificación: En el campo Salida de clasificación, añada las etiquetas de clase que desea que el modelo utilice de una en una.

    Importante: Especifique las mismas etiquetas que se utilizan en sus datos de entrenamiento.

    Durante el experimento de ajuste, la información de la etiqueta de clase se envía junto con los ejemplos de entrada de los datos de entrenamiento.

  5. Opcional: Si desea cambiar el formato de las muestras de entrenamiento cuando se envíen al modelo base durante un experimento de ajuste, haga clic en Sí, editar en la ventana ¿Necesitan sus indicaciones un formato especial? sección.

    Para obtener más información, consulte Edición del verbalizador para el ajuste de avisos.

  6. Añade los datos de entrenamiento que se utilizarán para ajustar el modelo. Puede cargar un archivo o utilizar un activo de su proyecto.

    Para ver ejemplos de cómo dar formato a su archivo, amplíe ¿Cómo deben ser sus datos?, y, a continuación, haga clic en Ver plantilla. Para más información, véase Formatos de datos.

  7. Opcional: Si quieres cambiar el tamaño de token de los ejemplos que se utilizan durante el entrenamiento, amplía ¿Cómo deberían ser tus datos? para hacer ajustes.

    Para obtener más información, consulte Configuración de los límites de los tokens de ajuste de avisos.

  8. Opcional: Haga clic en Configurar parámetros para editar los parámetros que utiliza el experimento de sintonización.

    La ejecución de ajuste se configura con valores de parámetros que representan un buen punto de partida para ajustar un modelo. Puede ajustarlos si lo desea.

    Para obtener más información sobre los parámetros disponibles y lo que hacen, consulte Parámetros de ajuste.

    Después de cambiar los valores de los parámetros, haga clic en Guardar.

  9. Haz clic en Iniciar afinación.

Comienza el experimento de sintonización. Puede tardar entre unos minutos y unas horas, dependiendo del tamaño de los datos de entrenamiento y de la disponibilidad de recursos informáticos. Una vez finalizado el experimento, el estado se muestra como completado.

Un activo de modelo ajustado no se crea hasta después de crear un despliegue a partir de un experimento de ajuste completado. Para obtener más información, consulte Despliegue de un modelo sintonizado.

Edición del verbalizador para la sintonización rápida

Puede editar el verbalizador que se utiliza para el ajuste del modelo de cimentación.

El verbalizador para la sintonización rápida tiene el siguiente formato:

Input: {{input}} Output:

El formato por defecto añade la palabra Input: antes del texto de entrada y añade Output: después del texto de entrada para mostrar al modelo de la fundación dónde añadir el texto generado.

Es posible que desee personalizar el verbalizador si un texto prefijo más descriptivo puede guiar al modelo de fundamentos para generar mejores respuestas. Para ajustar un modelo de base para resumir artículos, por ejemplo, puede cambiar el verbalizador de la siguiente manera:

Article: {{input}} Summary: 

Al utilizar los prefijos Article y Summary en lugar de los genéricos Input y Output, le das al modelo de la fundación más información contextual sobre la entrada y la salida esperada.

Para los modelos de base que están diseñados para casos de uso de chat, el verbalizador por defecto tiene un formato más simple:

{{input}}

Siga estas pautas cuando cambie el verbalizador:

  • Cambie el verbalizador sólo después de que la ingeniería haya validado que el formato personalizado mejora el resultado del modelo de cimentación.

  • No edite la variable {{input}}.

    Esta variable indica al experimento de ajuste que extraiga texto del segmento input de las muestras del archivo de datos de entrenamiento.

  • Para las tareas de clasificación, las etiquetas de clase que especifique se pasan automáticamente al modelo de base. No es necesario especificarlos en el verbalizador personalizado.

    Sin embargo, si la ingeniería de avisos demuestra que el uso de prefijos para representar la información que se está clasificando genera mejores resultados, puede cambiar el verbalizador para que utilice esos prefijos. Para una tarea en la que desee clasificar las opiniones de los clientes, podría utilizar Feedback: {{input}} Class:, por ejemplo.

  • Si cambia el verbalizador que se utiliza para sintonizar un modelo de base, utilice los mismos prefijos cuando inferencia el modelo sintonizado más tarde.

    Por ejemplo, si el verbalizador personalizado es Article: {{input}} Summary:, especifique su consulta de la siguiente manera cuando infiera el modelo de base sintonizado desde el modo de forma libre en Prompt Lab :

    Article: IBM watsonx Challenge empowers partners to solve real-world problems with AI. In June, IBM invited ecosystem partners in Europe, the Middle East and Africa to participate in an IBM watsonx Challenge, a hands-on experience designed to bring the watsonx platform capabilities to some of the most important members of the IBM ecosystem.These ecosystem partners, who sell, build or service IBM technologies, enthusiastically embraced the challenge. Participants formed teams and focused on quickly crafting a solution to one of three selected challenges. The challenges included using prompt engineering to analyze customer experience by using IBM® watsonx.ai, automating repetitive manual tasks to improve productivity by using IBM watsonx Orchestrate, and building a generative AI-powered virtual assistant by using IBM watsonx™ Assistant and IBM watsonx™ Discovery. This experience enabled passionate learners to experience exciting new generative AI technologies firsthand and it led to innovation and creativity.
    Summary: 
    

    Desde el modo estructurado, cambie los prefijos de los marcadores de posición en la sección Probar. Cambie Input por Article y cambie Output por Summary, por ejemplo.

Establecer los límites de los tokens de ajuste de avisos

En los modelos de lenguaje natural, las palabras se convierten en tokens. 256 tokens equivalen aproximadamente a 130-170 palabras. 128 tokens equivalen aproximadamente a 65-85 palabras. Sin embargo, las cifras de fichas son difíciles de estimar y pueden variar según el modelo. Para obtener más información, consulte Tokenens y tokenización.

Puede cambiar el número de tokens que se permiten en la entrada y salida del modelo durante un experimento de ajuste de avisos.

Cuadro 1: Parámetros del número de ficha
Nombre de parámetro Valor predeterminado Opciones de valor Opciones de valor sólo para flan-t5-xl-3b
Número máximo de tokens de entrada 256 1-1024 1-256
Máximo de tokens de salida 128 1-512 1-128

Cuanto mayor sea el número de tokens de entrada y salida permitidos, más tiempo se tardará en afinar el modelo. Utilice en sus ejemplos el menor número posible de tokens que sea posible utilizar pero que siga representando adecuadamente su caso de uso.

Ya tienes cierto control sobre el tamaño de la entrada. El texto de entrada que se utiliza durante un experimento de ajuste procede de sus datos de entrenamiento. Por lo tanto, puede gestionar el tamaño de las entradas manteniendo las entradas de ejemplo en una longitud determinada. Sin embargo, es posible que reciba datos de formación sin curar de otro equipo o proceso. En ese caso, puede utilizar el control deslizante Máximo de tokens de entrada para gestionar el tamaño de entrada. Si establece el parámetro en 200 y los datos de entrenamiento tienen una entrada de ejemplo con 1.000 tokens, por ejemplo, el ejemplo se trunca. Sólo se utilizan los primeros 200 tokens de la entrada de ejemplo.

El valor Máximo de tokens de salida es importante porque controla el número de tokens que el modelo puede generar como salida en tiempo de entrenamiento. Puede utilizar el control deslizante para limitar el tamaño de la salida, lo que ayuda al modelo a generar una salida concisa.

Consejo: Para tareas de clasificación, minimizar el tamaño de la salida es una buena forma de forzar a un modelo generativo a devolver sólo la etiqueta de clase, sin repetir el patrón de clasificación en la salida.

Más información

Tema principal: Tuning Studio