Promover los modelos de cimientos IBM Granite Code
Experimente con la inferencia de los modelos de la base IBM Granite Code en watsonx.ai para ayudarle a realizar tareas de codificación.
La serie Granite de modelos de código sólo decodificadores son modelos básicos de nivel empresarial que están ajustados a las instrucciones para tareas de generación de código, como la corrección de errores, la explicación de código y la documentación de código.
Los modelos se entrenan con datos cuya licencia está permitida y que se recopilaron siguiendo los principios éticos de la IA, y con un proceso guiado por el equipo jurídico corporativo de IBM para un uso empresarial fiable.
En watsonx.ai están disponibles los siguientes modelos de cimientos Granite Code ajustados a las instrucciones. Puede hacer clic en el nombre del modelo para abrir la ficha del mismo.
- tarjeta modelogranite-3b-code-instruct
- tarjeta modelogranite-8b-code-instruct
- tarjeta modelogranite-20b-code-instruct
- tarjeta modelogranite-34b-code-instruct
Inferencia de los modelos del Código Granite
Para obtener los mejores resultados al utilizar los modelos de cimientos del Código Granite, siga primero estas recomendaciones y luego experimente hasta obtener los resultados que desea.
La siguiente tabla enumera los parámetros recomendados del modelo para solicitar el modelo de base de código de la Fundación para la Normalización de la Codificación ( Granite ).
Parámetro | Valor o rango recomendado | Explicación |
---|---|---|
Decodificación | Codiciosa | La descodificación codiciosa elige fichas sólo entre las opciones más probables, lo que es mejor cuando se quiere que el modelo siga instrucciones y sea menos creativo. |
Penalización por repetición | 1.05 | Establezca la penalización en este valor bajo para evitar que el chatbot suene robótico repitiendo palabras o frases. |
Criterios de detención | <|endoftext|> | Una característica útil del modelo de código base de Granite es la inclusión de un símbolo especial llamado <|endoftext|> al final de cada respuesta. Cuando algunos modelos generativos devuelven una respuesta a la entrada en menos tokens que el número máximo permitido, pueden repetir patrones de la entrada. Este modelo evita tal repetición incorporando una secuencia de parada fiable para el indicador. |
Máximo de tokens | 900 | La longitud máxima de la ventana de contexto para los modelos de código es de 8.192. Para más información sobre tokens, consulte Tokens y tokenización. |
Para obtener más información sobre los parámetros del modelo, consulte Parámetros del modelo para el aviso.
Solicitar a los modelos de la Prompt Lab
Para solicitar el modelo de base Código de la Fundación de la Interacción con el Cliente ( Granite ) desde la interfaz de usuario del producto, siga estos pasos:
Desde el modo de forma libre de la aplicación Prompt Lab, elija uno de los modelos de base de maquillaje Code disponibles de Granite.
En el panel Parámetros del modelo, aplique los valores de los parámetros del modelo recomendados en la Tabla 1.
Añada su pregunta y haga clic en Generar.
Puede utilizar muestras de avisos de la sección Pruébelo.
Para obtener más información sobre el uso de la Prompt Lab, consulte Prompt Lab.
Consejos para solicitar los modelos del Código Granite
Si la respuesta se interrumpe, aumente el ajuste de tokens de salida máxima para asegurarse de que el modelo no corta la respuesta del código, dando lugar a un código incompleto.
No añada espacios en blanco adicionales. Incluya sólo un salto de línea al final del mensaje.
Indicación opcional del sistema
Las solicitudes que envíe a los modelos de Granite Code no requieren una solicitud del sistema. Sin embargo, etiquete el " Question
y el " Answer
" para ayudar al modelo a entender la solicitud, como se muestra en la siguiente plantilla:
Question:
{PROMPT}
Answer:
Si la respuesta del modelo no es válida o es inesperada, pruebe a añadir una consulta al sistema. Utilice el mismo indicador del sistema que se utilizó cuando se ajustaron los modelos a las instrucciones:
' Eres un asistente de programación inteligente de IA, que utiliza un modelo de lenguaje de código Granite desarrollado por IBM. Tu función principal es ayudar a los usuarios en tareas de programación, incluyendo generación de código, explicación de código, corrección de código, generación de pruebas unitarias, generación de documentación, modernización de aplicaciones, detección de vulnerabilidades, llamada a funciones, traducción de código y todo tipo de tareas de ingeniería de software.
Puede copiar y pegar la siguiente plantilla que incluye el prompt del sistema:
System:
"You are an intelligent AI programming assistant, utilizing a Granite code language model developed by IBM. Your primary function is to assist users in programming tasks, including code generation, code explanation, code fixing, generating unit tests, generating documentation, application modernization, vulnerability detection, function calling, code translation, and all sorts of other software engineering tasks."
Question:
{PROMPT}
Answer:
You are an intelligent AI programming assistant, utilizing a Granite code language model developed by IBM. Your primary function is to assist users in programming tasks, including code generation, code explanation, code fixing, generating unit tests, generating documentation, application modernization, vulnerability detection, function calling, code translation, and all sorts of other software engineering tasks.
Inténtelo
Pruebe estos ejemplos:
Lenguajes de programación compatibles
Los modelos de la base de código Granite admiten los siguientes lenguajes de programación:
- ABAP
- Ada
- Agda
- Alloy
- ANTLR
- AppleScript
- Arduino
- ASP
- Assembly
- Augeas
- Awk
- Batchfile
- Bison
- Bluespec
- C
- C-sharp
- C++
- Clojure
- CMake
- COBOL
- CoffeeScript
- Common_Lisp
- CSS
- Cucumber
- Cuda
- Cython
- Dart
- Dockerfile
- Eagle
- Elixir
- Elm
- Emacs_Lisp
- Erlang
- F-sharp
- FORTRAN
- GLSL
- GO
- Gradle
- GraphQL
- Groovy
- Haskell
- Haxe
- HCL
- HTML
- Idris
- Isabelle
- Java
- Java_Server_Pages
- JavaScript
- JSON
- JSON5
- JSONiq
- JSONLD
- JSX
- Julia
- Jupyter
- Kotlin
- Lean
- Literate_Agda
- Literate_CoffeeScript
- Literate_Haskell
- Lua
- Makefile
- Maple
- Markdown
- Mathematica
- Objective-C++
- OCaml
- OpenCL
- Pascal
- Perl
- PHP
- PowerShell
- Prolog
- Protocol_Buffer
- Python
- Python_traceback
- R
- Racket
- RDoc
- Restructuredtext
- RHTML
- RMarkdown
- Ruby
- Rust
- SAS
- Scala
- Scheme
- Shell
- Smalltalk
- Solidity
- SPARQL
- SQL
- Stan
- Standard_ML
- Stata
- Swift
- SystemVerilog
- Tcl
- Tcsh
- Tex
- Thrift
- Twig
- TypeScript
- Verilog
- VHDL
- Visual_Basic
- Vue
- Web_Ontology_Language
- WebAssembly
- XML
- XSLT
- Yacc
- YAML
- Zig
Tema principal: Modelos básicos deIBM