0 / 0
Torna alla versione inglese della documentazione
Promuovere i modelli di fondazione di IBM Granite Code
Ultimo aggiornamento: 28 nov 2024
Promuovere i modelli di fondazione di IBM Granite Code

Sperimentate l'inferenza dei modelli di IBM Granite Code Foundation in watsonx.ai per aiutarvi a svolgere le attività di codifica.

I modelli di codice di sola decodifica della serie Granite sono modelli di base di livello aziendale, ottimizzati per le attività di generazione del codice, come la correzione di bug, la spiegazione del codice e la documentazione del codice.

I modelli sono addestrati su dati consentiti dalla licenza, raccolti seguendo i principi dell'etica dell'IA e con un processo guidato dal team legale aziendale IBM per un utilizzo aziendale affidabile.

I seguenti modelli di fondazione di Granite Code, ottimizzati per le istruzioni, sono disponibili su watsonx.ai È possibile fare clic sul nome del modello per aprire la scheda del modello.

Inferenza dei modelli del Codice Granite

Per ottenere i migliori risultati nell'utilizzo dei modelli di fondazione Granite Code, seguite innanzitutto queste raccomandazioni e poi sperimentate per ottenere i risultati desiderati.

La tabella seguente elenca i parametri del modello consigliati per richiedere al foundation model Granite Code di eseguire attività di codifica.

Tabella 1. Parametri del modello consigliati dai modelli di fondazione del Codice Granite
Parametro Valore o intervallo consigliato Spiegazione
Decodifica Greedy La decodifica avida sceglie i gettoni solo tra le opzioni più probabili, il che è meglio quando si vuole che il modello segua le istruzioni e sia meno creativo.
Penalità di ripetizione 1.05 Impostate la penalità a questo valore basso per evitare che il chatbot sembri robotico ripetendo parole o frasi.
Criteri di arresto <|endoftext|> Una caratteristica utile del foundation model di Granite Code è l'inclusione di un token speciale, chiamato <|endoftext|>, alla fine di ogni risposta. Quando alcuni modelli generativi restituiscono una risposta all'input in un numero di token inferiore al massimo consentito, possono ripetere i modelli dell'input. Questo modello evita tale ripetizione incorporando una sequenza di stop affidabile per il prompt.
Numero massimo token 900 La lunghezza massima della finestra di contesto per i modelli di codice è di 8.192. Per ulteriori informazioni sui token, vedere Token e tokenizzazione.

 

Per ulteriori informazioni sui parametri del modello, vedere Parametri del modello per la richiesta.

Prompting dei modelli dal Prompt Lab

Per richiedere il foundation model del Codice Granite, completare i seguenti passaggi:

  1. Dal Prompt Lab in modalità libera, scegliere uno dei modelli di fondazione del Codice Granite disponibili.

  2. Dal pannello Parametri del modello, applicare i valori dei parametri del modello consigliati dalla Tabella 1.

  3. Aggiungere la richiesta, quindi fare clic su Genera.

    È possibile utilizzare i campioni di prompt della sezione Prova.

Per ulteriori informazioni sull'uso del Prompt Lab, vedere Prompt Lab.

Suggerimenti per la richiesta dei modelli del Codice Granite

  • Se la risposta viene interrotta, aumentare l'impostazione dei token massimi in uscita per garantire che il modello non interrompa la risposta del codice, con conseguente codice incompleto.

  • Non aggiungere spazi bianchi supplementari. Includere solo un'interruzione di riga alla fine del messaggio.

Richiesta di sistema opzionale

I prompt inviati ai modelli di Granite Code non richiedono un prompt di sistema. Tuttavia, etichettare il " Question e il " Answer per aiutare il modello a comprendere la richiesta, come mostrato nel modello seguente:

Question:
{PROMPT}

Answer:

Se la risposta del modello non è valida o è inaspettata, provare ad aggiungere un prompt di sistema. Utilizzare lo stesso prompt di sistema usato quando i modelli sono stati messi a punto con le istruzioni:

Sei un assistente intelligente di programmazione AI, che utilizza un modello di linguaggio di codice Granite sviluppato da IBM. La vostra funzione principale è quella di assistere gli utenti nelle attività di programmazione, tra cui la generazione di codice, la spiegazione del codice, la correzione del codice, la generazione di test unitari, la generazione di documentazione, l'ammodernamento dell'applicazione, il rilevamento delle vulnerabilità, la chiamata di funzione, la traduzione del codice e tutti gli altri compiti di ingegneria del software.

È possibile copiare e incollare il seguente modello che include il prompt di sistema:

System:
"You are an intelligent AI programming assistant, utilizing a Granite code language model developed by IBM. Your primary function is to assist users in programming tasks, including code generation, code explanation, code fixing, generating unit tests, generating documentation, application modernization, vulnerability detection, function calling, code translation, and all sorts of other software engineering tasks."

Question:
{PROMPT}

Answer:
You are an intelligent AI programming assistant, utilizing a Granite code language model developed by IBM. Your primary function is to assist users in programming tasks, including code generation, code explanation, code fixing, generating unit tests, generating documentation, application modernization, vulnerability detection, function calling, code translation, and all sorts of other software engineering tasks.

Provalo

Provate questi esempi di suggerimenti:

Linguaggi programmatici supportati

I modelli di Granite Code Foundation supportano i seguenti linguaggi di programmazione:

  • ABAP
  • Ada
  • Agda
  • Alloy
  • ANTLR
  • AppleScript
  • Arduino
  • ASP
  • Assembly
  • Augeas
  • Awk
  • Batchfile
  • Bison
  • Bluespec
  • C
  • C-sharp
  • C++
  • Clojure
  • CMake
  • COBOL
  • CoffeeScript
  • Common_Lisp
  • CSS
  • Cucumber
  • Cuda
  • Cython
  • Dart
  • Dockerfile
  • Eagle
  • Elixir
  • Elm
  • Emacs_Lisp
  • Erlang
  • F-sharp
  • FORTRAN
  • GLSL
  • GO
  • Gradle
  • GraphQL
  • Groovy
  • Haskell
  • Haxe
  • HCL
  • HTML
  • Idris
  • Isabelle
  • Java
  • Java_Server_Pages
  • JavaScript
  • JSON
  • JSON5
  • JSONiq
  • JSONLD
  • JSX
  • Julia
  • Jupyter
  • Kotlin
  • Lean
  • Literate_Agda
  • Literate_CoffeeScript
  • Literate_Haskell
  • Lua
  • Makefile
  • Maple
  • Markdown
  • Mathematica
  • Objective-C++
  • OCaml
  • OpenCL
  • Pascal
  • Perl
  • PHP
  • PowerShell
  • Prolog
  • Protocol_Buffer
  • Python
  • Python_traceback
  • R
  • Racket
  • RDoc
  • Restructuredtext
  • RHTML
  • RMarkdown
  • Ruby
  • Rust
  • SAS
  • Scala
  • Scheme
  • Shell
  • Smalltalk
  • Solidity
  • SPARQL
  • SQL
  • Stan
  • Standard_ML
  • Stata
  • Swift
  • SystemVerilog
  • Tcl
  • Tcsh
  • Tex
  • Thrift
  • Twig
  • TypeScript
  • Verilog
  • VHDL
  • Visual_Basic
  • Vue
  • Web_Ontology_Language
  • WebAssembly
  • XML
  • XSLT
  • Yacc
  • YAML
  • Zig

Argomento principale: Modelli di fondazioneIBM

Ricerca e risposta AI generativa
Queste risposte sono generate da un modello di lingua di grandi dimensioni in watsonx.ai basato sul contenuto della documentazione del prodotto. Ulteriori informazioni