Aufrufen der IBM Granite Code Foundation-Modelle
Experimentieren Sie mit der Inferenz der IBM Granite Code Foundation-Modelle in watsonx.ai, um Ihnen bei der Bewältigung von Codierungsaufgaben zu helfen.
Die Granite der reinen Decoder-Codemodelle sind unternehmenstaugliche Basismodelle, die für codegenerative Aufgaben wie Fehlerbehebung, Codeerläuterung und Codedokumentation abgestimmt sind.
Die Modelle werden auf lizenzrechtlich zulässigen Daten trainiert, die nach den Grundsätzen der KI-Ethik und in einem von der IBM geleiteten Prozess für eine vertrauenswürdige Unternehmensnutzung gesammelt wurden.
Die folgenden anweisungsangepassten Granite Code Gründungsmodelle sind bei watsonx.ai erhältlich. Sie können auf den Modellnamen klicken, um die Modellkarte zu öffnen.
- granite-3b-code-instruct Modellkarte
- granite-8b-code-instruct Modellkarte
- granite-20b-code-instruct Modellkarte
- granite-34b-code-instruct Modellkarte
Inferenzierung der Granite Code Modelle
Um die besten Ergebnisse bei der Verwendung der Granite Code-Fundamentmodelle zu erzielen, sollten Sie zunächst diese Empfehlungen befolgen und dann experimentieren, um die gewünschten Ergebnisse zu erzielen.
In der folgenden Tabelle sind die empfohlenen Modellparameter für die Eingabe des Granite -Codierungsmodells für Codierungsaufgaben aufgeführt.
Parameter | Empfohlener Wert oder Bereich | Erläuterung |
---|---|---|
Decodierung | Gierig | Die gierige Dekodierung wählt nur die wahrscheinlichsten Optionen aus, was am besten ist, wenn das Modell den Anweisungen folgen und weniger kreativ sein soll. |
Abwertung bei Wiederholung | 1.05 | Setzen Sie die Strafe auf diesen niedrigen Wert, um zu verhindern, dass der Chatbot durch die Wiederholung von Wörtern oder Sätzen roboterhaft klingt. |
Stoppkriterien | <|endoftext|> | Eine hilfreiche Funktion des Granite -Code-Grundmodells ist die Aufnahme eines speziellen Tokens namens "<|endoftext|>" am Ende jeder Antwort. Wenn einige generative Modelle eine Antwort auf die Eingabe in weniger Token als der maximal zulässigen Anzahl zurückgeben, können sie Muster aus der Eingabe wiederholen. Dieses Modell verhindert solche Wiederholungen, indem es eine verlässliche Stoppsequenz für die Eingabeaufforderung vorsieht. |
Max. Token | 900 | Die maximale Länge des Kontextfensters für die Code-Modelle beträgt 8.192. Weitere Informationen zu Token finden Sie unter Token und Tokenisierung. |
Weitere Informationen zu den Modellparametern finden Sie unter Modellparameter für Prompting.
Die Models aus dem Prompt Lab
Führen Sie die folgenden Schritte aus, um das Granite -Code-Foundation-Modell von der Produktbenutzeroberfläche aus aufzurufen:
Wählen Sie im Freiform-Modus von Prompt Lab eines der verfügbaren Granite -Code-Grundmodelle aus.
Wenden Sie im Bereich Modellparameter die empfohlenen Modellparameterwerte aus Tabelle 1 an.
Fügen Sie Ihre Eingabeaufforderung hinzu, und klicken Sie dann auf Generieren.
Sie können Promptmuster aus dem Abschnitt Ausprobieren verwenden.
Weitere Informationen zur Verwendung von Prompt Lab finden Sie unter Prompt Lab.
Tipps für die Eingabeaufforderung der Granite Code Modelle
Wenn die Antwort unterbrochen wird, erhöhen Sie die Einstellung für die maximale Anzahl der ausgegebenen Token, um sicherzustellen, dass das Modell die Codeantwort nicht abschneidet, was zu einem unvollständigen Code führt.
Fügen Sie keine zusätzlichen Whitespaces hinzu. Fügen Sie am Ende der Aufforderung nur einen Zeilenumbruch ein.
Optionale System-Eingabeaufforderung
Aufforderungen, die Sie an Granite Code-Modelle senden, erfordern keine Systemaufforderung. Beschriften Sie jedoch " Question
und " Answer
, damit das Modell die Anfrage besser versteht, wie in der folgenden Vorlage gezeigt:
Question:
{PROMPT}
Answer:
Wenn die Antwort des Modells ungültig oder unerwartet ist, versuchen Sie, eine Systemabfrage hinzuzufügen. Verwenden Sie dieselbe Eingabeaufforderung, die bei der Abstimmung der Modelle auf die Anweisungen verwendet wurde:
Sie sind ein intelligenter KI-Programmierassistent, der ein von IBM entwickeltes Granite verwendet. Ihre Hauptaufgabe besteht darin, die Benutzer bei Programmieraufgaben zu unterstützen, z. B. bei der Codegenerierung, der Codeerläuterung, der Codekorrektur, der Generierung von Einheitstests, der Erstellung von Dokumentation, der Anwendungsmodernisierung, der Erkennung von Schwachstellen, dem Funktionsaufruf, der Codeübersetzung und allen möglichen anderen Softwareentwicklungsaufgaben.
Sie können die folgende Vorlage, die die Systemaufforderung enthält, kopieren und einfügen:
System:
"You are an intelligent AI programming assistant, utilizing a Granite code language model developed by IBM. Your primary function is to assist users in programming tasks, including code generation, code explanation, code fixing, generating unit tests, generating documentation, application modernization, vulnerability detection, function calling, code translation, and all sorts of other software engineering tasks."
Question:
{PROMPT}
Answer:
You are an intelligent AI programming assistant, utilizing a Granite code language model developed by IBM. Your primary function is to assist users in programming tasks, including code generation, code explanation, code fixing, generating unit tests, generating documentation, application modernization, vulnerability detection, function calling, code translation, and all sorts of other software engineering tasks.
Ausprobieren
Probieren Sie diese Beispiele aus:
Unterstützte programmatische Sprachen
Die Granite Code Foundation-Modelle unterstützen die folgenden Programmiersprachen:
- ABAP
- Ada
- Agda
- Alloy
- ANTLR
- AppleScript
- Arduino
- ASP
- Assembly
- Augeas
- Awk
- Batchfile
- Bison
- Bluespec
- C
- C-sharp
- C++
- Clojure
- CMake
- COBOL
- CoffeeScript
- Common_Lisp
- CSS
- Cucumber
- Cuda
- Cython
- Dart
- Dockerfile
- Eagle
- Elixir
- Elm
- Emacs_Lisp
- Erlang
- F-sharp
- FORTRAN
- GLSL
- GO
- Gradle
- GraphQL
- Groovy
- Haskell
- Haxe
- HCL
- HTML
- Idris
- Isabelle
- Java
- Java_Server_Pages
- JavaScript
- JSON
- JSON5
- JSONiq
- JSONLD
- JSX
- Julia
- Jupyter
- Kotlin
- Lean
- Literate_Agda
- Literate_CoffeeScript
- Literate_Haskell
- Lua
- Makefile
- Maple
- Markdown
- Mathematica
- Objective-C++
- OCaml
- OpenCL
- Pascal
- Perl
- PHP
- PowerShell
- Prolog
- Protocol_Buffer
- Python
- Python_traceback
- R
- Racket
- RDoc
- Restructuredtext
- RHTML
- RMarkdown
- Ruby
- Rust
- SAS
- Scala
- Scheme
- Shell
- Smalltalk
- Solidity
- SPARQL
- SQL
- Stan
- Standard_ML
- Stata
- Swift
- SystemVerilog
- Tcl
- Tcsh
- Tex
- Thrift
- Twig
- TypeScript
- Verilog
- VHDL
- Visual_Basic
- Vue
- Web_Ontology_Language
- WebAssembly
- XML
- XSLT
- Yacc
- YAML
- Zig
Übergeordnetes Thema: IBM Foundation-Modelle