Anforderungen und Nutzungshinweise für benutzerdefinierte Gründungsmodelle
Copy link to section
Einsetzbare benutzerdefinierte Modelle müssen diese Anforderungen erfüllen:
Das Hochladen und Verwenden Ihres eigenen benutzerdefinierten Modells ist nur im Standard-Tarif für watsonx.ai verfügbar.
Das Modell muss mit dem Text Generation Inference (TGI)-Standard kompatibel sein und mit einem unterstützten Modellarchitektur-Typ erstellt werden.
Die Dateiliste für das Modell muss eine config.json-Datei enthalten.
Das Modell muss in einem safetensors-Format mit der unterstützten Transformatorenbibliothek vorliegen und eine tokenizer.json-Datei enthalten.
Wichtig:
Sie müssen sicherstellen, dass Ihr benutzerdefiniertes Fundamentmodell mit der unterstützten Bibliothek transformers gespeichert wird. Wenn die Datei model.safetensors für Ihr benutzerdefiniertes Basismodell ein nicht unterstütztes Datenformat im Metadaten-Header verwendet, kann Ihre Bereitstellung fehlschlagen. Weitere Informationen finden Sie unter Fehlerbehebung watsonx.ai Runtime.
Stellen Sie sicher, dass das Projekt oder der Bereich, in dem Sie Ihr benutzerdefiniertes Basismodell bereitstellen möchten, über eine zugehörige watsonx.ai Runtime-Instanz verfügt. Öffnen Sie die Registerkarte Verwalten in Ihrem Projekt oder Raum, um dies zu überprüfen.
Unterstützte Modellarchitekturen
Copy link to section
In der folgenden Tabelle sind die Modellarchitekturen aufgeführt, die Sie als benutzerdefinierte Modelle für das Inferencing mit watsonx.ai einsetzen können. Die Modellarchitekturen sind zusammen mit Informationen über die unterstützten Quantisierungsmethoden, parallelen Tensoren, Konfigurationsgrößen und Softwarespezifikationen aufgeführt.
Hinweis:
Two software specifications are available for your deployments: watsonx-cfm-caikit-1.0, watsonx-cfm-caikit-1.1. The watsonx-cfm-caikit-1.1 specification is better in terms of performance, but it's not available with every model architecture.
Tabelle 1. Unterstützte Modellarchitekturen, Quantisierungsmethoden, parallele Tensoren, Einsatzkonfigurationsgrößen und Softwarespezifikationen
IBM bescheinigt nur die in Tabelle 1 aufgeführten Modellarchitekturen. Sie können Modelle mit alternativen Architekturen verwenden, die von vLLM, unterstützt werden. IBM unterstützt jedoch keine Bereitstellungsfehler, die durch die Bereitstellung von Foundation-Modellen mit nicht unterstützten Architekturen oder inkompatiblen Funktionen verursacht werden.
Der Einsatz von llama 3.1-Modellen kann fehlschlagen. Um dieses Problem zu beheben, lesen Sie die Schritte, die unter Fehlerbehebung aufgeführt sind.
Es ist nicht möglich, codegen, mt5 und t5 Typmodelle mit der watsonx-cfm-caikit-1.1 Softwarespezifikation einzusetzen.
Wenn Ihr Modell keine parallelen Tensoren unterstützt, können Sie nur die Konfiguration Small verwenden. Wenn Ihr Modell mit mehr Parametern trainiert wurde, als die Small-Konfiguration unterstützt, schlägt es fehl. Dies bedeutet, dass Sie einige Ihrer benutzerdefinierten Modelle nicht bereitstellen können. Weitere Informationen zu Einschränkungen finden Sie unter Ressourcen-Nutzungsrichtlinien.
Sammeln der erforderlichen Details für ein benutzerdefiniertes Stiftungsmodell
Copy link to section
Überprüfen Sie das Vorhandensein der Datei config.json im Inhaltsordner des Fundamentmodells. Der Bereitstellungsdienst prüft, ob die Datei config.json im Inhaltsordner des Basismodells vorhanden ist, nachdem sie in den Cloud-Speicher hochgeladen wurde.
Öffnen Sie die Datei config.json , um zu überprüfen, ob das Basismodell eine unterstützte Architektur verwendet.
Zeigen Sie die Liste der Dateien für das Fundamentmodell an, um zu prüfen, ob die Datei tokenizer.json vorhanden ist und ob der Modellinhalt im Format .safetensors vorliegt.
Wichtig:
Sie müssen sicherstellen, dass Ihr benutzerdefiniertes Fundamentmodell mit der unterstützten Bibliothek transformers gespeichert wird. Wenn die Datei model.safetensors für Ihr benutzerdefiniertes Basismodell ein nicht unterstütztes Datenformat im Metadaten-Header verwendet, kann Ihre Bereitstellung fehlschlagen. Weitere Informationen finden Sie unter Fehlerbehebung watsonx.ai Runtime.
Siehe ein Beispiel:
Für das falcon-40b modell, das unter Hugging Face gespeichert ist, klicken Sie auf "Dateien und Versionen ", um die Dateistruktur anzuzeigen und nach config.json zu suchen:
Das Beispielmodell verwendet eine Version der unterstützten falcon Architektur.
Dieses Beispielmodell enthält die Datei tokenizer.json und hat das Format .safetensors:
Wenn das Modell diese Anforderungen nicht erfüllt, können Sie kein Modell-Asset erstellen und Ihr Modell nicht einsetzen.
Leitlinien für die Ressourcennutzung
Copy link to section
Es stehen drei Konfigurationen zur Verfügung, um Ihr individuelles Stiftungsmodell zu unterstützen: Small, Medium, und Large. Um die für Ihr individuelles Stiftungsmodell am besten geeignete Konfiguration zu ermitteln, beachten Sie die folgenden Richtlinien:
Weisen Sie die Small-Konfiguration einem beliebigen Double-Byte-Präzisionsmodell unter 26B-Parametern zu, vorbehaltlich der Prüfung und Validierung.
Weisen Sie die Konfiguration Medium einem beliebigen Doppelbyte-Präzisionsmodell zwischen den Parametern 27B und 53B zu, vorbehaltlich der Prüfung und Validierung.
Weisen Sie die Konfiguration Large einem beliebigen Doppelbyte-Präzisionsmodell zwischen den Parametern 54B und 106B zu, vorbehaltlich der Prüfung und Validierung.
Tipp:
Wenn die gewählte Konfiguration während der Test- und Validierungsphase versagt, sollten Sie die nächsthöhere verfügbare Konfiguration in Erwägung ziehen. Versuchen Sie zum Beispiel die Konfiguration Medium, wenn die Konfiguration Small fehlschlägt. Derzeit ist die Konfiguration Large die höchste verfügbare Konfiguration.
Tabelle 2. Hardware-Konfigurationen und Beispielmodelle
Beschränkungen und Einschränkungen für benutzerdefinierte Gründungsmodelle
Copy link to section
Beachten Sie diese Einschränkungen bei der Bereitstellung und Verwendung benutzerdefinierter Foundation-Modelle mit watsonx.ai.
Einschränkungen bei der Bereitstellung von benutzerdefinierten Foundation-Modellen
Copy link to section
Aufgrund der hohen Nachfrage nach benutzerdefinierten Basismodellen und der begrenzten Ressourcen, die für die Bereitstellung zur Verfügung stehen, gibt es auf watsonx.ai eine Beschränkung auf vier kleine Modelle, zwei mittlere Modelle oder ein großes Modell pro IBM Cloud Konto. Wenn Sie versuchen, ein benutzerdefiniertes Fundamentmodell zu importieren, das diese Grenzen überschreitet, werden Sie benachrichtigt und gebeten, Ihr Feedback in einer Umfrage abzugeben. Dies hilft uns, Ihre Bedürfnisse zu verstehen und zukünftige Kapazitätserweiterungen zu planen.
Wichtig: Alle beantragten Erhöhungen des Limits sind nicht garantiert und hängen von der verfügbaren Kapazität ab.
Einschränkungen für die Verwendung von benutzerdefinierten Foundation Model Deployments
Copy link to section
Beachten Sie die folgenden Einschränkungen für die Verwendung benutzerdefinierter Foundation-Modelle, nachdem sie mit watsonx.ai:
Sie können ein benutzerdefiniertes Fundamentmodell nicht anpassen.
Sie können watsonx.governance nicht verwenden, um eine Prompt-Vorlage für ein benutzerdefiniertes Stiftungsmodell auszuwerten oder zu verfolgen.
Sie können ein benutzerdefiniertes Basismodell abfragen, aber keine Abfragevorlage für ein benutzerdefiniertes Modell speichern.
Helfen Sie uns, diese Erfahrung zu verbessern
Copy link to section
Wenn Sie Ihr Feedback jetzt abgeben möchten, klicken Sie auf diesen Link. Ihr Feedback hilft uns bei der Planung zukünftiger Kapazitätserweiterungen und bei der Verbesserung der gesamten Bereitstellung des benutzerdefinierten Stiftungsmodells. Vielen Dank für Ihre Mitarbeit!