Die Übersetzung dieser Seite stellt nicht die neueste Version dar. Die neuesten Aktualisierungen finden Sie in der englischen Version der Dokumentation.
Was gibt es Neues bei watsonx as a Service in IBM Cloud?
Letzte Aktualisierung: 16. Apr. 2025
Was gibt es Neues bei watsonx as a Service in IBM Cloud?
Informieren Sie sich jede Woche über neue Funktionen und Updates für IBM watsonx.ai und IBM watsonx.governance auf IBM Cloud.
Tipp: Nach einer Aktualisierung müssen Sie gelegentlich eine bestimmte Aktion ausführen. Durchsuchen Sie diese Seite nach "Aktion erforderlich", um alle erforderlichen Aktionen anzuzeigen.
Woche bis 18. April 2025
Copy link to section
Arbeit mit neuen Granite 3.3 Modellen in watsonx.ai
Copy link to section
16. April 2025
Sie können jetzt die folgenden Granite Modelle verwenden, die von IBM in watsonx.ai:
granite-3-3-8b-instruct ist für die Inferenz auf mandantenfähige Hardware verfügbar
granite-3-3-2b-instruct kann bei Bedarf eingesetzt werden
Das Basismodell granite-3-2-8b-instruct ist für Sie bei Bedarf verfügbar
Copy link to section
14. April 2025
Sie können jetzt granite-3-2-8b-instruct als ein Deployment-on-Demand-Foundation-Modell ableiten. Weitere Informationen finden Sie unter Unterstützte Basismodelle.
Elasticsearch vektorspeicher auf AutoAI für RAG-Experimente hinzugefügt
Copy link to section
11. April 2025
Sie können nun die Elasticsearch Vektorspeicherdatenbank verwenden, um Daten in einem AutoAI for RAG-Experiment zu speichern und abzurufen. Weitere Informationen finden Sie unter Auswahl eines Vektorspeichers für ein RAG-Experiment.
Automatisches Einrichten und Verbinden mit einem Milvus Vektorspeicher
Copy link to section
10. April 2025
Wenn Sie sich am oder nach dem 10. April 2025 für die watsonx as a Service Testversion angemeldet haben, wird automatisch eine watsonx.data Testversion mit einem Milvus Vektorspeicher für Sie eingerichtet. Wenn Sie mit hochgeladenen Dokumenten chatten oder einen Vektorindex erstellen und Milvus als Vektorspeicher auswählen, wird die Verbindung automatisch hergestellt. Siehe Erstellen eines Milvus Vektorspeichers.
Probieren Sie die Q&A mit RAG Accelerator aus, um die abruferweiterte Generierung mit Milvus einzurichten.
Arbeiten Sie mit den neuesten multimodalen Llama 4-Modellen von Meta in watsonx.ai
Copy link to section
7. April 2025
Sie können jetzt die neuesten Meta Llama 4 mehrsprachigen, multimodalen Gründungsmodelle in IBM watsonx.ai verwenden. Die neuesten Basismodelle von Meta verwenden eine Mixtur von Experten ( MoE ), die rechnerisch effizienter sind und weniger Ressourcen für das Modelltraining und die Inferenzierung benötigen. Die Modelle sind nativ multimodal und auf das Verstehen von Text und Bildern in mehreren Sprachen spezialisiert.
Sie können jetzt auf die folgenden Modelle der Llama 4-Serie zurückgreifen:
Hinzufügen mehrerer richtiger Antworten zu den Bewertungsdaten in einem AutoAI für RAG-Experiment
Copy link to section
4. April 2025
Sie können jetzt mehrere richtige Antworten für jede Frage in einem Bewertungsdaten-Asset hinzufügen. Weitere Informationen finden Sie unter Erstellen eines AutoAI RAG-Experiments.
Überprüfung der Bedeutung der Einstellung in einem AutoAI für RAG-Experiment
Copy link to section
4. April 2025
Nachdem Sie ein AutoAI RAG-Experiment durchgeführt haben, können Sie nun die Bedeutung der einzelnen Einstellungen für die Erstellung und Einstufung der optimierten Muster überprüfen, um die Musterbewertungen besser zu verstehen. Weitere Informationen finden Sie unter Erstellen eines AutoAI RAG-Experiments.
Das Basismodell codellama-34b-instruct-hf ist für Sie bei Bedarf verfügbar
Copy link to section
3. April 2025
Sie können jetzt codellama-34b-instruct-hf als ein Deployment-on-Demand-Foundation-Modell ableiten. Weitere Informationen finden Sie unter Unterstützte Basismodelle.
Überprüfung kodierungsbezogener Benchmarks zum Vergleich von Gründungsmodellen
Copy link to section
3. April 2025
Prüfen Sie die Benchmarks der Foundation-Modelle in Bezug auf Codierungsaufgaben wie Codegenerierung, -korrektur und -erklärung, um sich über die Fähigkeiten der verschiedenen Code-Foundation-Modelle zu informieren, bevor Sie sie ausprobieren. Vergleichen Sie, wie verschiedene Stiftungsmodelle bei den Aufgaben abschneiden, die für Ihren Anwendungsfall am wichtigsten sind.
Anpassen der Abrufeinstellungen für ein AutoAI for RAG-Experiment
Copy link to section
31. März 2025
Sie können nun einstellen, wie die Daten aus dem vektorisierten Index abgerufen werden sollen. Sie können zwischen der Fenster- und der einfachen Abrufmethode wählen, die Anzahl der Chunks auswählen und die Fenstergröße für die Fensterabrufmethode festlegen. Weitere Informationen finden Sie unter AutoAI RAG-Einstellungen anpassen.
Woche bis 21. März 2025
Copy link to section
Arbeit mit neuen, auf europäische Sprachen spezialisierten On-Demand-Modellen in watsonx.ai
Copy link to section
21. März 2025
Sie können jetzt die folgenden, auf 24 europäische Sprachen und 11 internationale Sprachen spezialisierten, On-Demand-Gründungsmodelle von IBM watsonx.ai abrufen:
AutoAI erkennt nun automatisch die in den Aufforderungen verwendete Sprache und weist die Modelle an, in der gleichen Sprache zu antworten. Modelle, die die Eingabesprache nicht unterstützen, erhalten bei der Suche nach dem RAG-Muster eine niedrigere Priorität. Sie können diese Experimentiereinstellung deaktivieren, wenn Sie möchten, dass AutoAI alle verfügbaren Modelle berücksichtigt und nur Antworten in englischer Sprache generiert. Weitere Informationen finden Sie unter AutoAI RAG-Einstellungen anpassen.
Woche bis zum 7. März 2025
Copy link to section
Inference stellt bei Bedarf benutzerdefinierte Fundamentmodelle aus der Region Frankfurt bereit
Copy link to section
6. März 2025
Sie haben jetzt mehr Möglichkeiten, mit Foundation-Modellen aus Projekten zu arbeiten, die im Rechenzentrum in Frankfurt gehostet werden.
Benutzerdefinierte Fundamentmodelle hochladen und einsetzen.
Wählen Sie aus einer Reihe beliebter Foundation-Modelle, die auf dedizierter Hardware für die ausschließliche Nutzung durch Ihre Organisation bereitgestellt werden.
Weitere Informationen finden Sie in den folgenden Ressourcen:
Code-Schnipsel sind jetzt in Decision Optimization -Experimenten verfügbar
Copy link to section
5. März 2025
Beim Erstellen von Decision Optimization -Modellen in der Experiment-Benutzeroberfläche können Sie jetzt Code-Snippets für Python DOcplex- oder OPL-Modelle verwenden. Die Verwendung von Code-Snippets kann die Modellerstellung beschleunigen, da Sie Code hinzufügen und bearbeiten können, ohne alle Codezeilen von Grund auf neu eingeben zu müssen.
AutoAI für RAG Chroma-Experimente als KI-Dienst bereitstellen
Copy link to section
27. Februar 2025
AutoAI rAG-Muster, die Sie mithilfe der In-Memory-Chroma-Datenbank erstellen, können jetzt als KI-Dienst bereitgestellt werden. Verwenden Sie diese Bereitstellungsmethode, um ein RAG-Muster als einsatzbereites Asset zu speichern, es in einen Bereich zu verschieben und die Bereitstellung in einem einzigen Vorgang zu erstellen. Anschließend können Sie das RAG-Muster testen und auf den Schlussfolgerungsendpunkt zugreifen.
Unterstützung für IBM Runtime 23.1 in watsonx.ai Runtime und watsonx.ai Studio wird am 17. April 2025 entfernt. Um einen reibungslosen Ablauf zu gewährleisten und die neuesten Funktionen und Verbesserungen zu nutzen, wechseln Sie zu IBM Runtime 24.1.
Ableitung der Granite 3.2 Instruct- und Vision-Modelle in der Region Dallas
Copy link to section
26. Februar 2025
Das granite-3-2-8b-instruct -Stiftungsmodell ist ein Argumentationsmodell mit leistungsstarken Funktionen wie dem Zitieren von Quellen und dem Erkennen von Halluzinationen. Sie können steuern, ob das Modell seinen Denkprozess in der Ausgabe mitteilt, um Leistung und Transparenz in Einklang zu bringen. Dieses Modell ist die allgemein verfügbare Version des granite-3-2-8b-instruct-preview-rc -Tech-Preview-Grundmodells.
Das granite-vision-3-2-2b -Stiftungsmodell ist das erste multimodale Granite -Modell, das für Unternehmensanwendungsfälle entwickelt wurde. Das Image-to-Text-Grundmodell ist in der Lage, Bilder und Text für Aufgaben wie das Verständnis von Tabellen, Diagrammen, Grafiken und mehr zu verarbeiten.
Die Projekt-lib-Bibliothek ist veraltet. Ab Runtime 25.1 wird die Bibliothek in keiner neuen Runtime-Version mehr enthalten sein. Obwohl vorhandene Laufzeitversionen über 24.1 weiterhin die veraltete Bibliothek enthalten, sollten Sie in Erwägung ziehen, Ihren Code so umzuschreiben, dass er die ibm-watson-studio-lib-Bibliothek verwendet.
Informationen zur Migration Ihres Codes finden Sie unter:
Einsatz von benutzerdefinierten Fundamentmodellen mit besonders kleinen Hardwarespezifikationen
Copy link to section
20. Februar 2025
Um Ressourcen zu sparen, können Sie benutzerdefinierte Fundamentmodelle mit besonders kleinen Hardwarespezifikationen einsetzen. Verwenden Sie die Hardwarespezifikation gpu_xs für den Parameter hardware_request , wenn Sie Ihr benutzerdefiniertes Foundation-Modell mit der REST-API bereitstellen. Weitere Informationen finden Sie unter Erstellen einer Bereitstellung für ein benutzerdefiniertes Foundation-Modell.
Das 3-Milliarden-Parameter-Stiftungsmodell von Granite Code steht Ihnen auf Anfrage zur Verfügung
Copy link to section
20. Februar 2025
Das granite-3b-code-instruct -Stiftungsmodell von IBM ist als Bereitstellungsmodell auf Abruf verfügbar. Weitere Informationen finden Sie unter "Unterstützte Stiftungsmodelle ".
Inference stellt bei Bedarf benutzerdefinierte Fundamentmodelle aus der Region Toronto bereit
Copy link to section
13. Februar 2025
Sie haben jetzt mehr Möglichkeiten, mit Stiftungsmodellen aus Projekten zu arbeiten, die in der Region Toronto durchgeführt werden.
Benutzerdefinierte Fundamentmodelle hochladen und einsetzen.
Wählen Sie aus einer Reihe beliebter Foundation-Modelle, die auf dedizierter Hardware für die ausschließliche Nutzung durch Ihre Organisation bereitgestellt werden.
Weitere Informationen finden Sie in den folgenden Ressourcen:
Integrieren Sie eine vorhandene gehostete Bereitstellung von IBM OpenPages mit watsonx.governance
Copy link to section
13. Februar 2024
Zusätzlich zur optionalen Integration von watsonx.governance in die Governance-Konsole, die mit OpenPages as a Service bereitgestellt wird, können Sie jetzt watsonx.governance in eine gehostete Bereitstellung von IBM OpenPages, integrieren, entweder in einer verwalteten Cloud oder in einer herkömmlichen lokalen Bereitstellung. Für die Integration mit einer gehosteten Version von OpenPages ist der Essentials-Plan für watsonx.governance erforderlich.
Bereitstellung von Modellen, die von scikit-learn und XGBoost in das ONNX-Format konvertiert wurden
Copy link to section
13. Februar 2024
Sie können jetzt maschinelles Lernen und generative KI-Modelle einsetzen, die von scikit-learn und XGBoost in das ONNX-Format konvertiert werden, und den Endpunkt für Schlussfolgerungen verwenden. Weitere Informationen finden Sie unter Bereitstellen von Modellen, die in das ONNX-Format umgewandelt wurden.
Arbeiten Sie mit neuen Einsatzmodellen auf Abruf Granite Code in watsonx.ai
Copy link to section
13. Februar 2025
Verwenden Sie die folgenden Granite Code -Foundation-Modelle von IBM für Programmieraufgaben wie das Schreiben, Konvertieren und Korrigieren von Programmcode:
Sehen Sie sich die aktualisierten Videos in den SPSS Modeler -Tutorials an und erfahren Sie mehr über SPSS Modeler.
Woche bis zum 7. Februar 2025
Copy link to section
Sehen Sie sich das neueste Modell der IBM Granite -Stiftung in der Region Dallas an
Copy link to section
7. Februar 2025
Testen Sie jetzt eine technische Vorschau des granite-3-2-8b-instruct-preview-rc -Stiftungsmodells, das in der Region Dallas verfügbar ist. Das Vorschaumodell Granite 3.2 fügt auf neuartige Weise neue Argumentationsfähigkeiten hinzu. Die Funktion "Reasoning" ist konfigurierbar, d. h. Sie können Reasoning nur für Aufgaben aktivieren, bei denen erklärende Informationen in der Ausgabe nützlich sind.
Datenprognosen mit IBM Granite -Zeitreihen-Grundmodellen sind jetzt allgemein verfügbar
Copy link to section
6. Februar 2025
Verwenden Sie die Zeitreihenprognose-Methode der watsonx.ai -API, um historische Datenbeobachtungen an ein IBM Granite -Zeitreihen-Grundmodell zu übergeben, das zukünftige Werte mit Null-Schuss-Inferenz vorhersagen kann.
Weitere Informationen zur Verwendung der Prognosemethode der watsonx.ai -API finden Sie unter "Prognose zukünftiger Datenwerte ".
IBM watsonx.ai ist in der Region Toronto verfügbar
Copy link to section
6. Februar 2025
Watsonx.ai ist jetzt allgemein im Rechenzentrum in Toronto verfügbar und Toronto kann bei der Anmeldung als bevorzugte Region ausgewählt werden. Verwenden Sie eine Teilmenge der bereitgestellten Grundmodelle für Schlussfolgerungen und Einbettungsmodelle zur Generierung von Texteinbettungen und zur Neubewertung von Passagen.
Inference stellt bei Bedarf benutzerdefinierte Fundamentmodelle aus der Region Sydney bereit
Copy link to section
6. Februar 2025
Sie haben jetzt mehr Möglichkeiten, mit Stiftungsmodellen aus Projekten zu arbeiten, die in der Region Sydney durchgeführt werden.
Benutzerdefinierte Fundamentmodelle hochladen und einsetzen.
Wählen Sie aus einer Reihe beliebter Foundation-Modelle, die auf dedizierter Hardware für die ausschließliche Nutzung durch Ihre Organisation bereitgestellt werden.
Weitere Informationen finden Sie in den folgenden Ressourcen:
Mistral Large 2 das Foundation-Modell steht Ihnen auf Anfrage zur Verfügung
Copy link to section
6. Februar 2025
Das mistral-large-instruct-2407 -Stiftungsmodell von Mistral AI ist als Bereitstellungsmodell auf Abruf verfügbar. Für den Zugriff auf dieses Modell wird eine zusätzliche Gebühr pro Stunde erhoben. Weitere Informationen zu Preisen finden Sie unter "Unterstützte Stiftungsmodelle ".
Einsatz und Inferenz neuer DeepSeek-R1 -Destillationsmodelle bei Bedarf in watsonx.ai
Copy link to section
3. Februar 2025
Sie können jetzt destillierte Varianten von DeepSeek-R1 -Modellen bei Bedarf in watsonx.ai auf IBM Cloud bereitstellen. Die destillierten DeepSeek-R1 -Modellvarianten basieren auf Llama-Modellen, die mithilfe von Trainingsdaten, die vom DeepSeek-R1 -Modell generiert wurden, verfeinert werden.
Standardinventar ersetzt Plattform-Vermögenskatalog in watsonx.governance
Copy link to section
3. Februar 2025
Es steht jetzt ein Standardinventar zur Verfügung, in dem watsonx.governance -Artefakte, einschließlich KI-Anwendungsfälle, Modelle von Drittanbietern, Anhänge und Berichte, gespeichert werden können. Das Standardinventar ersetzt jegliche frühere Abhängigkeit vom Platform Access Catalog oder IBM Knowledge Catalog für die Speicherung von Governance-Artefakten.
Evaluierungsstudio im Rechenzentrum in Sydney verfügbar
Copy link to section
3. Februar 2025
Mit Evaluation Studio können Sie Ihre generativen KI-Assets mit quantitativen Metriken und anpassbaren Kriterien bewerten und vergleichen, die auf Ihre Anwendungsfälle zugeschnitten sind. Bewerten Sie die Leistung mehrerer Anlagen gleichzeitig und zeigen Sie vergleichende Analysen der Ergebnisse an, um die besten Lösungen zu ermitteln.
Erstellen und implementieren Sie KI-Agenten im neuen Agent Lab (Beta)
Copy link to section
30. Januar 2025
Sie können jetzt KI-Agenten erstellen und einsetzen, um Ihre Anwendungen mithilfe der Benutzeroberfläche von Agent Lab flexibler und dynamischer zu gestalten. Sie können den Agenten so konfigurieren, dass er Entscheidungen trifft und Aufgaben ausführt, indem Sie ein Agenten-Framework, ein Basismodell und externe Tools verwenden, die Sie in den Einstellungen des Agenten angeben.
Weitere Informationen finden Sie unter "Agent Lab ".
Wenn Sie das Agent Lab verwenden, um Ihre agentenbasierten KI-Anwendungen in watsonx.ai zu erstellen, werden Ihre Anwendungen als KI-Dienste bereitgestellt. Sie können Ihre Lösung direkt über die Benutzeroberfläche bereitstellen oder Ihre Lösung in ein bearbeitbares Notizbuch in Python exportieren, das den KI-Dienst bereitstellt.
Ein leistungsstarkes neues Mistral Large 2 -Stiftungsmodell steht Ihnen auf Anfrage zur Verfügung
Copy link to section
30. Januar 2025
Setzen Sie das mistral-large-instruct-2411 -Grundmodell von Mistral AI auf dedizierter Hardware ein, die ausschließlich Ihrer Organisation zur Verfügung steht. Dieses neueste Fundamentmodell verbessert das Fundamentmodell von Mistral-Large-Instruct-2407 durch eine bessere Handhabung langer Eingabeaufforderungen, Anweisungen zur Befolgung von Systemaufforderungen und Funktionsaufrufe.
Im Gegensatz zu anderen Bereitstellungsmodellen auf Abruf fällt für den Zugriff auf das gehostete mistral-large-instruct-2411 -Stiftungsmodell eine zusätzliche Stundengebühr an. Weitere Informationen zu Preisen finden Sie unter "Unterstützte Stiftungsmodelle ".
Ableitung des Mistral Small 3-Gründungsmodells in der Region Frankfurt
Copy link to section
30. Januar 2025
Das mistral-small-24b-instruct-2501 -Stiftungsmodell von Mistral AI ist verfügbar und wird auf einer mandantenfähigen Hardware gehostet, die sofort einsatzbereit ist. Das Mistral Small 3-Grundmodell ist aufgrund folgender Merkmale eine gute Wahl für Chat-Workflows:
Agentische Fähigkeiten mit nativen Funktionsaufrufen und JSON-Ausgabegenerierung.
Modernste Konversations- und Argumentationsfähigkeiten.
Starke Einhaltung und Unterstützung von Systemansagen.
Unterstützt Dutzende von Sprachen, darunter Englisch, Französisch, Deutsch, Spanisch, Italienisch, Chinesisch, Japanisch, Koreanisch, Portugiesisch, Niederländisch und Polnisch.
Einsatz und Schlussfolgerung DeepSeek-R1 destillierte Modelle mit watsonx.ai
Copy link to section
29. Januar 2025
Sie können jetzt die destillierten Varianten von DeepSeek-R1, einem leistungsstarken Open-Source-Argumentationsmodell, verwenden, um DeepSeek-R1 -Modelle mit watsonx.ai sicher auf IBM Cloud bereitzustellen und zu schließen, sodass Entwickler die Entwicklung von KI-gestützten Lösungen beschleunigen können. DeepSeek-R1 das Modell kann als benutzerdefiniertes Fundamentmodell mit watsonx.ai eingesetzt werden.
Niedrigerer Preis für die Ableitung von Llama 3.3 70b Instruct-Grundmodell
Copy link to section
29. Januar 2025
Der Preis für die Ableitung des llama-3-3-70b-instruct -Stiftungsmodells von Meta sank von 0.0018 auf 0.00071 USD pro 1.000 Token. Die Preisänderung gilt für alle Regionen, in denen das Stiftungsmodell verfügbar ist.
Allgemeine Verfügbarkeit von AutoAI für RAG-Experimente
Copy link to section
23. Januar 2025
AutoAI für RAG wird nun vollständig unterstützt, um die Suche nach einem optimierten abrufverstärkten Generierungsmuster für Ihre Anwendungen zu automatisieren. Dieses Update enthält die folgenden neuen Funktionen:
Erkunden Sie AutoAI für RAG anhand von Beispieldaten und einer geführten Tour, um den Prozess kennenzulernen.
Wenn Sie ein Experiment mit einem Milvus -Vektorspeicher erstellen, können Sie jetzt ein RAG-Muster als KI-Dienst bereitstellen, sodass Sie von einem Bereitstellungsbereich aus auf den Endpunkt zugreifen können, um Schlussfolgerungen zu ziehen.
AutoAI Für das Ausführen von RAG-Experimenten fallen folgende Gebühren an:
Gebühren für die Kapazitätseinheit (CUH) für die Laufzeit der Experimente.
Ressourceneinheit (RU), die für alle während des Experimentdurchlaufs getätigten Einbettungs- und generativen KI-Modell-Inferenzaufrufe berechnet wurde. Eine Ressourceneinheit (RU) entspricht 1.000 Token.
Sie können jetzt die Befehlszeilenschnittstelle Cloud Pak for Data (CPDCTL) verwenden, um Ihre generativen KI-Lösungen mit KI-Diensten programmgesteuert bereitzustellen. CPDCTL ist ein Befehlszeilenprogramm für die Bereitstellung und Verwaltung von KI-Diensten auf der IBM Cloud Pak for Data (CPD)-Plattform. Es bietet eine einfache und optimierte Möglichkeit, KI-Dienste bereitzustellen, wodurch die Notwendigkeit einer manuellen Konfiguration entfällt und das Fehlerrisiko reduziert wird.
Wenn Sie AutoAI verwenden, um eine generative KI-Lösung zu erstellen, die ein RAG-Muster verwendet, können Sie Ihre Lösung jetzt direkt aus dem AutoAI Experiment Builder als KI-Dienst bereitstellen. Weitere Informationen finden Sie unter "KI-Dienste mit Tools bereitstellen ".
Stellen Sie Modelle bereit, die von CatBoost und LightGBM in das ONNX-Format konvertiert wurden
Copy link to section
23 Januar 2024
Sie können jetzt maschinelles Lernen und generative KI-Modelle einsetzen, die von CatBoost und LightGBM in das ONNX-Format konvertiert werden, und den Endpunkt für Schlussfolgerungen verwenden. Diese Modelle können auch an dynamische Achsen angepasst werden. Weitere Informationen finden Sie unter Bereitstellen von Modellen, die in das ONNX-Format umgewandelt wurden.
Einsatz beliebter Fundamentmodelle auf Abruf in watsonx.ai
Copy link to section
22. Januar 2025
Sie können nun die folgenden Foundation-Modelle auf dedizierter Hardware in der Region Dallas für die ausschließliche Nutzung durch Ihre Organisation bereitstellen:
llama-3-1-70b-instruct
granite-7b-lab
Weitere Informationen zu diesen Modellen, wie z. B. Preise und unterstützte Längen von Kontextfenstern, finden Sie unter "Deploy on Demand Foundation-Modelle ".
Wenn Sie weiterhin mit diesen Grundmodellen arbeiten möchten, können Sie die Modelle bei Bedarf für Ihre exklusive Nutzung bereitstellen. Weitere Informationen finden Sie unter "Deploy on Demand"-Stiftungsmodelle.
Woche bis zum 17. Januar 2025
Copy link to section
Verwenden Sie neue IBM Granite -Einbettungsmodelle in watsonx.ai
Copy link to section
16. Januar 2025
Sie können jetzt die folgenden von IBM bereitgestellten Granite in watsonx.ai: verwenden:
granite-embedding-107m-multilingual
granite-embedding-278m-multilingual
Verwenden Sie die neuen Einbettungsmodelle, um hochwertige Texteinbettungen für die Eingabe in Form einer Abfrage, Passage oder eines Dokuments in mehreren Sprachen zu generieren. Weitere Informationen finden Sie unter "Unterstützte Encoder-Modelle " und "Text vektorisieren ".
Granite wurden modifiziert
Copy link to section
16. Januar 2025
Sie können jetzt die neueste Version Granite von IBM auf watsonx.ai in den Rechenzentren in Dallas und Sydney abrufen.
Die neuesten Versionen 3.1 der Modelle unterstützen jetzt eine Kontextlänge von 128.000 Token und werden mit zusätzlichen synthetischen Daten trainiert, um die Leistung bei Risiken im Zusammenhang mit Halluzinationen und Jailbreak zu verbessern. Einzelheiten finden Sie unter Unterstützte Fundamentmodelle .
Die Modelle der Stiftungen granite-20b-multilingual und codellama-34b-instruct-hf sind veraltet
Copy link to section
15. Januar 2025
Die folgenden Gründungsmodelle sind veraltet. Überarbeiten Sie alle Aufforderungen, die diese Grundlagenmodelle verwenden.
Nach Abschluss der Betaphase fallen für die Durchführung von AutoAI folgende Gebühren an:
Gebühren für die Kapazitätseinheit (CUH) für die Laufzeit der Experimente.
Ressourceneinheit (RU) berechnet für das Einbetten des Erdungsdokuments und für die Ableitung der generativen KI-Modelle. Eine Resource Unit (RU) entspricht 1.000 Token.
In das ONNX-Format konvertierte Modelle bereitstellen
Copy link to section
20. Dezember 2024
Sie können jetzt Modelle für maschinelles Lernen und generative KI bereitstellen, die in das ONNX-Format konvertiert wurden, und den Endpunkt für die Inferenzierung verwenden. Diese Modelle können auch an dynamische Achsen angepasst werden. Weitere Informationen finden Sie unter Bereitstellen von Modellen, die in das ONNX-Format umgewandelt wurden.
Bereitstellung von SPSS Modeler mit mehreren Quellen
Copy link to section
20. Dezember 2024
Sie können jetzt Bereitstellungen für SPSS Modeler erstellen, die mehrere Eingabeströme verwenden, um Daten für das Modell bereitzustellen. Weitere Informationen finden Sie unter Bereitstellen von SPSS Modeler.
Woche bis 13. Dezember 2024
Copy link to section
Änderungen an den Granite 3 Instruct Gründungsmodellen werden eingeführt
Copy link to section
13. Dezember 2024
An den folgenden IBM wurden Änderungen vorgenommen:
granite-3-2b-instruct
granite-3-8b-instruct
Mit den jüngsten Änderungen bieten die Granite 3.1 Instruct Foundation-Modelle nun eine bessere Unterstützung für die Codierung von Aufgaben und intrinsischen Funktionen für Agenten. Die Länge des unterstützten Kontextfensters für diese Gründungsmodelle stieg von 4.096 Token auf 131.072 Token. Obwohl die Modell-IDs für die Granite Instruct Modelle gleich bleiben, werden die Modellgewichte aktualisiert.
Codefreie Lösung für die Suche nach einem RAG-Muster mit AutoAI (beta)
Copy link to section
12. Dezember 2024
Sie können nun die Suche nach dem optimalen RAG-Muster für Ihren Anwendungsfall über die AutoAI automatisieren. Laden Sie die Dokumentensammlung und die Testfragen, wählen Sie eine Vektordatenbank und führen Sie das Experiment durch, um einen schnellen Weg zum Finden eines RAG-Musters zu finden. Sie können auch die Konfigurationseinstellungen für das Experiment überprüfen und ändern. Vergleichen Sie die durch das Experiment erzeugten Muster und speichern Sie das beste Muster als automatisch erzeugtes Notizbuch oder als Notizbücher, die in Ihrem Projekt gespeichert sind.
Sie können Ihre KI-Dienste mit Hilfe vordefinierter Vorlagen bereitstellen. KI-Servicevorlagen bieten eine standardisierte Möglichkeit zur Bereitstellung von KI-Services, indem sie eine vordefinierte Struktur und Konfiguration für die Bereitstellung von KI-Modellen bieten. Bei diesen Vorlagen handelt es sich um vorgefertigte, einsatzbereite Codeeinheiten, die die Programmierlogik generativer KI-Anwendungen kapseln.
KI-Servicevorlagen automatisieren Aufgaben wie die Erstellung von Bereitstellungen, die Generierung von Metadaten und die Erstellung von Erweiterungen, so dass sich Entwickler auf die Kernlogik ihrer Anwendung konzentrieren können. Sie bieten eine flexible Möglichkeit zur Bereitstellung von KI-Diensten und unterstützen mehrere Eingaben und Anpassungen.
Das neueste Modell der Llama Foundation steht Ihnen auf Anfrage zur Verfügung
Copy link to section
12. Dezember 2024
Sie können die folgenden Adressen verwenden: Meta Llama 3.3 70B. Richten Sie ein mehrsprachiges Stiftungsmodell auf dedizierter Hardware ein, die ausschließlich Ihrer Organisation zur Verfügung steht. Das neueste Gründungsmodell von Meta verfügt über ähnliche Fähigkeiten wie das größere Modell von llama-3-405b-instruct, ist jedoch kleiner und besonders in den Bereichen Codierung, schrittweise Argumentation und Tool-Aufruf versiert. Sie können das vollständige Modell ( llama-3-3-70b-instruct-hf ) oder eine quantisierte Version ( llama-3-3-70b-instruct ) bereitstellen, für deren Hosting weniger Ressourcen erforderlich sind.
Bereitstellung von Basismodellen auf Abruf mit der Python
Copy link to section
12. Dezember 2024
Mit der Python watsonx.ai können Sie jetzt Ihre Basismodelle bei Bedarf bereitstellen. Mit diesem Ansatz können Sie auf die Fähigkeiten dieser leistungsstarken Fundamentmodelle zugreifen, ohne dass Sie umfangreiche Rechenressourcen benötigen. Foundation-Modelle, die Sie on-demand bereitstellen, werden in einem speziellen Bereitstellungsbereich gehostet, in dem Sie diese Modelle für Inferencing verwenden können.
Machen Sie praktische Erfahrungen mit SPSS Modeler, indem Sie die 15 aktualisierten SPSS Modeler ausprobieren.
Vergleich von AI-Assets mit Evaluation Studio
Copy link to section
12. Dezember 2024
Mit Evaluation Studio können Sie Ihre generativen KI-Assets mit quantitativen Metriken und anpassbaren Kriterien bewerten und vergleichen, die auf Ihre Anwendungsfälle zugeschnitten sind. Bewerten Sie die Leistung mehrerer Anlagen gleichzeitig und zeigen Sie vergleichende Analysen der Ergebnisse an, um die besten Lösungen zu ermitteln.
Erweiterungen der watsonx.governance Model Risk Governance Lösung
Diese Version enthält die folgenden Verbesserungen:
Die neue AI Model Onboarding Risk Identification Fragebogenvorlage wird während des Modell-Onboarding-Prozesses verwendet, um die mit einem Modell verbundenen Risiken zu identifizieren. Diese Fragebogenvorlage wird im Arbeitsablauf des Foundation Model Onboarding verwendet.
Die neue Fragebogenvorlage zur Identifizierung von KI-Nutzungsfällen dient dazu, die mit KI-Nutzungsfällen verbundenen Risiken zu ermitteln. Diese Fragebogenvorlage wird im Workflow Use Case Review verwendet. Dieser neue Fragebogen soll den Fragebogen zur Identifizierung von AI-Risiken ersetzen
Die neue Fragebogenvorlage zur Identifizierung von KI-Anwendungsfällen und -Modellen dient dazu, die Risiken zu ermitteln, die mit der Kombination aus einem KI-Anwendungsfall und einem Modell verbunden sind. Diese Fragebogenvorlage wird im Workflow Use Case Development and Documentation verwendet.
Der AI Assessment Workflow ist jetzt standardmäßig deaktiviert. Er wird durch den Workflow Fragebogenbewertung ersetzt. Sie können nun Fragebogenvorlagen direkt im Use Case Workflow einstellen.
Die Arbeitsabläufe, Ansichten und Dashboards wurden aktualisiert.
IBM watsonx.governance ist in der Region Sydney verfügbar
Copy link to section
9. Dezember 2024
IBM watsonx.governance ist nun allgemein im Rechenzentrum in Sydney verfügbar. Sie können bei der Anmeldung Sydney als Ihre bevorzugte Region auswählen.
Bereitstellung von Stiftungsmodellen nach Bedarf in der Region Dallas
Copy link to section
6. Dezember 2024
Wählen Sie aus einer ausgewählten Sammlung von Basismodellen, die Sie auf dedizierter Hardware für die ausschließliche Nutzung durch Ihr Unternehmen bereitstellen können. Eine gezielte Bereitstellung bedeutet eine schnellere Interaktion bei der Ableitung von Basismodellen. Die Bereitstellung von On-Demand-Foundation-Modellen wird nach Stunden abgerechnet. Weitere Informationen finden Sie unter Unterstützte Grundlagenmodelle und Abrechnungsdetails für generative KI-Assets.
Inferenz des neuesten Modells der Llama-Stiftung von Meta in den Regionen Dallas und Frankfurt
Copy link to section
6. Dezember 2024
Das mehrsprachige Schulungsmodell "Instruct" ist in den Regionen Dallas und Frankfurt verfügbar. Meta Llama 3.3 70B Das llama-3-3-70b-instruct -Stiftungsmodell ist in der Codierung, der schrittweisen Argumentation und dem Aufrufen von Tools versiert. Mit einer Leistung, die mit der des 405b -Modells mithalten kann, ist das Llama 3.3-Foundation-Modell-Update eine gute Wahl für Entwickler. Siehe die Ankündigung von IBM.
Überprüfung von Benchmarks zum Vergleich von Stiftungsmodellen
Copy link to section
5. Dezember 2024
Sehen Sie sich die Benchmarks der Fundamentmodelle an, um sich über die Fähigkeiten der verfügbaren Fundamentmodelle zu informieren, bevor Sie sie ausprobieren. Vergleichen Sie, wie verschiedene Stiftungsmodelle bei den Aufgaben abschneiden, die für Ihren Anwendungsfall am wichtigsten sind. Weitere Informationen finden Sie unter Benchmarks für Stiftungsmodelle.
Microsoft Excel-Dateien sind für OPL-Modelle in Decision Optimization veraltet
Copy link to section
5. Dezember 2024
Microsoft Excel-Arbeitsmappendateien (.xls und .xlsx) werden jetzt nicht mehr für die direkte Eingabe und Ausgabe in OPL-Modellen Decision Optimization verwendet. Um eine Verbindung zu Excel-Dateien herzustellen, verwenden Sie stattdessen einen Datenkonnektor. Der Datenkonnektor wandelt Ihre Excel-Datei in eine .csv-Datei um. Weitere Informationen finden Sie unter referenzierte Daten.
Neue Beispiel-Notebooks für den Einsatz von Modellen, die in das ONNX-Format konvertiert wurden
Copy link to section
3. Dezember 2024
Sie können jetzt Modelle für maschinelles Lernen und generative KI bereitstellen, die in das ONNX-Format konvertiert wurden, und den Endpunkt für die Inferenzierung verwenden. Diese Modelle können auch an dynamische Achsen angepasst werden. Siehe die folgenden Beispiel-Notizbücher:
Verbesserte Dokumentation zu Schreiboptionen für Data Refinery
Copy link to section
28. November 2024
Die Schreiboptionen und Tabellenoptionen für den Export von Datenflüssen hängen von Ihrer Verbindung ab. Diese Optionen werden nun erläutert, damit Sie bei der Auswahl Ihrer Zieltabellenoptionen besser geführt werden. Weitere Informationen finden Sie unter Zielverbindungsoptionen für Data Refinery.
Woche bis 22. November 2024
Copy link to section
Neuer watsonx Developer Hub für den schnellen Einstieg ins Programmieren
Copy link to section
21. Oktober 2024
Im neuen Developer Hub finden Sie alles, was Sie für die Programmierung Ihrer generativen KI-Lösung benötigen:
Stellen Sie Ihre erste API-Anfrage zur Ableitung eines Grundmodells an watsonx.ai.
Finden Sie die richtigen Basismodelle und Code-Bibliotheken für Ihre KI-Anwendungen.
Verstehen Sie die Fähigkeiten von watsonx.ai und kopieren Sie Codeschnipsel in Curl, Node.js oder Python.
Lernen Sie anhand detaillierter Anleitungen, wie Sie generative KI-Anwendungen und -Lösungen erstellen.
Treten Sie Gemeinschaften bei, um Ressourcen und Antworten zu finden und sich mit anderen Nutzern auszutauschen.
Verwenden Sie IBM Granite -Zeitreihen-Grundmodelle und die watsonx.ai -API, um zukünftige Werte (Beta) vorherzusagen
Copy link to section
21. November 2024
Verwenden Sie die Zeitreihen-API, um historische Datenbeobachtungen an ein IBM Granite -Zeitreihen-Grundmodell zu übergeben, das zukünftige Werte mit Null-Schuss-Inferenz vorhersagen kann. Die Zeitreihenprognose-Methode der watsonx.ai API ist als Beta-Funktion verfügbar. Weitere Informationen finden Sie unter "Prognose zukünftiger Datenwerte ".
Verwendung von watsonx.ai Text-Einbettungsmodellen aus der Elasticsearch Inferenz-API
Copy link to section
21. November 2024
Die Version Elasticsearch 8.16.0 Release fügte Unterstützung für die Erstellung eines Inferenzendpunkts hinzu, der ein watsonx.ai -Grundmodell für Texteinbettungsaufgaben verwendet.
Sie können jetzt SPSS Modeler direkt von Projekten in Bereitstellungsbereiche verschieben, ohne das Projekt exportieren und dann in den Bereitstellungsbereich importieren zu müssen. Weitere Informationen finden Sie unter Förderung von SPSS Modeler und -Modellen.
Woche bis zum 15. November 2024
Copy link to section
Nutzen Sie die IBM watsonx.ai Demo-Chat-App ohne Test-Einschränkungen durch Verknüpfung von Konten
Copy link to section
15. November 2024
Sie können Ihr IBM watsonx.ai jetzt ohne Token-Nutzung oder zeitliche Begrenzung nutzen, indem Sie Ihr Demokonto mit Ihrem bezahlten IBM Cloud watsonx.ai verknüpfen. Details finden Sie unter Verknüpfung der IBM watsonx.ai Demo und watsonx.ai Konten.
Das watsonx.ai Node.js ist bei LangChain erhältlich
Copy link to section
11. November 2024
Das watsonx.ai Node.js kann über die LangChain JavaScript genutzt werden. Die Integration unterstützt watsonx.ai wie das Inferencing von Basismodellen, die Generierung von Texteinbettungen und die Handhabung von Chat-Austausch, der Bild-zu-Text- und Tool-Calling-Funktionen umfasst. Mit der LangChain können Sie diese watsonx.ai über einheitliche Schnittstellen abrufen, die es Ihnen erleichtern, zwischen Anbietern zu wechseln, um Angebote zu vergleichen und die beste Lösung für Ihre Bedürfnisse zu finden.
Weitere Informationen finden Sie unter Node.js SDK.
Für die Verteilung von Assets und die Ausführung von Aufträgen aus einem Verteilungsraum sind jetzt Task-Anmeldeinformationen erforderlich
Copy link to section
11. November 2024
Um die Sicherheit bei der Ausführung von Verteilungsaufträgen zu verbessern, müssen Sie Ihre Anmeldedaten für die Aufgabe eingeben, um die folgenden Assets aus einem Verteilungsraum zu verteilen:
Eingabeaufforderungsvorlagen
KI-Services
Modelle
Python-Funktionen
Scripts
Außerdem müssen Sie Ihre Anmeldeinformationen für die Aufgabe eingeben, um die folgenden Bereitstellungen aus Ihrem Bereitstellungsbereich zu erstellen:
Online
Stapel-
Sie müssen auch Ihre Anmeldeinformationen für Aufgaben verwenden, um Verteilungsaufträge aus Ihrem Verteilungsraum zu erstellen und zu verwalten.
Bereitstellung von generativen KI-Anwendungen mit KI-Diensten
Copy link to section
7. November 2024
Sie können jetzt KI-Services in watsonx.ai nutzen, um Ihre Anwendungen bereitzustellen. Ein KI-Service ist eine einsatzfähige Codeeinheit, mit der Sie die Logik Ihrer generativen KI-Anwendungsfälle erfassen können. Während Python traditionell für die Bereitstellung von maschinellen Lernressourcen verwendet werden, bieten KI-Dienste eine flexiblere Option für die Bereitstellung von Code für generative KI-Anwendungen, z. B. für Streaming. Wenn Ihre KI-Dienste erfolgreich implementiert sind, können Sie den Endpunkt für Inferenzen aus Ihrer Anwendung heraus verwenden.
Neues Einbettungsmodell von Drittanbietern all-minilm-l6-v2 ) ist in watsonx.ai verfügbar
Copy link to section
29. Oktober 2024
Das Text-Einbettungsmodell all-minilm-l6-v2 aus der Open-Source-Gemeinschaft für natürliche Sprachverarbeitung (NLP) und Computer Vision (CV) ist jetzt über die Text-Einbettungsmethode der watsonx.ai API verfügbar. Verwenden Sie das Modell, um Text in Texteinbettungsvektoren umzuwandeln, die für die Verwendung bei Textabgleichs- und Retrievalaufgaben geeignet sind. Einzelheiten zu den Modellen finden Sie in den folgenden Themen:
Günstigerer Preis für die Ableitung des Mistral Large -Stiftungsmodells
Copy link to section
29. Oktober 2024
Der Preis für Beiträge, die Sie an das Mistral Large -Stiftungsmodell senden, ist von 1,00 $ 0.01 auf 1,00 $ 0.003 USD pro 1.000 Token gesunken. Der Preis für die Ausgabe, die durch das Stiftungsmodell generiert wird, hat sich nicht geändert; der Preis für die Ausgabe-Token bleibt bei 1 $ 0.01 USD/1,000 Token. Die Preisänderung gilt für alle Regionen, in denen das Stiftungsmodell mistral-large verfügbar ist.
IBM Runtime 23.1 ist veraltet. Ab dem 21. November 2024 können Sie keine neuen Notebooks oder benutzerdefinierten Umgebungen mehr erstellen, indem Sie 23.1 verwenden. Außerdem können Sie keine neuen Bereitstellungen mit Software-Spezifikationen erstellen, die auf der 23.1 basieren. Um einen reibungslosen Ablauf zu gewährleisten und die neuesten Funktionen und Verbesserungen zu nutzen, wechseln Sie zu IBM Runtime 24.1.
Vereinfachen Sie komplexe Geschäftsdokumente mit der Textextraktions-API
Copy link to section
28. Oktober 2024
Die Methode zur Textextraktion ist nun allgemein in der watsonx.ai REST API verfügbar. Nutzen Sie die von IBM entwickelte Technologie zum Verstehen von Dokumenten, um Ihre komplexen Geschäftsdokumente so zu vereinfachen, dass sie von Foundation-Modellen als Teil eines generativen KI-Workflows verarbeitet werden können. Die Textextraktions-API extrahiert Text aus Dokumentstrukturen wie Bildern, Diagrammen und Tabellen, die von Basismodellen oft nicht korrekt interpretiert werden können. Weitere Informationen finden Sie unter Extrahieren von Text aus Dokumenten.
Vergleichen Sie Tabellen in Decision Optimization, um Unterschiede zwischen Szenarien zu erkennen
Copy link to section
23. Oktober 2024
Sie können jetzt Tabellen in einem Decision Optimization entweder in der Ansicht " Daten vorbereiten" oder "Lösung untersuchen" vergleichen. Dieser Vergleich kann nützlich sein, um Unterschiede in den Datenwerten zwischen nebeneinander angezeigten Szenarien zu erkennen. Weitere Informationen finden Sie unter Szenariotabellen vergleichen.
Neue Granite 3.0 Modelle sind in watsonx.ai verfügbar
Copy link to section
21. Oktober 2024
Sie können nun von ' watsonx.ai: auf die folgenden Modelle der Generation ' 3.0 ' Granite schließen, die von ' IBM bereitgestellt werden
Granite Instruct Modelle in allen Regionen: Verwenden Sie die neuen, auf Instruct abgestimmten, leichtgewichtigen und quelloffenen Sprachmodelle für Aufgaben wie Zusammenfassungen, Problemlösungen, Textübersetzungen, Schlussfolgerungen, Codierungen und Funktionsaufrufe. Funktioniert mit den folgenden Modellvarianten:
granite-3-2b-instruct
granite-3-8b-instruct
Granite Guardian Modelle in der Region Dallas: Verwenden Sie die neuen Granite Guardian-Modelle, bei denen es sich um fein abgestimmte Granite Instruct-Modelle handelt, die darauf ausgelegt sind, Risiken in Aufforderungen und Antworten zu erkennen. Funktioniert mit den folgenden Modellvarianten:
Verbessern Sie Such- und Retrievalaufgaben mit der Text-Rerank-API
Copy link to section
21. Oktober 2024
Die Text-Rerank-Methode ist generell in der watsonx.ai REST API verfügbar. Verwenden Sie diese neue API-Methode zusammen mit Reranker-Grundmodellen, wie z. B. dem neu unterstützten ms-marco-minilm-l-12-v2, um eine Menge von Dokumentpassagen auf der Grundlage ihrer Ähnlichkeit mit einer bestimmten Abfrage neu zu ordnen. Reranking ist eine nützliche Methode, um Ihre Arbeitsabläufe bei der Suche nach Antworten zu präzisieren. Weitere Informationen finden Sie unter Neueinstufung von Dokumentenpassagen.
Das neue Modell Pixtral 12B ist in den Regionen Frankfurt und London erhältlich
Copy link to section
21. Oktober 2024
Sie können jetzt das Pixtral 12B -Stiftungsmodell von Mistral AI auf watsonx.ai in den Rechenzentren in Frankfurt und London verwenden.
Pixtral 12B ist ein natives multimodales Modell mit Bild-zu-Text- und Text-zu-Text-Fähigkeiten, das mit verschachtelten Bild- und Textdaten trainiert wurde. Das Modell der Stiftung unterstützt variable Bildgrößen und ist hervorragend für Aufgaben geeignet, bei denen Anweisungen befolgt werden müssen. Einzelheiten finden Sie unter Unterstützte Fundamentmodelle .
Woche bis 18. Oktober 2024
Copy link to section
Kontoressourcen-Scoping ist standardmäßig aktiviert
Copy link to section
17. Oktober 2024
Die Einstellung " Resource scope für Ihr Konto ist jetzt standardmäßig auf " ON gesetzt. Wenn Sie jedoch zuvor den Wert für den Ressourcenbereich entweder auf ' ON oder ' OFF gesetzt haben, wird die aktuelle Einstellung nicht geändert.
Wenn das Ressourcenscoping aktiviert ist, können Sie nicht auf Projekte zugreifen, die sich nicht in Ihrem aktuell ausgewählten IBM Cloud befinden. Wenn Sie zu mehr als einem IBM Cloud gehören, werden möglicherweise nicht alle Ihre Projekte zusammen aufgeführt. Es kann zum Beispiel sein, dass Sie nicht alle Ihre Projekte auf der Seite Alle Projekte sehen. Sie müssen das Konto wechseln, um die Projekte in den anderen Konten zu sehen.
Ein Modell der Code Foundation Granite ist in der Region Frankfurt verfügbar
Copy link to section
15. Oktober 2024
Das granite-20b-code-instruct -Stiftungsmodell von IBM ist darauf ausgelegt, auf codierungsbezogene Anweisungen zu reagieren. Sie können das Grundmodell in Projekten verwenden, die im Rechenzentrum in Frankfurt gehostet werden, um Sie bei Programmieraufgaben und beim Erstellen von Programmierassistenten zu unterstützen. Weitere Informationen über das Modell finden Sie unter Unterstützte Gründungsmodelle.
Woche bis 11. Oktober 2024
Copy link to section
Neue Vorteile bei der Lizenzierung
Copy link to section
10. Oktober 2024
Sie können jetzt Ihre eigene Lizenz (BYOL) mitbringen, um die Vorteile der On-Premises-Lizenzierung auf IBM watsonx.ai und IBM watsonx.governance anzuwenden.
Analysieren Sie japanische Textdaten in SPSS Modeler mit Text Analytics
Copy link to section
9. Oktober 2024
Sie können jetzt die Textanalyseknoten in SPSS Modeler, wie z. B. den Textlink-Analyseknoten und den Text Mining-Knoten, verwenden, um in Japanisch geschriebene Textdaten zu analysieren.
Erstellen Sie konversationelle Workflows mit der watsonx.ai Chat-API
Copy link to section
8. Oktober 2024
Nutzen Sie die watsonx.ai, um generative KI-Funktionen, einschließlich agentengesteuerter Aufrufe von Tools und Diensten von Drittanbietern, in Ihre Anwendungen zu integrieren.
Weitere Informationen finden Sie unter den folgenden Themen:
Neue Software-Spezifikation für benutzerdefinierte Gründungsmodelle
Copy link to section
7. Oktober 2024
Sie können jetzt eine neue Software-Spezifikation watsonx-cfm-caikit-1.1 mit Ihren benutzerdefinierten Foundation-Modell-Implementierungen verwenden. Die Spezifikation basiert auf der vLLM -Bibliothek und ist besser für die neuesten großen Sprachmodelle geeignet, die nur mit Decodern arbeiten. Weitere Informationen zur Bibliothek vLLM finden Sie unter vLLM Informationen zur Verwendung der Spezifikation mit einem benutzerdefinierten Fundamentmodell finden Sie unter Planung der Bereitstellung eines benutzerdefinierten Fundamentmodells.
Die Gründungsmodelle granite-7b-lab und llama3-llava-next-8b-hf sind veraltet
Copy link to section
7. Oktober 2024
Das granite-7b-lab -Stiftungsmodell ist veraltet und wird am 7. Januar 2025 eingestellt. Überarbeiten Sie alle Eingabeaufforderungen, die dieses Grundmodell verwenden.
Verfallsdatum: 7. Oktober 2024
Rücktrittsdatum: 7. Januar 2025
Alternatives Modell: granite-3-8b-instruct
Das multimodale Stiftungsmodell llama3-llava-next-8b-hf ist ebenfalls veraltet und wird am 7. November 2024 eingestellt. Sie können jetzt eines der neu veröffentlichten Llama 3.2-Vision-Modelle für Bild-zu-Text-Generierungsaufgaben verwenden.
Aktualisierte Umgebungen und Software-Spezifikationen
Copy link to section
3. Oktober 2024
Die Tensorflow und Keras, die in IBM Runtime 23.1 enthalten sind, werden jetzt auf ihre neueren Versionen aktualisiert. Dies kann Auswirkungen darauf haben, wie der Code in Ihren Notizbüchern ausgeführt wird. Weitere Informationen finden Sie unter Bibliothekspakete, die in den watsonx.ai Studio (ehemals Watson Studio) -Laufzeiten enthalten sind.
Runtime 23.1 wird noch in diesem Jahr zugunsten von IBM Runtime 24.1 eingestellt. Um wiederholte Unterbrechungen zu vermeiden, empfehlen wir Ihnen, jetzt auf IBM Runtime 24.1 umzusteigen und die entsprechenden Softwarespezifikationen für den Einsatz zu verwenden.
Verfügbarkeit des watsonx.governance in der Region Frankfurt und Abschaffung des OpenScale
Copy link to section
3. Oktober 2024
Der watsonx.governance zur Bereitstellung von Watson OpenScale in der Region Frankfurt ist veraltet. IBM Watson OpenScale wird nicht mehr für neue Abonnements oder für die Bereitstellung neuer Instanzen zur Verfügung stehen. Für OpenScale können Sie den watsonx.governance Essentials-Plan abonnieren, der jetzt sowohl in Frankfurt als auch in Dallas verfügbar ist.
Informationen zum Anzeigen von Plandetails finden Sie unter watsonx.governance -Pläne.
Bestehende Legacy-Plan-Instanzen werden weiterhin betrieben und bis zum noch zu bestimmenden End-of-Support-Datum unterstützt.
Bestehende Kunden, die IBM Watson OpenScale nutzen, können weiterhin Support-Tickets über IBM Watson OpenScale eröffnen.
Neue Menübegriffe zum Öffnen der Seite Plattformverbindungen
Copy link to section
3. Oktober 2024
Zuvor lautete der Pfad zur Seite Plattformverbindungen im Navigationsmenü Daten > Plattformverbindungen. Der neue Pfad lautet Daten > Konnektivität. Die Seite Konnektivität enthält eine Registerkarte für Plattformverbindungen.
Woche bis 27. September 2024
Copy link to section
Llama 3.2 Fundamentmodelle, einschließlich der multimodalen Modelle 11B und 90B, sind verfügbar
Copy link to section
25. September 2024
Mit der heutigen Veröffentlichung werden die folgenden Gründungsmodelle von Meta AI in der Region Dallas verfügbar:
Llama 3.2 Modelle unterrichten
Vielseitige große Sprachmodelle, die große Eingaben unterstützen (128.000 Token Kontextfensterlänge) und mit 1B und 3B Parametern so leicht und effizient sind, dass sie auf ein mobiles Gerät passen. Sie können diese Modelle nutzen, um hoch personalisierte Agenten auf dem Gerät zu erstellen.
Llama 3.2 Sichtmodelle
Fein abgestimmte Modelle, die für Anwendungsfälle mit Bild und Text entwickelt wurden, wie z. B. das Verstehen von Dokumenten, die Interpretation von Diagrammen und Grafiken sowie die Beschriftung von Bildern.
Lama Guard Sichtmodell
Leistungsstarkes Leitplankenmodell für die Filterung schädlicher Inhalte.
Diese Version enthält Erweiterungen und Fehlerbehebungen.
Benutzerdefinierte Registerkarten auf dem Dashboard
Das Dashboard kann jetzt bis zu drei benutzerdefinierte Registerkarten enthalten.
Gestapelte Balkendiagramme
Sie können jetzt ein gestapeltes Balkendiagramm auf dem Dashboard und im Ansichtsdesigner konfigurieren.
Verwendung von Ausdrücken zum Festlegen von Feldwerten auf der Grundlage der Antworten eines Fragebogen-Teilnehmers
Sie können nun einen Ausdruck für den Wert eines Feldes eingeben. Sie können z. B. [$TODAY$] für das aktuelle Datum, [$END_USER$] für den Namen des angemeldeten Benutzers oder [$System Fields:Description$] eingeben, um das Feld auf den Wert des Feldes Beschreibung des Objekts zu setzen.
Erweiterungen der watsonx.governance Model Risk Governance Lösung
Diese Version enthält die folgenden Erweiterungen:
Der neue Objekttyp Modellgruppe bietet eine Möglichkeit, ähnliche Modelle zusammenzufassen. So können beispielsweise Versionen eines Modells, die einen ähnlichen Ansatz zur Lösung eines Geschäftsproblems verwenden, in einer Modellgruppe zusammengefasst werden.
Die neue Berechnung des Use Case Risk Scoring fasst die Metriken nach Verstoßstatus zu Risikowerten zusammen, um einen Gesamtüberblick über die Leistung der zugrunde liegenden Modelle eines Anwendungsfalls zu geben.
Die neue Geschäftseinheit "Discovered AI library" bietet einen Standardort, an dem alle KI-Implementierungen gespeichert werden, die nicht den sanktionierten Governance-Praktiken innerhalb eines Unternehmens entsprechen (auch als "Schatten-KI" bekannt).
Die Arbeitsabläufe, Ansichten und Dashboards wurden aktualisiert.
Automatisieren Sie RAG-Muster mit AutoAI SDK (beta)
Copy link to section
23. September 2024
Verwenden Sie das AutoAI Python SDK, um den Entwurf und die Bereitstellung eines optimierten RAG-Musters (Retrieval-augmented generation) auf der Grundlage Ihrer Daten und Ihres Anwendungsfalls zu automatisieren und zu beschleunigen. RAG verfügt über zahlreiche Konfigurationsparameter, z. B. welches große Sprachmodell gewählt werden soll, wie die Grundlagendokumente zerlegt werden sollen und wie viele Dokumente abgerufen werden sollen. AutoAI automatisiert die vollständige Erkundung und Bewertung eines begrenzten Satzes von Konfigurationsoptionen und erzeugt eine Reihe von Musterpipelines, die nach ihrer Leistung im Hinblick auf die Optimierungsmetrik geordnet sind.
Hinweis: Solange sich diese Funktion im Beta-Stadium befindet, ist die Durchführung des Experiments kostenlos und es werden keine Token verbraucht. Aufrufe von RAG-Mustern und deren Ableitungen nach Abschluss des Experiments verbrauchen jedoch Ressourcen und werden zu den üblichen Tarifen abgerechnet.
Die Unterstützung für die Spark 3.3-Laufzeit in IBM Analytics Engine wird bis zum 29. Oktober 2024 entfernt und die Standardversion wird auf die Spark 3.4-Laufzeit geändert. Um einen reibungslosen Ablauf zu gewährleisten und die neuesten Funktionen und Verbesserungen zu nutzen, wechseln Sie zu Spark 3.4.
Ab dem 29. Oktober 2024 können Sie keine Notebooks oder benutzerdefinierten Umgebungen mit Spark 3.3-Laufzeiten erstellen oder ausführen. Außerdem können Sie keine Bereitstellungen mit Softwarespezifikationen erstellen oder ausführen, die auf der Spark-Laufzeit 3.3 basieren.
Ableitung eines multimodalen Fundamentmodells aus dem Prompt Lab
Copy link to section
19. September 2024
Sie können jetzt ein Bild in Prompt Lab hinzufügen und über das Bild chatten, indem Sie ein multimodales Fundamentmodell im Chat-Modus aufrufen. Zusätzlich zu den Grundlagendokumenten können Sie jetzt Bilder hochladen und ein Modell der Stiftung, das Bild-zu-Text-Aufgaben unterstützt, nach dem visuellen Inhalt des Bildes fragen. Weitere Informationen finden Sie unter Chatten mit Dokumenten und Bildern.
Das neue Modell llama3-llava-next-8b-hf ist in der Region Dallas erhältlich
Copy link to section
19. September 2024
Sie können jetzt das neue multimodale llama3-llava-next-8b-hf -Modell der Stiftung auf IBM watsonx.ai verwenden, um bei Bild-zu-Text-Aufgaben zu helfen.
Large Language and Vision Assistant (LLaVa) kombiniert ein vortrainiertes großes Sprachmodell mit einem vortrainierten Vision-Encoder für multimodale Chatbot-Anwendungsfälle. LLaVA NeXT Llama3 wird auf vielfältigeren, hochwertigen Bild- und Textdaten trainiert. Einzelheiten finden Sie unter Unterstützte Fundamentmodelle .
Verwenden Sie das watsonx.ai Node.js SDK zur Programmierung generativer KI-Anwendungen
Copy link to section
18. September 2024
Inferenz und Abstimmung von Basismodellen in IBM watsonx as a Service programmatisch mit dem Paket watsonx.ai Node.js. Weitere Informationen finden Sie unter Node.js SDK.
Verstehen der IP-Entschädigungsrichtlinien für Stiftungsmodelle
Copy link to section
18. September 2024
Sie können jetzt die IBM-Richtlinie zur Entschädigung für geistiges Eigentum besser verstehen und sehen, welche Foundation-Modelle in watsonx.ai eine Entschädigung für geistiges Eigentum abdecken. Weitere Informationen finden Sie unter Modelltypen und IP-Entschädigung.
Woche bis 13. September 2024
Copy link to section
Erstellen Sie Stapelverarbeitungsaufträge für SPSS Modeler -Flows im Bereitstellungsbereich
Copy link to section
10. September 2024
Sie können jetzt Batch-Jobs für SPSS Modeler-Flows in Deployment-Spaces erstellen. Flows geben Ihnen die Flexibilität zu entscheiden, welche Terminalknoten jedes Mal ausgeführt werden sollen, wenn Sie einen Batch-Job aus einem Flow erstellen. Wenn Sie Batch-Jobs für Abläufe einplanen, verwendet der Batch-Job die Datenquellen und Ausgabeziele, die Sie in Ihrem Ablauf angegeben haben. Das Mapping für diese Datenquellen und -ausgaben erfolgt automatisch, wenn sich die Datenquellen und -ziele ebenfalls in Ihrem Bereitstellungsbereich befinden. Weitere Informationen zum Erstellen von Batch-Aufträgen aus Flows finden Sie unter Erstellen von Deployment-Aufträgen für SPSS Modeler-Flows.
Bringen Sie Ihr eigenes Fundamentmodell zur Auswertung von watsonx.ai in der Region Dallas mit
Copy link to section
3. September 2024
Zusätzlich zur Arbeit mit Foundation-Modellen, die von IBM kuratiert wurden, können Sie jetzt Ihre eigenen Foundation-Modelle hochladen und bereitstellen. Nachdem die Modelle bereitgestellt und bei watsonx.ai registriert wurden, erstellen Sie Prompts, die programmgesteuert oder über das Prompt Lab auf die benutzerdefinierten Modelle schließen. Diese Funktion ist nur in der Region Dallas verfügbar.
Vereinfachen Sie komplexe Geschäftsdokumente mit der API für die Textextraktion aus Dokumenten
Copy link to section
3. September 2024
Wenden Sie die von IBM entwickelte Technologie zum Verstehen von Dokumenten an, um Ihre komplexen Geschäftsdokumente so zu vereinfachen, dass sie von Foundation-Modellen als Teil eines generativen KI-Workflows verarbeitet werden können. Die API für die Extraktion von Dokumententext extrahiert Text aus Dokumentstrukturen wie Bildern, Diagrammen und Tabellen, die von Basismodellen oft nicht korrekt interpretiert werden können. Die Textextraktionsmethode der watsonx.ai REST API ist eine Beta-Funktion.
Granite Änderungen und Aktualisierungen des Code-Foundation-Modells sind verfügbar
Copy link to section
3. September 2024
Das granite-20b-code-instruct -Stiftungsmodell wurde in die Version 1.1.0 geändert. Die jüngste Modifikation wurde mit einer Mischung aus hochwertigen Daten aus den Bereichen Code und natürliche Sprache trainiert, um die Fähigkeit des Modells, Schlussfolgerungen zu ziehen und Anweisungen zu befolgen, zu verbessern.
Die folgenden Gründungsmodelle wurden aktualisiert, um die Größe des unterstützten Kontextfensters (Eingabe + Ausgabe) für Prompts von 8192 auf 128.000 zu erhöhen:
Die Modelle llama-2-13b-chat und llama-2-70b-chat sind veraltet
Copy link to section
26. August 2024
Die Gründungsmodelle llama-2-13b-chat und llama-2-70b-chat sind veraltet und werden am 25. September 2024 zurückgezogen. Überarbeiten Sie alle Aufforderungen, die diese Grundlagenmodelle verwenden.
llama-2-13b-chat
Verfallsdatum: 26. August 2024
Rücktrittsdatum: 25. September 2024
Alternatives Modell: llama-3.1-8b-instruct
llama-2-70b-chat
Verfallsdatum: 26. August 2024
Rücktrittsdatum: 25. September 2024
Alternatives Modell: llama-3.1-70b-instruct
Inferenzanfragen, die über die API an die Modelle llama-2-13b-chat und llama-2-70b-chat gestellt werden, erzeugen weiterhin Ausgaben, enthalten aber eine Warnmeldung über die bevorstehende Rücknahme des Modells. Ab dem 25. September 2024 werden API-Anfragen zum Inferencing der Modelle keine Ausgabe mehr erzeugen.
Hinzufügen von Benutzergruppen als Mitwirkende in Projekten und Bereichen
Copy link to section
22. August 2024
Sie können jetzt Benutzergruppen in Projekten und Bereichen hinzufügen, wenn Ihr IBM Cloud-Konto IAM-Zugangsgruppen enthält. Ihr IBM Cloud-Kontoverwalter kann Zugriffsgruppen erstellen, die dann als Benutzergruppen in Projekten verfügbar sind. Weitere Informationen finden Sie unter Arbeiten mit IAM-Zugangsgruppen.
Unterstützung bei der Beendigung der Vorhersage von Anomalien für AutoAI Zeitreihenexperimente
Copy link to section
19. August 2024
Die Funktion zur Vorhersage von Anomalien (Ausreißern) in AutoAI Zeitreihenmodellvorhersagen, die sich derzeit in der Betaphase befindet, ist veraltet und wird am 23. September 2024 entfernt. Standardmäßige AutoAI Zeitreihenexperimente werden weiterhin vollständig unterstützt. Einzelheiten finden Sie unter Aufbau eines Zeitreihenexperiments.
Woche bis 16. August 2024
Copy link to section
Neue Schiefereinbettungsmodelle von IBM sind in allen Regionen verfügbar
Copy link to section
15. August 2024
IBM Schiefereinbettungsmodelle bieten Unternehmen die Möglichkeit, Einbettungen für verschiedene Eingaben wie Abfragen, Passagen oder Dokumente zu erzeugen. Die neuen Modelle slate-125m-english-rtrvr-v2 und slate-30m-english-rtrvr-v2 zeigen deutliche Verbesserungen gegenüber ihren v1 Gegenstücken. Wenn Sie heute die Modelle slate-125m-english-rtrvr und slate-30m-english-rtrvr verwenden, wechseln Sie zu den neuen v2 Slate-Modellen, um von den Modellverbesserungen zu profitieren.
Konfigurieren Sie KI-Leitplanken für Benutzereingaben und Fundamentmodellausgaben separat in Prompt Lab
Copy link to section
15. August 2024
Passen Sie die Empfindlichkeit der KI-Leitplanken an, die schädliche Inhalte finden und entfernen, wenn Sie mit den Eingabeaufforderungen des Foundation-Modells in Prompt Lab experimentieren. Sie können unterschiedliche Filterempfindlichkeitsstufen für Benutzereingaben und Modellausgabetexte festlegen und effektive AI-Leitplankeneinstellungen in Eingabeaufforderungsvorlagen speichern.
Auswahl von Testdaten aus Projekten für zeitnahe Vorlagenauswertungen
Copy link to section
8. August 2024
Wenn Sie Prompt-Vorlagen in Projekten auswerten, können Sie jetzt Projekt-Assets wählen, um Testdaten für Auswertungen auszuwählen. Weitere Informationen finden Sie unter Auswertung von Prompt-Vorlagen in Projekten.
Das neue Modell llama-3-1-70b-instruct ist jetzt verfügbar auf IBM watsonx.ai
Copy link to section
7. August 2024
Sie können jetzt die neuesten Llama 3.1-Grundmodelle von Meta in der 70-Milliarden-Parametergröße auf IBM watsonx.ai verwenden.
Die Llama 3.1 Serie von Basismodellen sind leistungsstarke große Sprachmodelle mit erstklassigen Argumentationsfähigkeiten. Die Modelle können für komplexe mehrsprachige Argumentationsaufgaben verwendet werden, einschließlich Textverständnis, Transformation und Codegenerierung. Sie unterstützen Englisch, Deutsch, Französisch, Italienisch, Portugiesisch, Hindi, Spanisch und Thai. Einzelheiten finden Sie unter Unterstützte Fundamentmodelle .
Aktualisierte Q&A mit RAG-Beschleuniger
Copy link to section
6. August 2024
Das Beispielprojekt Q&A mit RAG-Beschleuniger 1.2 enthält die folgenden Verbesserungen:
Holen Sie sich Hilfe bei der nächsten Phase Ihrer RAG-Implementierung (Retrieval-Augmented Generation): Sammeln Sie Nutzerfeedback und analysieren Sie die Antwortqualität. Enthält Analysen mit unüberwachter Themenerkennung, um beliebte Themen, die Zufriedenheit der Benutzer mit den generierten Antworten nach Thema und die Suchergebnisse nach Thema anzuzeigen.
Neue Vorlagen für Eingabeaufforderungen, die für die IBM granite-7b-lab und Meta Llama 3.1-Stiftungsmodelle optimiert sind.
Optimierter Code, der RAG-Dienstprogramme aus der watsonx.ai Python-Bibliothek und gezielte Vektorsuchfilter für die Suche nach Produkt, Bereich und mehr verwendet.
Hinweis: Wenn Sie das Beispielprojekt nicht erstellen können, versuchen Sie, den Text im Beschreibungsfeld zu ersetzen.
Woche bis 2. August 2024
Copy link to section
Das neue Modell llama-3-1-8b-instruct ist jetzt verfügbar auf IBM watsonx.ai
Copy link to section
1. August 2024
Sie können jetzt die neuesten Llama 3.1-Grundmodelle von Meta in der 8-Milliarden-Parametergröße auf IBM watsonx.ai verwenden.
Die Llama 3.1 Serie von Basismodellen sind leistungsstarke große Sprachmodelle mit erstklassigen Argumentationsfähigkeiten. Die Modelle können für komplexe mehrsprachige Argumentationsaufgaben verwendet werden, einschließlich Textverständnis, Transformation und Codegenerierung. Sie unterstützen Englisch, Deutsch, Französisch, Italienisch, Portugiesisch, Hindi, Spanisch und Thai. Einzelheiten finden Sie unter Unterstützte Fundamentmodelle .
Assoziieren Sie Arbeitsbereiche mit KI-Anwendungsfällen
Copy link to section
1. August 2024
Der Ablauf für die Erstellung eines KI-Anwendungsfalls wurde geändert, um ihn besser auf den KI-Lebenszyklus abzustimmen. Nachdem Sie die Grundlagen für einen KI-Anwendungsfall definiert haben, ordnen Sie Arbeitsbereiche zu, um Assets so zu organisieren, dass sie mit den Phasen einer KI-Lösung übereinstimmen. Verknüpfen Sie beispielsweise ein Projekt oder einen Bereich für Assets in der Entwicklungs- oder Validierungsphase, und verknüpfen Sie einen Bereich für Assets in der Betriebsphase.
Ankündigung der Unterstützung für Python 3.11 Und R4.3 Frameworks und Softwarespezifikationen zur Laufzeit 24.1
Copy link to section
25. Juli 2024
Sie können jetzt IBM Runtime 24.1 verwenden, das die neuesten Data Science-Frameworks auf Basis von Python 3.11 und R 4.3 enthält, um Jupyter-Notebooks und R-Skripte auszuführen und Modelle zu trainieren. Ab dem 29. Juli können Sie auch Einsätze durchführen. Aktualisieren Sie Ihre Assets und Implementierungen, um IBM Runtime 24.1 Frameworks und Software-Spezifikationen zu verwenden.
Informationen zu den IBM Laufzeit 24.1 Release und die enthaltenen Umgebungen für Python 3.10 und R 4.2, sehen Notebook-Umgebungen.
Mit Runtime unterstützte Transformer-Einbettungsmodelle für Natural Language Processor 24.1
Copy link to section
25. Juli 2024
In der neuen Runtime 24.1-Umgebung können Sie jetzt Transformer-Einbettungsmodelle für die Verarbeitung natürlicher Sprache (NLP) verwenden, um Texteinbettungen zu erstellen, die die Bedeutung eines Satzes oder einer Passage erfassen und so bei abruferweiterten Generierungsaufgaben helfen. Weitere Informationen finden Sie unter Einbettungen.
Neue spezialisierte NLP-Modelle sind in Runtime verfügbar 24.1
Copy link to section
25. Juli 2024
Die folgenden neuen, spezialisierten NLP-Modelle sind jetzt in der Runtime enthalten 24.1 Umfeld:
Ein Modell, das hasserfüllte, beleidigende oder gotteslästerliche Inhalte (HAP) in Textinhalten erkennen und identifizieren kann. Weitere Informationen finden Sie unter HAP-Erkennung.
Extrahieren Sie detaillierte Erkenntnisse aus großen Textsammlungen mithilfe der Key Point Summarization
Copy link to section
25. Juli 2024
Sie können jetzt die Key Point Summarization in Notizbüchern verwenden, um detaillierte und verwertbare Erkenntnisse aus großen Textsammlungen zu extrahieren, die die Meinungen von Personen darstellen (z. B. Produktbewertungen, Umfrageantworten oder Kommentare in sozialen Medien). Das Ergebnis wird in einer organisierten, hierarchischen Weise geliefert, die leicht zu verarbeiten ist. Weitere Informationen finden Sie unter Zusammenfassung der wichtigsten Punkte
Aktualisierung der RStudio
Copy link to section
25. Juli 2024
Um eine konsistente Benutzererfahrung in privaten und öffentlichen Clouds zu gewährleisten, wird die RStudio IDE für IBM watsonx am 29. Juli 2024 auf RStudio Server 2024.04.1 und R 4.3.1 aktualisiert. Die neue Version von RStudio bietet eine Reihe von Erweiterungen und Sicherheitsverbesserungen. Weitere Informationen finden Sie in den RStudio Server 2024.04.1 Release Notes. Obwohl keine größeren Kompatibilitätsprobleme zu erwarten sind, sollten sich Benutzer der Versionsänderungen für einige Pakete bewusst sein, die in der folgenden Tabelle unten beschrieben werden.
Wenn Sie die RStudio nach dem Upgrade aus einem Projekt heraus starten, setzen Sie den RStudio zurück, um sicherzustellen, dass der Bibliothekspfad für R 4.3.1 vom RStudio übernommen wird.
Eine neue Version des Mistral Large Modells ist jetzt auf IBM watsonx.ai in den Regionen Dallas, Frankfurt und London verfügbar
Copy link to section
24. Juli 2024
Sie können jetzt das Mistral Large 2 -Stiftungsmodell von Mistral AI auf IBM watsonx.ai in den Rechenzentren in Dallas, Frankfurt und London verwenden.
Das Modell Mistral Large 2 unterstützt 11 Sprachen und beherrscht Textverständnis, Codegenerierung und erweiterte Schlussfolgerungen. Einzelheiten finden Sie unter Unterstützte Fundamentmodelle .
Neu llama-3-405b-instruct Modell ist in der Region Dallas verfügbar
Copy link to section
23. Juli 2024
Sie können jetzt das llama-3-405b-instruct -Stiftungsmodell von Meta auf IBM watsonx.ai im Rechenzentrum in Dallas verwenden.
Das Modell llama-3-405B-instruct (v3.1) bietet Unternehmen ein leistungsfähiges großes Sprachmodell mit erstklassigen Argumentationsfähigkeiten und ist das umfangreichste Open-Source-Modell, das bisher veröffentlicht wurde. Dieses Grundmodell kann für komplexe mehrsprachige Aufgaben des logischen Denkens verwendet werden, einschließlich Textverständnis, Transformation und Codegenerierung. Einzelheiten finden Sie unter Unterstützte Fundamentmodelle .
Der merlinite-7b Modell ist veraltet
Copy link to section
22. Juli 2024
Das merlinite-7b -Stiftungsmodell ist veraltet und wird am 22. August 2024 eingestellt. Überarbeiten Sie alle Eingabeaufforderungen, die dieses Grundmodell verwenden.
Abkündigungsdatum: 22. Juli 2024
Austrittsdatum: 22. August 2024
Alternatives Modell: mixtral-8x7b-instruct-v01
Inferenzanfragen, die an die merlinite-7b Sie können mithilfe der API weiterhin Ausgaben im Modell generieren, aber eine Warnmeldung über die bevorstehende Modellrücknahme einschließen. Ab dem 22. August 2024 werden API-Anfragen zum Inferencing des Modells keine Ausgabe mehr erzeugen.
Weitere Informationen zur Einstellung der Unterstützung und Zurückziehung finden Sie unter Foundation model lifecycle.
Woche bis 12. Juli 2024
Copy link to section
Das neue Modell Mistral Large ist in den Regionen Frankfurt und Dallas erhältlich
Copy link to section
9. Juli 2024
Sie können jetzt das Mistral Large -Stiftungsmodell von Mistral AI auf IBM watsonx.ai in den Rechenzentren in Frankfurt und Dallas verwenden.
Mistral Large bietet Unternehmen ein leistungsfähiges großes Sprachmodell mit erstklassigen Schlussfolgerungsfähigkeiten. Dieses Grundmodell kann für komplexe mehrsprachige Aufgaben des logischen Denkens verwendet werden, einschließlich Textverständnis, Transformation und Codegenerierung. Einzelheiten finden Sie unter Unterstützte Fundamentmodelle .
Woche bis 5. Juli 2024
Copy link to section
Nach Datenquellentyp gruppierte Konnektoren
Copy link to section
5. Juli 2024
Wenn Sie eine Verbindung erstellen, werden die Konnektoren jetzt nach Datenquellentyp gruppiert, sodass die Konnektoren leichter zu finden und auszuwählen sind. Der Datenquellentyp MongoDB umfasst beispielsweise die IBM Cloud Databases for MongoDB und die MongoDB-Konnektoren.
Darüber hinaus wurde ein neues Aktuelles Die Kategorie zeigt die sechs letzten Konnektoren, die Sie zum Herstellen einer Verbindung verwendet haben.
Fügen Sie Kontextinformationen zu den Eingabeaufforderungen des Foundation-Modells hinzu Prompt Lab
Copy link to section
4. Juli 2024
Helfen Sie einem Modell der Stiftung, sachliche und aktuelle Antworten in Anwendungsfällen der abrufgestützten Generierung (RAG) zu generieren, indem Sie Ihrer Eingabe relevante Kontextinformationen als Grundlagendaten hinzufügen. Sie können relevante Dokumente schnell hochladen oder eine Verbindung zu einem Vektorspeicher eines Drittanbieters mit relevanten Daten herstellen. Bei der Übermittlung einer neuen Frage werden anhand dieser die Datengrundlagen nach relevanten Fakten abgefragt. Die Top-Suchergebnisse sowie die ursprüngliche Frage werden als Modelleingabe übermittelt, um dem Stiftungsmodell dabei zu helfen, relevante Fakten in seine Ausgabe zu integrieren.
Ab dem 1. Juli 2024 wird dieCloud Object Storage Lite-Plan, der automatisch bereitgestellt wird, wenn Sie sich für eine 30-tägige Testversion anmeldenwatsonx.ai Undwatsonx.governance erlischt nach Ablauf der Testphase. Sie können IhrCloud Object Storage Sie können während der 30-tägigen Testphase jederzeit von einer Lite-Instanz zum Standardplan mit der Option „Kostenloses Kontingent“ wechseln.
BestehendeCloud Object Storage Serviceinstanzen mit Lite-Plänen, die Sie vor dem 1. Juli 2024 bereitgestellt haben, bleiben bis zum 15. Dezember 2024 erhalten. Sie müssen IhrCloud Object Storage Service vor dem 15. Dezember 2024 auf einen Standardplan umstellen.
Erstellen Sie freigegebene Bereitstellungen für die Steuerung von Eingabeaufforderungen für externe Großsprachenmodelle (LLMs)
Copy link to section
21. Juni 2024
Eine separate Eingabeaufforderungsvorlage ist eine neue Ressource zur Evaluierung einer Eingabeaufforderungsvorlage für ein LLM, das von einem Drittanbieter gehostet wird, wie z. B.Google Vertex-KI,AzureOpenAI, oderAWS Grundgestein. Die Inferenz, die die Ausgabe für die Eingabeaufforderungsvorlage generiert, erfolgt im fernen Modell, aber Sie können die Ausgabe der Eingabeaufforderungsvorlage mithilfe von watsonx.governance -Metriken auswerten. Sie können auch die freigegebene Bereitstellung und die freigegebene Eingabeaufforderungsvorlage in einem KI-Anwendungsfall als Bestandteil Ihrer Governance-Lösung verfolgen.
Für Implementierungsjobanforderungen sind Taskberechtigungsnachweise erforderlich
Copy link to section
19. Juni 2024
Zur Verbesserung der Sicherheit für die Ausführung von Bereitstellungsjobs muss der Benutzer, der den Job anfordert, Taskberechtigungsnachweise in Form eines API-Schlüssels bereitstellen. Die Anforderung wird ab dem 15. August 2024 durchgesetzt. Details zum Generieren des API-Schlüssels finden Sie unter Taskberechtigungsnachweise hinzufügen .
Anwendungsfälle für die Anwendbarkeit des EU-KI-Gesetzes bewerten
Copy link to section
19. Juni 2024
Mithilfe der neuen Beurteilung der Anwendbarkeit des EU-KI-Gesetzes können Sie einen einfachen Fragebogen ausfüllen, um Ihre KI-Anwendungsfälle zu bewerten und festzustellen, ob sie in den Geltungsbereich des EU-KI-Gesetzes fallen. Die Bewertung kann Ihnen auch dabei helfen, die Risikokategorie zu ermitteln, auf die Ihre Anwendungsfälle abgestimmt sind: "Verboten", "Hoch", "Begrenzend" oder "Minimal". Weitere Informationen finden Sie unter Anwendbarkeitsbeurteilung in Lösungskomponenten in der Governance-Konsole.
Woche bis 7. Juni 2024
Copy link to section
Verwalten Sie Risiko- und Compliance-Aktivitäten mit der Governance-Konsole ( IBM OpenPages)
Copy link to section
7. Juni 2024
Watsonx.governance unterstützt jetzt die optionale Integration mit der Governance-Konsole. Wenn Sie das Modul Model Risk Governance von IBM OpenPages, Sie können KI-Anwendungsfälle konfigurieren, um Governance-Fakten mit der Governance-Konsole zu synchronisieren. Von der Governance-Konsole aus können Sie Anwendungsfälle erstellen, Governance-Aktivitäten anzeigen, Aufgaben verwalten und Workflows als Teil Ihrer Governance- und Compliance-Prozesse implementieren. Weitere Informationen finden Sie unter:
IBM Watson Pipelines ist jetzt IBM Orchestration Pipelines
Copy link to section
30. Mai 2024
Der neue Servicename spiegelt die Funktionalität für die Koordination von Teilen des KI-Lebenszyklus in wiederholt anwendbare Abläufe wider.
Tagprojekte für einfachen Abruf
Copy link to section
31. Mai 2024
Sie können jetzt den Projekten Tags zuordnen, damit diese leichter gruppiert oder abgerufen werden können. Weisen Sie Tags zu, wenn Sie ein neues Projekt erstellen oder aus der Liste aller Projekte. Filtern Sie die Liste der Projekte nach Tag, um eine zusammengehörige Gruppe von Projekten abzurufen. Weitere Informationen finden Sie unter Projekt erstellen.
Verbinden Sie sich mit einer neuen Datenquelle: Milvus
Copy link to section
31. Mai 2024
Verwenden Sie die Milvus zum Speichern und Bestätigen der Richtigkeit Ihrer Anmeldedaten und Verbindungsdetails für den Zugriff auf einen Milvus. Informationen dazu finden Sie unter Milvus.
Woche bis 24. Mai 2024
Copy link to section
Neues Lernprogramm und Video
Copy link to section
23. Mai 2024
Testen Sie das neue Lernprogramm, um zu erfahren, wie Sie eine Modellbereitstellung mithilfe der Funktionalität in Watson OpenScale in einem Bereitstellungsbereich bewerten können.
Sie können ein Modell bereitstellen, Überwachungen für das bereitgestellte Modell konfigurieren und das Modell in einem Bereitstellungsbereich auswerten.
Konfigurieren Sie die Überwachungen und werten Sie ein Modell in einem Bereitstellungsbereich aus. AnfängerKein Code
Das Stiftungsmodell allam-1-13b-instruct ist in der Region Frankfurt verfügbar
Copy link to section
21. Mai 2024
Das arabische Fundamentmodell allam-1-13b-instruct von der saudischen Behörde für Daten und künstliche Intelligenz, bereitgestellt von IBM, ist über watsonx.ai im Frankfurter Rechenzentrum verfügbar. Sie können das allam-1-13b-instruct -Stiftungsmodell für allgemeine Aufgaben verwenden, einschließlich Fragen und Antworten, Zusammenfassungen, Klassifizierung, Generierung, Extraktion und Übersetzung ins Arabische. Weitere Informationen finden Sie unter Unterstützte Basismodelle.
Traditionelle und abgeleitete KI-Assets mit der Python -Clientbibliothek watsonx.ai bereitstellen
Copy link to section
21. Mai 2024
Die Python -Clientbibliothek Watson Machine Learning ist jetzt Teil einer erweiterten Bibliothek, der watsonx.ai Python -Clientbibliothek. Verwenden Sie die Bibliothek watsonx.ai Python , um mit traditionellen Assets für maschinelles Lernen und abgeleitete KI zu arbeiten. Die Bibliothek Watson Machine Learning bleibt erhalten, wird aber nicht mit neuen Funktionen aktualisiert. Weitere Informationen finden Sie unter Python -Bibliothek.
Woche bis 17. Mai 2024
Copy link to section
Texteinbettungsmodelle anderer Anbieter sind in watsonx.ai verfügbar
Copy link to section
16. Mai 2024
Die folgenden Texteinbettungsmodelle anderer Anbieter sind jetzt zusätzlich zu den IBM -Slate-Modellen für erweiterten Textabgleich und -Abruf verfügbar:
all-minilm-l12-v2
multilingual-e5-large
Übergeben Sie Sätze oder Passagen an eines der unterstützten Einbettungsmodelle, indem Sie die Bibliothek watsonx.ai Python oder die REST-API verwenden, um Eingabetext in Vektoren zu konvertieren, um ähnlichen Text genauer zu vergleichen und abzurufen.
Neue Granite Code Gründungsmodelle sind in der Region Dallas verfügbar
Copy link to section
9. Mai 2024
Sie können nun von ' watsonx.ai: auf die folgenden, von ' IBM bereitgestellten ' Granite -Code-Foundation-Modelle schließen
granite-3b-code-instruct
granite-8b-code-instruct
granite-20b-code-instruct
granite-34b-code-instruct
Verwenden Sie die neuen Granite Code Foundation-Modelle für programmatische Kodierungsaufgaben. Die Basismodelle sind auf eine Kombination von Anweisungsdaten abgestimmt, um die folgenden Anweisungsfunktionen zu erweitern, einschließlich logischer Argumentation und Problemlösung.
InstructLab -Basismodelle sind in watsonx.ai verfügbar.
Copy link to section
7. Mai 2024
InstructLab ist eine Open-Source-Initiative von Red Hat und IBM, die eine Plattform zur Erweiterung der Möglichkeiten eines Stiftungsmodells bietet. Die folgenden Grundlagenmodelle unterstützen Wissen und Fähigkeiten, die von InstructLab:
granite-7b-lab
granite-13-chat-v2
granite-20b-multilingual
merlinite-7b
Sie können die Beiträge der Open-Source-Community auf der Taxonomie-Seite des Foundation-Modells erkunden.
Sie können jetzt Ordner in Ihren Projekten erstellen, um Assets zu organisieren. Ein Administrator des Projekts muss Ordner aktivieren und Administratoren und Editoren können sie erstellen und verwalten. Ordner befinden sich in der Betaversion und werden noch nicht für die Verwendung in Produktionsumgebungen unterstützt. Weitere Informationen finden Sie unter Assets mit Ordnern organisieren (Beta).
Woche am 26. April 2024
Copy link to section
IBM watsonx.ai ist in der Region London verfügbar
Copy link to section
25. April 2023
Watsonx.ai ist jetzt im Rechenzentrum in London allgemein verfügbar und London kann bei der Anmeldung als bevorzugte Region ausgewählt werden.
Die Gründungsmodelle, die in Dallas vollständig unterstützt werden, stehen auch im Londoner Rechenzentrum über das Prompt Lab oder über die API für Inferencing zur Verfügung. Ausnahmen sind mt0-xxl-13b und das Stiftungsmodell llama-2-70b-chat, das durch das jetzt verfügbare Stiftungsmodell llama-3-70b-instruct ersetzt wird.
Eingabeaufforderung-Optimieren Sie die drei optimierbaren Basismodelle aus Tuning Studio oder mithilfe der API.
Die beiden IBM -Einbettungsmodelle und die Einbettungs-API werden unterstützt.
Starten Sie einen Chat in Prompt Lab direkt von der Startseite aus
Copy link to section
25. April 2023
Jetzt können Sie ein Gespräch mit einem Stiftungsmodell von der IBM watsonx.ai -Homepage aus beginnen. Geben Sie eine Frage ein, die im Chat-Modus an ein Fundamentmodell gesendet werden soll, oder klicken Sie auf "Open Prompt Lab ", um ein Fundamentmodell und Modellparameter auszuwählen, bevor Sie die Modelleingabe senden.
Woche am 19. April 2024
Copy link to section
Neue Meta Llama 3 -Fundamentmodelle sind jetzt verfügbar
Copy link to section
18. April 2024
Die folgenden Llama 3 -Stiftungsmodelle, die von Meta bereitgestellt werden, stehen für Schlussfolgerungen zur Verfügung watsonx.ai:
llama-3-8b-instruct
llama-3-70b-instruct
Die neuen Llama 3 -Basismodelle sind optimierte Sprachmodelle, die verschiedene Anwendungsfälle unterstützen können.
Dieses neueste Release von Llama wird mit mehr Token trainiert und wendet neue Verfahren nach dem Training an. Das Ergebnis sind Basismodelle mit besseren Sprachverständnismöglichkeiten, Argumentation, Codegenerierung und Instruktionsfolgefunktionen.
Einführung in IBM -Einbettungsunterstützung für erweiterten Textabgleich und -abruf
Copy link to section
18. April 2024
Sie können jetzt die IBM Einbettungs-API und IBM Einbettungsmodelle verwenden, um Eingabetext in Vektoren zu transformieren und ähnlichen Text genauer zu vergleichen und abzurufen.
Die folgenden IBM Slate-Einbettungsmodelle sind verfügbar:
Machine Learning-Bereitstellungen in Bereichen bewerten
Copy link to section
18. April 2024
Konfigurieren Sie watsonx.governance -Bewertungen in Ihren Bereitstellungsbereichen, um Einblicke in die Leistung Ihres Modells für maschinelles Lernen zu erhalten. Bewerten Sie beispielsweise eine Bereitstellung auf Verzerrungen oder überwachen Sie eine Bereitstellung auf Abweichungen. Wenn Sie Bewertungen konfigurieren, können Sie Auswertungsergebnisse analysieren und Transaktionsdatensätze direkt in Ihren Bereichen modellieren.
In der Region Tokio ist ein koreanischsprachiges Stiftungsmodell verfügbar
Copy link to section
18. April 2024
Das von Minds & Company bereitgestellte und auf dem Llama 2 -Stiftungsmodell von Meta basierende llama2-13b-dpo-v7 -Stiftungsmodell ist in der Region Tokio verfügbar.
Das Stiftungsmodell llama2-13b-dpo-v7 ist auf Konversationsaufgaben in Koreanisch und Englisch spezialisiert. Sie können auch das llama2-13b-dpo-v7 -Stiftungsmodell für allgemeine Aufgaben in koreanischer Sprache verwenden.
Für Schlussfolgerungen steht ein mixtral-8x7b-instruct-v01 -Stiftungsmodell zur Verfügung
Copy link to section
18. April 2024
Das mixtral-8x7b-instruct-v01 -Stiftungsmodell von Mistral AI steht unter watsonx.ai für Schlussfolgerungen zur Verfügung. Das mixtral-8x7b-instruct-v01 -Stiftungsmodell ist ein vorab trainiertes generatives Modell, das ein spärliches Experten-Mischungsnetzwerk verwendet, um Text effizienter zu generieren.
Sie können das Modell mixtral-8x7b-instruct-v01 für allgemeine Aufgaben wie Klassifizierung, Zusammenfassung, Codegenerierung, Sprachkonvertierung usw. verwenden. Weitere Informationen finden Sie unter Unterstützte Basismodelle.
Das mixtral-8x7b-instruct-v01-q -Stiftungsmodell ist veraltet und wird am 20. Juni 2024 eingestellt. Überarbeiten Sie alle Eingabeaufforderungen, die dieses Grundmodell verwenden.
Datum der Einstellung der Unterstützung: 19. April 2024
Widerrufsdatum: 20 Juni 2024
Alternatives Modell: mixtral-8x7b-instruct-v01
Inferenzanforderungen, die an das Modell mixtral-8x7b-instruct-v01-q über die API übergeben werden, generieren weiterhin eine Ausgabe, enthalten jedoch eine Warnung zur bevorstehenden Zurückziehung des Modells. Ab dem 20. Juni 2024 generieren API-Anforderungen für die Inferenz der Modelle keine Ausgabe.
Weitere Informationen zur Einstellung der Unterstützung und Zurückziehung finden Sie unter Foundation model lifecycle.
Eine Änderung des granite-20b-multilingual -Stiftungsmodells wird eingeführt
Copy link to section
18. April 2024
Die neueste Version von granite-20b-multilingual ist 1.1.0. Die Änderung enthält Verbesserungen, die durch die Anwendung eines neuartigen KI-Ausrichtungsverfahrens auf das Modell der Version 1.0 erzielt wurden. Die KI-Ausrichtung umfasst die Verwendung von Lerntechniken für Feinabstimmung und Verstärkung, um das Modell so zu führen, dass es möglichst hilfreiche, wahrheitsgemäße und transparente Ergebnisse zurückgibt.
Prompt-Tuning des granite-13b-instruct-v2 Stiftungsmodells
Copy link to section
11. April 2024
Die Tuning Studio unterstützt jetzt neben den flan-t5-xl-3b - und llama-2-13b-chat -Grundmodellen auch die Abstimmung des granite-13b-instruct-v2 -Grundmodells. Weitere Informationen finden Sie unter "Einstellen eines Grundmodells ".
Die Einstellungen für die Experimentkonfiguration zur Abstimmung des granite-13b-instruct-v2 -Grundmodells ändern sich, um je nach Aufgabe die besten Standardwerte anzuwenden. Die Bewertungsrichtlinien für die Optimierung helfen Ihnen, die Ergebnisse des Experiments zu analysieren und die Einstellungen für die Experimentkonfiguration auf der Basis Ihrer Ergebnisse anzupassen. Weitere Informationen finden Sie unter Ergebnisse eines Optimierungsversuchs auswerten.
In der Region Frankfurt ist ein arabischsprachiges Stiftungsmodell verfügbar
Copy link to section
11. April 2024
Das von Inception, der Mohamed bin Zayed University of Artificial Intelligence und Cerebras Systems bereitgestellte jais-13b-chat -Stiftungsmodell ist in der Region Frankfurt verfügbar.
Das Stiftungsmodell jais-13b-chat ist auf Konversationsaufgaben in Arabisch und Englisch spezialisiert. Sie können auch das jais-13b-chat -Stiftungsmodell für allgemeine Aufgaben in arabischer Sprache verwenden, einschließlich Übersetzungen zwischen Arabisch und Englisch.
Den vollständigen Text eines Prompts in Prompt Lab anzeigen
Copy link to section
11. April 2024
Jetzt können Sie den vollständigen Text der Eingabeaufforderung überprüfen, der an das Foundation-Modell übermittelt wird. Dies ist nützlich, wenn Ihre Eingabeaufforderung Eingabeaufforderungsvariablen enthält oder wenn Sie im strukturierten Modus oder im Chat-Modus arbeiten.
Weitere Informationen finden Sie unter Prompt Lab.
Die veralteten Modelle von Granite Version 1 wurden zurückgezogen
Copy link to section
11. April 2024
Die folgenden Basismodelle wurden zurückgezogen:
granite-13b-chat-v1
granite-13b-instruct-v1
Überarbeiten Sie alle Eingabeaufforderungen, die diese Foundation-Modelle verwenden, um die Foundation-Modelle IBM Granite v2 zu verwenden. Weitere Informationen zur Abschaffung und Rücknahme des Foundation-Modells finden Sie unter Lebenszyklus des Foundation-Modells.
Woche bis 5. April 2024
Copy link to section
Verwenden Sie Pivot-Tabellen, um Daten anzuzeigen, die in Experimenten von Decision Optimization zusammengefasst sind.
Copy link to section
5. April 2024
Sie können jetzt Pivot-Tabellen verwenden, um Eingabe-und Ausgabedaten anzuzeigen, die in der Ansicht Visualisierung in Decision Optimization -Experimenten aggregiert wurden. Weitere Informationen finden Sie unter Visualisierungswidgets in Experimenten von Decision Optimization.
Neues watsonx.ai -Tutorial und -Video
Copy link to section
04. April 2024
Probieren Sie das neue Tutorial aus, um zu sehen, wie Sie watsonx.ai in einem durchgängigen Anwendungsfall von der Datenaufbereitung bis zur Prompt-Entwicklung einsetzen können.
Verfolgen Sie einen Anwendungsfall von der Datenaufbereitung bis zur schnellen Umsetzung.
Verwenden Sie verschiedene Tools wie Notizbücher und Prompt Lab. MittelstufeAlle Codes
Woche bis 15. März 2024
Copy link to section
Die API watsonx.ai ist verfügbar
Copy link to section
14. März 2024
Die API watsonx.ai ist allgemein verfügbar. Verwenden Sie die API watsonx.ai , um programmgesteuert mit Basismodellen zu arbeiten. Weitere Informationen finden Sie in der API-Referenz.
Die API-Version ist 2024-03-14.
Sie können weiterhin die Bibliothek Python verwenden, die für die Arbeit mit Basismodellen über ein Notebook verfügbar ist. Weitere Informationen finden Sie unter Python -Bibliothek.
Neue Gründungsmodelle sind in Dallas, Frankfurt und Tokio verfügbar
Copy link to section
14. März 2024
Die folgenden Basismodelle sind jetzt für die Inferenz von watsonx.ai:
granite-20b-multilingual: Ein Grundmodell aus der IBM Granite -Familie, das Sie für verschiedene generative Aufgaben in Englisch, Deutsch, Spanisch, Französisch und Portugiesisch verwenden können.
codellama-34b-instruct-hf: Ein programmatisches Code-Generierungsmodell von Code Llama, das auf Llama 2 von Meta basiert. Sie können codellama-34b-instruct-hf verwenden, um Eingabeaufforderungen für die Generierung von Code auf der Grundlage von Eingaben in natürlicher Sprache zu erstellen und um Code zu vervollständigen und zu debuggen.
Tuning Studio ist jetzt für Benutzer bezahlter Pläne in der Region Frankfurt verfügbar. Tuning Studio hilft Ihnen, ein Fundamentmodell so zu steuern, dass es nützliche Ergebnisse liefert. Sie können sowohl das flan-t5-xl-3b - als auch das llama-2-70b-chat -Stiftungsmodell abstimmen, wenn Sie das Tuning Studio in Frankfurt verwenden.
Weitere Informationen finden Sie unter Tuning Studio.
Schnelle Anpassung des llama-2-13b-chat -Stiftungsmodells in der Region Tokio
Copy link to section
7. März 2024
Die Tuning Studio unterstützt nun die Abstimmung des llama-2-13b-chat -Grundmodells in der Region Tokio. Zunächst erstellt der Ingenieur Eingabeaufforderungen für das größere llama-2-70b-chat -Modell in Prompt Lab, um effektive Eingabeaufforderungen für Ihren Anwendungsfall zu finden. Dann stimmen Sie die kleinere Version des Llama 2 -Modells ab, um vergleichbare, wenn nicht sogar bessere Ergebnisse mit Null-Schuss-Eingabeaufforderungen zu erzielen.
Weitere Informationen finden Sie unter Tuning Studio.
Niedrigerer Preis für Modell Mixtral8x7b
Copy link to section
5. März 2024
Das Fundamentmodell mixtral-8x7b-instruct-v01-q wird von Klasse 2: $0.0018/Resource -Einheit zu Klasse 1: $0.0006/Resource -Einheit umklassifiziert, wodurch es kostengünstiger wird, Schlussfolgerungen anhand dieses Modells zu ziehen. Die Neueinstufung gilt für alle Regionen, in denen mixtral-8x7b-instruct-v01-q verfügbar ist.
Die watsonx -Anwendungsfälle helfen Ihnen zu sehen, wie Sie unsere Produkte, Services und Tools nutzen können.
Anwendungsfall watsonx.ai : Dieser Anwendungsfall zeigt, wie Sie Ihre Geschäftsprozesse mit KI-gesteuerten Lösungen transformieren können, indem Sie maschinelles Lernen und generative KI in Ihr Betriebsframework integrieren.
Anwendungsfall watsonx.governance : In diesem Anwendungsfall wird erläutert, wie Sie verantwortliche, transparente und erklärbare KI-Workflows mit einem integrierten System für die Verfolgung, Überwachung und erneutes Training von KI-Modellen erstellen können.
Der Chat-Modus in Prompt Lab ist eine einfache Chat-Schnittstelle, die das Experimentieren mit Gründungsmodellen erleichtert. Der Chatmodus erweitert die bereits verfügbaren strukturierten und unformatierten Modi, die nützlich sind, wenn wenige oder viele Eingabeaufforderungen für Tasks wie Extraktion, Zusammenfassung und Klassifikation erstellt werden. Verwenden Sie den Chatmodus, um Interaktionen mit Fragen oder Dialogen für Chatbots und Anwendungsfälle des virtuellen Assistenten zu simulieren.
Weitere Informationen finden Sie unter Prompt Lab.
Ein japanischsprachiges Granite -Modell ist in der Region Tokio verfügbar
Copy link to section
29. Februar 2024
Das von IBM bereitgestellte granite-8b-japanese -Stiftungsmodell ist unter watsonx.ai in der Region Tokio verfügbar. Das granite-8b-japanese -Stiftungsmodell basiert auf dem IBM Granite -Instruct-Modell und ist darauf trainiert, japanische Texte zu verstehen und zu generieren.
Sie können das granite-8b-japanese -Stiftungsmodell für allgemeine Aufgaben in japanischer Sprache verwenden, z. B. Klassifizierung, Extraktion, Beantwortung von Fragen und für Übersetzungen zwischen Japanisch und Englisch.
Granite-13b -Modelle werden von Klasse 2 neu klassifiziert: $0.0018/Resource Einheit zu Klasse 1: $0.0006/Resource Einheit. Dadurch wird die Ausführung von Inferenztasks für diese Modelle kostengünstiger. Die Neuklassifizierung gilt für die folgenden Modelle in allen Regionen, in denen sie verfügbar sind:
Neue Verknüpfung für die Arbeit an allgemeinen Tasks
Copy link to section
15. Februar 2024
Sie können jetzt eine allgemeine Aufgabe in Ihrem Projekt starten. Klicken auf eine Kachel im Abschnitt Arbeit beginnen auf der Registerkarte Übersicht . Verwenden Sie diese Direktaufrufe, um Mitarbeiter und Daten hinzuzufügen und mit Modellen zu experimentieren und Modelle zu erstellen. Klicken Sie auf Alle anzeigen , um zu einer Auswahl von Tools zu springen.
Neues mixtral-8x7b-instruct-v01-q -Stiftungsmodell für allgemeine Aufgaben
Copy link to section
15. Februar 2024
Das von Mistral AI bereitgestellte und von IBM quantifizierte mixtral-8x7b-instruct-v01-q -Stiftungsmodell ist unter watsonx.ai verfügbar. Das mixtral-8x7b-instruct-v01-q -Stiftungsmodell ist eine quantisierte Version des Mixtral 8x7B Instruct -Stiftungsmodells von Mistral AI.
Sie können dieses neue Modell für vielseitig einsetzbare Aufgaben wie Klassifizierung, Zusammenfassung, Codegenerierung, Sprachkonvertierung usw. verwenden. Weitere Informationen finden Sie unter Unterstützte Basismodelle.
Die folgenden Modelle sind veraltet und werden bald zurückgezogen. Überarbeiten Sie alle Eingabeaufforderungen, die diese Grundmodelle verwenden, um ein anderes Grundmodell zu verwenden, z. B. mixtral-8x7b-instruct-v01-q.
Veraltete Basismodelle
Veraltetes Modell
Einstellung der Unterstützung
Datum der Zurückziehung
Alternatives Modell
gpt-neox-20b
15. Februar 2024
21. März 2024
mixtral-8x7b-instruct-v01-q
mpt-7b-instruct2
15. Februar 2024
21. März 2024
mixtral-8x7b-instruct-v01-q
starcoder-15.5b
15. Februar 2024
11. April 2024
mixtral-8x7b-instruct-v01-q
Inferenzanforderungen, die über die API an diese Modelle übergeben werden, generieren weiterhin Ausgabe, enthalten jedoch eine Warnung zur bevorstehenden Zurückziehung des Modells. Wenn das Zurückziehungsdatum erreicht ist, generieren API-Anforderungen zur Inferenz der Modelle keine Ausgabe.
Weitere Informationen zur Einstellung der Unterstützung und Zurückziehung finden Sie unter Foundation model lifecycle.
Eine Modifikation des granite-13b-chat-v2 -Stiftungsmodells ist verfügbar
Copy link to section
15. Februar 2024
Die neueste Version von granite-13b-chat-v2 ist 2.1.0. Die Änderung enthält Verbesserungen, die durch die Anwendung eines neuartigen KI-Ausrichtungsverfahrens auf das Modell der Version 2.0.0 erzielt wurden. Die KI-Ausrichtung umfasst die Verwendung von Lerntechniken für Feinabstimmung und Verstärkung, um das Modell so zu führen, dass es möglichst hilfreiche, wahrheitsgemäße und transparente Ergebnisse zurückgibt. Weitere Informationen finden Sie im Abschnitt Was ist AI-Ausrichtung? Blogbeitrag von IBM Research.
Neues Lernprogramm und Video zu watsonx
Copy link to section
15. Februar 2024
Im neuen Lernprogramm watsonx.governance erfahren Sie, wie Sie ein Modell für maschinelles Lernen auf Fairness, Genauigkeit, Drift und Erklärbarkeit mit Watson OpenScalebewerten können.
Die IBM Cloud Data Engine-Verbindung ist veraltet und wird in einer zukünftigen Version nicht mehr verwendet werden. Wichtige Daten und Details finden Sie unter Abschaffung von Data Engine.
Neue Spark 3.4 -Umgebung für die Ausführung von Data Refinery -Ablaufjobs
Copy link to section
9. Februar 2024
Wenn Sie eine Umgebung für einen Data Refinery -Ablaufjob auswählen, können Sie jetzt Default Spark 3.4 & R 4.2auswählen, was Erweiterungen von Spark umfasst.
Die Umgebung Default Spark 3.3 & R 4.2 ist veraltet und wird in einer zukünftigen Aktualisierung entfernt.
Die Beispielsammlung wird in Ressourcenhub umbenannt, um den Inhalt besser widerzuspiegeln. Der Ressourcenhub enthält Basismodelle und Beispielprojekte, Datasets und Notebooks. Siehe Ressourcenhub.
IBM Cloud Databases for DataStax Verbindung wird eingestellt
Copy link to section
2. Februar 2024
Die IBM Cloud Databases for DataStax Verbindung wurde von IBM watsonx.ai entfernt.
Dremio -Verbindung erfordert Aktualisierungen
Copy link to section
2. Februar 2024
Zuvor hat die Dremio -Verbindung einen JDBC -Treiber verwendet. Jetzt verwendet die Verbindung einen Treiber, der auf Arrow Flight basiert.
Erforderliche AktionWichtig: Aktualisieren Sie die Verbindungseigenschaften. Unterschiedliche Änderungen gelten für eine Verbindung für eine Dremio Software-Instanz (lokal) oder eine Dremio Cloud-Instanz.
Dremio Software: Aktualisieren Sie die Portnummer.
Copy link to section
Die neue Standardportnummer, die von Flight verwendet wird, ist 32010. Sie können die Portnummer in der Datei dremio.conf bestätigen. Weitere Informationen finden Sie unter Konfigurieren über dremio.conf.
Außerdem unterstützt Dremio keine Verbindungen mehr mit IBM Cloud Satellite.
Dremio Cloud: Aktualisieren Sie die Authentifizierungsmethode und den Hostnamen.
Copy link to section
Melden Sie sich bei Dremio an und generieren Sie ein persönliches Zugriffstoken. Eine Anleitung finden Sie unter Persönliche Zugangstoken.
Ändern Sie in IBM watsonx im Formular Create connection: Dremio den Authentifizierungstyp in Personal Access Token und fügen Sie die Tokeninformationen hinzu. (Die Authentifizierung Benutzername und Kennwort kann nicht mehr für die Verbindung zu einer Dremio -Cloudinstanz verwendet werden.)
Wählen Sie Port ist SSL-fähigaus.
Wenn Sie den Standardhostnamen für eine Dremio -Cloudinstanz verwenden, müssen Sie ihn ändern:
Ändern Sie sql.dremio.cloud in data.dremio.cloud .
Ändern Sie sql.eu.dremio.cloud in data.eu.dremio.cloud .
Prompt-Tuning des llama-2-13b-chat Stiftungsmodells
Copy link to section
1. Februar 2024
Die Tuning Studio unterstützt nun die Abstimmung des llama-2-13b-chat -Grundmodells. Zunächst erstellt der Ingenieur Eingabeaufforderungen für das größere llama-2-70b-chat -Modell in Prompt Lab, um effektive Eingabeaufforderungen für Ihren Anwendungsfall zu finden. Dann stimmen Sie die kleinere Version des Llama 2 -Modells ab, um vergleichbare, wenn nicht sogar bessere Ergebnisse mit Null-Schuss-Eingabeaufforderungen zu erzielen. Die llama-2-13b-model ist für die schnelle Abstimmung in der Region Dallas verfügbar. Weitere Informationen finden Sie unter Tuning Studio.
Woche am 26. Januar 2024
Copy link to section
AutoAI unterstützt geordnete Daten für alle Experimente
Copy link to section
25. Januar 2024
Sie können jetzt geordnete Daten für alle AutoAI -Experimente anstelle von nur Zeitreihenexperimenten angeben. Geben Sie an, ob Ihre Trainingsdaten sequenziell nach einem Zeilenindex sortiert werden. Wenn Eingabedaten sequenziell sind, wird die Modellleistung für neueste Datensätze anstelle einer Zufallsstichprobe ausgewertet, und Holdout-Daten verwenden die letzten n Datensätze der Gruppe anstelle von n Zufallsdatensätzen. Sequenzielle Daten sind für Zeitreihenexperimente erforderlich, für Klassifikations-und Regressionsexperimente jedoch optional.
Q & A mit RAG-Beschleuniger
Copy link to section
26. Januar 2024
Sie können jetzt eine Frage-und-Antwort-Lösung implementieren, die die erweiterte Abrufgenerierung verwendet, indem Sie ein Beispielprojekt importieren. Das Beispielprojekt enthält Notebooks und andere Assets, die Dokumente aus HTML oder PDF in einfachen Text konvertieren, Dokumentsegmente in einen Elasticsearch -Vektorindex importieren, eine Python -Funktion bereitstellen, die den Vektorindex abfragt, Top-N-Ergebnisse abrufen, LLM-Inferenz ausführen, um eine Antwort auf die Frage zu generieren, und die Antwort auf Halluzinationen prüfen.
Sie können Ihre watsonx -Benutzerschnittstelle jetzt auf das dunkle Motiv festlegen. Klicken Sie auf Ihren Avatar und wählen Sie Profil und Einstellungen aus, um Ihr Kontoprofil zu öffnen. Aktivieren Sie anschließend den Schalter für das Thema "Dunkel". Das dunkle Thema wird in RStudio und Jupyter-Notebooks nicht unterstützt. Informationen zur Verwaltung Ihres Profils finden Sie unter Einstellungen verwalten.
IBM watsonx.ai ist in der Region Tokio verfügbar
Copy link to section
25. Januar 2024
Watsonx.ai ist jetzt allgemein im Rechenzentrum Tokio verfügbar und kann bei der Anmeldung als bevorzugte Region ausgewählt werden. Die Inferenzierung von Prompt Lab und des Foundation-Modells wird in der Region Tokio für diese Modelle unterstützt:
elyza-japanese-llama-2-7b-instruct
flan-t5-xl-3b
flan-t5-xxl-11b
flan-ul2-20b
granite-13b-chat-v2
granite-13b-instruct-v2
llama-2-70b-chat
llama-2-13b-chat
Auch aus der Region Tokio erhältlich:
Schnelle Abstimmung des flan-t5-xl-3b -Grundmodells mit dem Tuning Studio
Tabellarische Daten mit dem Synthetic Data Generator zur Verwendung für Trainingsmodelle generieren
Ein Modell Llama 2 in japanischsprachiger Sprache ist in der Region Tokio verfügbar
Copy link to section
25. Januar 2024
Das von ELYZA, Inc. bereitgestellte elyza-japanese-llama-2-7b-instruct -Stiftungsmodell ist über watsonx.ai -Instanzen im Rechenzentrum in Tokio verfügbar. Das elyza-japanese-llama-2-7b-instruct -Modell ist eine Version des Llama 2 -Modells von Meta , das darauf trainiert wurde, japanischen Text zu verstehen und zu generieren.
Sie können dieses neue Modell für allgemeine Aufgaben verwenden. Es funktioniert gut für Japanisch-Sprachklassifikation und Extraktion und für die Übersetzung zwischen Japanisch und Englisch.
Woche bis 12. Januar 2024
Copy link to section
Unterstützung für IBM Runtime 22.2 in watsonx.ai Runtime (ehemals Watson Machine Learning) veraltet
Copy link to section
11. Januar 2024
IBM Runtime 22.2 ist veraltet und wird am 11. April 2024 entfernt. Ab 7. März 2024 können Sie Notebooks oder angepasste Umgebungen nicht mithilfe der 22.2 -Laufzeiten erstellen. Außerdem können Sie keine neuen Modelle mit Softwarespezifikationen trainieren, die auf der Laufzeit 22.2 basieren. Aktion erforderlich Aktualisieren Sie Ihre Assets und Implementierungen für die Verwendung von IBM Runtime 23.1 vor dem 7. März 2024.
v1 Die 13-Milliarden-Parameter-Modelle der IBM Granite -Stiftung sind veraltet und werden am 11. April 2024 zurückgezogen. Wenn Sie Version 1 der Modelle verwenden, wechseln Sie stattdessen zu Version 2 der Modelle.
Veraltete IBM -Basismodelle
Veraltetes Modell
Einstellung der Unterstützung
Datum der Zurückziehung
Alternatives Modell
granite-13b-chat-v1
11. Januar 2024
11. April 2024
granite-13b-chat-v2
granite-13b-instruct-v1
11. Januar 2024
11. April 2024
granite-13b-instruct-v2
Inferenzanforderungen, die über die API an die Modelle der Version 1 übergeben werden, generieren weiterhin Ausgabe, enthalten jedoch eine Warnung zur bevorstehenden Zurückziehung des Modells. Ab dem 11. April 2024 generieren API-Anforderungen für die Inferenz der Modelle keine Ausgabe.