0 / 0
Zurück zur englischen Version der Dokumentation
Neuerungen
Letzte Aktualisierung: 23. Dez. 2024
Neuerungen

Informieren Sie sich jede Woche über neue Funktionen und Updates für IBM watsonx.ai und IBM watsonx.governance auf IBM Cloud.

Für Informationen über IBM watsonx.governance auf AWS finden Sie unter Was ist neu für IBM watsonx.governance auf AWS.

Tipp: Nach einer Aktualisierung müssen Sie gelegentlich eine bestimmte Aktion ausführen. Durchsuchen Sie diese Seite nach "Aktion erforderlich", um alle erforderlichen Aktionen anzuzeigen.

Woche bis 20. Dezember 2024

In das ONNX-Format konvertierte Modelle bereitstellen

20. Dezember 2024

Sie können jetzt Modelle für maschinelles Lernen und generative KI bereitstellen, die in das ONNX-Format konvertiert wurden, und den Endpunkt für die Inferenzierung verwenden. Diese Modelle können auch an dynamische Achsen angepasst werden. Weitere Informationen finden Sie unter Bereitstellen von Modellen, die in das ONNX-Format umgewandelt wurden.

Bereitstellung von SPSS Modeler mit mehreren Quellen

20. Dezember 2024

Sie können jetzt Bereitstellungen für SPSS Modeler erstellen, die mehrere Eingabeströme verwenden, um Daten für das Modell bereitzustellen. Weitere Informationen finden Sie unter Bereitstellen von SPSS Modeler.

Änderungen an den Granite 3 Instruct Gründungsmodellen werden eingeführt

18. Dezember 2024

An den folgenden IBM wurden Änderungen vorgenommen:

  • granite-3-2b-instruct
  • granite-3-8b-instruct

Mit den jüngsten Änderungen bieten die Granite 3.1 Instruct Foundation-Modelle nun eine bessere Unterstützung für die Codierung von Aufgaben und intrinsischen Funktionen für Agenten. Die Länge des unterstützten Kontextfensters für diese Gründungsmodelle stieg von 4.096 Token auf 131.072 Token. Obwohl die Modell-IDs für die Granite Instruct Modelle gleich bleiben, werden die Modellgewichte aktualisiert.

Weitere Informationen finden Sie unter Unterstützte Basismodelle.

Woche bis 13. Dezember 2024

Codefreie Lösung für die Suche nach einem RAG-Muster mit AutoAI (beta)

12. Dezember 2024

Sie können nun die Suche nach dem optimalen RAG-Muster für Ihren Anwendungsfall über die AutoAI automatisieren. Laden Sie die Dokumentensammlung und die Testfragen, wählen Sie eine Vektordatenbank und führen Sie das Experiment durch, um einen schnellen Weg zum Finden eines RAG-Musters zu finden. Sie können auch die Konfigurationseinstellungen für das Experiment überprüfen und ändern. Vergleichen Sie die durch das Experiment erzeugten Muster und speichern Sie das beste Muster als automatisch erzeugtes Notizbuch oder als Notizbücher, die in Ihrem Projekt gespeichert sind.

Einzelheiten finden Sie unter Automatisieren eines RAG-Musters mit AutoAI.

Bereitstellung von KI-Diensten mit Vorlagen

12. Dezember 2024

Sie können Ihre KI-Dienste mit Hilfe vordefinierter Vorlagen bereitstellen. KI-Servicevorlagen bieten eine standardisierte Möglichkeit zur Bereitstellung von KI-Services, indem sie eine vordefinierte Struktur und Konfiguration für die Bereitstellung von KI-Modellen bieten. Bei diesen Vorlagen handelt es sich um vorgefertigte, einsatzbereite Codeeinheiten, die die Programmierlogik generativer KI-Anwendungen kapseln.

KI-Servicevorlagen automatisieren Aufgaben wie die Erstellung von Bereitstellungen, die Generierung von Metadaten und die Erstellung von Erweiterungen, so dass sich Entwickler auf die Kernlogik ihrer Anwendung konzentrieren können. Sie bieten eine flexible Möglichkeit zur Bereitstellung von KI-Diensten und unterstützen mehrere Eingaben und Anpassungen.

Weitere Informationen finden Sie unter Bereitstellen von AI-Diensten mit Vorlagen.

Das neueste foundation model ist für Sie verfügbar und kann bei Bedarf eingesetzt werden

12. Dezember 2024

Sie können das mehrsprachige foundation model Meta Llama 3.3 70B Instruct auf dedizierter Hardware zur ausschließlichen Nutzung durch Ihr Unternehmen einsetzen. Das neueste foundation model von Meta verfügt über ähnliche Fähigkeiten wie das größere llama-3-405b-instruct, ist aber kleiner und beherrscht vor allem die Codierung, das schrittweise Denken und das Aufrufen von Werkzeugen. Sie können das vollständige Modell llama-3-3-70b-instruct-hf ) oder eine quantisierte Version llama-3-3-70b-instruct ) bereitstellen, die weniger Ressourcen für das Hosting benötigt.

Weitere Informationen zur Bereitstellung eines foundation model bei Bedarf in der Region Dallas über den Resource Hub oder die REST-API finden Sie unter Bereitstellen von Foundation-Modellen bei Bedarf.

Bereitstellung von Basismodellen auf Abruf mit der Python

12. Dezember 2024

Mit der Python watsonx.ai können Sie jetzt Ihre Basismodelle bei Bedarf bereitstellen. Mit diesem Ansatz können Sie auf die Fähigkeiten dieser leistungsstarken Fundamentmodelle zugreifen, ohne dass Sie umfangreiche Rechenressourcen benötigen. Foundation-Modelle, die Sie on-demand bereitstellen, werden in einem speziellen Bereitstellungsbereich gehostet, in dem Sie diese Modelle für Inferencing verwenden können.

Weitere Informationen finden Sie unter Bereitstellen von Foundation-Modellen auf Abruf.

Aktualisierte SPSS Modeler

11. Dezember 2024

Machen Sie praktische Erfahrungen mit SPSS Modeler, indem Sie die 15 aktualisierten SPSS Modeler ausprobieren.

Vergleich von AI-Assets mit Evaluation Studio

12. Dezember 2024

Mit Evaluation Studio können Sie Ihre generativen KI-Assets mit quantitativen Metriken und anpassbaren Kriterien bewerten und vergleichen, die auf Ihre Anwendungsfälle zugeschnitten sind. Bewerten Sie die Leistung mehrerer Anlagen gleichzeitig und zeigen Sie vergleichende Analysen der Ergebnisse an, um die besten Lösungen zu ermitteln.

Weitere Informationen finden Sie unter Vergleich von AI-Assets mit Evaluation Studio.

Erweiterungen der Governance-Konsole

12. Dezember 2024

Erweiterungen der watsonx.governance Model Risk Governance Lösung

Diese Version enthält die folgenden Verbesserungen:

  • Die neue AI Model Onboarding Risk Identification Fragebogenvorlage wird während des Modell-Onboarding-Prozesses verwendet, um die mit einem Modell verbundenen Risiken zu identifizieren. Diese Fragebogenvorlage wird im Arbeitsablauf des Foundation Model Onboarding verwendet.
  • Die neue Fragebogenvorlage zur Identifizierung von KI-Nutzungsfällen dient dazu, die mit KI-Nutzungsfällen verbundenen Risiken zu ermitteln. Diese Fragebogenvorlage wird im Workflow Use Case Review verwendet. Dieser neue Fragebogen soll den Fragebogen zur Identifizierung von AI-Risiken ersetzen
  • Die neue Fragebogenvorlage zur Identifizierung von KI-Anwendungsfällen und -Modellen dient dazu, die Risiken zu ermitteln, die mit der Kombination aus einem KI-Anwendungsfall und einem Modell verbunden sind. Diese Fragebogenvorlage wird im Workflow Use Case Development and Documentation verwendet.
  • Der AI Assessment Workflow ist jetzt standardmäßig deaktiviert. Er wird durch den Workflow Fragebogenbewertung ersetzt. Sie können nun Fragebogenvorlagen direkt im Use Case Workflow einstellen.
  • Die Arbeitsabläufe, Ansichten und Dashboards wurden aktualisiert.

Weitere Informationen finden Sie unter Lösungskomponenten in der Governance-Konsole.

Bugfixes und Sicherheitskorrekturen

Es wurden Fehler- und Sicherheitskorrekturen vorgenommen.

Weitere Informationen finden Sie unter Neue Funktionen in 9.0.0.5.

IBM watsonx.governance ist in der Region Sydney verfügbar

9. Dezember 2024

IBM watsonx.governance ist nun allgemein im Rechenzentrum in Sydney verfügbar. Sie können bei der Anmeldung Sydney als Ihre bevorzugte Region auswählen.

Weitere Informationen zu den Produktfunktionen, die in der Region Sydney verfügbar sind, finden Sie unter Regionale Verfügbarkeit von Diensten und Funktionen.

Woche bis 6. Dezember 2024

Bereitstellung von Stiftungsmodellen nach Bedarf in der Region Dallas

6. Dezember 2024

Wählen Sie aus einer ausgewählten Sammlung von Basismodellen, die Sie auf dedizierter Hardware für die ausschließliche Nutzung durch Ihr Unternehmen bereitstellen können. Eine gezielte Bereitstellung bedeutet eine schnellere Interaktion bei der Ableitung von Basismodellen. Die Bereitstellung von On-Demand-Foundation-Modellen wird nach Stunden abgerechnet. Weitere Informationen finden Sie unter Unterstützte Grundlagenmodelle und Abrechnungsdetails für generative KI-Assets.

Weitere Informationen zum Bereitstellen eines foundation model bei Bedarf über den Resource Hub oder die REST-API finden Sie unter Bereitstellen von Foundation-Modellen bei Bedarf.

Ableitung des neuesten foundation model von ' Meta in den Regionen Dallas und Frankfurt

6. Dezember 2024

Das mehrsprachige foundation model ' Meta Llama 3.3 70B Instruct steht in den Regionen Dallas und Frankfurt für die Integration zur Verfügung. Das foundation model llama-3-3-70b-instruct ist geübt im Kodieren, im schrittweisen Denken und im Aufrufen von Werkzeugen. Mit einer Leistung, die mit der des 405b konkurriert, ist das Llama 3.3 foundation model Update eine gute Wahl für Entwickler. Siehe die Ankündigung von IBM.

Weitere Informationen finden Sie unter Unterstützte Basismodelle.

Überprüfung von Benchmarks zum Vergleich von Stiftungsmodellen

5. Dezember 2024

Prüfen Sie die Benchmarks der foundation model, um sich über die Fähigkeiten der verfügbaren Fundamentmodelle zu informieren, bevor Sie sie ausprobieren. Vergleichen Sie, wie verschiedene Stiftungsmodelle bei den Aufgaben abschneiden, die für Ihren Anwendungsfall am wichtigsten sind. Weitere Informationen finden Sie unter Benchmarks für Stiftungsmodelle.

Microsoft Excel-Dateien sind für OPL-Modelle in Decision Optimization veraltet

5. Dezember 2024

Microsoft Excel-Arbeitsmappendateien (.xls und .xlsx) werden jetzt nicht mehr für die direkte Eingabe und Ausgabe in OPL-Modellen Decision Optimization verwendet. Um eine Verbindung zu Excel-Dateien herzustellen, verwenden Sie stattdessen einen Datenkonnektor. Der Datenkonnektor wandelt Ihre Excel-Datei in eine .csv-Datei um. Weitere Informationen finden Sie unter referenzierte Daten.

Neue Beispiel-Notebooks für den Einsatz von Modellen, die in das ONNX-Format konvertiert wurden

3. Dezember 2024

Sie können jetzt Modelle für maschinelles Lernen und generative KI bereitstellen, die in das ONNX-Format konvertiert wurden, und den Endpunkt für die Inferenzierung verwenden. Diese Modelle können auch an dynamische Achsen angepasst werden. Siehe die folgenden Beispiel-Notizbücher:

Weitere Informationen finden Sie unter watsonx.ai Runtime Python client samples and examples.

Die Gründungsmodelle llama-3-8b-instruct und llama-3-70b-instruct sind veraltet

2. Dezember 2024

Die folgenden Gründungsmodelle sind veraltet. Überarbeiten Sie alle Aufforderungen, die diese Grundlagenmodelle verwenden.

llama-3-8b-instruct

  • Abschreibungsdatum: 2. Dezember 2024
  • Rücktrittsdatum: 3. Februar 2025
  • Alternativmodell: llama-3-1-8b-instruct, llama-3-2-11b-vision-instruct

llama-3-70b-instruct

  • Abschreibungsdatum: 2. Dezember 2024
  • Rücktrittsdatum: 3. Februar 2025 (31. März in Sydney)
  • Alternativmodell: llama-3-1-70b-instruct, llama-3-2-90b-vision-instruct

Einzelheiten über die Veraltung und den Rückzug finden Sie unter Lebenszyklus des Basismodells. Weitere Informationen über alternative Modelle finden Sie unter Unterstützte Stiftungsmodelle.

Woche bis 29. November 2024

Verbesserte Dokumentation zu Schreiboptionen für Data Refinery

28. November 2024

Die Schreiboptionen und Tabellenoptionen für den Export von Datenflüssen hängen von Ihrer Verbindung ab. Diese Optionen werden nun erläutert, damit Sie bei der Auswahl Ihrer Zieltabellenoptionen besser geführt werden. Weitere Informationen finden Sie unter Zielverbindungsoptionen für Data Refinery.

Woche bis 22. November 2024

Neuer watsonx Developer Hub für den schnellen Einstieg ins Programmieren

21. Oktober 2024

Im neuen Developer Hub finden Sie alles, was Sie für die Programmierung Ihrer generativen KI-Lösung benötigen:

  • Stellen Sie Ihre erste API-Anfrage zur Inferenz eines foundation model in watsonx.ai.
  • Finden Sie die richtigen Basismodelle und Code-Bibliotheken für Ihre KI-Anwendungen.
  • Verstehen Sie die Fähigkeiten von watsonx.ai und kopieren Sie Codeschnipsel in Curl, Node.js oder Python.
  • Lernen Sie anhand detaillierter Anleitungen, wie Sie generative KI-Anwendungen und -Lösungen erstellen.
  • Treten Sie Gemeinschaften bei, um Ressourcen und Antworten zu finden und sich mit anderen Nutzern auszutauschen.

Gehen Sie zum watsonx Developer Hub.

Komponentendienste von IBM watsonx.ai wurden umbenannt

21. November 2024

Die folgenden Dienste wurden umbenannt:

  • Watson Machine Learning heißt jetzt watsonx.ai Runtime
  • Watson Studio heißt jetzt watsonx.ai Studio

In einigen Videos, Notizbüchern und Codebeispielen werden diese Dienste möglicherweise weiterhin unter ihren früheren Namen aufgeführt.

IBM watsonx.ai ist in der Region Sydney verfügbar

21. November 2024

Watsonx.ai ist jetzt generell im Rechenzentrum in Sydney verfügbar und Sydney kann bei der Anmeldung als bevorzugte Region ausgewählt werden.

Weitere Informationen zu den in der Region Sydney verfügbaren Stiftungsmodellen und Produktfunktionen finden Sie unter Regionale Verfügbarkeit von Diensten und Funktionen.

Verwendung von IBM Granite und der watsonx.ai zur Prognose zukünftiger Werte (Beta)

21. November 2024

Verwenden Sie die Zeitreihen-API, um historische Datenbeobachtungen an ein IBM foundation model zu übergeben, das zukünftige Werte mit Zero-Shot-Inferencing prognostizieren kann. Die Zeitreihenprognose-Methode der watsonx.ai API ist als Beta-Funktion verfügbar. Weitere Informationen finden Sie unter Vorhersage zukünftiger Datenwerte.

Verwendung von watsonx.ai Text-Einbettungsmodellen aus der Elasticsearch Inferenz-API

21. November 2024

In der Elasticsearch 8.16.0 wurde Unterstützung für die Erstellung eines Inferenz-Endpunkts hinzugefügt, der ein watsonx.ai foundation model für Text-Einbettungsaufgaben verwendet.

Weitere Informationen finden Sie unter Vektorisierung von Text mithilfe der API.

Beförderung von SPSS Modeler zu Einsatzbereichen

19. November 2024

Sie können jetzt SPSS Modeler direkt von Projekten in Bereitstellungsbereiche verschieben, ohne das Projekt exportieren und dann in den Bereitstellungsbereich importieren zu müssen. Weitere Informationen finden Sie unter Förderung von SPSS Modeler und -Modellen.

Woche bis zum 15. November 2024

Nutzen Sie die IBM watsonx.ai Demo-Chat-App ohne Test-Einschränkungen durch Verknüpfung von Konten

15. November 2024

Sie können Ihr IBM watsonx.ai jetzt ohne Token-Nutzung oder zeitliche Begrenzung nutzen, indem Sie Ihr Demokonto mit Ihrem bezahlten IBM Cloud watsonx.ai verknüpfen. Details finden Sie unter Verknüpfung der IBM watsonx.ai Demo und watsonx.ai Konten.

Das watsonx.ai Node.js ist bei LangChain erhältlich

11. November 2024

Das watsonx.ai Node.js kann über die LangChain JavaScript genutzt werden. Die Integration unterstützt watsonx.ai wie das Inferencing von Basismodellen, die Generierung von Texteinbettungen und die Handhabung von Chat-Austausch, der Bild-zu-Text- und Tool-Calling-Funktionen umfasst. Mit der LangChain können Sie diese watsonx.ai über einheitliche Schnittstellen abrufen, die es Ihnen erleichtern, zwischen Anbietern zu wechseln, um Angebote zu vergleichen und die beste Lösung für Ihre Bedürfnisse zu finden.

Weitere Informationen finden Sie unter Node.js SDK.

Für die Verteilung von Assets und die Ausführung von Aufträgen aus einem Verteilungsraum sind jetzt Task-Anmeldeinformationen erforderlich

11. November 2024

Um die Sicherheit bei der Ausführung von Verteilungsaufträgen zu verbessern, müssen Sie Ihre Anmeldedaten für die Aufgabe eingeben, um die folgenden Assets aus einem Verteilungsraum zu verteilen:

  • Eingabeaufforderungsvorlagen
  • KI-Services
  • Modelle
  • Python-Funktionen
  • Scripts

Außerdem müssen Sie Ihre Anmeldeinformationen für die Aufgabe eingeben, um die folgenden Bereitstellungen aus Ihrem Bereitstellungsbereich zu erstellen:

  • Online
  • Stapel-

Sie müssen auch Ihre Anmeldeinformationen für Aufgaben verwenden, um Verteilungsaufträge aus Ihrem Verteilungsraum zu erstellen und zu verwalten.

Wie Sie Ihre Aufgabenanmeldeinformationen einrichten und einen API-Schlüssel generieren können, erfahren Sie unter Hinzufügen von Aufgabenanmeldeinformationen.

Woche bis 8. November 2024

Bereitstellung von generativen KI-Anwendungen mit KI-Diensten

7. November 2024

Sie können jetzt KI-Services in watsonx.ai nutzen, um Ihre Anwendungen bereitzustellen. Ein KI-Service ist eine einsatzfähige Codeeinheit, mit der Sie die Logik Ihrer generativen KI-Anwendungsfälle erfassen können. Während Python traditionell für die Bereitstellung von maschinellen Lernressourcen verwendet werden, bieten KI-Dienste eine flexiblere Option für die Bereitstellung von Code für generative KI-Anwendungen, z. B. für Streaming. Wenn Ihre KI-Dienste erfolgreich implementiert sind, können Sie den Endpunkt für Inferenzen aus Ihrer Anwendung heraus verwenden.

Weitere Informationen finden Sie unter Bereitstellen von AI-Diensten.

Die Gründungsmodelle granite-13b-chat-v2, llama2-13b-dpo-v7 und mt0-xxl-13b sind veraltet

4. November 2024

Die folgenden Gründungsmodelle sind veraltet. Überarbeiten Sie alle Aufforderungen, die diese Grundlagenmodelle verwenden.

granite-13b-chat-v2

  • Datum der Abschreibung: 4. November 2024
  • Rücktrittsdatum: 3. Februar 2025
  • Alternatives Modell: granite-3-8b-instruct

llama2-13b-dpo-v7

  • Datum der Abschreibung: 4. November 2024
  • Rücktrittsdatum: 4. Dezember 2024
  • Alternatives Modell: llama-3-1-8b-instruct

mt0-xxl-13b

  • Datum der Abschreibung: 4. November 2024
  • Rücktrittsdatum: 4. Dezember 2024
  • Alternative Modelle: llama-3-1-8b-instruct, llama-3-2-11b-vision-instruct

Einzelheiten über die Veraltung und den Rückzug finden Sie unter Lebenszyklus des Basismodells. Weitere Informationen über alternative Modelle finden Sie unter Unterstützte Stiftungsmodelle.

Woche bis 1. November 2024

Neues Einbettungsmodell von Drittanbietern all-minilm-l6-v2 ) ist in watsonx.ai verfügbar

29. Oktober 2024

Das Text-Einbettungsmodell all-minilm-l6-v2 aus der Open-Source-Gemeinschaft für natürliche Sprachverarbeitung (NLP) und Computer Vision (CV) ist jetzt über die Text-Einbettungsmethode der watsonx.ai API verfügbar. Verwenden Sie das Modell, um Text in Texteinbettungsvektoren umzuwandeln, die für die Verwendung bei Textabgleichs- und Retrievalaufgaben geeignet sind. Einzelheiten zu den Modellen finden Sie in den folgenden Themen:

Niedrigerer Preis für die Inferenz des foundation model

29. Oktober 2024

Der Preis für den Input, den Sie in das Mistral Large foundation model einbringen, ist von $00.01 auf $00.003 USD pro 1.000 Token gesunken. Der Preis für den Output, der durch das foundation model erzeugt wird, hat sich nicht geändert; der Preis für Output-Token bleibt bei 00.01 USD/1,000 Token. Die Preisänderung gilt für alle Regionen, in denen der " mistral-large " foundation model verfügbar ist.

Weitere Informationen finden Sie unter Unterstützte Basismodelle.

Abschaffung von IBM Runtime 23.1

28. Oktober 2024

IBM Runtime 23.1 ist veraltet. Ab dem 21. November 2024 können Sie keine neuen Notebooks oder benutzerdefinierten Umgebungen mehr erstellen, indem Sie 23.1 verwenden. Außerdem können Sie keine neuen Bereitstellungen mit Software-Spezifikationen erstellen, die auf der 23.1 basieren. Um einen reibungslosen Ablauf zu gewährleisten und die neuesten Funktionen und Verbesserungen zu nutzen, wechseln Sie zu IBM Runtime 24.1.

Vereinfachen Sie komplexe Geschäftsdokumente mit der Textextraktions-API

28. Oktober 2024

Die Methode zur Textextraktion ist nun allgemein in der watsonx.ai REST API verfügbar. Nutzen Sie die von IBM entwickelte Technologie zum Verstehen von Dokumenten, um Ihre komplexen Geschäftsdokumente so zu vereinfachen, dass sie von Foundation-Modellen als Teil eines generativen KI-Workflows verarbeitet werden können. Die Textextraktions-API extrahiert Text aus Dokumentstrukturen wie Bildern, Diagrammen und Tabellen, die von Basismodellen oft nicht korrekt interpretiert werden können. Weitere Informationen finden Sie unter Extrahieren von Text aus Dokumenten.

Die API ist in allen Regionen für Nutzer von kostenpflichtigen Tarifen verfügbar. Einzelheiten zu den Preisen finden Sie in der Tabelle der Tarife für die Extraktion von Dokumententext.

Woche bis 25. Oktober 2024

Vergleichen Sie Tabellen in Decision Optimization, um Unterschiede zwischen Szenarien zu erkennen

23. Oktober 2024

Sie können jetzt Tabellen in einem Decision Optimization entweder in der Ansicht " Daten vorbereiten" oder "Lösung untersuchen" vergleichen. Dieser Vergleich kann nützlich sein, um Unterschiede in den Datenwerten zwischen nebeneinander angezeigten Szenarien zu erkennen. Screenshot des Tabellenvergleichs in der Decision Optimization
Weitere Informationen finden Sie unter Szenariotabellen vergleichen.

Neue Granite 3.0 Modelle sind in watsonx.ai verfügbar

21. Oktober 2024

Sie können nun von ' watsonx.ai: auf die folgenden Modelle der Generation ' 3.0 ' Granite schließen, die von ' IBM bereitgestellt werden

  • Granite Instruct Modelle in allen Regionen: Verwenden Sie die neuen, auf Instruct abgestimmten, leichtgewichtigen und quelloffenen Sprachmodelle für Aufgaben wie Zusammenfassungen, Problemlösungen, Textübersetzungen, Schlussfolgerungen, Codierungen und Funktionsaufrufe. Funktioniert mit den folgenden Modellvarianten:
    • granite-3-2b-instruct
    • granite-3-8b-instruct
  • Granite Guardian Modelle in der Region Dallas: Verwenden Sie die neuen Granite Guardian-Modelle, bei denen es sich um fein abgestimmte Granite Instruct-Modelle handelt, die darauf ausgelegt sind, Risiken in Aufforderungen und Antworten zu erkennen. Funktioniert mit den folgenden Modellvarianten:
    • granite-guardian-3-2b
    • granite-guardian-3-8b

Einzelheiten finden Sie unter Unterstützte Fundamentmodelle .

Verbessern Sie Such- und Retrievalaufgaben mit der Text-Rerank-API

21. Oktober 2024

Die Text-Rerank-Methode ist generell in der watsonx.ai REST API verfügbar. Verwenden Sie diese neue API-Methode zusammen mit Reranker-Grundmodellen, wie z. B. dem neu unterstützten ms-marco-minilm-l-12-v2, um eine Menge von Dokumentpassagen auf der Grundlage ihrer Ähnlichkeit mit einer bestimmten Abfrage neu zu ordnen. Reranking ist eine nützliche Methode, um Ihre Arbeitsabläufe bei der Suche nach Antworten zu präzisieren. Weitere Informationen finden Sie unter Neueinstufung von Dokumentenpassagen.

Das neue Modell Pixtral 12B ist in den Regionen Frankfurt und London erhältlich

21. Oktober 2024

Ab sofort können Sie das Pixtral 12B foundation model von Mistral AI auf watsonx.ai in den Rechenzentren Frankfurt und London nutzen.

Pixtral 12B ist ein natives multimodales Modell mit Bild-zu-Text- und Text-zu-Text-Fähigkeiten, das mit verschachtelten Bild- und Textdaten trainiert wurde. Das foundation model unterstützt variable Bildgrößen und eignet sich hervorragend für Aufgaben, bei denen Anweisungen befolgt werden müssen. Einzelheiten finden Sie unter Unterstützte Fundamentmodelle .

Verwenden Sie die Modelle llama-3-2-11b-vision-instruct und llama-guard-11b-vision in den Regionen Frankfurt und London

21. Oktober 2024

Sie können jetzt mit den Modellen llama-3-2-11b-vision-instruct und llama-guard-11b-vision in den Rechenzentren Frankfurt und London sowie im Rechenzentrum Dallas arbeiten. Weitere Informationen finden Sie unter Regionale Verfügbarkeit für Services und Funktionen auf IBM Cloud und Chatten mit Bildern.

Woche bis 18. Oktober 2024

Kontoressourcen-Scoping ist standardmäßig aktiviert

17. Oktober 2024

Die Einstellung " Resource scope für Ihr Konto ist jetzt standardmäßig auf " ON gesetzt. Wenn Sie jedoch zuvor den Wert für den Ressourcenbereich entweder auf ' ON oder ' OFF gesetzt haben, wird die aktuelle Einstellung nicht geändert.

Wenn das Ressourcenscoping aktiviert ist, können Sie nicht auf Projekte zugreifen, die sich nicht in Ihrem aktuell ausgewählten IBM Cloud befinden. Wenn Sie zu mehr als einem IBM Cloud gehören, werden möglicherweise nicht alle Ihre Projekte zusammen aufgeführt. Es kann zum Beispiel sein, dass Sie nicht alle Ihre Projekte auf der Seite Alle Projekte sehen. Sie müssen das Konto wechseln, um die Projekte in den anderen Konten zu sehen.

In der Region Frankfurt ist ein Granite Code foundation model verfügbar

15. Oktober 2024

Das granite-20b-code-instruct foundation model von IBM wurde entwickelt, um auf kodierungsbezogene Anweisungen zu reagieren. Sie können das foundation model in Projekten verwenden, die im Frankfurter Rechenzentrum gehostet werden, um Sie bei Codierungsaufgaben und bei der Erstellung von Codierungsassistenten zu unterstützen. Weitere Informationen über das Modell finden Sie unter Unterstützte Gründungsmodelle.

Woche bis 11. Oktober 2024

Neue Vorteile bei der Lizenzierung

10. Oktober 2024

Sie können jetzt Ihre eigene Lizenz (BYOL) mitbringen, um die Vorteile der On-Premises-Lizenzierung auf IBM watsonx.ai und IBM watsonx.governance anzuwenden.

Weitere Informationen finden Sie unter Aktivieren von Bring Your Own License (BYOL) für SaaS.

Analysieren Sie japanische Textdaten in SPSS Modeler mit Text Analytics

9. Oktober 2024

Sie können jetzt die Textanalyseknoten in SPSS Modeler, wie z. B. den Textlink-Analyseknoten und den Text Mining-Knoten, verwenden, um in Japanisch geschriebene Textdaten zu analysieren.

Erstellen Sie konversationelle Workflows mit der watsonx.ai Chat-API

8. Oktober 2024

Nutzen Sie die watsonx.ai, um generative KI-Funktionen, einschließlich agentengesteuerter Aufrufe von Tools und Diensten von Drittanbietern, in Ihre Anwendungen zu integrieren.

Weitere Informationen finden Sie unter den folgenden Themen:

Neue Software-Spezifikation für benutzerdefinierte Gründungsmodelle

7. Oktober 2024

Sie können jetzt eine neue Softwarespezifikation " watsonx-cfm-caikit-1.1 mit Ihren benutzerdefinierten foundation model Deployments verwenden. Die Spezifikation basiert auf der vLLM und ist besser für die neuesten Decoder-only-Großsprachenmodelle geeignet. Weitere Informationen zur vLLM finden Sie unter vLLM. Informationen zur Verwendung der Spezifikation mit einem benutzerdefinierten foundation model finden Sie unter Planung der Bereitstellung eines benutzerdefinierten foundation model.

Die Gründungsmodelle granite-7b-lab und llama3-llava-next-8b-hf sind veraltet

7. Oktober 2024

Das foundation model granite-7b-lab ist veraltet und wird am 7. Januar 2025 aus dem Verkehr gezogen. Überarbeiten Sie alle Aufforderungen, die dieses foundation model verwenden.

  • Verfallsdatum: 7. Oktober 2024
  • Rücktrittsdatum: 7. Januar 2025
  • Alternatives Modell: granite-3-8b-instruct

Das multimodale foundation model llama3-llava-next-8b-hf ist ebenfalls veraltet und wird am 7. November 2024 zurückgezogen. Sie können jetzt eines der neu veröffentlichten Llama 3.2-Vision-Modelle für Bild-zu-Text-Generierungsaufgaben verwenden.

  • Verfallsdatum: 7. Oktober 2024
  • Rücktrittsdatum: 7. November 2024
  • Alternatives Modell: llama-3-2-11b-vision-instruct

Einzelheiten über die Veraltung und den Rückzug finden Sie unter Lebenszyklus des Basismodells. Weitere Informationen über alternative Modelle finden Sie unter Unterstützte Stiftungsmodelle.

Woche bis 4. Oktober 2024

Aktualisierte Umgebungen und Software-Spezifikationen

3. Oktober 2024

Die Tensorflow und Keras, die in IBM Runtime 23.1 enthalten sind, werden jetzt auf ihre neueren Versionen aktualisiert. Dies kann Auswirkungen darauf haben, wie der Code in Ihren Notizbüchern ausgeführt wird. Weitere Informationen finden Sie unter Bibliothekspakete, die in den watsonx.ai Studio (ehemals Watson Studio) -Laufzeiten enthalten sind.

Runtime 23.1 wird noch in diesem Jahr zugunsten von IBM Runtime 24.1 eingestellt. Um wiederholte Unterbrechungen zu vermeiden, empfehlen wir Ihnen, jetzt auf IBM Runtime 24.1 umzusteigen und die entsprechenden Softwarespezifikationen für den Einsatz zu verwenden.

Verfügbarkeit des watsonx.governance in der Region Frankfurt und Abschaffung des OpenScale

3. Oktober 2024

Der watsonx.governance zur Bereitstellung von Watson OpenScale in der Region Frankfurt ist veraltet. IBM Watson OpenScale wird nicht mehr für neue Abonnements oder für die Bereitstellung neuer Instanzen zur Verfügung stehen. Für OpenScale können Sie den watsonx.governance Essentials-Plan abonnieren, der jetzt sowohl in Frankfurt als auch in Dallas verfügbar ist.

Hinweise:

  • Bestehende Legacy-Plan-Instanzen werden weiterhin betrieben und bis zum noch zu bestimmenden End-of-Support-Datum unterstützt.
  • Bestehende Kunden, die IBM Watson OpenScale nutzen, können weiterhin Support-Tickets über IBM Watson OpenScale eröffnen.

Neue Menübegriffe zum Öffnen der Seite Plattformverbindungen

3. Oktober 2024

Zuvor lautete der Pfad zur Seite Plattformverbindungen im Navigationsmenü Daten > Plattformverbindungen. Der neue Pfad lautet Daten > Konnektivität. Die Seite Konnektivität enthält eine Registerkarte für Plattformverbindungen.

Woche bis 27. September 2024

Llama 3.2 Fundamentmodelle, einschließlich der multimodalen Modelle 11B und 90B, sind verfügbar

25. September 2024

Mit der heutigen Veröffentlichung werden die folgenden Gründungsmodelle von Meta AI in der Region Dallas verfügbar:

Llama 3.2 Modelle unterrichten
Vielseitige große Sprachmodelle, die große Eingaben unterstützen (128.000 Token Kontextfensterlänge) und mit 1B und 3B Parametern so leicht und effizient sind, dass sie auf ein mobiles Gerät passen. Sie können diese Modelle nutzen, um hoch personalisierte Agenten auf dem Gerät zu erstellen.
Llama 3.2 Sichtmodelle
Fein abgestimmte Modelle, die für Anwendungsfälle mit Bild und Text entwickelt wurden, wie z. B. das Verstehen von Dokumenten, die Interpretation von Diagrammen und Grafiken sowie die Beschriftung von Bildern.
Lama Guard Sichtmodell
Leistungsstarkes Leitplankenmodell für die Filterung schädlicher Inhalte.

Weitere Informationen finden Sie unter Unterstützte Basismodelle.

Erweiterungen der Governance-Konsole

25. September 2024

Diese Version enthält Erweiterungen und Fehlerbehebungen.

Benutzerdefinierte Registerkarten auf dem Dashboard

Das Dashboard kann jetzt bis zu drei benutzerdefinierte Registerkarten enthalten.

Gestapelte Balkendiagramme

Sie können jetzt ein gestapeltes Balkendiagramm auf dem Dashboard und im Ansichtsdesigner konfigurieren.

Verwendung von Ausdrücken zum Festlegen von Feldwerten auf der Grundlage der Antworten eines Fragebogen-Teilnehmers

Sie können nun einen Ausdruck für den Wert eines Feldes eingeben. Sie können z. B. [$TODAY$] für das aktuelle Datum, [$END_USER$] für den Namen des angemeldeten Benutzers oder [$System Fields:Description$] eingeben, um das Feld auf den Wert des Feldes Beschreibung des Objekts zu setzen.

Erweiterungen der watsonx.governance Model Risk Governance Lösung

Diese Version enthält die folgenden Erweiterungen:

  • Der neue Objekttyp Modellgruppe bietet eine Möglichkeit, ähnliche Modelle zusammenzufassen. So können beispielsweise Versionen eines Modells, die einen ähnlichen Ansatz zur Lösung eines Geschäftsproblems verwenden, in einer Modellgruppe zusammengefasst werden.
  • Die neue Berechnung des Use Case Risk Scoring fasst die Metriken nach Verstoßstatus zu Risikowerten zusammen, um einen Gesamtüberblick über die Leistung der zugrunde liegenden Modelle eines Anwendungsfalls zu geben.
  • Die neue Geschäftseinheit "Discovered AI library" bietet einen Standardort, an dem alle KI-Implementierungen gespeichert werden, die nicht den sanktionierten Governance-Praktiken innerhalb eines Unternehmens entsprechen (auch als "Schatten-KI" bekannt).
  • Die Arbeitsabläufe, Ansichten und Dashboards wurden aktualisiert.

Weitere Informationen finden Sie unter Lösungskomponenten in der Governance-Konsole.

Bugfixes und Sicherheitskorrekturen

Es wurden Fehler- und Sicherheitskorrekturen vorgenommen.

Weitere Informationen finden Sie unter Neue Funktionen in 9.0.0.4.

Automatisieren Sie RAG-Muster mit AutoAI SDK (beta)

23. September 2024

Verwenden Sie das AutoAI Python SDK, um den Entwurf und die Bereitstellung eines optimierten RAG-Musters (Retrieval-augmented generation) auf der Grundlage Ihrer Daten und Ihres Anwendungsfalls zu automatisieren und zu beschleunigen. RAG verfügt über zahlreiche Konfigurationsparameter, z. B. welches große Sprachmodell gewählt werden soll, wie die Grundlagendokumente zerlegt werden sollen und wie viele Dokumente abgerufen werden sollen. AutoAI automatisiert die vollständige Erkundung und Bewertung eines begrenzten Satzes von Konfigurationsoptionen und erzeugt eine Reihe von Musterpipelines, die nach ihrer Leistung im Hinblick auf die Optimierungsmetrik geordnet sind.

Hinweis: Solange sich diese Funktion im Beta-Stadium befindet, ist die Durchführung des Experiments kostenlos und es werden keine Token verbraucht. Aufrufe von RAG-Mustern und deren Ableitungen nach Abschluss des Experiments verbrauchen jedoch Ressourcen und werden zu den üblichen Tarifen abgerechnet.

Siehe Automatisierung eines RAG-Musters mit dem AutoAI SDK(Beta) für Details über die Funktion und Nutzungshinweise für die Codierung eines AutoAI RAG-Experiments.

Entfernung der Spark 3.3-Laufzeit

23. September 2024

Die Unterstützung für die Spark 3.3-Laufzeit in IBM Analytics Engine wird bis zum 29. Oktober 2024 entfernt und die Standardversion wird auf die Spark 3.4-Laufzeit geändert. Um einen reibungslosen Ablauf zu gewährleisten und die neuesten Funktionen und Verbesserungen zu nutzen, wechseln Sie zu Spark 3.4.

Ab dem 29. Oktober 2024 können Sie keine Notebooks oder benutzerdefinierten Umgebungen mit Spark 3.3-Laufzeiten erstellen oder ausführen. Außerdem können Sie keine Bereitstellungen mit Softwarespezifikationen erstellen oder ausführen, die auf der Spark-Laufzeit 3.3 basieren.

Woche bis 20. September 2024

Ableitung eines multimodalen foundation model aus dem Prompt Lab

19. September 2024

Sie können jetzt ein Bild in Prompt Lab hinzufügen und über das Bild chatten, indem Sie ein multimodales foundation model im Chatmodus abfragen. Zusätzlich zu den Grundlagendokumenten können Sie jetzt auch Bilder hochladen und ein foundation model, das Bild-zu-Text-Aufgaben unterstützt, über den visuellen Inhalt des Bildes befragen. Weitere Informationen finden Sie unter Chatten mit Dokumenten und Bildern.

Das neue Modell llama3-llava-next-8b-hf ist in der Region Dallas erhältlich

19. September 2024

Sie können jetzt das neue multimodale foundation model llama3-llava-next-8b-hf auf IBM watsonx.ai verwenden, um bei Bild-zu-Text-Aufgaben zu helfen.

Large Language and Vision Assistant (LLaVa) kombiniert ein vortrainiertes großes Sprachmodell mit einem vortrainierten Vision-Encoder für multimodale Chatbot-Anwendungsfälle. LLaVA NeXT Llama3 wird auf vielfältigeren, hochwertigen Bild- und Textdaten trainiert. Einzelheiten finden Sie unter Unterstützte Fundamentmodelle .

Verwenden Sie das watsonx.ai Node.js SDK zur Programmierung generativer KI-Anwendungen

18. September 2024

Inferenz und Abstimmung von Basismodellen in IBM watsonx as a Service programmatisch mit dem Paket watsonx.ai Node.js. Weitere Informationen finden Sie unter Node.js SDK.

Verstehen der IP-Entschädigungsrichtlinien für Stiftungsmodelle

18. September 2024

Sie können jetzt die IBM-Richtlinie zur Entschädigung für geistiges Eigentum besser verstehen und sehen, welche Foundation-Modelle in watsonx.ai eine Entschädigung für geistiges Eigentum abdecken. Weitere Informationen finden Sie unter Modelltypen und IP-Entschädigung.

Woche bis 13. September 2024

Erstellen von Batch-Aufträgen für SPSS Modeler-Ströme in Bereitstellungsräumen

10. September 2024

Sie können jetzt Batch-Jobs für SPSS Modeler-Flows in Deployment-Spaces erstellen. Flows geben Ihnen die Flexibilität zu entscheiden, welche Terminalknoten jedes Mal ausgeführt werden sollen, wenn Sie einen Batch-Job aus einem Flow erstellen. Wenn Sie Batch-Jobs für Abläufe einplanen, verwendet der Batch-Job die Datenquellen und Ausgabeziele, die Sie in Ihrem Ablauf angegeben haben. Das Mapping für diese Datenquellen und -ausgaben erfolgt automatisch, wenn sich die Datenquellen und -ziele ebenfalls in Ihrem Bereitstellungsbereich befinden. Weitere Informationen zum Erstellen von Batch-Aufträgen aus Flows finden Sie unter Erstellen von Deployment-Aufträgen für SPSS Modeler-Flows.

Weitere Informationen über Flows und Modelle in Deployment Spaces finden Sie unter Deploying von SPSS Modeler Flows und Modellen.

Woche bis 6. September 2024

Bringen Sie Ihr eigenes foundation model zur Inferenz von watsonx.ai in der Region Dallas

3. September 2024

Zusätzlich zur Arbeit mit Foundation-Modellen, die von IBM kuratiert wurden, können Sie jetzt Ihre eigenen Foundation-Modelle hochladen und bereitstellen. Nachdem die Modelle bereitgestellt und bei watsonx.ai registriert wurden, erstellen Sie Prompts, die programmgesteuert oder über das Prompt Lab auf die benutzerdefinierten Modelle schließen. Diese Funktion ist nur in der Region Dallas verfügbar.

Weitere Informationen zum Hochladen von benutzerdefinierten Foundation-Modellen finden Sie unter Bereitstellung von benutzerdefinierten Foundation-Modellen. Informationen zu den Plänen und Abrechnungsdetails für benutzerdefinierte Basismodelle finden Sie unter watsonx.ai Runtime-Pläne.

Vereinfachen Sie komplexe Geschäftsdokumente mit der API für die Textextraktion aus Dokumenten

3. September 2024

Wenden Sie die von IBM entwickelte Technologie zum Verstehen von Dokumenten an, um Ihre komplexen Geschäftsdokumente so zu vereinfachen, dass sie von Foundation-Modellen als Teil eines generativen KI-Workflows verarbeitet werden können. Die API für die Extraktion von Dokumententext extrahiert Text aus Dokumentstrukturen wie Bildern, Diagrammen und Tabellen, die von Basismodellen oft nicht korrekt interpretiert werden können. Die Textextraktionsmethode der watsonx.ai REST API ist eine Beta-Funktion.

Weitere Informationen finden Sie unter Extrahieren von Text aus Dokumenten.

Änderungen und Aktualisierungen des Granite Code foundation model sind verfügbar

3. September 2024

Das foundation model granite-20b-code-instruct wurde auf die Version 1.1.0 geändert. Die jüngste Modifikation wurde mit einer Mischung aus hochwertigen Daten aus den Bereichen Code und natürliche Sprache trainiert, um die Fähigkeit des Modells, Schlussfolgerungen zu ziehen und Anweisungen zu befolgen, zu verbessern.

Die folgenden Gründungsmodelle wurden aktualisiert, um die Größe des unterstützten Kontextfensters (Eingabe + Ausgabe) für Prompts von 8192 auf 128.000 zu erhöhen:

  • granite-3b-code-instruct
  • granite-8b-code-instruct

Weitere Informationen finden Sie unter Unterstützte Basismodelle.

Woche bis 30. August 2024

Die Modelle llama-2-13b-chat und llama-2-70b-chat sind veraltet

26. August 2024

Die Gründungsmodelle llama-2-13b-chat und llama-2-70b-chat sind veraltet und werden am 25. September 2024 zurückgezogen. Überarbeiten Sie alle Aufforderungen, die diese Grundlagenmodelle verwenden.

llama-2-13b-chat
  • Verfallsdatum: 26. August 2024
  • Rücktrittsdatum: 25. September 2024
  • Alternatives Modell: llama-3.1-8b-instruct
llama-2-70b-chat
  • Verfallsdatum: 26. August 2024
  • Rücktrittsdatum: 25. September 2024
  • Alternatives Modell: llama-3.1-70b-instruct

Inferenzanfragen, die über die API an die Modelle llama-2-13b-chat und llama-2-70b-chat gestellt werden, erzeugen weiterhin Ausgaben, enthalten aber eine Warnmeldung über die bevorstehende Rücknahme des Modells. Ab dem 25. September 2024 werden API-Anfragen zum Inferencing der Modelle keine Ausgabe mehr erzeugen.

Einzelheiten über die Veraltung und den Rückzug finden Sie unter Lebenszyklus des Basismodells.

Woche bis 23. August 2024

Hinzufügen von Benutzergruppen als Mitwirkende in Projekten und Bereichen

22. August 2024

Sie können jetzt Benutzergruppen in Projekten und Bereichen hinzufügen, wenn Ihr IBM Cloud-Konto IAM-Zugangsgruppen enthält. Ihr IBM Cloud-Kontoverwalter kann Zugriffsgruppen erstellen, die dann als Benutzergruppen in Projekten verfügbar sind. Weitere Informationen finden Sie unter Arbeiten mit IAM-Zugangsgruppen.

Unterstützung bei der Beendigung der Vorhersage von Anomalien für AutoAI Zeitreihenexperimente

19. August 2024

Die Funktion zur Vorhersage von Anomalien (Ausreißern) in AutoAI Zeitreihenmodellvorhersagen, die sich derzeit in der Betaphase befindet, ist veraltet und wird am 23. September 2024 entfernt. Standardmäßige AutoAI Zeitreihenexperimente werden weiterhin vollständig unterstützt. Einzelheiten finden Sie unter Aufbau eines Zeitreihenexperiments.

Woche bis 16. August 2024

Neue Schiefereinbettungsmodelle von IBM sind in allen Regionen verfügbar

15. August 2024

IBM Schiefereinbettungsmodelle bieten Unternehmen die Möglichkeit, Einbettungen für verschiedene Eingaben wie Abfragen, Passagen oder Dokumente zu erzeugen. Die neuen Modelle slate-125m-english-rtrvr-v2 und slate-30m-english-rtrvr-v2 zeigen deutliche Verbesserungen gegenüber ihren v1 Gegenstücken. Wenn Sie heute die Modelle slate-125m-english-rtrvr und slate-30m-english-rtrvr verwenden, wechseln Sie zu den neuen v2 Slate-Modellen, um von den Modellverbesserungen zu profitieren.

Weitere Informationen finden Sie unter Unterstützte Geberfundamentmodelle.

Konfigurieren Sie die AI-Leitplanken für die Benutzereingabe und die Ausgabe des foundation model separat in Prompt Lab

15. August 2024

Passen Sie die Empfindlichkeit der KI-Leitplanken an, die schädliche Inhalte finden und entfernen, wenn Sie im Prompt Lab mit foundation model Prompts experimentieren. Sie können unterschiedliche Filterempfindlichkeitsstufen für Benutzereingaben und Modellausgabetexte festlegen und effektive AI-Leitplankeneinstellungen in Eingabeaufforderungsvorlagen speichern.

Weitere Informationen finden Sie unter Entfernen schädlicher Inhalte.

Woche bis 9. August 2024

Auswahl von Testdaten aus Projekten für zeitnahe Vorlagenauswertungen

8. August 2024

Wenn Sie Prompt-Vorlagen in Projekten auswerten, können Sie jetzt Projekt-Assets wählen, um Testdaten für Auswertungen auszuwählen. Weitere Informationen finden Sie unter Auswertung von Prompt-Vorlagen in Projekten.

Das neue Modell llama-3-1-70b-instruct ist jetzt verfügbar auf IBM watsonx.ai

7. August 2024

Sie können jetzt die neuesten Llama 3.1 Gründungsmodelle von Meta in der Größe von 70 Milliarden Parametern auf IBM watsonx.ai verwenden.

Die Llama 3.1 Serie von Basismodellen sind leistungsstarke große Sprachmodelle mit erstklassigen Argumentationsfähigkeiten. Die Modelle können für komplexe mehrsprachige Argumentationsaufgaben verwendet werden, einschließlich Textverständnis, Transformation und Codegenerierung. Sie unterstützen Englisch, Deutsch, Französisch, Italienisch, Portugiesisch, Hindi, Spanisch und Thai. Einzelheiten finden Sie unter Unterstützte Fundamentmodelle .

Aktualisierte Q&A mit RAG-Beschleuniger

6. August 2024

Das Beispielprojekt Q&A mit RAG-Beschleuniger 1.2 enthält die folgenden Verbesserungen:

  • Holen Sie sich Hilfe bei der nächsten Phase Ihrer RAG-Implementierung (Retrieval-Augmented Generation): Sammeln Sie Nutzerfeedback und analysieren Sie die Antwortqualität. Enthält Analysen mit unüberwachter Themenerkennung, um beliebte Themen, die Zufriedenheit der Benutzer mit den generierten Antworten nach Thema und die Suchergebnisse nach Thema anzuzeigen.

  • Neue Prompt-Vorlagen, die für die IBM granite-7b-lab und Meta Llama 3.1 Fundamentmodelle optimiert sind.

  • Optimierter Code, der RAG-Dienstprogramme aus der watsonx.ai Python-Bibliothek und gezielte Vektorsuchfilter für die Suche nach Produkt, Bereich und mehr verwendet.

Siehe Q&A mit RAG-Beschleuniger.

Hinweis: Wenn Sie das Beispielprojekt nicht erstellen können, versuchen Sie, den Text im Beschreibungsfeld zu ersetzen.

Woche bis 2. August 2024

Das neue Modell llama-3-1-8b-instruct ist jetzt verfügbar auf IBM watsonx.ai

1. August 2024

Sie können jetzt die neuesten Llama 3.1 Gründungsmodelle von Meta in der Größe von 8 Milliarden Parametern auf IBM watsonx.ai verwenden.

Die Llama 3.1 Serie von Basismodellen sind leistungsstarke große Sprachmodelle mit erstklassigen Argumentationsfähigkeiten. Die Modelle können für komplexe mehrsprachige Argumentationsaufgaben verwendet werden, einschließlich Textverständnis, Transformation und Codegenerierung. Sie unterstützen Englisch, Deutsch, Französisch, Italienisch, Portugiesisch, Hindi, Spanisch und Thai. Einzelheiten finden Sie unter Unterstützte Fundamentmodelle .

Assoziieren Sie Arbeitsbereiche mit KI-Anwendungsfällen

1. August 2024

Der Ablauf für die Erstellung eines KI-Anwendungsfalls wurde geändert, um ihn besser auf den KI-Lebenszyklus abzustimmen. Nachdem Sie die Grundlagen für einen KI-Anwendungsfall definiert haben, ordnen Sie Arbeitsbereiche zu, um Assets so zu organisieren, dass sie mit den Phasen einer KI-Lösung übereinstimmen. Verknüpfen Sie beispielsweise ein Projekt oder einen Bereich für Assets in der Entwicklungs- oder Validierungsphase, und verknüpfen Sie einen Bereich für Assets in der Betriebsphase.

Einzelheiten finden Sie unter Zuordnung von Arbeitsbereichen zu einem KI-Anwendungsfall.

Woche bis 26. Juli 2024

Ankündigung der Unterstützung für Python 3.11 Und R4.3 Frameworks und Softwarespezifikationen zur Laufzeit 24.1

25. Juli 2024

Sie können jetzt IBM Runtime 24.1 verwenden, das die neuesten Data Science-Frameworks auf Basis von Python 3.11 und R 4.3 enthält, um Jupyter-Notebooks und R-Skripte auszuführen und Modelle zu trainieren. Ab dem 29. Juli können Sie auch Einsätze durchführen. Aktualisieren Sie Ihre Assets und Implementierungen, um IBM Runtime 24.1 Frameworks und Software-Spezifikationen zu verwenden.

Erweiterte Version von Jupyter Notebook Editor ist jetzt verfügbar

25. Juli 2024

Wenn Sie Ihr Notebook in Umgebungen betreiben, die auf Runtime basieren 24.1 können Sie diese Erweiterungen für die Arbeit mit Ihrem Code nutzen:

  • Debuggen Sie Ihren Code automatisch
  • Automatisch ein Inhaltsverzeichnis für Ihr Notizbuch erstellen
  • Zeilennummern neben Ihrem Code umschalten
  • Reduzieren Sie den Zellinhalt und verwenden Sie die Side-by-Side-Ansicht für Code und Ausgabe für eine höhere Produktivität.

Weitere Informationen finden Sie unter Jupyter-Notebook-Editor.

Mit Runtime unterstützte Transformer-Einbettungsmodelle für Natural Language Processor 24.1

25. Juli 2024

In der neuen Runtime 24.1-Umgebung können Sie jetzt Transformer-Einbettungsmodelle für die Verarbeitung natürlicher Sprache (NLP) verwenden, um Texteinbettungen zu erstellen, die die Bedeutung eines Satzes oder einer Passage erfassen und so bei abruferweiterten Generierungsaufgaben helfen. Weitere Informationen finden Sie unter Einbettungen.

Neue spezialisierte NLP-Modelle sind in Runtime verfügbar 24.1

25. Juli 2024

Die folgenden neuen, spezialisierten NLP-Modelle sind jetzt in der Runtime enthalten 24.1 Umfeld:

Extrahieren Sie detaillierte Erkenntnisse aus großen Textsammlungen mithilfe der Key Point Summarization

25. Juli 2024

Sie können jetzt die Key Point Summarization in Notizbüchern verwenden, um detaillierte und verwertbare Erkenntnisse aus großen Textsammlungen zu extrahieren, die die Meinungen von Personen darstellen (z. B. Produktbewertungen, Umfrageantworten oder Kommentare in sozialen Medien). Das Ergebnis wird in einer organisierten, hierarchischen Weise geliefert, die leicht zu verarbeiten ist. Weitere Informationen finden Sie unter Zusammenfassung der wichtigsten Punkte

Aktualisierung der RStudio

25. Juli 2024

Um eine konsistente Benutzererfahrung in privaten und öffentlichen Clouds zu gewährleisten, wird die RStudio IDE für IBM watsonx am 29. Juli 2024 auf RStudio Server 2024.04.1 und R 4.3.1 aktualisiert. Die neue Version von RStudio bietet eine Reihe von Erweiterungen und Sicherheitsverbesserungen. Weitere Informationen finden Sie in den RStudio Server 2024.04.1 Release Notes. Obwohl keine größeren Kompatibilitätsprobleme zu erwarten sind, sollten sich Benutzer der Versionsänderungen für einige Pakete bewusst sein, die in der folgenden Tabelle unten beschrieben werden.

Wenn Sie die RStudio nach dem Upgrade aus einem Projekt heraus starten, setzen Sie den RStudio zurück, um sicherzustellen, dass der Bibliothekspfad für R 4.3.1 vom RStudio übernommen wird.

Eine neue Version des Mistral Large Modells ist jetzt auf IBM watsonx.ai in den Regionen Dallas, Frankfurt und London verfügbar

24. Juli 2024

Sie können jetzt das Mistral Large 2 foundation model von Mistral AI auf IBM watsonx.ai in den Rechenzentren in Dallas, Frankfurt und London nutzen.

Das Modell Mistral Large 2 unterstützt 11 Sprachen und beherrscht Textverständnis, Codegenerierung und erweiterte Schlussfolgerungen. Einzelheiten finden Sie unter Unterstützte Fundamentmodelle .

Neu llama-3-405b-instruct Modell ist in der Region Dallas verfügbar

23. Juli 2024

Sie können jetzt das foundation model von Meta auf IBM watsonx.ai im Rechenzentrum in Dallas verwenden.

Das Modell llama-3-405B-instruct (v3.1) bietet Unternehmen ein leistungsfähiges großes Sprachmodell mit erstklassigen Argumentationsfähigkeiten und ist das umfangreichste Open-Source-Modell, das bisher veröffentlicht wurde. Dieses foundation model kann für komplexe mehrsprachige Argumentationsaufgaben verwendet werden, einschließlich Textverständnis, Transformation und Codegenerierung. Einzelheiten finden Sie unter Unterstützte Fundamentmodelle .

Der merlinite-7b Modell ist veraltet

22. Juli 2024

Das foundation model merlinite-7b ist veraltet und wird am 22. August 2024 aus dem Verkehr gezogen. Überarbeiten Sie alle Aufforderungen, die dieses foundation model verwenden.

  • Abkündigungsdatum: 22. Juli 2024
  • Austrittsdatum: 22. August 2024
  • Alternatives Modell: mixtral-8x7b-instruct-v01

Inferenzanfragen, die an die merlinite-7b Sie können mithilfe der API weiterhin Ausgaben im Modell generieren, aber eine Warnmeldung über die bevorstehende Modellrücknahme einschließen. Ab dem 22. August 2024 werden API-Anfragen zum Inferencing des Modells keine Ausgabe mehr erzeugen.

Weitere Informationen zur Einstellung der Unterstützung und Zurückziehung finden Sie unter Foundation model lifecycle.

Woche bis 12. Juli 2024

Das neue Modell Mistral Large ist in den Regionen Frankfurt und Dallas erhältlich

9. Juli 2024

Sie können jetzt das Mistral Large foundation model von Mistral AI auf IBM watsonx.ai in den Rechenzentren Frankfurt und Dallas nutzen.

Mistral Large bietet Unternehmen ein leistungsfähiges großes Sprachmodell mit erstklassigen Schlussfolgerungsfähigkeiten. Dieses foundation model kann für komplexe mehrsprachige Argumentationsaufgaben verwendet werden, einschließlich Textverständnis, Transformation und Codegenerierung. Einzelheiten finden Sie unter Unterstützte Fundamentmodelle .

Woche bis 5. Juli 2024

Nach Datenquellentyp gruppierte Konnektoren

05. Juli 2024

Wenn Sie eine Verbindung erstellen, werden die Konnektoren jetzt nach Datenquellentyp gruppiert, sodass die Konnektoren leichter zu finden und auszuwählen sind. Der Datenquellentyp MongoDB umfasst beispielsweise die IBM Cloud Databases for MongoDB und die MongoDB-Konnektoren.

Darüber hinaus wurde ein neues Aktuelles Die Kategorie zeigt die sechs letzten Konnektoren, die Sie zum Herstellen einer Verbindung verwendet haben.

Anweisungen hierzu finden Sie unter Hinzufügen von Verbindungen zu Datenquellen in einem Projekt .

Hinzufügen von Kontextinformationen zu den Eingabeaufforderungen für foundation model in Prompt Lab

4. Juli 2024

Helfen Sie einem ' foundation model, sachliche und aktuelle Antworten in RAG-Anwendungsfällen zu generieren, indem Sie Ihrer Eingabeaufforderung relevante Kontextinformationen als Basisdaten hinzufügen. Sie können relevante Dokumente schnell hochladen oder eine Verbindung zu einem Vektorspeicher eines Drittanbieters mit relevanten Daten herstellen. Bei der Übermittlung einer neuen Frage werden anhand dieser die Datengrundlagen nach relevanten Fakten abgefragt. Die wichtigsten Suchergebnisse sowie die ursprüngliche Frage werden als Modellinput übermittelt, damit das foundation model relevante Fakten in seine Ausgabe einbeziehen kann.

Für weitere Informationen siehe " Verankerung von ' foundation model -Aufforderungen in kontextuellen Informationen.

Änderungen anCloud Object Storage Lite-Pläne

1. Juli 2024

Ab dem 1. Juli 2024 wird dieCloud Object Storage Lite-Plan, der automatisch bereitgestellt wird, wenn Sie sich für eine 30-tägige Testversion anmeldenwatsonx.ai Undwatsonx.governance erlischt nach Ablauf der Testphase. Sie können IhrCloud Object Storage Sie können während der 30-tägigen Testphase jederzeit von einer Lite-Instanz zum Standardplan mit der Option „Kostenloses Kontingent“ wechseln.

BestehendeCloud Object Storage Serviceinstanzen mit Lite-Plänen, die Sie vor dem 1. Juli 2024 bereitgestellt haben, bleiben bis zum 15. Dezember 2024 erhalten. Sie müssen IhrCloud Object Storage Service vor dem 15. Dezember 2024 auf einen Standardplan umstellen.

SehenCloud Object Storage Servicepläne .

Woche endet am 21. Juni 2024

Erstellen Sie freigegebene Bereitstellungen für die Steuerung von Eingabeaufforderungen für externe Großsprachenmodelle (LLMs)

21. Juni 2024

Eine separate Eingabeaufforderungsvorlage ist eine neue Ressource zur Evaluierung einer Eingabeaufforderungsvorlage für ein LLM, das von einem Drittanbieter gehostet wird, wie z. B.Google Vertex-KI,AzureOpenAI, oderAWS Grundgestein. Die Inferenz, die die Ausgabe für die Eingabeaufforderungsvorlage generiert, erfolgt im fernen Modell, aber Sie können die Ausgabe der Eingabeaufforderungsvorlage mithilfe von watsonx.governance -Metriken auswerten. Sie können auch die freigegebene Bereitstellung und die freigegebene Eingabeaufforderungsvorlage in einem KI-Anwendungsfall als Bestandteil Ihrer Governance-Lösung verfolgen.

Weitere Informationen finden Sie unter:

Für Implementierungsjobanforderungen sind Taskberechtigungsnachweise erforderlich

19. Juni 2024

Zur Verbesserung der Sicherheit für die Ausführung von Bereitstellungsjobs muss der Benutzer, der den Job anfordert, Taskberechtigungsnachweise in Form eines API-Schlüssels bereitstellen. Die Anforderung wird ab dem 15. August 2024 durchgesetzt. Details zum Generieren des API-Schlüssels finden Sie unter Taskberechtigungsnachweise hinzufügen .

Screenshot, der zeigt, wie Taskberechtigungsnachweise aus Profil und Einstellungen erstellt werden

Anwendungsfälle für die Anwendbarkeit des EU-KI-Gesetzes bewerten

19. Juni 2024

Mithilfe der neuen Beurteilung der Anwendbarkeit des EU-KI-Gesetzes können Sie einen einfachen Fragebogen ausfüllen, um Ihre KI-Anwendungsfälle zu bewerten und festzustellen, ob sie in den Geltungsbereich des EU-KI-Gesetzes fallen. Die Bewertung kann Ihnen auch dabei helfen, die Risikokategorie zu ermitteln, auf die Ihre Anwendungsfälle abgestimmt sind: "Verboten", "Hoch", "Begrenzend" oder "Minimal". Weitere Informationen finden Sie unter Anwendbarkeitsbeurteilung in Lösungskomponenten in der Governance-Konsole.

Woche bis 7. Juni 2024

Verwalten Sie Risiko- und Compliance-Aktivitäten mit der Governance-Konsole ( IBM OpenPages)

7. Juni 2024

Watsonx.governance unterstützt jetzt die optionale Integration mit der Governance-Konsole. Wenn Sie das Modul Model Risk Governance von IBM OpenPages, Sie können KI-Anwendungsfälle konfigurieren, um Governance-Fakten mit der Governance-Konsole zu synchronisieren. Von der Governance-Konsole aus können Sie Anwendungsfälle erstellen, Governance-Aktivitäten anzeigen, Aufgaben verwalten und Workflows als Teil Ihrer Governance- und Compliance-Prozesse implementieren. Weitere Informationen finden Sie unter:

Woche bis 31. Mai 2024

IBM Watson Pipelines ist jetzt IBM Orchestration Pipelines

30. Mai 2024

Der neue Servicename spiegelt die Funktionalität für die Koordination von Teilen des KI-Lebenszyklus in wiederholt anwendbare Abläufe wider.

Tagprojekte für einfachen Abruf

31. Mai 2024

Sie können jetzt den Projekten Tags zuordnen, damit diese leichter gruppiert oder abgerufen werden können. Weisen Sie Tags zu, wenn Sie ein neues Projekt erstellen oder aus der Liste aller Projekte. Filtern Sie die Liste der Projekte nach Tag, um eine zusammengehörige Gruppe von Projekten abzurufen. Weitere Informationen finden Sie unter Projekt erstellen.

Verbinden Sie sich mit einer neuen Datenquelle: Milvus

31. Mai 2024

Verwenden Sie die Milvus zum Speichern und Bestätigen der Richtigkeit Ihrer Anmeldedaten und Verbindungsdetails für den Zugriff auf einen Milvus. Informationen dazu finden Sie unter Milvus.

Woche bis 24. Mai 2024

Neues Lernprogramm und Video

23. Mai 2024

Testen Sie das neue Lernprogramm, um zu erfahren, wie Sie eine Modellbereitstellung mithilfe der Funktionalität in Watson OpenScale in einem Bereitstellungsbereich bewerten können.

Lernprogramm Beschreibung Fachkenntnisse für das Lernprogramm
Bereitstellung in Bereichen bewerten Sie können ein Modell bereitstellen, Überwachungen für das bereitgestellte Modell konfigurieren und das Modell in einem Bereitstellungsbereich auswerten. Konfigurieren Sie die Überwachungen und werten Sie ein Modell in einem Bereitstellungsbereich aus.

Das foundation model allam-1-13b-instruct ist in der Region Frankfurt erhältlich

21. Mai 2024

Das arabische foundation model allam-1-13b-instruct der saudischen Behörde für Daten und künstliche Intelligenz, das von IBM bereitgestellt wird, ist bei watsonx.ai im Frankfurter Rechenzentrum verfügbar. Sie können das allam-1-13b-instruct foundation model für allgemeine Aufgaben verwenden, einschließlich Fragen und Antworten, Zusammenfassungen, Klassifizierung, Generierung, Extraktion und Übersetzung in Arabisch. Weitere Informationen finden Sie unter Unterstützte Basismodelle.

Traditionelle und abgeleitete KI-Assets mit der Python -Clientbibliothek watsonx.ai bereitstellen

21. Mai 2024

Die Python -Clientbibliothek Watson Machine Learning ist jetzt Teil einer erweiterten Bibliothek, der watsonx.ai Python -Clientbibliothek. Verwenden Sie die Bibliothek watsonx.ai Python , um mit traditionellen Assets für maschinelles Lernen und abgeleitete KI zu arbeiten. Die Bibliothek Watson Machine Learning bleibt erhalten, wird aber nicht mit neuen Funktionen aktualisiert. Weitere Informationen finden Sie unter Python -Bibliothek.

Woche bis 17. Mai 2024

Texteinbettungsmodelle anderer Anbieter sind in watsonx.ai verfügbar

16. Mai 2024

Die folgenden Texteinbettungsmodelle anderer Anbieter sind jetzt zusätzlich zu den IBM -Slate-Modellen für erweiterten Textabgleich und -Abruf verfügbar:

  • all-minilm-l12-v2
  • multilingual-e5-large

Übergeben Sie Sätze oder Passagen an eines der unterstützten Einbettungsmodelle, indem Sie die Bibliothek watsonx.ai Python oder die REST-API verwenden, um Eingabetext in Vektoren zu konvertieren, um ähnlichen Text genauer zu vergleichen und abzurufen.

Weitere Informationen zu diesen Modellen finden Sie unter Unterstützte Geberfundamentmodelle.

Weitere Informationen zum Konvertieren von Text finden Sie unter Texteinbettungsgenerierung.

Woche bis 10. Mai 2024

Neue Granite Code Gründungsmodelle sind in der Region Dallas verfügbar

9. Mai 2024

Sie können nun von ' watsonx.ai: auf die folgenden, von ' IBM bereitgestellten ' Granite -Code-Foundation-Modelle schließen

  • granite-3b-code-instruct
  • granite-8b-code-instruct
  • granite-20b-code-instruct
  • granite-34b-code-instruct

Verwenden Sie die neuen Granite Code Foundation-Modelle für programmatische Kodierungsaufgaben. Die Basismodelle sind auf eine Kombination von Anweisungsdaten abgestimmt, um die folgenden Anweisungsfunktionen zu erweitern, einschließlich logischer Argumentation und Problemlösung.

Weitere Informationen finden Sie unter Unterstützte Basismodelle.

InstructLab -Basismodelle sind in watsonx.ai verfügbar.

7. Mai 2024

InstructLab ist eine Open-Source-Initiative von Red Hat und IBM, die eine Plattform zur Erweiterung der Fähigkeiten eines foundation model bietet. Die folgenden Basismodelle unterstützen Kenntnisse und Fähigkeiten, die von " InstructLab: eingebracht werden

  • granite-7b-lab
  • granite-13-chat-v2
  • granite-20b-multilingual
  • merlinite-7b

Sie können die Beiträge der Open-Source-Gemeinschaft auf der Taxonomieseite des foundation model einsehen.

Weitere Informationen finden Sie unterInstructLab-compatible Gründungsmodelle .

Woche endet am 3. Mai 2024

Projektassets in Ordnern organisieren

2. Mai 2024

Sie können jetzt Ordner in Ihren Projekten erstellen, um Assets zu organisieren. Ein Administrator des Projekts muss Ordner aktivieren und Administratoren und Editoren können sie erstellen und verwalten. Ordner befinden sich in der Betaversion und werden noch nicht für die Verwendung in Produktionsumgebungen unterstützt. Weitere Informationen finden Sie unter Assets mit Ordnern organisieren (Beta).

Registerkarte 'Assets' mit Ordnern

Woche am 26. April 2024

IBM watsonx.ai ist in der Region London verfügbar

25. April 2023

Watsonx.ai ist jetzt im Rechenzentrum in London allgemein verfügbar und London kann bei der Anmeldung als bevorzugte Region ausgewählt werden.

  • Die Gründungsmodelle, die in Dallas vollständig unterstützt werden, stehen auch im Londoner Rechenzentrum über das Prompt Lab oder über die API für Inferencing zur Verfügung. Die Ausnahmen sind mt0-xxl-13b und das foundation model llama-2-70b-chat, das durch das jetzt verfügbare foundation model llama-3-70b-instruct abgelöst wird.
  • Eingabeaufforderung-Optimieren Sie die drei optimierbaren Basismodelle aus Tuning Studio oder mithilfe der API.
  • Die beiden IBM -Einbettungsmodelle und die Einbettungs-API werden unterstützt.

Weitere Informationen finden Sie unter Regionale Verfügbarkeit für Services und Features.

Starten Sie einen Chat in Prompt Lab direkt von der Startseite aus

25. April 2023

Jetzt können Sie auf der IBM watsonx.ai ein Gespräch mit einem foundation model beginnen. Geben Sie eine Frage ein, die Sie im Chat-Modus an ein foundation model senden möchten, oder klicken Sie auf Open Prompt Lab, um ein foundation model und Modellparameter auszuwählen, bevor Sie die Modelleingabe übermitteln.

Woche am 19. April 2024

Neue Meta Llama 3-Basismodelle sind jetzt verfügbar

18. April 2024

Die folgenden Llama 3 -Basismodelle, die von Meta bereitgestellt werden, können über watsonx.ai:

  • llama-3-8b-instruct
  • llama-3-70b-instruct

Die neuen Llama 3 -Basismodelle sind optimierte Sprachmodelle, die verschiedene Anwendungsfälle unterstützen können.

Dieses neueste Release von Llama wird mit mehr Token trainiert und wendet neue Verfahren nach dem Training an. Das Ergebnis sind Basismodelle mit besseren Sprachverständnismöglichkeiten, Argumentation, Codegenerierung und Instruktionsfolgefunktionen.

Weitere Informationen finden Sie unter Unterstützte Basismodelle.

Einführung in IBM -Einbettungsunterstützung für erweiterten Textabgleich und -abruf

18. April 2024

Sie können jetzt die IBM Einbettungs-API und IBM Einbettungsmodelle verwenden, um Eingabetext in Vektoren zu transformieren und ähnlichen Text genauer zu vergleichen und abzurufen.

Die folgenden IBM Slate-Einbettungsmodelle sind verfügbar:

  • slate.125m.english.rtrvr
  • slate.30m.english.rtrvr

Weitere Informationen finden Sie unter Texteinbettung generieren.

Details zu den Preisen finden Sie unter watsonx.ai Runtime-Pläne.

IBM watsonx.governance ist enthalten, wenn Sie sich für IBM watsonx.ai registrieren.

18. April 2024

Wenn Sie sich für watsonx.ai in der Region Dallas registrieren, wird watsonx.governance automatisch eingeschlossen. Siehe Registrierung für IBM watsonx as a Service.

Machine Learning-Bereitstellungen in Bereichen bewerten

18. April 2024

Konfigurieren Sie watsonx.governance -Bewertungen in Ihren Bereitstellungsbereichen, um Einblicke in die Leistung Ihres Modells für maschinelles Lernen zu erhalten. Bewerten Sie beispielsweise eine Bereitstellung auf Verzerrungen oder überwachen Sie eine Bereitstellung auf Abweichungen. Wenn Sie Bewertungen konfigurieren, können Sie Auswertungsergebnisse analysieren und Transaktionsdatensätze direkt in Ihren Bereichen modellieren.

Weitere Informationen finden Sie unter Bereitstellungen in Bereichen auswerten.

Ein koreanischsprachiges foundation model ist in der Region Tokio verfügbar

18. April 2024

Das von Minds & Company angebotene foundation model, das auf dem Llama 2 foundation model von Meta basiert, ist in der Region Tokio erhältlich.

Das foundation model llama2-13b-dpo-v7 ist auf Konversationsaufgaben in Koreanisch und Englisch spezialisiert. Sie können das foundation model llama2-13b-dpo-v7 auch für allgemeine Aufgaben in koreanischer Sprache verwenden.

Weitere Informationen finden Sie unter Unterstützte Basismodelle.

Für die Inferenzierung steht ein foundation model zur Verfügung

18. April 2024

Das foundation model mixtral-8x7b-instruct-v01 von Mistral AI ist für die Inferenz von watsonx.ai verfügbar. Das foundation model mixtral-8x7b-instruct-v01 ist ein vortrainiertes generatives Modell, das ein spärliches Mixture-of-Experts-Netzwerk verwendet, um Text effizienter zu generieren.

Sie können das Modell mixtral-8x7b-instruct-v01 für allgemeine Aufgaben wie Klassifizierung, Zusammenfassung, Codegenerierung, Sprachkonvertierung usw. verwenden. Weitere Informationen finden Sie unter Unterstützte Basismodelle.

Das foundation model mixtral-8x7b-instruct-v01-q ist veraltet und wird am 20. Juni 2024 aus dem Verkehr gezogen. Überarbeiten Sie alle Aufforderungen, die dieses foundation model verwenden.

  • Datum der Einstellung der Unterstützung: 19. April 2024
  • Widerrufsdatum: 20 Juni 2024
  • Alternatives Modell: mixtral-8x7b-instruct-v01

Inferenzanforderungen, die an das Modell mixtral-8x7b-instruct-v01-q über die API übergeben werden, generieren weiterhin eine Ausgabe, enthalten jedoch eine Warnung zur bevorstehenden Zurückziehung des Modells. Ab dem 20. Juni 2024 generieren API-Anforderungen für die Inferenz der Modelle keine Ausgabe.

Weitere Informationen zur Einstellung der Unterstützung und Zurückziehung finden Sie unter Foundation model lifecycle.

Es wird eine Änderung des granite-20b-multilingual foundation model eingeführt

18. April 2024

Die neueste Version von granite-20b-multilingual ist 1.1.0. Die Änderung enthält Verbesserungen, die durch die Anwendung eines neuartigen KI-Ausrichtungsverfahrens auf das Modell der Version 1.0 erzielt wurden. Die KI-Ausrichtung umfasst die Verwendung von Lerntechniken für Feinabstimmung und Verstärkung, um das Modell so zu führen, dass es möglichst hilfreiche, wahrheitsgemäße und transparente Ergebnisse zurückgibt.

Weitere Informationen zu diesem foundation model finden Sie unter Unterstützte Gründungsmodelle.

Woche bis 12. April 2024

Prompt-Tuning des foundation model granite-13b-instruct-v2

11. April 2024

Der " Tuning Studio unterstützt nun zusätzlich zu den Gründungsmodellen " flan-t5-xl-3b und " llama-2-13b-chat " auch die Abstimmung des " granite-13b-instruct-v2 " foundation model. Weitere Informationen finden Sie unter Abstimmung eines foundation model.

Die Experimentkonfigurationseinstellungen für die Abstimmung des foundation model ändern sich, um die besten Standardwerte je nach Ihrer Aufgabe anzuwenden. Die Bewertungsrichtlinien für die Optimierung helfen Ihnen, die Ergebnisse des Experiments zu analysieren und die Einstellungen für die Experimentkonfiguration auf der Basis Ihrer Ergebnisse anzupassen. Weitere Informationen finden Sie unter Ergebnisse eines Optimierungsversuchs auswerten.

In der Region Frankfurt gibt es ein arabischsprachiges foundation model

11. April 2024

Das von Inception, der Mohamed bin Zayed University of Artificial Intelligence und Cerebras Systems zur Verfügung gestellte jais-13b-chat foundation model ist in der Region Frankfurt verfügbar.

Das foundation model jais-13b-chat ist auf Konversationsaufgaben in Arabisch und Englisch spezialisiert. Sie können das foundation model jais-13b-chat auch für allgemeine Aufgaben in der arabischen Sprache verwenden, einschließlich der Sprachübersetzung zwischen Arabisch und Englisch.

Weitere Informationen finden Sie unter Unterstützte Basismodelle.

Den vollständigen Text eines Prompts in Prompt Lab anzeigen

11. April 2024

Jetzt können Sie den vollständigen Text des Prompts, der an das foundation model übermittelt wird, überprüfen. Dies ist nützlich, wenn Ihr Prompt Variablen enthält oder wenn Sie im strukturierten Modus oder im Chat-Modus arbeiten.

Weitere Informationen finden Sie unter Prompt Lab.

Die veralteten Modelle von Granite Version 1 wurden zurückgezogen

11. April 2024

Die folgenden Basismodelle wurden zurückgezogen:

  • granite-13b-chat-v1
  • granite-13b-instruct-v1

Überarbeiten Sie alle Eingabeaufforderungen, die diese Basismodelle verwenden, um die Basismodelle von IBM Granite v2 zu verwenden. Weitere Informationen über das Auslaufen und Zurückziehen von foundation model finden Sie unter Lebenszyklus von Foundation-Modellen.

Woche bis 5. April 2024

Verwenden Sie Pivot-Tabellen, um Daten anzuzeigen, die in Experimenten von Decision Optimization zusammengefasst sind.

5. April 2024

Sie können jetzt Pivot-Tabellen verwenden, um Eingabe-und Ausgabedaten anzuzeigen, die in der Ansicht Visualisierung in Decision Optimization -Experimenten aggregiert wurden. Weitere Informationen finden Sie unter Visualisierungswidgets in Experimenten von Decision Optimization.

Woche bis 15. März 2024

Die API watsonx.ai ist verfügbar

14. März 2024

Die API watsonx.ai ist allgemein verfügbar. Verwenden Sie die API watsonx.ai , um programmgesteuert mit Basismodellen zu arbeiten. Weitere Informationen finden Sie in der API-Referenz.

Die API-Version ist 2024-03-14.

Sie können weiterhin die Bibliothek Python verwenden, die für die Arbeit mit Basismodellen über ein Notebook verfügbar ist. Weitere Informationen finden Sie unter Python -Bibliothek.

Neue Gründungsmodelle sind in Dallas, Frankfurt und Tokio verfügbar

14. März 2024

Die folgenden Basismodelle sind jetzt für die Inferenz von watsonx.ai:

  • granite-20b-multilingual: Ein foundation model aus der IBM Granite, das Sie für verschiedene generative Aufgaben in Englisch, Deutsch, Spanisch, Französisch und Portugiesisch verwenden können.

  • codellama-34b-instruct-hf: Ein programmgesteuertes Codegenerierungsmodell aus Code Llama , das auf Llama 2 aus Meta basiert. Sie können codellama-34b-instruct-hf verwenden, um Eingabeaufforderungen zum Generieren von Code auf der Basis von Eingaben in natürlicher Sprache sowie zum Ausfüllen und Debugging von Code zu erstellen.

Weitere Informationen finden Sie unter Unterstützte Basismodelle.

Woche am 8. März 2024

Tuning Studio ist in Frankfurt verfügbar

7. März 2024

Tuning Studio ist jetzt für Benutzer bezahlter Pläne in der Region Frankfurt verfügbar. Tuning Studio hilft Ihnen dabei, ein foundation model so zu steuern, dass es nützliche Ergebnisse liefert. Sie können sowohl das flan-t5-xl-3b als auch das llama-2-70b-chat Fundamentmodell stimmen, wenn Sie das Tuning Studio in Frankfurt nutzen.

Weitere Informationen finden Sie unter Tuning Studio.

Prompt-Tuning des foundation model in der Region Tokio

7. März 2024

Das Tuning Studio unterstützt jetzt das Tuning des foundation model in der Region Tokio. Entwickeln Sie zunächst Prompts für das größere llama-2-70b-chat im Prompt Lab, um effektive Prompt-Eingaben für Ihren Anwendungsfall zu finden. Optimieren Sie anschließend die kleinere Version des Modells Llama 2 , um vergleichbare, wenn nicht bessere Ausgaben mit Nullaufforderungen zu generieren.

Weitere Informationen finden Sie unter Tuning Studio.

Niedrigerer Preis für Modell Mixtral8x7b

5. März 2024

Das foundation model mixtral-8x7b-instruct-v01-q wird von Klasse 2: $0.0018/Resource auf Klasse 1: $0.0006/Resource umgestuft, wodurch es kostengünstiger wird, Inferencing-Aufgaben anhand dieses Modells durchzuführen. Die Neueinstufung gilt für alle Regionen, in denen mixtral-8x7b-instruct-v01-q verfügbar ist.

Weitere Informationen finden Sie unter Unterstützte Basismodelle.

Details zu den Preisen finden Sie unter watsonx.ai Runtime-Pläne.

KI-Risiko-Atlas wurde aktualisiert und erweitert

5. März 2024

Sie finden jetzt die folgenden neuen und erweiterten Inhalte im KI-Risikoatlas:

  • Eine neue Kategorie von nicht technischen Risiken, die Governance, Einhaltung gesetzlicher Bestimmungen und gesellschaftliche Impaktrisiken umfasst
  • Neue Beispiele für Risiken
  • Klarere Definitionen von Risiken

Siehe KI-Risiko-Atlas.

Neue Anwendungsfälle für watsonx

5. März 2024

Die watsonx -Anwendungsfälle helfen Ihnen zu sehen, wie Sie unsere Produkte, Services und Tools nutzen können.

  • Anwendungsfall watsonx.ai : Dieser Anwendungsfall zeigt, wie Sie Ihre Geschäftsprozesse mit KI-gesteuerten Lösungen transformieren können, indem Sie maschinelles Lernen und generative KI in Ihr Betriebsframework integrieren.
  • Anwendungsfall watsonx.governance : In diesem Anwendungsfall wird erläutert, wie Sie verantwortliche, transparente und erklärbare KI-Workflows mit einem integrierten System für die Verfolgung, Überwachung und erneutes Training von KI-Modellen erstellen können.

Siehe watsonx -Anwendungsfälle.

Woche bis 1. März 2024

Der Chat-Modus ist in Prompt Lab verfügbar

29. Februar 2024

Der Chat-Modus in Prompt Lab ist eine einfache Chat-Schnittstelle, die das Experimentieren mit Gründungsmodellen erleichtert. Der Chatmodus erweitert die bereits verfügbaren strukturierten und unformatierten Modi, die nützlich sind, wenn wenige oder viele Eingabeaufforderungen für Tasks wie Extraktion, Zusammenfassung und Klassifikation erstellt werden. Verwenden Sie den Chatmodus, um Interaktionen mit Fragen oder Dialogen für Chatbots und Anwendungsfälle des virtuellen Assistenten zu simulieren.

Weitere Informationen finden Sie unter Prompt Lab.

Ein japanischsprachiges Granite -Modell ist in der Region Tokio verfügbar

29. Februar 2024

Das von IBM bereitgestellte granite-8b-japanese foundation model ist bei watsonx.ai in der Region Tokio erhältlich. Das granite-8b-japanese foundation model basiert auf dem IBM Granite Instruct Modell und ist darauf trainiert, japanischen Text zu verstehen und zu erzeugen.

Sie können das granite-8b-japanese foundation model für allgemeine Aufgaben in der japanischen Sprache verwenden, wie z.B. Klassifizierung, Extraktion, Beantwortung von Fragen und für die Übersetzung zwischen Japanisch und Englisch.

Weitere Informationen finden Sie unter Unterstützte Basismodelle.

Woche am 23. Februar 2024

Niedrigerer Preis für Granite-13b -Modelle

21. Februar 2024

Granite-13b -Modelle werden von Klasse 2 neu klassifiziert: $0.0018/Resource Einheit zu Klasse 1: $0.0006/Resource Einheit. Dadurch wird die Ausführung von Inferenztasks für diese Modelle kostengünstiger. Die Neuklassifizierung gilt für die folgenden Modelle in allen Regionen, in denen sie verfügbar sind:

  • granite-13b-chat-v2
  • granite-13b-chat-v1
  • granite-13b-instruct-v2
  • granite-13b-instruct-v1

Weitere Informationen zu diesen Modellen finden Sie unter Unterstützte Basismodelle.

Details zu den Preisen finden Sie unter watsonx.ai Runtime-Pläne.

Woche endet am 16. Februar 2024

Neue Verknüpfung für die Arbeit an allgemeinen Tasks

15. Februar 2024

Sie können jetzt eine allgemeine Aufgabe in Ihrem Projekt starten. Klicken auf eine Kachel im Abschnitt Arbeit beginnen auf der Registerkarte Übersicht . Verwenden Sie diese Direktaufrufe, um Mitarbeiter und Daten hinzuzufügen und mit Modellen zu experimentieren und Modelle zu erstellen. Klicken Sie auf Alle anzeigen , um zu einer Auswahl von Tools zu springen.

Neues foundation model mixtral-8x7b-instruct-v01-q für Allzweckaufgaben

15. Februar 2024

Das mixtral-8x7b-instruct-v01-q foundation model, das von Mistral AI bereitgestellt und von IBM quantifiziert wurde, ist bei watsonx.ai erhältlich. Das foundation model mixtral-8x7b-instruct-v01-q ist eine quantisierte Version des foundation model Mixtral 8x7B Instruct von Mistral AI.

Sie können dieses neue Modell für vielseitig einsetzbare Aufgaben wie Klassifizierung, Zusammenfassung, Codegenerierung, Sprachkonvertierung usw. verwenden. Weitere Informationen finden Sie unter Unterstützte Basismodelle.

Die folgenden Modelle sind veraltet und werden bald zurückgezogen. Überarbeiten Sie alle Aufforderungen, die diese Basismodelle verwenden, um ein anderes foundation model zu verwenden, z. B. mixtral-8x7b-instruct-v01-q.

Veraltete Basismodelle
Veraltetes Modell Einstellung der Unterstützung Datum der Zurückziehung Alternatives Modell
gpt-neox-20b 15. Februar 2024 21. März 2024 mixtral-8x7b-instruct-v01-q
mpt-7b-instruct2 15. Februar 2024 21. März 2024 mixtral-8x7b-instruct-v01-q
starcoder-15.5b 15. Februar 2024 11. April 2024 mixtral-8x7b-instruct-v01-q

Inferenzanforderungen, die über die API an diese Modelle übergeben werden, generieren weiterhin Ausgabe, enthalten jedoch eine Warnung zur bevorstehenden Zurückziehung des Modells. Wenn das Zurückziehungsdatum erreicht ist, generieren API-Anforderungen zur Inferenz der Modelle keine Ausgabe.

Weitere Informationen zur Einstellung der Unterstützung und Zurückziehung finden Sie unter Foundation model lifecycle.

Eine Änderung des foundation model ist verfügbar

15. Februar 2024

Die neueste Version von granite-13b-chat-v2 ist 2.1.0. Die Änderung enthält Verbesserungen, die durch die Anwendung eines neuartigen KI-Ausrichtungsverfahrens auf das Modell der Version 2.0.0 erzielt wurden. Die KI-Ausrichtung umfasst die Verwendung von Lerntechniken für Feinabstimmung und Verstärkung, um das Modell so zu führen, dass es möglichst hilfreiche, wahrheitsgemäße und transparente Ergebnisse zurückgibt. Weitere Informationen finden Sie im Abschnitt Was ist AI-Ausrichtung? Blogbeitrag von IBM Research.

Neues Lernprogramm und Video zu watsonx

15. Februar 2024

Im neuen Lernprogramm watsonx.governance erfahren Sie, wie Sie ein Modell für maschinelles Lernen auf Fairness, Genauigkeit, Drift und Erklärbarkeit mit Watson OpenScalebewerten können.

Neue Lernprogramme
Lernprogramm Beschreibung Fachkenntnisse für das Lernprogramm
Modell für maschinelles Lernen bewerten Implementieren Sie ein Modell, konfigurieren Sie Überwachungen für das bereitgestellte Modell und bewerten Sie das Modell. Führen Sie ein Notebook aus, um die Modelle zu konfigurieren, und verwenden Sie Watson OpenScale für die Auswertung.

Woche bis 09. Februar 2024

Mehr taskorientierte Dokumentation zu Decision Optimization

9. Februar 2024

Sie können jetzt die richtigen Informationen für die Erstellung und Konfiguration von Decision Optimization -Experimenten einfacher finden. Siehe Decision Optimization -Experimente und ihre Unterabschnitte.

IBM Cloud Data Engine Verbindung ist veraltet

8. Februar 2022

Die IBM Cloud Data Engine-Verbindung ist veraltet und wird in einer zukünftigen Version nicht mehr verwendet werden. Wichtige Daten und Details finden Sie unter Abschaffung von Data Engine.

Neue Spark 3.4 -Umgebung für die Ausführung von Data Refinery -Ablaufjobs

9. Februar 2024

Wenn Sie eine Umgebung für einen Data Refinery -Ablaufjob auswählen, können Sie jetzt Default Spark 3.4 & R 4.2auswählen, was Erweiterungen von Spark umfasst.

Data Refinery Spark-Umgebungen

Die Umgebung Default Spark 3.3 & R 4.2 ist veraltet und wird in einer zukünftigen Aktualisierung entfernt.

Aktualisieren Sie Ihre Data Refinery -Ablaufjobs so, dass sie die neue Umgebung Default Spark 3.4 & R 4.2 verwenden. Details finden Sie unter Ressourcenoptionen für Data Refinery in Projekten berechnen.

Woche endet am 2. Februar 2024

Beispielsammlung in Ressourcenhub umbenannt

2. Februar 2024

Die Beispielsammlung wird in Ressourcenhub umbenannt, um den Inhalt besser widerzuspiegeln. Der Ressourcenhub enthält Basismodelle und Beispielprojekte, Datasets und Notebooks. Siehe Ressourcenhub.

IBM Cloud Databases for DataStax Verbindung wird eingestellt

2. Februar 2024

Die IBM Cloud Databases for DataStax Verbindung wurde von IBM watsonx.ai entfernt.

Dremio -Verbindung erfordert Aktualisierungen

2. Februar 2024

Zuvor hat die Dremio -Verbindung einen JDBC -Treiber verwendet. Jetzt verwendet die Verbindung einen Fahrer basierend auf Arrow Flight.

Wichtig: Aktualisieren Sie die Verbindungseigenschaften. Unterschiedliche Änderungen gelten für eine Verbindung für eine Dremio Software-Instanz (lokal) oder eine Dremio Cloud-Instanz.

Dremio Software: Aktualisieren Sie die Portnummer.

Die neue Standardportnummer, die von Flight verwendet wird, ist 32010. Sie können die Portnummer in der Datei dremio.conf bestätigen. Weitere Informationen finden Sie unter Konfigurieren über dremio.conf.

Außerdem unterstützt Dremio keine Verbindungen mehr mit IBM Cloud Satellite.

Dremio Cloud: Aktualisieren Sie die Authentifizierungsmethode und den Hostnamen.

  1. Melden Sie sich bei Dremio an und generieren Sie ein persönliches Zugriffstoken. Eine Anleitung finden Sie unter Persönliche Zugangstoken.
  2. Ändern Sie in IBM watsonx im Formular Create connection: Dremio den Authentifizierungstyp in Personal Access Token und fügen Sie die Tokeninformationen hinzu. (Die Authentifizierung Benutzername und Kennwort kann nicht mehr für die Verbindung zu einer Dremio -Cloudinstanz verwendet werden.)
  3. Wählen Sie Port ist SSL-fähigaus.

Wenn Sie den Standardhostnamen für eine Dremio -Cloudinstanz verwenden, müssen Sie ihn ändern:

  • Ändern Sie sql.dremio.cloud in data.dremio.cloud .
  • Ändern Sie sql.eu.dremio.cloud in data.eu.dremio.cloud .

Prompt-Tuning des foundation model

1. Februar 2024

Das Tuning Studio unterstützt nun das Tuning des foundation model. Entwickeln Sie zunächst Prompts für das größere llama-2-70b-chat im Prompt Lab, um effektive Prompt-Eingaben für Ihren Anwendungsfall zu finden. Optimieren Sie anschließend die kleinere Version des Modells Llama 2 , um vergleichbare, wenn nicht bessere Ausgaben mit Nullaufforderungen zu generieren. Das llama-2-13b-model ist in der Region Dallas zur sofortigen Abstimmung verfügbar. Weitere Informationen finden Sie unter Tuning Studio.

Woche am 26. Januar 2024

AutoAI unterstützt geordnete Daten für alle Experimente

25. Januar 2024

Sie können jetzt geordnete Daten für alle AutoAI -Experimente anstelle von nur Zeitreihenexperimenten angeben. Geben Sie an, ob Ihre Trainingsdaten sequenziell nach einem Zeilenindex sortiert werden. Wenn Eingabedaten sequenziell sind, wird die Modellleistung für neueste Datensätze anstelle einer Zufallsstichprobe ausgewertet, und Holdout-Daten verwenden die letzten n Datensätze der Gruppe anstelle von n Zufallsdatensätzen. Sequenzielle Daten sind für Zeitreihenexperimente erforderlich, für Klassifikations-und Regressionsexperimente jedoch optional.

Q & A mit RAG-Beschleuniger

26. Januar 2024

Sie können jetzt eine Frage-und-Antwort-Lösung implementieren, die die erweiterte Abrufgenerierung verwendet, indem Sie ein Beispielprojekt importieren. Das Beispielprojekt enthält Notebooks und andere Assets, die Dokumente aus HTML oder PDF in einfachen Text konvertieren, Dokumentsegmente in einen Elasticsearch -Vektorindex importieren, eine Python -Funktion bereitstellen, die den Vektorindex abfragt, Top-N-Ergebnisse abrufen, LLM-Inferenz ausführen, um eine Antwort auf die Frage zu generieren, und die Antwort auf Halluzinationen prüfen.

Testen Sie Q & A mit RAG-Akzelerator.

Auf dunkles Motiv setzen

25. Januar 2024

Sie können Ihre watsonx -Benutzerschnittstelle jetzt auf das dunkle Motiv festlegen. Klicken Sie auf Ihren Avatar und wählen Sie Profil und Einstellungen aus, um Ihr Kontoprofil zu öffnen. Aktivieren Sie anschließend den Schalter für das Thema "Dunkel". Das dunkle Thema wird in RStudio und Jupyter-Notebooks nicht unterstützt. Informationen zur Verwaltung Ihres Profils finden Sie unter Einstellungen verwalten.

IBM watsonx.ai ist in der Region Tokio verfügbar

25. Januar 2024

Watsonx.ai ist jetzt allgemein im Rechenzentrum Tokio verfügbar und kann bei der Anmeldung als bevorzugte Region ausgewählt werden. In der Region Tokio werden für diese Modelle Prompt Lab und foundation model Inferencing unterstützt:

  • elyza-japanese-llama-2-7b-instruct
  • flan-t5-xl-3b
  • flan-t5-xxl-11b
  • flan-ul2-20b
  • granite-13b-chat-v2
  • granite-13b-instruct-v2
  • llama-2-70b-chat
  • llama-2-13b-chat

Auch aus der Region Tokio erhältlich:

  • Promptes Tuning des foundation model flan-t5-xl-3b mit dem Tuning Studio
  • Tabellarische Daten mit dem Synthetic Data Generator zur Verwendung für Trainingsmodelle generieren

Weitere Informationen zu den unterstützten Modellen finden Sie unter Supported foundation models available with watsonx.ai.

Ein Modell Llama 2 in japanischsprachiger Sprache ist in der Region Tokio verfügbar

25. Januar 2024

Das von ELYZA, Inc. zur Verfügung gestellte foundation model ist über watsonx.ai im Tokioter Rechenzentrum verfügbar. Das Modell elyza-japanese-llama-2-7b-instruct ist eine Version des Modells Llama 2 von Meta, das darauf trainiert wurde, japanischen Text zu verstehen und zu erzeugen.

Sie können dieses neue Modell für allgemeine Aufgaben verwenden. Es funktioniert gut für Japanisch-Sprachklassifikation und Extraktion und für die Übersetzung zwischen Japanisch und Englisch.

Woche bis 12. Januar 2024

Unterstützung für IBM Runtime 22.2 in watsonx.ai Runtime (ehemals Watson Machine Learning) veraltet

11. Januar 2024

IBM Runtime 22.2 ist veraltet und wird am 11. April 2024 entfernt. Ab 7. März 2024 können Sie Notebooks oder angepasste Umgebungen nicht mithilfe der 22.2 -Laufzeiten erstellen. Außerdem können Sie keine neuen Modelle mit Softwarespezifikationen trainieren, die auf der Laufzeit 22.2 basieren. Aktualisieren Sie Ihre Assets und Implementierungen für die Verwendung von IBM Runtime 23.1 vor dem 7. März 2024.

IBM Granite v1 -Basismodelle sind veraltet

11. Januar 2024

Die IBM Granite 13 Milliarden-Parameter v1 -Basismodelle sind veraltet und werden am 11 April 2024 zurückgezogen. Wenn Sie Version 1 der Modelle verwenden, wechseln Sie stattdessen zu Version 2 der Modelle.

Veraltete IBM -Basismodelle
Veraltetes Modell Einstellung der Unterstützung Datum der Zurückziehung Alternatives Modell
granite-13b-chat-v1 11. Januar 2024 11. April 2024 granite-13b-chat-v2
granite-13b-instruct-v1 11. Januar 2024 11. April 2024 granite-13b-instruct-v2

Inferenzanforderungen, die über die API an die Modelle der Version 1 übergeben werden, generieren weiterhin Ausgabe, enthalten jedoch eine Warnung zur bevorstehenden Zurückziehung des Modells. Ab dem 11. April 2024 generieren API-Anforderungen für die Inferenz der Modelle keine Ausgabe.

Weitere Informationen zu IBM Granite -Basismodellen finden Sie unter Foundation models built by IBM. Weitere Informationen zur Einstellung der Unterstützung und Zurückziehung finden Sie unter Foundation model lifecycle.

Woche endet am 15. Dezember 2023

Benutzer-API-Schlüssel für Jobs und andere Operationen erstellen

15. Dezember 2023

Bestimmte Laufzeitoperationen in IBM watsonx, wie z. B. Jobs und Modelltraining, erfordern einen API-Schlüssel als Berechtigungsnachweis für sichere Autorisierung. Mit Benutzer-API-Schlüsseln können Sie jetzt einen API-Schlüssel nach Bedarf direkt in IBM watsonx generieren und rotieren, um sicherzustellen, dass Ihre Operationen reibungslos ausgeführt werden. Die API-Schlüssel werden in IBM Cloudverwaltet, aber Sie können sie bequem in IBM watsonxerstellen und rotieren.

Der Benutzer-API-Schlüssel ist kontospezifisch und wird aus Profil und Einstellungen unter Ihrem Kontoprofil erstellt.

Weitere Informationen finden Sie unter Benutzer-API-Schlüssel verwalten.

Neue Lernprogramme und Videos zu watsonx

15. Dezember 2023

Probieren Sie die neuen watsonx.governance und watsonx.ai aus, um zu erfahren, wie Sie ein foundation model abstimmen und eine Prompt-Vorlage auswerten und verfolgen können.

Neue Lernprogramme
Lernprogramm Beschreibung Fachkenntnisse für das Lernprogramm
Abstimmen eines foundation model Abstimmen eines foundation model zur Verbesserung der Modellleistung. Verwenden Sie Tuning Studio , um ein Modell ohne Codierung zu optimieren.
Eingabeaufforderungsvorlage auswerten und verfolgen Bewerten Sie eine Prompt-Vorlage, um die Leistung des foundation model zu messen und die Prompt-Vorlage während ihres Lebenszyklus zu verfolgen. Verwenden Sie das Auswertungstool und einen KI-Anwendungsfall, um die Vorlage für Eingabeaufforderungen zu verfolgen.

Video ansehen Weitere Videos watsonx.governance und watsonx.ai finden Sie in der Videobibliothek.

Ablauf der neuen Anmeldesitzung und Abmeldung aufgrund von Inaktivität

15. Dezember 2023

Sie sind jetzt aufgrund des Sitzungsablaufs von IBM Cloud abgemeldet. Ihre Sitzung kann aufgrund des Ablaufs der Anmeldesitzung (standardmäßig 24 Stunden) oder aufgrund von Inaktivität (standardmäßig 2 Stunden) ablaufen. Sie können die Standarddauer in den Einstellungen für Zugriff (IAM) in IBM Cloudändern. Weitere Informationen finden Sie unter Ablauf der Anmeldesitzung festlegen.

IBM Cloud Databases for DataStax Konnektor ist veraltet

15. Dezember 2023

Der IBM Cloud Databases for DataStax-Konnektor ist veraltet und wird in einer zukünftigen Version nicht mehr verwendet.

Woche bis 08. Dezember 2023

Tuning Studio ist verfügbar

7. Dezember 2023

Das Tuning Studio hilft Ihnen, ein foundation model so zu steuern, dass es nützliche Ergebnisse liefert. Mit dem Tuning Studio können Sie das flan-t5-xl-3b foundation model zeitnah optimieren, um seine Leistung bei Aufgaben der Verarbeitung natürlicher Sprache wie Klassifizierung, Zusammenfassung und Generierung zu verbessern. Die Eingabeaufforderungsoptimierung hilft kleineren, recheneffizienteren Basismodellen, Ergebnisse zu erzielen, die mit größeren Modellen in derselben Modellfamilie vergleichbar sind. Durch die Optimierung und Bereitstellung einer optimierten Version eines kleineren Modells können Sie langfristige Inferenzkosten reduzieren. Das Tuning Studio steht den Nutzern von kostenpflichtigen Tarifen in der Region Dallas zur Verfügung.

Neue Clienteigenschaften in Db2 -Verbindungen für Workload-Management

8. Dezember 2023

Sie können jetzt Eigenschaften in den folgenden Feldern für Überwachungszwecke angeben: Anwendungsname, Clientabrechnungsdaten, Client-Hostnameund Clientbenutzer. Diese Felder sind optional und für die folgenden Verbindungen verfügbar:

Woche endet am 1. Dezember 2023

Watsonx.governance ist verfügbar!

1. Dezember 2023

Watsonx.governance erweitert die Governance-Fähigkeiten von Watson OpenScale, um sowohl foundation model Assets als auch Machine Learning Assets zu bewerten. Bewerten Sie z. B. die Eingabeaufforderungsvorlagen foundation model nach Dimensionen wie Genauigkeit oder um das Vorhandensein von hasserfüllter und beleidigender Sprache zu erkennen. Sie können auch KI-Anwendungsfälle definieren, um Geschäftsprobleme anzugehen, und anschließend Eingabeaufforderungsvorlagen oder Modelldaten in Factsheets verfolgen, um Compliance-und Governance-Ziele zu unterstützen. Die Pläne und Funktionen Watsonx.governance sind nur in der Region Dallas verfügbar.

Mit dem KI-Risiko-Atlas erkunden

1. Dezember 2023

Sie können jetzt einige der Risiken untersuchen, die mit generativer KI, Basismodellen und Modellen für maschinelles Lernen verbunden sind. Informieren Sie sich über Risiken für Datenschutz, Fairness, Erklärbarkeit, Wertausrichtung und andere Bereiche. Siehe KI-Risiko-Atlas.

Neue Versionen der IBM Granite -Modelle sind verfügbar

30. November 2023

Die neuesten Versionen der Granite -Modelle enthalten die folgenden Änderungen:

granite-13b-chat-v2: Optimiert, um bei der Beantwortung von Fragen, Zusammenfassung und generativen Aufgaben besser zu sein. Generiert mit ausreichendem Kontext Antworten mit den folgenden Verbesserungen gegenüber der Vorgängerversion:

  • Generiert längere, qualitativ hochwertigere Antworten mit einem professionellen Ton
  • Unterstützung von "Chain-of-thought"-Antworten
  • Erkennt Erwähnungen von Personen und kann Ton und Stimmung besser erkennen
  • Behandelt Leerzeichen in der Eingabe anmutiger

Testen und überarbeiten Sie aufgrund umfangreicher Änderungen alle Eingabeaufforderungen, die für v1 entwickelt wurden, bevor Sie zur neuesten Version wechseln.

granite-13b-instruct-v2: Speziell für Klassifizierungs-, Extraktions-und Zusammenfassungstasks optimiert. Die neueste Version unterscheidet sich wie folgt von der vorherigen Version:

  • Gibt kohärentere Antworten unterschiedlicher Länge und mit einem vielfältigen Vokabular zurück
  • Erkennt Erwähnungen von Personen und kann längere Eingaben zusammenfassen
  • Behandelt Leerzeichen in der Eingabe anmutiger

Konstruierte Eingabeaufforderungen, die gut mit v1 funktionieren, funktionieren wahrscheinlich auch gut mit v2 , aber stellen Sie sicher, dass Sie Tests durchführen, bevor Sie Modelle wechseln.

Die neuesten Versionen der Granite -Modelle sind als Modelle der Klasse 2 kategorisiert.

Einige Basismodelle sind jetzt zu geringeren Kosten verfügbar

30. November 2023

Einige beliebte Basismodelle wurden in kostengünstigere Abrechnungsklassen neu kategorisiert.

Die folgenden Basismodelle wurden von Klasse 3 in Klasse 2 geändert:

  • granite-13b-chat-v1
  • granite-13b-instruct-v1
  • llama-2-70b

Das folgende foundation model wurde von Klasse 2 in Klasse 1 geändert:

  • llama-2-13b

Weitere Informationen zu den Abrechnungsklassen finden Sie unter watsonx.ai Runtime plans.

Ein neues Beispielnotebook ist verfügbar: Einführung in RAG mit Erkennung

30. November 2023

Verwenden Sie das Notebook Introduction to RAG with Discovery , um zu erfahren, wie Sie das Muster für die erweiterte Generierung für Abruf in IBM watsonx.ai mit IBM Watson Discovery als Suchkomponente anwenden. Weitere Informationen finden Sie unter Einführung in RAG mit Discovery.

Funktionsunterschiede zwischen watsonx as a Service und Softwareimplementierungen verstehen

30. November 2023

Sie können jetzt die Features und die Implementierung von IBM watsonx as a Service und watsonx in der Software Cloud Pak for Data Version 4.8vergleichen. Siehe Feature-Unterschiede zwischen watsonx -Bereitstellungen.

Änderung bei der Handhabung von Stoppfolgen

30. November 2023

Wenn im Prompt Lab eine Stoppsequenz, wie z. B. ein Zeilenumbruch, angegeben wird, endet der Modell-Ausgabetext nach dem ersten Auftreten der Stoppsequenz. Die Modellausgabe wird gestoppt, auch wenn das Vorkommen am Anfang der Ausgabe auftritt. Zuvor wurde die Stoppfolge ignoriert, wenn sie am Anfang der Modellausgabe angegeben wurde.

Woche bis 10. November 2023

Eine kleinere Version des Llama-2 Chat-Modells ist verfügbar

9. November 2023

Sie können jetzt zwischen der Verwendung von 13b oder 70b -Versionen des Llama-2 Chat-Modells wählen. Berücksichtigen Sie bei Ihrer Auswahl die folgenden Faktoren:

  • Kosten
  • Leistung

Die Version 13b ist ein Modell der Klasse 2, was bedeutet, dass die Verwendung günstiger ist als die Version 70b . Zum Vergleich der Benchmarks und anderer Faktoren, wie z. B. der Kohlenstoffemissionen für jede Modellgröße, siehe die Modellkarte.

Eingabeaufforderungsvariablen zum Erstellen wiederverwendbarer Eingabeaufforderungen verwenden

Erhöhen Sie die Flexibilität Ihrer Eingabeaufforderungen mit Eingabeaufforderungsvariablen. Eingabeaufforderungsvariablen fungieren als Platzhalter im statischen Text Ihrer Eingabeaufforderungseingabe, die zur Inferenzzeit dynamisch durch Text ersetzt werden können. Sie können Eingabeaufforderungsvariablennamen und Standardwerte in einem Eingabeaufforderungsvorlagenasset speichern, um sich wiederzuverwenden oder mit Mitarbeitern in Ihrem Projekt gemeinsam zu nutzen. Weitere Informationen finden Sie unter Wiederverwendbare Eingabeaufforderungen erstellen.

Unterstützung für Python 3.10 und R4.2 -Frameworks und Softwarespezifikationen zur Laufzeit 23.1

9. November 2023

Sie können jetzt IBM Runtime 23.1 verwenden, das die neuesten Data Science-Frameworks auf der Basis von Python 3.10 und R 4.2 enthält, um Jupyter-Notebooks und R-Skripte auszuführen, Modelle zu trainieren und Bereitstellungen durchzuführen. Aktualisieren Sie Ihre Anlagen und Bereitstellungen, um IBM Runtime 23.1 Frameworks und Softwarespezifikationen zu verwenden.

Verwenden Sie Apache Spark 3.4 , um Notebooks und Scripts auszuführen.

Spark 3.4 mit Python 3.10 und R 4.2 wird jetzt als Laufzeitumgebung für Notebooks und RStudio in Projekten unterstützt. Details zu den verfügbaren Notebook-Umgebungen finden Sie unter Ressourcenoptionen für den Notebook-Editor in Projekten berechnen und Ressourcenoptionen für RStudio in Projekten berechnen.

Woche am 27. Oktober 2023

Verwenden Sie einen Satellite -Connector, um eine Verbindung zu einer lokalen Datenbank herzustellen

26. Oktober 2023

Verwenden Sie den neuen Satellite -Connector, um eine Verbindung zu einer Datenbank herzustellen, auf die nicht über das Internet zugegriffen werden kann (z. B. hinter einer Firewall). Satellite Connector verwendet eine einfache Docker-basierte Kommunikation, die sichere und überprüfbare Kommunikation von Ihrer lokalen Umgebung zurück zu IBM Clouderstellt. Anweisungen hierzu finden Sie unter Verbindung zu Daten hinter einer Firewall herstellen.

Secure Gateway ist veraltet

26. Oktober 2023

IBM Cloud hat die Einstellung der Unterstützung von Secure Gatewayangekündigt. Weitere Informationen finden Sie in der Übersicht und im Zeitplan.

Wenn Sie derzeit Verbindungen haben, die mit Secure Gatewayeingerichtet sind, planen Sie die Verwendung eines alternativen Kommunikationsverfahrens. In IBM watsonxkönnen Sie den Connector Satellite als Ersatz für Secure Gatewayverwenden. Siehe Verbindung zu Daten hinter einer Firewall herstellen.

Woche bis 20. Oktober 2023

Maximale Tokengrößen erhöht

16. Oktober 2023

Begrenzungen, die zuvor auf die maximale Anzahl von Token angewendet wurden, die in der Ausgabe von Basismodellen zulässig sind, werden aus bezahlten Plänen entfernt. Sie können bei der Promptentwicklung sowohl im Prompt Lab als auch in der Python größere maximale Token-Werte verwenden. Die genaue Anzahl der zulässigen Token variiert je nach Modell. Weitere Informationen zu Tokenbegrenzungen für bezahlte und Lite-Pläne finden Sie unter Unterstützte Basismodelle.

Woche bis 13. Oktober 2023

Neue Notebooks in Beispielen

12. Oktober 2023

Es sind zwei neue Notebooks verfügbar, die eine Vektordatenbank aus Elasticsearch in der Abrufphase des Musters 'Retrieval-Augmented Generation' verwenden. Die Notebooks veranschaulichen, wie Übereinstimmungen auf der Basis der semantischen Ähnlichkeit zwischen den indexierten Dokumenten und dem von einem Benutzer übergebenen Abfragetext gefunden werden können.

Zwischenlösungen in Decision Optimization

12. Oktober 2023

Sie können jetzt ein Beispiel für Zwischenlösungen anzeigen, während ein Decision Optimization -Experiment ausgeführt wird. Dies kann für das Debugging oder zum Anzeigen des Fortschritts des Solvers nützlich sein. Bei großen Modellen, deren Lösung länger dauert, können Sie mit Zwischenlösungen jetzt schnell und einfach potenzielle Probleme mit der Lösung ermitteln, ohne auf den Abschluss der Lösung warten zu müssen. Grafische Anzeige mit Ausführungsstatistiken mit Zwischenlösungen. Sie können den Parameter für die Bereitstellung von Zwischenlösungen in der Laufkonfiguration konfigurieren und eine Häufigkeit für diese Lösungen auswählen. Weitere Informationen finden Sie unter Zwischenlösungen und Konfigurationsparameter ausführen.

Dialogfeld "Neues gespeichertes Decision Optimization -Modell"

Wenn Sie ein Modell zur Bereitstellung über die Benutzerschnittstelle von Decision Optimization speichern, können Sie jetzt das Eingabe-und Ausgabeschema überprüfen und die Tabellen, die Sie einschließen möchten, einfacher auswählen. Sie können auch Ausführungskonfigurationsparameter hinzufügen, ändern oder löschen, die Umgebung und die verwendeten Modelldateien überprüfen. Alle diese Elemente werden im selben Dialog Als Modell für Bereitstellung speichern angezeigt. Weitere Informationen finden Sie unter Decision Optimization.

Woche am 6. Oktober 2023

Weitere Gründungsmodelle in Frankfurt

5. Okt. 2023

Alle im Rechenzentrum Dallas verfügbaren Basismodelle sind jetzt auch im Rechenzentrum Frankfurt verfügbar. Das watsonx.ai Prompt Lab und das foundation model Inferencing werden nun in der Region Frankfurt für diese Modelle unterstützt:

  • granite-13b-chat-v1
  • granite-13b-instruct-v1
  • llama-2-70b-chat
  • gpt-neox-20b
  • mt0-xxl-13b
  • starcoder-15.5b

Weitere Informationen zu diesen Modellen finden Sie unter Supported foundation models available with watsonx.ai.

Details zu den Preisen finden Sie unter watsonx.ai Runtime-Pläne.

Position einer neuen Spalte in der Verkettungsoperation steuern (Data Refinery)

6. Oktober 2023

Sie haben nun zwei Optionen, um die Position der neuen Spalte anzugeben, die sich aus der Operation Verketten ergibt: Als rechte Spalte im Dataset oder neben der ursprünglichen Spalte.

Spaltenposition der Verkettungsoperation

Zuvor wurde die neue Spalte am Anfang des Datasets platziert.

Wichtig:

Bearbeiten Sie die Operation Verketten in einem beliebigen der vorhandenen Data Refinery -Abläufe, um die neue Spaltenposition anzugeben. Andernfalls schlägt der Ablauf möglicherweise fehl.

Informationen zu Data Refinery -Operationen finden Sie unter GUI-Operationen in Data Refinery.

Woche bis 29 September 2023

IBM Granite -Basismodelle für die Generierung natürlicher Sprache

28. September 2023

Die ersten beiden Modelle der Granite -Familie der IBM -Basismodelle sind jetzt in der Region Dallas verfügbar:

  • granite-13b-chat-v1: Allgemeines Verwendungsmodell, das für Dialoganwendungsfälle optimiert ist
  • granite-13b-instruct-v1: Allgemeines Verwendungsmodell, das für die Beantwortung von Fragen optimiert ist

Beide Modelle sind 13B-parameter -Decodermodelle, die effizient eine Sprache in Englisch vorhersagen und generieren können. Sie sind wie alle Modelle der Granite -Familie für Unternehmen konzipiert. Granite -Modelle werden mit mehreren Terabyte an Daten aus Quellen in beiden allgemeinen Sprachen (z. B. dem öffentlichen Internet) und branchenspezifischen Datenquellen aus akademischen, wissenschaftlichen, rechtlichen und finanziellen Bereichen vortrainiert.

Probieren Sie sie noch heute im Prompt Lab aus oder führen Sie ein Beispiel-Notizbuch aus, das das Modell granite-13b-instruct-v1 für die Stimmungsanalyse verwendet.

Lesen Sie den Blogbeitrag Building AI for business: IBM's Granite foundation models", um mehr zu erfahren.

Woche endet am 22. September 2023

Decision Optimization -Java-Modelle

20. September 2023

Decision Optimization Java-Modelle können jetzt in watsonx.ai Runtime (ehemals Watson Machine Learning) eingesetzt werden. Durch die Verwendung der Java-Worker-API können Sie Optimierungsmodelle mit den Java-APIs OPL, CPLEX und CP Optimizer erstellen. Sie können Ihre Modelle nun einfach lokal erstellen, verpacken und auf watsonx.ai Runtime bereitstellen, indem Sie die Boilerplate verwenden, die im öffentlichen Java Worker GitHub bereitgestellt wird. Weitere Informationen finden Sie unter Bereitstellen von Java-Modellen für die Decision Optimization.

Neue Notebooks im Ressourcenhub

21. September 2023

Sie können die folgenden neuen Notebooks im Ressourcenhub verwenden:

Woche bis 15. September 2023

Schnelle Entwicklung und synthetische Daten-Lernprogramme für den Schnelleinstieg

14. September 2023

Testen Sie die neuen Lernprogramme, um mehr über folgende Themen zu erfahren:

  • Gründungsmodelle anregen: In der Regel gibt es mehrere Möglichkeiten, um ein foundation model zu einem erfolgreichen Ergebnis zu führen. Im Prompt Lab können Sie mit verschiedenen Stiftungsmodellen experimentieren, Beispiel-Prompts untersuchen und Ihre besten Prompts speichern und weitergeben. Eine Möglichkeit, die Genauigkeit der generierten Ausgabe zu verbessern, besteht darin, die erforderlichen Fakten als Kontext in Ihrem Eingabeaufforderungstext unter Verwendung des Abrufgenerierungsmusters bereitzustellen.
  • Synthetische Daten generieren: Sie können synthetische Tabellendaten in watsonx.aigenerieren. Der Vorteil synthetischer Daten besteht darin, dass Sie die Daten bedarfsgerecht beschaffen, dann an Ihren Anwendungsfall anpassen und in großen Mengen produzieren können.
Neue Lernprogramme
Lernprogramm Beschreibung Fachkenntnisse für das Lernprogramm
Ein foundation model mit Prompt Lab abfragen Experimentieren Sie mit Eingabeaufforderungen für verschiedene Basismodelle, erkunden Sie Beispieleingabeaufforderungen und speichern und teilen Sie Ihre besten Eingabeaufforderungen. Prompt ein Modell mit Prompt Lab ohne Kodierung.
Aufforderung eines foundation model mit dem abruferweiterten Generierungsmuster Erstellen Sie ein foundation model, indem Sie Informationen aus einer Wissensdatenbank nutzen. Verwenden Sie das Muster 'Retrieval Augmented Generation' in einem Jupyter-Notebook, das Python -Code verwendet.
Synthetische Tabellendaten generieren Generieren Sie synthetische Tabellendaten mithilfe eines grafischen Ablaufeditors. Wählen Sie Operationen zum Generieren von Daten aus.

Watsonx.ai -Community

14. September 2023

Sie können jetzt der watsonx.ai Community für KI-Architekten und -Entwickler beitreten, um zu lernen, Ideen auszutauschen und sich mit anderen zu vernetzen.

Woche am 8. September 2023

Synthetische Tabellendaten mit Synthetic Data Generator generieren

7. September 2023

Synthetic Data Generator ist jetzt in den Regionen Dallas und Frankfurt verfügbar und ein neues grafisches Editortool für watsonx.ai , mit dem Sie Tabellendaten für Trainingsmodelle generieren können. Mithilfe visueller Abläufe und eines statistischen Modells können Sie synthetische Daten auf der Basis Ihrer vorhandenen Daten oder eines angepassten Datenschemas erstellen. Sie können die ursprünglichen Daten maskieren und die synthetischen Daten in eine Datenbank oder als Datei exportieren.

Informationen zu den ersten Schritten finden Sie unter Synthetische Daten.

Llama-2 Foundation Model für die Generierung natürlicher Sprache und Chat

7. September 2023

Das Llama-2 -Basismodell von Meta ist jetzt in der Region Dallas verfügbar. Llama-2 Chat-Modell ist ein automatisch regressives Sprachmodell, das eine optimierte Umsetzungsarchitektur verwendet. Das Modell wird vorab mit öffentlich verfügbaren Onlinedaten trainiert und anschließend mithilfe von verstärktem Lernen aus menschlichem Feedback optimiert. Das Modell ist für kommerzielle und Forschungszwecke in englischsprachigen assistentenähnlichen Chat-Szenarien gedacht.

LangChain -Erweiterung für die Python -Bibliothek für Basismodelle

7. September 2023

Sie können jetzt das LangChain -Framework mit Basismodellen in watsonx.ai mit der neuen LangChain -Erweiterung für die Python -Basismodellbibliothek verwenden.

Dieses Beispiel-Notizbuch zeigt, wie die neue Erweiterung verwendet werden kann: Beispiel-Notizbuch

Einführungsbeispiel für das Muster 'Retrieval Augmented Generation'

7. September 2023

Die abruferweiterte Generierung ist ein einfaches, leistungsfähiges Verfahren zur Nutzung einer Wissensbasis, um eine sachlich genaue Ausgabe von Basismodellen zu erhalten.

Siehe auch: Introduction to retrieval-augmented generation

Woche endet am 1. September 2023

Einstellung der Unterstützung von Kommentaren in Notebooks

31. August 2023

Ab heute ist es nicht mehr möglich, einem Notebook Kommentare über die Aktionsleiste des Notebooks hinzuzufügen. Alle vorhandenen Kommentare wurden entfernt.

Symbol für Kommentare in der Aktionsleiste des Notebooks

StarCoder -Basismodell für Codegenerierung und Codeumsetzung

31. August 2023

Das Modell StarCoder von Hugging Face ist jetzt in der Region Dallas erhältlich. Verwenden Sie StarCoder, um Prompts für die Erzeugung von Code oder für die Umwandlung von Code von einer Programmiersprache in eine andere zu erstellen. Eine Beispiel-Eingabeaufforderung zeigt, wie man mit StarCoder Python aus einer Reihe von Anweisungen erzeugt. Eine zweite Beispiel-Eingabeaufforderung zeigt, wie man mit StarCoder in C++ geschriebenen Code in Python umwandeln kann.

IBM watsonx.ai ist in der Region Frankfurt verfügbar

31. August 2023

Watsonx.ai ist jetzt allgemein im Rechenzentrum in Frankfurt verfügbar und kann bei der Anmeldung als bevorzugte Region ausgewählt werden. Das Prompt Lab und das foundation model Inferencing werden in der Region Frankfurt für diese Modelle unterstützt:

Woche am 25. August 2023

Zusätzliche Cacheerweiterungen für Watson Pipelines verfügbar

21. August 2023

Es sind weitere Optionen zum Anpassen Ihrer Pipelineablaufeinstellungen verfügbar. Sie können jetzt besser steuern, wann der Cache für Pipelineausführungen verwendet wird. Details finden Sie unter Standardeinstellungen verwalten.

Woche endet am 18. August 2023

Aktualisierung des Plannamens für den Dienst watsonx.ai Runtime (ehemals Watson Machine Learning)

18. August 2023

Ab sofort werden die Plannamen für den IBM watsonx.ai Runtime Service wie folgt aktualisiert:

  • Der v2 -Standardplan ist jetzt der Essentials -Plan. Der Plan soll Ihrem Unternehmen die Ressourcen bereitstellen, die für den Einstieg in die Arbeit mit Basismodellen und Assets für maschinelles Lernen erforderlich sind.

  • Der v2 Professional-Plan ist jetzt der Standard -Plan. Dieser Plan stellt Ressourcen bereit, die die meisten Unternehmen durch Asseterstellung bis zur produktiven Nutzung unterstützen.

Änderungen an den Plannamen ändern Ihre Servicebedingungen nicht. Wenn Sie also für die Verwendung des v2 -Standardplans registriert sind, erhält er jetzt den Namen Essentials, aber alle Plandetails bleiben unverändert. Wenn Sie für die Verwendung des v2 Professional-Plans registriert sind, gibt es keine anderen Änderungen als die Änderung des Plannamens in Standard.

Details zum Inhalt der einzelnen Pläne finden Sie unter watsonx.ai Laufzeitpläne. Preisinformationen finden Sie auf der watsonx.ai Runtime Plan Seite im IBM Cloud Katalog.

Woche endet am 11 August 2023

Einstellung der Unterstützung von Kommentaren in Notebooks

7. August 2023

Am 31. August 2023 können Sie über die Aktionsleiste des Notebooks keine Kommentare mehr zu einem Notebook hinzufügen. Alle vorhandenen Kommentare, die auf diese Weise hinzugefügt wurden, werden entfernt.

Symbol für Kommentare in der Aktionsleiste des Notebooks

Woche endet am 4. August 2023

Erhöhtes Tokenlimit für Lite-Plan

4. August 2023

Wenn Sie den Lite-Plan zum Testen von Basismodellen verwenden, wird der Tokengrenzwert für die Eingabe und Ausgabe von Eingabeaufforderungen von 25.000 auf 50.000 pro Konto und Monat erhöht. Dies gibt Ihnen mehr Flexibilität beim Untersuchen von Basismodellen und beim Experimentieren mit Eingabeaufforderungen.

Benutzerdefinierte Textanalysevorlage (SPSS Modeler)

4. August 2023

Für SPSS Modelerkönnen Sie jetzt eine benutzerdefinierte Textanalysevorlage in ein Projekt hochladen. Dies bietet Ihnen mehr Flexibilität bei der Erfassung und Extraktion von Schlüsselkonzepten auf eine für Ihren Kontext spezifische Weise.

Woche am 28. Juli 2023

Python -Bibliothek für Basismodelle verfügbar

27. Juli 2023

Sie können jetzt Basismodelle in watsonx.ai programmgestützt über eine Python -Bibliothek anfordern.

Siehe: Foundation Models Python -Bibliothek

Woche endet am 14. Juli 2023

KI-Guardrails steuern

14. Juli 2023

Sie können jetzt im Prompt Lab steuern, ob die KI-Leitplanken ein- oder ausgeschaltet sind. KI-Guardrails entfernen potenziell schädlichen Text aus den Eingabe-und Ausgabefeldern. Schädlicher Text kann Hassreden, Missbrauch und Profanität beinhalten. Um das Entfernen potenziell schädlicher Texte zu verhindern, setzen Sie den Schalter AI guardrails auf "off". Siehe Hate speech, abuse, and profanity.

Das Prompt Lab mit eingeschalteten AI-Leitplanken

Microsoft Azure SQL Database -Verbindung unterstützt die Azure Active Directory -Authentifizierung (Azure AD)

14. Juli 2023

Sie können jetzt Active Directory für die Verbindung Microsoft Azure SQL Database auswählen. Die Active Directory -Authentifizierung ist eine Alternative zur SQL Server -Authentifizierung. Mit dieser Erweiterung können Administratoren Benutzerberechtigungen für Azurezentral verwalten. Weitere Informationen finden Sie unter Microsoft Azure SQL Database connection.

Woche am 7. Juli 2023

Willkommen bei IBM watsonx.ai!

7. Juli 2023

IBM watsonx.ai stellt alle Tools bereit, die Sie für die Arbeit mit Machine Learning-und Basismodellen benötigen.

Get started:

Generative AI-Suche und -Antwort in dieser Dokumentation testen

7. Juli 2023

Sie können abgeleitete KI in Aktion sehen, indem Sie die neue Option für generative AI-Suche und -Antwort in der Dokumentation zu watsonx.ai ausprobieren. Die Antworten werden von einem großen Sprachmodell generiert, das in watsonx.ai ausgeführt wird und auf dem Inhalt der Dokumentation basiert. Dieses Feature ist nur verfügbar, wenn Sie die Dokumentation anzeigen, während Sie bei watsonx.aiangemeldet sind.

Geben Sie eine Frage in das Suchfeld der Dokumentation ein und klicken Sie auf das Symbol für die generative KI-Suche und -Antwort alt="". Der Generative KI-Suche und -Antwort Der Bereich öffnet sich und beantwortet Ihre Frage.

Zeigt das Teilfenster für generative KI-Suche und -Antwort an

Generative KI-Suche und -Antwort
Diese Antworten werden von einem großen Sprachmodell in watsonx.ai basierend auf dem Inhalt der Produktdokumentation generiert. Weitere Informationen