0 / 0
Zurück zur englischen Version der Dokumentation
Neuerungen

Neuerungen

Informieren Sie sich wöchentlich über neue Funktionen und Updates für IBM watsonx.ai und IBM watsonx.governance.

Tipp: Nach einer Aktualisierung müssen Sie gelegentlich eine bestimmte Aktion ausführen. Durchsuchen Sie diese Seite nach "Aktion erforderlich", um alle erforderlichen Aktionen anzuzeigen.

Woche bis 7. Juni 2024

Management von Risiko-und Compliance-Aktivitäten mit Governance Console (IBM OpenPages)

7. Juni 2024

Watsonx.governance unterstützt jetzt die optionale Integration mit der Governance-Konsole. Wenn Sie das Model Risk Governance-Modul von IBM OpenPagesinstalliert haben, können Sie KI-Anwendungsfälle konfigurieren, um Governance-Fakten mit der Governance-Konsole zu synchronisieren. In der Governance-Konsole können Sie Anwendungsfälle erstellen, Governance-Aktivitäten anzeigen, Tasks verwalten und Workflows als Teil Ihrer Governance und Compliance-Prozesse implementieren. Weitere Informationen finden Sie unter:

Woche bis 31. Mai 2024

IBM Watson Pipelines ist jetzt IBM Orchestration Pipelines

30. Mai 2024

Der neue Servicename spiegelt die Funktionalität für die Koordination von Teilen des KI-Lebenszyklus in wiederholt anwendbare Abläufe wider.

Tagprojekte für einfachen Abruf

31. Mai 2024

Sie können jetzt den Projekten Tags zuordnen, damit diese leichter gruppiert oder abgerufen werden können. Weisen Sie Tags zu, wenn Sie ein neues Projekt erstellen oder aus der Liste aller Projekte. Filtern Sie die Liste der Projekte nach Tag, um eine zusammengehörige Gruppe von Projekten abzurufen. Weitere Informationen finden Sie unter Projekt erstellen.

Verbindung zu einer neuen Datenquelle herstellen: Milvus

31. Mai 2024

Verwenden Sie die Milvus-Verbindung, um die Richtigkeit Ihrer Berechtigungsnachweise und Verbindungsdetails für den Zugriff auf einen Milvus-Vektorspeicher zu speichern und zu bestätigen. Informationen hierzu enthält Milvus-Verbindung.

Woche bis 24. Mai 2024

Neues Lernprogramm und Video

23. Mai 2024

Testen Sie das neue Lernprogramm, um zu erfahren, wie Sie eine Modellbereitstellung mithilfe der Funktionalität in Watson OpenScale in einem Bereitstellungsbereich bewerten können.

Lernprogramm Beschreibung Fachkenntnisse für das Lernprogramm
Bereitstellung in Bereichen bewerten Sie können ein Modell bereitstellen, Überwachungen für das bereitgestellte Modell konfigurieren und das Modell in einem Bereitstellungsbereich auswerten. Konfigurieren Sie die Überwachungen und werten Sie ein Modell in einem Bereitstellungsbereich aus.

Das Basismodell allam-1-13b-instruct ist in der Region Frankfurt verfügbar

21. Mai 2024

Das arabische Basismodell allam-1-13b-instruct von Saudi Authority for Data and Artificial Intelligence und bereitgestellt von IBM ist über watsonx.ai im Rechenzentrum in Frankfurt verfügbar. Sie können das Basismodell allam-1-13b-instruct für allgemeine Aufgaben wie Q & A, Zusammenfassung, Klassifizierung, Generierung, Extraktion und Übersetzung in Arabisch verwenden. Weitere Informationen finden Sie unter Unterstützte Basismodelle.

Traditionelle und abgeleitete KI-Assets mit der Python -Clientbibliothek watsonx.ai bereitstellen

21. Mai 2024

Die Python -Clientbibliothek Watson Machine Learning ist jetzt Teil einer erweiterten Bibliothek, der watsonx.ai Python -Clientbibliothek. Verwenden Sie die Bibliothek watsonx.ai Python , um mit traditionellen Assets für maschinelles Lernen und abgeleitete KI zu arbeiten. Die Bibliothek Watson Machine Learning bleibt erhalten, wird aber nicht mit neuen Funktionen aktualisiert. Weitere Informationen finden Sie unter Python -Bibliothek.

Woche bis 17. Mai 2024

Texteinbettungsmodelle anderer Anbieter sind in watsonx.ai verfügbar

16. Mai 2024

Die folgenden Texteinbettungsmodelle anderer Anbieter sind jetzt zusätzlich zu den IBM -Slate-Modellen für erweiterten Textabgleich und -Abruf verfügbar:

  • all-minilm-l12-v2
  • bge-large-en-v1.5
  • multilingual-e5-large

Übergeben Sie Sätze oder Passagen an eines der unterstützten Einbettungsmodelle, indem Sie die Bibliothek watsonx.ai Python oder die REST-API verwenden, um Eingabetext in Vektoren zu konvertieren, um ähnlichen Text genauer zu vergleichen und abzurufen.

Weitere Informationen zu diesen Modellen finden Sie unter Unterstützte Einbettungsmodelle.

Weitere Informationen zum Konvertieren von Text finden Sie unter Texteinbettungsgenerierung.

Woche bis 10. Mai 2024

Neue Granite -Codebasismodelle sind in der Region Dallas verfügbar

9. Mai 2024

Sie können jetzt die folgenden Granite -Codebasismodelle, die von IBM bereitgestellt werden, aus watsonx.ai:

  • granite-3b-code-instruct
  • granite-8b-code-instruct
  • granite-20b-code-instruct
  • granite-34b-code-instruct

Verwenden Sie die neuen Granite -Codebasismodelle für programmgesteuerte Codierungstasks. Die Basismodelle sind auf eine Kombination von Anweisungsdaten abgestimmt, um die folgenden Anweisungsfunktionen zu erweitern, einschließlich logischer Argumentation und Problemlösung.

Weitere Informationen finden Sie unter Unterstützte Basismodelle.

InstructLab -Basismodelle sind in watsonx.ai verfügbar.

7. Mai 2024

InstructLab ist eine Open-Source-Initiative von Red Hat und IBM , die eine Plattform zur Erweiterung der Funktionalität eines Basismodells bereitstellt. Die folgenden Basismodelle unterstützen Wissen und Skills, die von InstructLabbeigetragen werden:

  • granite-7b-lab
  • granite-13-chat-v2
  • granite-20b-multilingual
  • merlinite-7b

Sie können die Open-Source-Community-Beiträge von der Taxonomieseite des Basismodells untersuchen.

Weitere Informationen finden Sie unter InstructLab-kompatible Basismodelle.

Woche endet am 3. Mai 2024

Projektassets in Ordnern organisieren

2. Mai 2024

Sie können jetzt Ordner in Ihren Projekten erstellen, um Assets zu organisieren. Ein Administrator des Projekts muss Ordner aktivieren und Administratoren und Editoren können sie erstellen und verwalten. Ordner befinden sich in der Betaversion und werden noch nicht für die Verwendung in Produktionsumgebungen unterstützt. Weitere Informationen finden Sie unter Assets mit Ordnern organisieren (Beta).

Registerkarte 'Assets' mit Ordnern

Woche am 26. April 2024

IBM watsonx.ai ist in der Region London verfügbar

25. April 2023

Watsonx.ai ist jetzt im Rechenzentrum in London allgemein verfügbar und London kann bei der Anmeldung als bevorzugte Region ausgewählt werden.

  • Die Basismodelle, die in Dallas vollständig unterstützt werden, sind auch für Inferenzen im Rechenzentrum in London über das Prompt Lab oder über die API verfügbar. Ausnahmen sind mt0-xxl-13b und das Basismodell llama-2-70b-chat , das durch das jetzt verfügbare Basismodell llama-3-70b-instruct ersetzt wird.
  • Eingabeaufforderung-Optimieren Sie die drei optimierbaren Basismodelle aus Tuning Studio oder mithilfe der API.
  • Die beiden IBM -Einbettungsmodelle und die Einbettungs-API werden unterstützt.

Weitere Informationen finden Sie unter Regionale Verfügbarkeit für Services und Features.

Chat in Prompt Lab direkt über die Homepage starten

25. April 2023

Jetzt können Sie über die Homepage von IBM watsonx.ai einen Dialog mit einem Basismodell beginnen. Geben Sie eine Frage ein, die an ein Basismodell im Chatmodus gesendet werden soll, oder klicken Sie auf Prompt Lab öffnen , um ein Basismodell und Modellparameter auszuwählen, bevor Sie Modelleingaben übergeben.

Woche am 19. April 2024

Neue Meta Llama 3-Basismodelle sind jetzt verfügbar

18. April 2024

Die folgenden Llama 3 -Basismodelle, die von Meta bereitgestellt werden, können über watsonx.ai:

  • llama-3-8b-instruct
  • llama-3-70b-instruct

Die neuen Llama 3 -Basismodelle sind optimierte Sprachmodelle, die verschiedene Anwendungsfälle unterstützen können.

Dieses neueste Release von Llama wird mit mehr Token trainiert und wendet neue Verfahren nach dem Training an. Das Ergebnis sind Basismodelle mit besseren Sprachverständnismöglichkeiten, Argumentation, Codegenerierung und Instruktionsfolgefunktionen.

Weitere Informationen finden Sie unter Unterstützte Basismodelle.

Einführung in IBM -Einbettungsunterstützung für erweiterten Textabgleich und -abruf

18. April 2024

Sie können jetzt die IBM Einbettungs-API und IBM Einbettungsmodelle verwenden, um Eingabetext in Vektoren zu transformieren und ähnlichen Text genauer zu vergleichen und abzurufen.

Die folgenden IBM Slate-Einbettungsmodelle sind verfügbar:

  • slate.125m.english.rtrvr
  • slate.30m.english.rtrvr

Weitere Informationen finden Sie unter Texteinbettung generieren.

Preisdetails finden Sie unter Pläne fürWatson Machine Learning.

IBM watsonx.governance ist enthalten, wenn Sie sich für IBM watsonx.ai registrieren.

18. April 2024

Wenn Sie sich für watsonx.ai in der Region Dallas registrieren, wird watsonx.governance automatisch eingeschlossen. Siehe Registrierung für IBM watsonx as a Service.

Machine Learning-Bereitstellungen in Bereichen bewerten

18. April 2024

Konfigurieren Sie watsonx.governance -Bewertungen in Ihren Bereitstellungsbereichen, um Einblicke in die Leistung Ihres Modells für maschinelles Lernen zu erhalten. Bewerten Sie beispielsweise eine Bereitstellung auf Verzerrungen oder überwachen Sie eine Bereitstellung auf Abweichungen. Wenn Sie Bewertungen konfigurieren, können Sie Auswertungsergebnisse analysieren und Transaktionsdatensätze direkt in Ihren Bereichen modellieren.

Weitere Informationen finden Sie unter Bereitstellungen in Bereichen auswerten.

Ein Koreanisch-sprachiges Gründungsmodell ist in der Region Tokio verfügbar

18. April 2024

Das von Minds & Company bereitgestellte Basismodell llama2-13b-dpo-v7 , das auf dem Llama 2 -Basismodell von Meta basiert, ist in der Region Tokio verfügbar.

Das Basismodell llama2-13b-dpo-v7 ist auf Dialogtasks in Koreanisch und Englisch spezialisiert. Sie können das Basismodell llama2-13b-dpo-v7 auch für allgemeine Aufgaben in koreanischer Sprache verwenden.

Weitere Informationen finden Sie unter Unterstützte Basismodelle.

Ein mixtral-8x7b-instruct-v01 -Basismodell ist für Inferenzen verfügbar

18. April 2024

Das Basismodell mixtral-8x7b-instruct-v01 von Mistral AI kann von watsonx.aiabgeleitet werden. Das Basismodell mixtral-8x7b-instruct-v01 ist ein vortrainiertes generatives Modell, das ein dünn besetztes Expertennetzwerk verwendet, um Text effizienter zu generieren.

Sie können das Modell mixtral-8x7b-instruct-v01 für allgemeine Aufgaben wie Klassifizierung, Zusammenfassung, Codegenerierung, Sprachkonvertierung usw. verwenden. Weitere Informationen finden Sie unter Unterstützte Basismodelle.

Das Basismodell mixtral-8x7b-instruct-v01-q ist veraltet und wird am 23. Mai 2024 zurückgezogen. Überarbeiten Sie alle Eingabeaufforderungen, die dieses Basismodell verwenden.

  • Datum der Einstellung der Unterstützung: 19. April 2024
  • Widerrufsdatum: 20 Juni 2024
  • Alternatives Modell: mixtral-8x7b-instruct-v01

Inferenzanforderungen, die an das Modell mixtral-8x7b-instruct-v01-q über die API übergeben werden, generieren weiterhin eine Ausgabe, enthalten jedoch eine Warnung zur bevorstehenden Zurückziehung des Modells. Ab dem 20. Juni 2024 generieren API-Anforderungen für die Inferenz der Modelle keine Ausgabe.

Weitere Informationen zur Einstellung der Unterstützung und Zurückziehung finden Sie unter Foundation model lifecycle.

Eine Änderung des Basismodells granite-20b-multilingual wurde eingeführt

18. April 2024

Die neueste Version von granite-20b-multilingual ist 1.1.0. Die Änderung enthält Verbesserungen, die durch die Anwendung eines neuartigen KI-Ausrichtungsverfahrens auf das Modell der Version 1.0 erzielt wurden. Die KI-Ausrichtung umfasst die Verwendung von Lerntechniken für Feinabstimmung und Verstärkung, um das Modell so zu führen, dass es möglichst hilfreiche, wahrheitsgemäße und transparente Ergebnisse zurückgibt.

Weitere Informationen zu diesem Basismodell finden Sie unter Unterstützte Basismodelle.

Woche bis 12. April 2024

Eingabeaufforderung-Optimierung des Basismodells granite-13b-instruct-v2

11. April 2024

Tuning Studio unterstützt jetzt die Optimierung des Basismodells granite-13b-instruct-v2 zusätzlich zu den Basismodellen flan-t5-xl-3b und llama-2-13b-chat . Weitere Informationen finden Sie unter Basismodell optimieren.

Die Experimentkonfigurationseinstellungen für die Optimierung des Basismodells granite-13b-instruct-v2 , um die besten Standardwerte abhängig von Ihrer Task anzuwenden. Die Bewertungsrichtlinien für die Optimierung helfen Ihnen, die Ergebnisse des Experiments zu analysieren und die Einstellungen für die Experimentkonfiguration auf der Basis Ihrer Ergebnisse anzupassen. Weitere Informationen finden Sie unter Ergebnisse eines Optimierungsversuchs auswerten.

Ein arabischsprachiges Basismodell ist in der Region Frankfurt verfügbar

11. April 2024

Das von Inception, Mohamed bin Zayed University of Artificial Intelligence und Cerebras Systems bereitgestellte Gründungsmodell jais-13b-chat ist in der Region Frankfurt verfügbar.

Das Basismodell jais-13b-chat ist auf Dialogtasks in Arabisch und Englisch spezialisiert. Sie können das Basismodell jais-13b-chat auch für allgemeine Aufgaben in arabischer Sprache verwenden, einschließlich Sprachübersetzung zwischen Arabisch und Englisch.

Weitere Informationen finden Sie unter Unterstützte Basismodelle.

Vollständigen Text einer Eingabeaufforderung in Prompt Lab anzeigen

11. April 2024

Nun können Sie den vollständigen Eingabeaufforderungstext überprüfen, der an das Basismodell übergeben werden soll. Dies ist nützlich, wenn Ihre Eingabeaufforderung Eingabeaufforderungsvariablen enthält, oder wenn Sie im strukturierten Modus oder im Chatmodus arbeiten.

Weitere Informationen finden Sie unter Prompt Lab.

Die veralteten Modelle von Granite Version 1 wurden zurückgezogen

11. April 2024

Die folgenden Basismodelle wurden zurückgezogen:

  • granite-13b-chat-v1
  • granite-13b-instruct-v1

Überarbeiten Sie alle Eingabeaufforderungen, die diese Basismodelle verwenden, um die Basismodelle von IBM Granite v2 zu verwenden. Weitere Informationen zur Einstellung der Unterstützung und Zurückziehung des Basismodells finden Sie unter Lebenszyklus des Basismodells.

Woche bis 5. April 2024

Verwenden Sie Pivot-Tabellen, um Daten anzuzeigen, die in Experimenten von Decision Optimization zusammengefasst sind.

5. April 2024

Sie können jetzt Pivot-Tabellen verwenden, um Eingabe-und Ausgabedaten anzuzeigen, die in der Ansicht Visualisierung in Decision Optimization -Experimenten aggregiert wurden. Weitere Informationen finden Sie unter Visualisierungswidgets in Experimenten von Decision Optimization.

Neues Lernprogramm und Video zu watsonx.ai

04. April 2024

Testen Sie das neue Lernprogramm, um zu erfahren, wie Sie watsonx.ai in einem End-to-End-Anwendungsfall von der Datenaufbereitung bis zur Entwicklung von Eingabeaufforderungen verwenden.

Lernprogramm Beschreibung Fachkenntnisse für das Lernprogramm
End-to-End-Anwendungsfall watsonx.ai testen Folgen Sie einem Anwendungsfall von der Datenaufbereitung bis zur Entwicklung von Eingabeaufforderungen. Verwenden Sie verschiedene Tools wie Notebooks und Prompt Lab.

Woche bis 15. März 2024

Die API watsonx.ai ist verfügbar

14. März 2024

Die API watsonx.ai ist allgemein verfügbar. Verwenden Sie die API watsonx.ai , um programmgesteuert mit Basismodellen zu arbeiten. Weitere Informationen finden Sie in der API-Referenz.

Die API-Version ist 2024-03-14.

Sie können weiterhin die Bibliothek Python verwenden, die für die Arbeit mit Basismodellen über ein Notebook verfügbar ist. Weitere Informationen finden Sie unter Python -Bibliothek.

Neue Gründungsmodelle sind in Dallas, Frankfurt und Tokio verfügbar

14. März 2024

Die folgenden Basismodelle sind jetzt für die Inferenz von watsonx.ai:

  • granite-20b-multilingual: Ein Basismodell aus der IBM -Produktfamilie Granite , das Sie für verschiedene generative Tasks in Englisch, Deutsch, Spanisch, Französisch und Portugiesisch verwenden können.

  • codellama-34b-instruct-hf: Ein programmgesteuertes Codegenerierungsmodell aus Code Llama , das auf Llama 2 aus Meta basiert. Sie können codellama-34b-instruct-hf verwenden, um Eingabeaufforderungen zum Generieren von Code auf der Basis von Eingaben in natürlicher Sprache sowie zum Ausfüllen und Debugging von Code zu erstellen.

Weitere Informationen finden Sie unter Unterstützte Basismodelle.

Woche am 8. März 2024

Das Tuning Studio ist in Frankfurt verfügbar

7. März 2024

Das Tuning Studio ist nun für Nutzer kostenpflichtiger Pläne in der Region Frankfurt verfügbar. Mit Tuning Studio können Sie ein Basismodell anleiten, um nützliche Ausgaben zurückzugeben. Sie können die Basismodelle flan-t5-xl-3b und llama-2-70b-chat optimieren, wenn Sie Tuning Studio in Frankfurt verwenden.

Weitere Informationen finden Sie unter Tuning Studio.

Eingabeaufforderung-Optimieren Sie das Basismodell llama-2-13b-chat in der Region Tokio

7. März 2024

Tuning Studio unterstützt jetzt die Optimierung des Basismodells llama-2-13b-chat in der Region Tokio. Entwickeln Sie zuerst Eingabeaufforderungen für das größere Modell llama-2-70b-chat im Eingabeaufforderungslabor, um effektive Eingabeaufforderungseingaben für Ihren Anwendungsfall zu finden. Optimieren Sie anschließend die kleinere Version des Modells Llama 2 , um vergleichbare, wenn nicht bessere Ausgaben mit Nullaufforderungen zu generieren.

Weitere Informationen finden Sie unter Tuning Studio.

Niedrigerer Preis für Modell Mixtral8x7b

5. März 2024

Das Basismodell mixtral-8x7b-instruct-v01-q wurde von Klasse 2 neu klassifiziert: $0.0018/Resource Einheit zu Klasse 1: $0.0006/Resource Einheit. Dadurch ist es kosteneffizienter, Inferenztasks für dieses Modell auszuführen. Die Neuklassifizierung gilt für alle Regionen, in denen mixtral-8x7b-instruct-v01-q verfügbar ist.

Weitere Informationen finden Sie unter Unterstützte Basismodelle.

Preisdetails finden Sie unter Pläne fürWatson Machine Learning.

KI-Risiko-Atlas wurde aktualisiert und erweitert

5. März 2024

Sie finden jetzt die folgenden neuen und erweiterten Inhalte im KI-Risikoatlas:

  • Eine neue Kategorie von nicht technischen Risiken, die Governance, Einhaltung gesetzlicher Bestimmungen und gesellschaftliche Impaktrisiken umfasst
  • Neue Beispiele für Risiken
  • Klarere Definitionen von Risiken

Siehe KI-Risiko-Atlas.

Neue Anwendungsfälle für watsonx

5. März 2024

Die watsonx -Anwendungsfälle helfen Ihnen zu sehen, wie Sie unsere Produkte, Services und Tools nutzen können.

  • Anwendungsfall watsonx.ai : Dieser Anwendungsfall zeigt, wie Sie Ihre Geschäftsprozesse mit KI-gesteuerten Lösungen transformieren können, indem Sie maschinelles Lernen und generative KI in Ihr Betriebsframework integrieren.
  • Anwendungsfall watsonx.governance : In diesem Anwendungsfall wird erläutert, wie Sie verantwortliche, transparente und erklärbare KI-Workflows mit einem integrierten System für die Verfolgung, Überwachung und erneutes Training von KI-Modellen erstellen können.

Siehe watsonx -Anwendungsfälle.

Woche bis 1. März 2024

Chatmodus ist in Prompt Lab verfügbar

29. Februar 2024

Der Chatmodus in Prompt Lab ist eine einfache Chat-Schnittstelle, die es einfacher macht, mit Basismodellen zu experimentieren. Der Chatmodus erweitert die bereits verfügbaren strukturierten und unformatierten Modi, die nützlich sind, wenn wenige oder viele Eingabeaufforderungen für Tasks wie Extraktion, Zusammenfassung und Klassifikation erstellt werden. Verwenden Sie den Chatmodus, um Interaktionen mit Fragen oder Dialogen für Chatbots und Anwendungsfälle des virtuellen Assistenten zu simulieren.

Weitere Informationen finden Sie unter Prompt Lab.

Ein japanischsprachiges Granite -Modell ist in der Region Tokio verfügbar

29. Februar 2024

Das von IBM bereitgestellte Basismodell granite-8b-japanese ist über watsonx.ai in der Region Tokio verfügbar. Das Basismodell granite-8b-japanese basiert auf dem IBM Granite -Instruktions-Modell und wird trainiert, um japanischen Text zu verstehen und zu generieren.

Sie können das Basismodell granite-8b-japanese für allgemeine Aufgaben in der japanischen Sprache verwenden, wie z. B. Klassifizierung, Extraktion, Beantwortung von Fragen und Sprachübersetzung zwischen Japanisch und Englisch.

Weitere Informationen finden Sie unter Unterstützte Basismodelle.

Woche am 23. Februar 2024

Niedrigerer Preis für Granite-13b -Modelle

21. Februar 2024

Granite-13b -Modelle werden von Klasse 2 neu klassifiziert: $0.0018/Resource Einheit zu Klasse 1: $0.0006/Resource Einheit. Dadurch wird die Ausführung von Inferenztasks für diese Modelle kostengünstiger. Die Neuklassifizierung gilt für die folgenden Modelle in allen Regionen, in denen sie verfügbar sind:

  • granite-13b-chat-v2
  • granite-13b-chat-v1
  • granite-13b-instruct-v2
  • granite-13b-instruct-v1

Weitere Informationen zu diesen Modellen finden Sie unter Unterstützte Basismodelle.

Preisdetails finden Sie unter Pläne fürWatson Machine Learning.

Woche endet am 16. Februar 2024

Neue Verknüpfung für die Arbeit an allgemeinen Tasks

15. Februar 2024

Sie können jetzt eine allgemeine Aufgabe in Ihrem Projekt starten. Klicken auf eine Kachel im Abschnitt Arbeit beginnen auf der Registerkarte Übersicht . Verwenden Sie diese Direktaufrufe, um Mitarbeiter und Daten hinzuzufügen und mit Modellen zu experimentieren und Modelle zu erstellen. Klicken Sie auf Alle anzeigen , um zu einer Auswahl von Tools zu springen.

Neues mixtral-8x7b-instruct-v01-q -Basismodell für allgemeine Aufgaben

15. Februar 2024

Das mixtral-8x7b-instruct-v01-q -Basismodell, das von Mistral AI bereitgestellt und von IBM quantisiert wird, ist unter watsonx.aiverfügbar. Das Basismodell mixtral-8x7b-instruct-v01-q ist eine quantisierte Version des Mixtral 8x7B Instruct Foundation-Modells von Mistral AI.

Sie können dieses neue Modell für vielseitig einsetzbare Aufgaben wie Klassifizierung, Zusammenfassung, Codegenerierung, Sprachkonvertierung usw. verwenden. Weitere Informationen finden Sie unter Unterstützte Basismodelle.

Die folgenden Modelle sind veraltet und werden bald zurückgezogen. Überarbeiten Sie alle Eingabeaufforderungen, die diese Basismodelle verwenden, um ein anderes Basismodell zu verwenden, z. B. mixtral-8x7b-instruct-v01-q.

Veraltete Basismodelle
Veraltetes Modell Einstellung der Unterstützung Datum der Zurückziehung Alternatives Modell
gpt-neox-20b 15. Februar 2024 21. März 2024 mixtral-8x7b-instruct-v01-q
mpt-7b-instruct2 15. Februar 2024 21. März 2024 mixtral-8x7b-instruct-v01-q
starcoder-15.5b 15. Februar 2024 11. April 2024 mixtral-8x7b-instruct-v01-q

Inferenzanforderungen, die über die API an diese Modelle übergeben werden, generieren weiterhin Ausgabe, enthalten jedoch eine Warnung zur bevorstehenden Zurückziehung des Modells. Wenn das Zurückziehungsdatum erreicht ist, generieren API-Anforderungen zur Inferenz der Modelle keine Ausgabe.

Weitere Informationen zur Einstellung der Unterstützung und Zurückziehung finden Sie unter Foundation model lifecycle.

Eine Änderung des Basismodells granite-13b-chat-v2 ist verfügbar

15. Februar 2024

Die neueste Version von granite-13b-chat-v2 ist 2.1.0. Die Änderung enthält Verbesserungen, die durch die Anwendung eines neuartigen KI-Ausrichtungsverfahrens auf das Modell der Version 2.0.0 erzielt wurden. Die KI-Ausrichtung umfasst die Verwendung von Lerntechniken für Feinabstimmung und Verstärkung, um das Modell so zu führen, dass es möglichst hilfreiche, wahrheitsgemäße und transparente Ergebnisse zurückgibt. Weitere Informationen finden Sie unter Was ist KI-Ausrichtung? Blogbeitrag von IBM Research.

Neues Lernprogramm und Video zu watsonx

15. Februar 2024

Im neuen Lernprogramm watsonx.governance erfahren Sie, wie Sie ein Modell für maschinelles Lernen auf Fairness, Genauigkeit, Drift und Erklärbarkeit mit Watson OpenScalebewerten können.

Neue Lernprogramme
Lernprogramm Beschreibung Fachkenntnisse für das Lernprogramm
Modell für maschinelles Lernen bewerten Implementieren Sie ein Modell, konfigurieren Sie Überwachungen für das bereitgestellte Modell und bewerten Sie das Modell. Führen Sie ein Notebook aus, um die Modelle zu konfigurieren, und verwenden Sie Watson OpenScale für die Auswertung.

Woche bis 09. Februar 2024

Mehr taskorientierte Dokumentation zu Decision Optimization

9. Februar 2024

Sie können jetzt die richtigen Informationen für die Erstellung und Konfiguration von Decision Optimization -Experimenten einfacher finden. Siehe Decision Optimization -Experimente und ihre Unterabschnitte.

IBM Cloud Data Engine -Verbindung wird nicht mehr verwendet

8. Februar 2022

Die Verbindung zu IBM Cloud Data Engine ist veraltet und wird in einem zukünftigen Release eingestellt. Wichtige Datumsangaben und Details finden Sie unter Deprecation of Data Engine .

Neue Spark 3.4 -Umgebung für die Ausführung von Data Refinery -Ablaufjobs

9. Februar 2024

Wenn Sie eine Umgebung für einen Data Refinery -Ablaufjob auswählen, können Sie jetzt Default Spark 3.4 & R 4.2auswählen, was Erweiterungen von Spark umfasst.

Data Refinery Spark-Umgebungen

Die Umgebung Default Spark 3.3 & R 4.2 ist veraltet und wird in einer zukünftigen Aktualisierung entfernt.

Aktualisieren Sie Ihre Data Refinery -Ablaufjobs so, dass sie die neue Umgebung Default Spark 3.4 & R 4.2 verwenden. Details finden Sie unter Ressourcenoptionen für Data Refinery in Projekten berechnen.

Woche endet am 2. Februar 2024

Beispielsammlung in Ressourcenhub umbenannt

2. Februar 2024

Die Beispielsammlung wird in Ressourcenhub umbenannt, um den Inhalt besser widerzuspiegeln. Der Ressourcenhub enthält Basismodelle und Beispielprojekte, Datasets und Notebooks. Siehe Ressourcenhub.

Verbindung zu IBM Cloud Databases for DataStax wird unterbrochen

2. Februar 2024

Die Verbindung IBM Cloud Databases for DataStax wurde aus IBM watsonx.aientfernt.

Dremio -Verbindung erfordert Aktualisierungen

2. Februar 2024

Zuvor hat die Dremio -Verbindung einen JDBC -Treiber verwendet. Jetzt verwendet die Verbindung einen Fahrer basierend auf Arrow Flight.

Wichtig: Aktualisieren Sie die Verbindungseigenschaften. Unterschiedliche Änderungen gelten für eine Verbindung für eine Dremio Software-Instanz (lokal) oder eine Dremio Cloud-Instanz.

Dremio Software: Aktualisieren Sie die Portnummer.

Die neue Standardportnummer, die von Flight verwendet wird, ist 32010. Sie können die Portnummer in der Datei dremio.conf bestätigen. Weitere Informationen finden Sie unter Konfiguration über dremio.conf .

Außerdem unterstützt Dremio keine Verbindungen mehr zu IBM Cloud Satellite.

Dremio Cloud: Aktualisieren Sie die Authentifizierungsmethode und den Hostnamen.

  1. Melden Sie sich bei Dremio an und generieren Sie ein persönliches Zugriffstoken. Anweisungen finden Sie unter Persönliche Zugriffstoken.
  2. Ändern Sie in IBM watsonx im Formular Create connection: Dremio den Authentifizierungstyp in Personal Access Token und fügen Sie die Tokeninformationen hinzu. (Die Authentifizierung Benutzername und Kennwort kann nicht mehr für die Verbindung zu einer Dremio -Cloudinstanz verwendet werden.)
  3. Wählen Sie Port ist SSL-fähigaus.

Wenn Sie den Standardhostnamen für eine Dremio -Cloudinstanz verwenden, müssen Sie ihn ändern:

  • Ändern Sie sql.dremio.cloud in data.dremio.cloud .
  • Ändern Sie sql.eu.dremio.cloud in data.eu.dremio.cloud .

Eingabeaufforderung-Optimierung des Basismodells llama-2-13b-chat

1. Februar 2024

Tuning Studio unterstützt jetzt die Optimierung des Basismodells llama-2-13b-chat . Entwickeln Sie zuerst Eingabeaufforderungen für das größere Modell llama-2-70b-chat im Eingabeaufforderungslabor, um effektive Eingabeaufforderungseingaben für Ihren Anwendungsfall zu finden. Optimieren Sie anschließend die kleinere Version des Modells Llama 2 , um vergleichbare, wenn nicht bessere Ausgaben mit Nullaufforderungen zu generieren. Das llama-2-13b-model ist für die Eingabeaufforderungsoptimierung in der Region Dallas verfügbar. Weitere Informationen finden Sie unter Tuning Studio.

Woche am 26. Januar 2024

AutoAI unterstützt geordnete Daten für alle Experimente

25. Januar 2024

Sie können jetzt geordnete Daten für alle AutoAI -Experimente anstelle von nur Zeitreihenexperimenten angeben. Geben Sie an, ob Ihre Trainingsdaten sequenziell nach einem Zeilenindex sortiert werden. Wenn Eingabedaten sequenziell sind, wird die Modellleistung für neueste Datensätze anstelle einer Zufallsstichprobe ausgewertet, und Holdout-Daten verwenden die letzten n Datensätze der Gruppe anstelle von n Zufallsdatensätzen. Sequenzielle Daten sind für Zeitreihenexperimente erforderlich, für Klassifikations-und Regressionsexperimente jedoch optional.

Q & A mit RAG-Beschleuniger

26. Januar 2024

Sie können jetzt eine Frage-und-Antwort-Lösung implementieren, die die erweiterte Abrufgenerierung verwendet, indem Sie ein Beispielprojekt importieren. Das Beispielprojekt enthält Notebooks und andere Assets, die Dokumente aus HTML oder PDF in einfachen Text konvertieren, Dokumentsegmente in einen Elasticsearch -Vektorindex importieren, eine Python -Funktion bereitstellen, die den Vektorindex abfragt, Top-N-Ergebnisse abrufen, LLM-Inferenz ausführen, um eine Antwort auf die Frage zu generieren, und die Antwort auf Halluzinationen prüfen.

Testen Sie Q & A mit RAG-Akzelerator.

Auf dunkles Motiv setzen

25. Januar 2024

Sie können Ihre watsonx -Benutzerschnittstelle jetzt auf das dunkle Motiv festlegen. Klicken Sie auf Ihren Avatar und wählen Sie Profil und Einstellungen aus, um Ihr Kontoprofil zu öffnen. Aktivieren Sie anschließend den Schalter für das Thema "Dunkel". Dunkles Motiv wird in RStudio und Jupyter Notebooks nicht unterstützt. Informationen zur Verwaltung Ihres Profils finden Sie unter Einstellungen verwalten.

IBM watsonx.ai ist in der Region Tokio verfügbar

25. Januar 2024

Watsonx.ai ist jetzt allgemein im Rechenzentrum Tokio verfügbar und kann bei der Anmeldung als bevorzugte Region ausgewählt werden. Das Prompt Lab und die Basismodellinferenz werden in der Region Tokio für folgende Modelle unterstützt:

  • elyza-japanese-llama-2-7b-instruct
  • flan-t5-xl-3b
  • flan-t5-xxl-11b
  • flan-ul2-20b
  • granite-13b-chat-v2
  • granite-13b-instruct-v2
  • llama-2-70b-chat
  • llama-2-13b-chat

Auch aus der Region Tokio erhältlich:

  • Eingabeaufforderungsoptimierung des Basismodells flan-t5-xl-3b mit Tuning Studio
  • Tabellarische Daten mit dem Synthetic Data Generator zur Verwendung für Trainingsmodelle generieren

Weitere Informationen zu den unterstützten Modellen finden Sie unter Supported foundation models available with watsonx.ai.

Ein Modell Llama 2 in japanischsprachiger Sprache ist in der Region Tokio verfügbar

25. Januar 2024

Das Basismodell elyza-japanese-llama-2-7b-instruct , das von ELYZA, Inc bereitgestellt wird, ist über watsonx.ai -Instanzen im Rechenzentrum von Tokio verfügbar. Das Modell elyza-japanese-llama-2-7b-instruct ist eine Version des Llama 2 -Modells von Meta, die trainiert wurde, japanischen Text zu verstehen und zu generieren.

Sie können dieses neue Modell für allgemeine Aufgaben verwenden. Es funktioniert gut für Japanisch-Sprachklassifikation und Extraktion und für die Übersetzung zwischen Japanisch und Englisch.

Woche bis 12. Januar 2024

Unterstützung für IBM Runtime 22.2 in Watson Machine Learning

11. Januar 2024

IBM Runtime 22.2 ist veraltet und wird am 11. April 2024 entfernt. Ab 7. März 2024 können Sie Notebooks oder angepasste Umgebungen nicht mithilfe der 22.2 -Laufzeiten erstellen. Außerdem können Sie keine neuen Modelle mit Softwarespezifikationen trainieren, die auf der Laufzeit 22.2 basieren. Aktualisieren Sie Ihre Assets und Implementierungen für die Verwendung von IBM Runtime 23.1 vor dem 7. März 2024.

IBM Granite v1 -Basismodelle sind veraltet

11. Januar 2024

Die IBM Granite 13 Milliarden-Parameter v1 -Basismodelle sind veraltet und werden am 11 April 2024 zurückgezogen. Wenn Sie Version 1 der Modelle verwenden, wechseln Sie stattdessen zu Version 2 der Modelle.

Veraltete IBM -Basismodelle
Veraltetes Modell Einstellung der Unterstützung Datum der Zurückziehung Alternatives Modell
granite-13b-chat-v1 11. Januar 2024 11. April 2024 granite-13b-chat-v2
granite-13b-instruct-v1 11. Januar 2024 11. April 2024 granite-13b-instruct-v2

Inferenzanforderungen, die über die API an die Modelle der Version 1 übergeben werden, generieren weiterhin Ausgabe, enthalten jedoch eine Warnung zur bevorstehenden Zurückziehung des Modells. Ab dem 11. April 2024 generieren API-Anforderungen für die Inferenz der Modelle keine Ausgabe.

Weitere Informationen zu IBM Granite -Basismodellen finden Sie unter Foundation models built by IBM. Weitere Informationen zur Einstellung der Unterstützung und Zurückziehung finden Sie unter Foundation model lifecycle.

Woche endet am 15. Dezember 2023

Benutzer-API-Schlüssel für Jobs und andere Operationen erstellen

15. Dezember 2023

Bestimmte Laufzeitoperationen in IBM watsonx, wie z. B. Jobs und Modelltraining, erfordern einen API-Schlüssel als Berechtigungsnachweis für sichere Autorisierung. Mit Benutzer-API-Schlüsseln können Sie jetzt einen API-Schlüssel nach Bedarf direkt in IBM watsonx generieren und rotieren, um sicherzustellen, dass Ihre Operationen reibungslos ausgeführt werden. Die API-Schlüssel werden in IBM Cloudverwaltet, aber Sie können sie bequem in IBM watsonxerstellen und rotieren.

Der Benutzer-API-Schlüssel ist kontospezifisch und wird aus Profil und Einstellungen unter Ihrem Kontoprofil erstellt.

Weitere Informationen finden Sie unter Benutzer-API-Schlüssel verwalten.

Neue Lernprogramme und Videos zu watsonx

15. Dezember 2023

Testen Sie die neuen Lernprogramme watsonx.governance und watsonx.ai , um zu lernen, wie Sie ein Basismodell optimieren und eine Eingabeaufforderungsvorlage bewerten und verfolgen können.

Neue Lernprogramme
Lernprogramm Beschreibung Fachkenntnisse für das Lernprogramm
Basismodell optimieren Optimieren Sie ein Basismodell, um die Modellleistung zu verbessern. Mit Tuning Studio können Sie ein Modell ohne Codierung optimieren.
Eingabeaufforderungsvorlage auswerten und verfolgen Evaluieren Sie eine Eingabeaufforderungsvorlage, um die Leistung des Basismodells zu messen, und verfolgen Sie die Eingabeaufforderungsvorlage über ihren Lebenszyklus hinweg. Verwenden Sie das Auswertungstool und einen KI-Anwendungsfall, um die Vorlage für Eingabeaufforderungen zu verfolgen.

Video ansehen Weitere Videos zu watsonx.governance und watsonx.ai finden Sie in der Videobibliothek.

Ablauf der neuen Anmeldesitzung und Abmeldung aufgrund von Inaktivität

15. Dezember 2023

Sie sind jetzt aufgrund des Sitzungsablaufs von IBM Cloud abgemeldet. Ihre Sitzung kann aufgrund des Ablaufs der Anmeldesitzung (standardmäßig 24 Stunden) oder aufgrund von Inaktivität (standardmäßig 2 Stunden) ablaufen. Sie können die Standarddauer in den Einstellungen für Zugriff (IAM) in IBM Cloudändern. Weitere Informationen finden Sie unter Ablauf der Anmeldesitzung festlegen.

Connector IBM Cloud Databases for DataStax wird nicht weiter unterstützt

15. Dezember 2023

Der Connector IBM Cloud Databases for DataStax ist veraltet und wird in einem zukünftigen Release eingestellt.

Woche bis 08. Dezember 2023

Tuning Studio ist verfügbar

7. Dezember 2023

Mit Tuning Studio können Sie ein Basismodell anleiten, um nützliche Ausgaben zurückzugeben. Mit Tuning Studio können Sie das Basismodell flan-t5-xl-3b optimieren, um die Leistung bei Verarbeitungsaufgaben für natürliche Sprache wie Klassifizierung, Zusammenfassung und Generierung zu verbessern. Die Eingabeaufforderungsoptimierung hilft kleineren, recheneffizienteren Basismodellen, Ergebnisse zu erzielen, die mit größeren Modellen in derselben Modellfamilie vergleichbar sind. Durch die Optimierung und Bereitstellung einer optimierten Version eines kleineren Modells können Sie langfristige Inferenzkosten reduzieren. Tuning Studio ist für Benutzer kostenpflichtiger Pläne in der Region Dallas verfügbar.

Neue Clienteigenschaften in Db2 -Verbindungen für Workload-Management

8. Dezember 2023

Sie können jetzt Eigenschaften in den folgenden Feldern für Überwachungszwecke angeben: Anwendungsname, Clientabrechnungsdaten, Client-Hostnameund Clientbenutzer. Diese Felder sind optional und für die folgenden Verbindungen verfügbar:

Woche endet am 1. Dezember 2023

Watsonx.governance ist verfügbar!

1. Dezember 2023

Watsonx.governance erweitert die Governance-Funktionen von Watson OpenScale , um Basismodellassets sowie Assets für maschinelles Lernen zu bewerten. Evaluieren Sie beispielsweise Vorlagen für Eingabeaufforderungen des Basismodells für Dimensionen wie Genauigkeit oder um das Vorhandensein von hasserfüllt und missbräuchlicher Sprache zu erkennen. Sie können auch KI-Anwendungsfälle definieren, um Geschäftsprobleme anzugehen, und anschließend Eingabeaufforderungsvorlagen oder Modelldaten in Factsheets verfolgen, um Compliance-und Governance-Ziele zu unterstützen. Watsonx.governance -Pläne und -Features sind nur in der Region Dallas verfügbar.

Mit dem KI-Risiko-Atlas erkunden

1. Dezember 2023

Sie können jetzt einige der Risiken untersuchen, die mit generativer KI, Basismodellen und Modellen für maschinelles Lernen verbunden sind. Informieren Sie sich über Risiken für Datenschutz, Fairness, Erklärbarkeit, Wertausrichtung und andere Bereiche. Siehe KI-Risiko-Atlas.

Neue Versionen der IBM Granite -Modelle sind verfügbar

30. November 2023

Die neuesten Versionen der Granite -Modelle enthalten die folgenden Änderungen:

granite-13b-chat-v2: Optimiert, um bei der Beantwortung von Fragen, Zusammenfassung und generativen Aufgaben besser zu sein. Generiert mit ausreichendem Kontext Antworten mit den folgenden Verbesserungen gegenüber der Vorgängerversion:

  • Generiert längere, qualitativ hochwertigere Antworten mit einem professionellen Ton
  • Unterstützung von "Chain-of-thought"-Antworten
  • Erkennt Erwähnungen von Personen und kann Ton und Stimmung besser erkennen
  • Behandelt Leerzeichen in der Eingabe anmutiger

Testen und überarbeiten Sie aufgrund umfangreicher Änderungen alle Eingabeaufforderungen, die für v1 entwickelt wurden, bevor Sie zur neuesten Version wechseln.

granite-13b-instruct-v2: Speziell für Klassifizierungs-, Extraktions-und Zusammenfassungstasks optimiert. Die neueste Version unterscheidet sich wie folgt von der vorherigen Version:

  • Gibt kohärentere Antworten unterschiedlicher Länge und mit einem vielfältigen Vokabular zurück
  • Erkennt Erwähnungen von Personen und kann längere Eingaben zusammenfassen
  • Behandelt Leerzeichen in der Eingabe anmutiger

Konstruierte Eingabeaufforderungen, die gut mit v1 funktionieren, funktionieren wahrscheinlich auch gut mit v2 , aber stellen Sie sicher, dass Sie Tests durchführen, bevor Sie Modelle wechseln.

Die neuesten Versionen der Granite -Modelle sind als Modelle der Klasse 2 kategorisiert.

Einige Basismodelle sind jetzt zu geringeren Kosten verfügbar

30. November 2023

Einige beliebte Basismodelle wurden in kostengünstigere Abrechnungsklassen neu kategorisiert.

Die folgenden Basismodelle wurden von Klasse 3 in Klasse 2 geändert:

  • granite-13b-chat-v1
  • granite-13b-instruct-v1
  • llama-2-70b

Das folgende Basismodell wurde von Klasse 2 in Klasse 1 geändert:

  • llama-2-13b

Weitere Informationen zu den Abrechnungsklassen finden Sie unter Pläne fürWatson Machine Learning.

Ein neues Beispielnotebook ist verfügbar: Einführung in RAG mit Erkennung

30. November 2023

Verwenden Sie das Notebook Introduction to RAG with Discovery , um zu erfahren, wie Sie das Muster für die erweiterte Generierung für Abruf in IBM watsonx.ai mit IBM Watson Discovery als Suchkomponente anwenden. Weitere Informationen finden Sie unter Einführung in RAG mit Erkennung.

Funktionsunterschiede zwischen watsonx as a Service und Softwareimplementierungen verstehen

30. November 2023

Sie können jetzt die Features und die Implementierung von IBM watsonx as a Service und watsonx in der Software Cloud Pak for Data Version 4.8vergleichen. Siehe Feature-Unterschiede zwischen watsonx -Bereitstellungen.

Änderung bei der Handhabung von Stoppfolgen

30. November 2023

Wenn eine Stoppfolge, z. B. ein Zeilenvorschubzeichen, im Eingabeaufforderungslabor angegeben wird, endet der Modellausgabetext nach dem ersten Auftreten der Stoppfolge. Die Modellausgabe wird gestoppt, auch wenn das Vorkommen am Anfang der Ausgabe auftritt. Zuvor wurde die Stoppfolge ignoriert, wenn sie am Anfang der Modellausgabe angegeben wurde.

Woche bis 10. November 2023

Eine kleinere Version des Llama-2 Chat-Modells ist verfügbar

9. November 2023

Sie können jetzt zwischen der Verwendung von 13b oder 70b -Versionen des Llama-2 Chat-Modells wählen. Berücksichtigen Sie bei Ihrer Auswahl die folgenden Faktoren:

  • Kosten
  • Leistung

Die Version 13b ist ein Modell der Klasse 2, was bedeutet, dass die Verwendung günstiger ist als die Version 70b . Informationen zum Vergleich von Benchmarks und anderen Faktoren, wie z. B. CO2-Emissionen für jede Modellgröße, finden Sie unter Modellkarte.

Eingabeaufforderungsvariablen zum Erstellen wiederverwendbarer Eingabeaufforderungen verwenden

Erhöhen Sie die Flexibilität Ihrer Eingabeaufforderungen mit Eingabeaufforderungsvariablen. Eingabeaufforderungsvariablen fungieren als Platzhalter im statischen Text Ihrer Eingabeaufforderungseingabe, die zur Inferenzzeit dynamisch durch Text ersetzt werden können. Sie können Eingabeaufforderungsvariablennamen und Standardwerte in einem Eingabeaufforderungsvorlagenasset speichern, um sich wiederzuverwenden oder mit Mitarbeitern in Ihrem Projekt gemeinsam zu nutzen. Weitere Informationen finden Sie unter Wiederverwendbare Eingabeaufforderungen erstellen.

Unterstützung für Python 3.10 und R4.2 -Frameworks und Softwarespezifikationen zur Laufzeit 23.1

9. November 2023

Sie können jetzt IBM Runtime 23.1verwenden, das die neuesten Data-Science-Frameworks auf Basis von Python 3.10 und R 4.2enthält, um Watson Studio Jupyter Notebooks und R-Scripts auszuführen, Modelle zu trainieren und Watson Machine Learning -Bereitstellungen auszuführen. Aktualisieren Sie Ihre Assets und Bereitstellungen für die Verwendung von IBM Runtime 23.1 -Frameworks und Softwarespezifikationen.

Verwenden Sie Apache Spark 3.4 , um Notebooks und Scripts auszuführen.

Spark 3.4 mit Python 3.10 und R 4.2 wird nun als Laufzeit für Notebooks und RStudio-Scripts in Projekten unterstützt. Details zu verfügbaren Notebookumgebungen finden Sie unter Ressourcenoptionen für den Notebook-Editor in Projekten berechnen und unter Ressourcenoptionen für RStudio in Projekten berechnen.

Woche am 27. Oktober 2023

Verwenden Sie einen Satellite -Connector, um eine Verbindung zu einer lokalen Datenbank herzustellen

26. Oktober 2023

Verwenden Sie den neuen Satellite -Connector, um eine Verbindung zu einer Datenbank herzustellen, auf die nicht über das Internet zugegriffen werden kann (z. B. hinter einer Firewall). Satellite Connector verwendet eine einfache Docker-basierte Kommunikation, die sichere und überprüfbare Kommunikation von Ihrer lokalen Umgebung zurück zu IBM Clouderstellt. Anweisungen hierzu finden Sie unter Verbindung zu Daten hinter einer Firewall herstellen.

Secure Gateway ist veraltet

26. Oktober 2023

IBM Cloud hat die Einstellung der Unterstützung von Secure Gatewayangekündigt. Informationen finden Sie unter Übersicht und Zeitachse.

Wenn Sie derzeit Verbindungen haben, die mit Secure Gatewayeingerichtet sind, planen Sie die Verwendung eines alternativen Kommunikationsverfahrens. In IBM watsonxkönnen Sie den Connector Satellite als Ersatz für Secure Gatewayverwenden. Siehe Verbindung zu Daten hinter einer Firewall herstellen.

Woche bis 20. Oktober 2023

Maximale Tokengrößen erhöht

16. Oktober 2023

Begrenzungen, die zuvor auf die maximale Anzahl von Token angewendet wurden, die in der Ausgabe von Basismodellen zulässig sind, werden aus bezahlten Plänen entfernt. Sie können größere maximale Tokenwerte während der Eingabeaufforderungsentwicklung aus dem Eingabeaufforderungslabor und der Python -Bibliothek verwenden. Die genaue Anzahl der zulässigen Token variiert je nach Modell. Weitere Informationen zu Tokenbegrenzungen für bezahlte und Lite-Pläne finden Sie unter Unterstützte Basismodelle.

Woche bis 13. Oktober 2023

Neue Notebooks in Beispielen

12. Oktober 2023

Es sind zwei neue Notebooks verfügbar, die eine Vektordatenbank aus Elasticsearch in der Abrufphase des Musters 'Retrieval-Augmented Generation' verwenden. Die Notebooks veranschaulichen, wie Übereinstimmungen auf der Basis der semantischen Ähnlichkeit zwischen den indexierten Dokumenten und dem von einem Benutzer übergebenen Abfragetext gefunden werden können.

Zwischenlösungen in Decision Optimization

12. Oktober 2023

Sie können jetzt ein Beispiel für Zwischenlösungen anzeigen, während ein Decision Optimization -Experiment ausgeführt wird. Dies kann für das Debugging oder zum Anzeigen des Fortschritts des Solvers nützlich sein. Bei großen Modellen, deren Lösung länger dauert, können Sie mit Zwischenlösungen jetzt schnell und einfach potenzielle Probleme mit der Lösung ermitteln, ohne auf den Abschluss der Lösung warten zu müssen. Grafische Anzeige mit Ausführungsstatistiken mit Zwischenlösungen. Sie können den Parameter für die Bereitstellung der temporären Lösung in der Ausführungskonfiguration konfigurieren und eine Häufigkeit für diese Lösungen auswählen. Weitere Informationen finden Sie unter Zwischenlösungen und Konfigurationsparameter ausführen.

Dialogfeld "Neues gespeichertes Decision Optimization -Modell"

Wenn Sie ein Modell zur Bereitstellung über die Benutzerschnittstelle von Decision Optimization speichern, können Sie jetzt das Eingabe-und Ausgabeschema überprüfen und die Tabellen, die Sie einschließen möchten, einfacher auswählen. Sie können auch Ausführungskonfigurationsparameter hinzufügen, ändern oder löschen, die Umgebung und die verwendeten Modelldateien überprüfen. Alle diese Elemente werden im selben Dialog Als Modell für Bereitstellung speichern angezeigt. Weitere Informationen finden Sie unter Decision Optimization.

Woche am 6. Oktober 2023

Weitere Gründungsmodelle in Frankfurt

5. Okt. 2023

Alle im Rechenzentrum Dallas verfügbaren Basismodelle sind jetzt auch im Rechenzentrum Frankfurt verfügbar. Das Eingabeaufforderungslabor watsonx.ai und die Basismodellinferenz werden jetzt in der Region Frankfurt für die folgenden Modelle unterstützt:

  • granite-13b-chat-v1
  • granite-13b-instruct-v1
  • llama-2-70b-chat
  • gpt-neox-20b
  • mt0-xxl-13b
  • starcoder-15.5b

Weitere Informationen zu diesen Modellen finden Sie unter Supported foundation models available with watsonx.ai.

Preisdetails finden Sie unter Pläne fürWatson Machine Learning.

Position einer neuen Spalte in der Verkettungsoperation steuern (Data Refinery)

6. Oktober 2023

Sie haben nun zwei Optionen, um die Position der neuen Spalte anzugeben, die sich aus der Operation Verketten ergibt: Als rechte Spalte im Dataset oder neben der ursprünglichen Spalte.

Spaltenposition der Verkettungsoperation

Zuvor wurde die neue Spalte am Anfang des Datasets platziert.

Wichtig:

Bearbeiten Sie die Operation Verketten in einem beliebigen der vorhandenen Data Refinery -Abläufe, um die neue Spaltenposition anzugeben. Andernfalls schlägt der Ablauf möglicherweise fehl.

Informationen zu Data Refinery -Operationen finden Sie unter GUI-Operationen in Data Refinery.

Woche bis 29 September 2023

IBM Granite -Basismodelle für die Generierung natürlicher Sprache

28. September 2023

Die ersten beiden Modelle der Granite -Familie der IBM -Basismodelle sind jetzt in der Region Dallas verfügbar:

  • granite-13b-chat-v1: Allgemeines Verwendungsmodell, das für Dialoganwendungsfälle optimiert ist
  • granite-13b-instruct-v1: Allgemeines Verwendungsmodell, das für die Beantwortung von Fragen optimiert ist

Beide Modelle sind 13B-parameter -Decodermodelle, die effizient eine Sprache in Englisch vorhersagen und generieren können. Sie sind wie alle Modelle der Granite -Familie für Unternehmen konzipiert. Granite -Modelle werden mit mehreren Terabyte an Daten aus Quellen in beiden allgemeinen Sprachen (z. B. dem öffentlichen Internet) und branchenspezifischen Datenquellen aus akademischen, wissenschaftlichen, rechtlichen und finanziellen Bereichen vortrainiert.

Probieren Sie sie heute im Prompt Lab aus oder führen Sie ein Beispielnotebook aus, das das Modell granite-13b-instruct-v1 für die Stimmungsanalyse verwendet.

Lesen Sie den Blogbeitrag Building AI for business: IBMs Granite foundation models , um mehr zu erfahren.

Woche endet am 22. September 2023

Decision Optimization -Java-Modelle

20. September 2023

Decision Optimization Java-Modelle können jetzt in Watson Machine Learningbereitgestellt werden. Durch die Verwendung der Java-Worker-API können Sie Optimierungsmodelle mit den Java-APIs OPL, CPLEX und CP Optimizer erstellen. Sie können Ihre Modelle jetzt ohne großen Aufwand lokal erstellen, packen und unter Watson Machine Learning bereitstellen, indem Sie die Boilerplate verwenden, die im öffentlichen Java-Worker GitHubbereitgestellt wird. Weitere Informationen finden Sie unter Java-Modelle für Decision Optimization.

Neue Notebooks im Ressourcenhub

21. September 2023

Sie können die folgenden neuen Notebooks im Ressourcenhub verwenden:

Woche bis 15. September 2023

Schnelle Entwicklung und synthetische Daten-Lernprogramme für den Schnelleinstieg

14. September 2023

Testen Sie die neuen Lernprogramme, um mehr über folgende Themen zu erfahren:

  • Basismodelle für Eingabeaufforderungen: Es gibt in der Regel mehrere Möglichkeiten, ein Basismodell für ein erfolgreiches Ergebnis aufzufordern. Im Eingabeaufforderungslabor können Sie mit Eingabeaufforderungen verschiedener Basismodelle experimentieren, Beispieleingabeaufforderungen untersuchen sowie Ihre besten Eingabeaufforderungen speichern und teilen. Eine Möglichkeit, die Genauigkeit der generierten Ausgabe zu verbessern, besteht darin, die erforderlichen Fakten als Kontext in Ihrem Eingabeaufforderungstext unter Verwendung des Abrufgenerierungsmusters bereitzustellen.
  • Synthetische Daten generieren: Sie können synthetische Tabellendaten in watsonx.aigenerieren. Der Vorteil synthetischer Daten besteht darin, dass Sie die Daten bedarfsgerecht beschaffen, dann an Ihren Anwendungsfall anpassen und in großen Mengen produzieren können.
Neue Lernprogramme
Lernprogramm Beschreibung Fachkenntnisse für das Lernprogramm
Basismodell mit Prompt Lab abfragen Experimentieren Sie mit Eingabeaufforderungen für verschiedene Basismodelle, erkunden Sie Beispieleingabeaufforderungen und speichern und teilen Sie Ihre besten Eingabeaufforderungen. Eingabeaufforderung für ein Modell mit Prompt Lab ohne Codierung.
Eingabeaufforderung an ein Basismodell mit dem Muster 'Retrieval augmented Generation' Rufen Sie ein Basismodell auf, indem Sie Informationen in einer Wissensbasis nutzen. Verwenden Sie das Muster 'Retrieval Augmented Generation' in einem Jupyter-Notebook, das Python -Code verwendet.
Synthetische Tabellendaten generieren Generieren Sie synthetische Tabellendaten mithilfe eines grafischen Ablaufeditors. Wählen Sie Operationen zum Generieren von Daten aus.

Watsonx.ai -Community

14. September 2023

Sie können jetzt der watsonx.ai Community für KI-Architekten und -Builder beitreten, um zu lernen, Ideen auszutauschen und Kontakte zu anderen zu knüpfen.

Woche am 8. September 2023

Synthetische Tabellendaten mit Synthetic Data Generator generieren

7. September 2023

Synthetic Data Generator ist jetzt in den Regionen Dallas und Frankfurt verfügbar und ein neues grafisches Editortool für watsonx.ai , mit dem Sie Tabellendaten für Trainingsmodelle generieren können. Mithilfe visueller Abläufe und eines statistischen Modells können Sie synthetische Daten auf der Basis Ihrer vorhandenen Daten oder eines angepassten Datenschemas erstellen. Sie können die ursprünglichen Daten maskieren und die synthetischen Daten in eine Datenbank oder als Datei exportieren.

Informationen zu den ersten Schritten finden Sie unter Synthetische Daten.

Llama-2 Foundation Model für die Generierung natürlicher Sprache und Chat

7. September 2023

Das Llama-2 -Basismodell von Meta ist jetzt in der Region Dallas verfügbar. Llama-2 Chat-Modell ist ein automatisch regressives Sprachmodell, das eine optimierte Umsetzungsarchitektur verwendet. Das Modell wird vorab mit öffentlich verfügbaren Onlinedaten trainiert und anschließend mithilfe von verstärktem Lernen aus menschlichem Feedback optimiert. Das Modell ist für kommerzielle und Forschungszwecke in englischsprachigen assistentenähnlichen Chat-Szenarien gedacht.

LangChain -Erweiterung für die Python -Bibliothek für Basismodelle

7. September 2023

Sie können jetzt das LangChain -Framework mit Basismodellen in watsonx.ai mit der neuen LangChain -Erweiterung für die Python -Basismodellbibliothek verwenden.

Dieses Beispielnotebook veranschaulicht die Verwendung der neuen Erweiterung: Beispielnotebook

Einführungsbeispiel für das Muster 'Retrieval Augmented Generation'

7. September 2023

Die abruferweiterte Generierung ist ein einfaches, leistungsfähiges Verfahren zur Nutzung einer Wissensbasis, um eine sachlich genaue Ausgabe von Basismodellen zu erhalten.

Siehe auch: Introduction to retrieval-augmented generation

Woche endet am 1. September 2023

Einstellung der Unterstützung von Kommentaren in Notebooks

31. August 2023

Ab heute ist es nicht mehr möglich, einem Notebook Kommentare über die Aktionsleiste des Notebooks hinzuzufügen. Alle vorhandenen Kommentare wurden entfernt.

Symbol für Kommentare in der Aktionsleiste des Notebooks

StarCoder -Basismodell für Codegenerierung und Codeumsetzung

31. August 2023

Das Modell StarCoder von Hugging Face ist jetzt in der Region Dallas verfügbar. Mit StarCoder können Sie Eingabeaufforderungen zum Generieren von Code oder zum Transformieren von Code aus einer Programmiersprache in eine andere erstellen. Ein Beispiel für eine Eingabeaufforderung veranschaulicht die Verwendung von StarCoder zum Generieren von Python -Code aus einer Gruppe von Anweisungen. Eine zweite Beispieleingabeaufforderung veranschaulicht die Verwendung von StarCoder zum Transformieren von Code, der in C++ geschrieben ist, in Python -Code.

IBM watsonx.ai ist in der Region Frankfurt verfügbar

31. August 2023

Watsonx.ai ist jetzt allgemein im Rechenzentrum in Frankfurt verfügbar und kann bei der Anmeldung als bevorzugte Region ausgewählt werden. Das Prompt Lab und die Basismodellinferenz werden in der Region Frankfurt für folgende Modelle unterstützt:

Woche am 25. August 2023

Zusätzliche Cacheerweiterungen für Watson Pipelines verfügbar

21. August 2023

Es sind weitere Optionen zum Anpassen Ihrer Pipelineablaufeinstellungen verfügbar. Sie können jetzt besser steuern, wann der Cache für Pipelineausführungen verwendet wird. Details finden Sie unter Standardeinstellungen verwalten.

Woche endet am 18. August 2023

Plannamensaktualisierungen für den Service Watson Machine Learning

18. August 2023

Ab sofort werden Plannamen für den IBM Watson Machine Learning -Service wie folgt aktualisiert:

  • Der v2 -Standardplan ist jetzt der Essentials -Plan. Der Plan soll Ihrem Unternehmen die Ressourcen bereitstellen, die für den Einstieg in die Arbeit mit Basismodellen und Assets für maschinelles Lernen erforderlich sind.

  • Der v2 Professional-Plan ist jetzt der Standard -Plan. Dieser Plan stellt Ressourcen bereit, die die meisten Unternehmen durch Asseterstellung bis zur produktiven Nutzung unterstützen.

Änderungen an den Plannamen ändern Ihre Servicebedingungen nicht. Wenn Sie also für die Verwendung des v2 -Standardplans registriert sind, erhält er jetzt den Namen Essentials, aber alle Plandetails bleiben unverändert. Wenn Sie für die Verwendung des v2 Professional-Plans registriert sind, gibt es keine anderen Änderungen als die Änderung des Plannamens in Standard.

Details zu den einzelnen Plänen finden Sie unter Watson Machine Learning -Pläne. Preisinformationen finden Sie auf der Seite mit dem Watson Machine Learning -Plan im IBM Cloud -Katalog.

Woche endet am 11 August 2023

Einstellung der Unterstützung von Kommentaren in Notebooks

7. August 2023

Am 31. August 2023 können Sie über die Aktionsleiste des Notebooks keine Kommentare mehr zu einem Notebook hinzufügen. Alle vorhandenen Kommentare, die auf diese Weise hinzugefügt wurden, werden entfernt.

Symbol für Kommentare in der Aktionsleiste des Notebooks

Woche endet am 4. August 2023

Erhöhtes Tokenlimit für Lite-Plan

4. August 2023

Wenn Sie den Lite-Plan zum Testen von Basismodellen verwenden, wird der Tokengrenzwert für die Eingabe und Ausgabe von Eingabeaufforderungen von 25.000 auf 50.000 pro Konto und Monat erhöht. Dies gibt Ihnen mehr Flexibilität beim Untersuchen von Basismodellen und beim Experimentieren mit Eingabeaufforderungen.

Benutzerdefinierte Textanalysevorlage (SPSS Modeler)

4. August 2023

Für SPSS Modelerkönnen Sie jetzt eine benutzerdefinierte Textanalysevorlage in ein Projekt hochladen. Dies bietet Ihnen mehr Flexibilität bei der Erfassung und Extraktion von Schlüsselkonzepten auf eine für Ihren Kontext spezifische Weise.

Woche am 28. Juli 2023

Python -Bibliothek für Basismodelle verfügbar

27. Juli 2023

Sie können jetzt Basismodelle in watsonx.ai programmgestützt über eine Python -Bibliothek anfordern.

Siehe: Foundation Models Python -Bibliothek

Woche endet am 14. Juli 2023

KI-Guardrails steuern

14. Juli 2023

Sie können jetzt im Prompt Lab steuern, ob AI-Guardrails aktiviert oder inaktiviert sind. KI-Guardrails entfernen potenziell schädlichen Text aus den Eingabe-und Ausgabefeldern. Schädlicher Text kann Hassreden, Missbrauch und Profanität beinhalten. Um das Entfernen potenziell schädlicher Texte zu verhindern, setzen Sie den Schalter AI guardrails auf "off". Siehe Hate speech, abuse, and profanity.

Das Prompt Lab mit AI-Guardrails eingestellt auf

Microsoft Azure SQL Database -Verbindung unterstützt die Azure Active Directory -Authentifizierung (Azure AD)

14. Juli 2023

Sie können jetzt Active Directory für die Verbindung Microsoft Azure SQL Database auswählen. Die Active Directory -Authentifizierung ist eine Alternative zur SQL Server -Authentifizierung. Mit dieser Erweiterung können Administratoren Benutzerberechtigungen für Azurezentral verwalten. Weitere Informationen finden Sie unter Microsoft Azure SQL Database connection.

Woche am 7. Juli 2023

Willkommen bei IBM watsonx.ai!

7. Juli 2023

IBM watsonx.ai stellt alle Tools bereit, die Sie für die Arbeit mit Machine Learning-und Basismodellen benötigen.

Get started:

Generative AI-Suche und -Antwort in dieser Dokumentation testen

7. Juli 2023

Sie können abgeleitete KI in Aktion sehen, indem Sie die neue Option für generative AI-Suche und -Antwort in der Dokumentation zu watsonx.ai ausprobieren. Die Antworten werden von einem großen Sprachmodell generiert, das in watsonx.ai ausgeführt wird und auf dem Inhalt der Dokumentation basiert. Dieses Feature ist nur verfügbar, wenn Sie die Dokumentation anzeigen, während Sie bei watsonx.aiangemeldet sind.

Geben Sie eine Frage in das Dokumentationssuchfeld ein und klicken Sie auf das Symbol Abgeleiteter KI-Suche und -Antwort (Symbol für abgeleitete KI-Suche und -Antwort testen). Das Teilfenster Generative AI search and answer wird geöffnet und beantwortet Ihre Frage.

Zeigt das Teilfenster für generative KI-Suche und -Antwort an

Generative KI-Suche und -Antwort
Diese Antworten werden von einem großen Sprachmodell in watsonx.ai basierend auf dem Inhalt der Produktdokumentation generiert. Weitere Informationen