0 / 0
Zurück zur englischen Version der Dokumentation
Glossar
Letzte Aktualisierung: 05. Dez. 2024
Glossar

Dieses Glossar enthält Begriffe und Definitionen für watsonx.ai und watsonx.governance.

In diesem Glossar werden die folgenden Querverweise verwendet:

  • Siehe verweist von einem nicht bevorzugten Begriff auf den bevorzugten Begriff oder von einer Abkürzung auf die ausgeschriebene Form.
  • Siehe auch verweist auf einen verwandten Begriff oder einen Begriff mit gegenteiliger Bedeutung.

A | B | C | D | E | F | G | H | I | J | K | L | M | N | O | P | R | S | T | U | V | W | Z

A

Tastenkürzel

In der Hochleistungsdatenverarbeitung eine spezialisierte Schaltung, die verwendet wird, um einen Teil der Rechenlast von der CPU zu nehmen, wodurch die Effizienz des Systems erhöht wird. In Deep Learning wird die GPU-beschleunigte Datenverarbeitung häufig verwendet, um einen Teil der Rechenworkload auf eine GPU auszulagern, während die Hauptanwendung von der CPU ausgeführt wird. Siehe auch Grafikverarbeitungseinheit.

Abrechenbarkeit

Die Erwartung, dass Organisationen oder Einzelpersonen während ihres gesamten Lebenszyklus das ordnungsgemäße Funktionieren der KI-Systeme, die sie entwerfen, entwickeln, betreiben oder bereitstellen, in Übereinstimmung mit ihren Rollen und geltenden Regulierungsrahmen sicherstellen. Dazu gehört auch die Bestimmung, wer für einen KI-Fehler verantwortlich ist, der Rechtsexperten dazu auffordern kann, die Haftung von Fall zu Fall zu bestimmen.

Aktivierungsfunktion

Eine Funktion, die die Ausgabe einer neuronalen Einheit bei einer Gruppe eingehender Aktivierungen von anderen Neuronen definiert.

aktives Lernen

Ein Modell für maschinelles Lernen, in dem das System mehr beschriftete Daten nur anfordert, wenn es sie benötigt.

aktive Metadaten

Metadaten, die basierend auf der Analyse durch Prozesse für maschinelles Lernen automatisch aktualisiert werden. Beispiel: Bei der Profilerstellung und Datenqualitätsanalyse werden Metadaten für Datenassets automatisch aktualisiert.

Aktive Laufzeit

Eine Instanz einer Umgebung, die ausgeführt wird, um Rechenressourcen für Assets bereitzustellen, die Code ausführen.

vorbereitung

Ein Algorithmus oder ein Programm, das mit einer Umgebung interagiert, um optimale Aktionen oder Entscheidungen zu erlernen, in der Regel durch Verstärkungslernen, um ein bestimmtes Ziel zu erreichen.

Agentic AI

Ein generativer KI-Ablauf, mit dem eine Eingabeaufforderung in mehrere Tasks zerlegt werden kann, Tasks geeigneten Gen-AI-Agenten zugeordnet werden und eine Antwort ohne manuellen Eingriff synthetisch erstellt werden kann.

KI

Siehe Künstliche Intelligenz.

KI-Beschleuniger

Spezialisierte Siliziumhardware für die effiziente Ausführung von KI-bezogenen Aufgaben wie Deep Learning, maschinelles Lernen und neuronale Netze für schnellere, energieeffiziente Datenverarbeitung. Es kann eine dedizierte Einheit in einem Kern, ein separates Chiplet auf einem Multi-Modul-Chip oder eine separate Karte sein.

KI-Ethik

Ein multidisziplinäres Feld, das untersucht, wie die positiven Auswirkungen von KI optimiert und gleichzeitig Risiken und negative Ergebnisse reduziert werden können. Beispiele für KI-ethische Fragen sind Datenverantwortlichkeit und Datenschutz, Fairness, Erklärbarkeit, Robustheit, Transparenz, ökologische Nachhaltigkeit, Inklusion, moralische Agentur, Werteausrichtung, Rechenschaftspflicht, Vertrauen und Technologiemissbrauch.

KI-Governance

Das Regulierungsprogramm eines Unternehmens durch seine Unternehmensanweisungen, Mitarbeiter, Prozesse und Systeme, um den gesamten KI-Lebenszyklus zu steuern, zu bewerten, zu überwachen und Korrekturmaßnahmen zu ergreifen, um sicherzustellen, dass das KI-System so funktioniert, wie es das Unternehmen beabsichtigt, wie es von seinen Stakeholdern erwartet wird und wie es die relevanten Bestimmungen erfordern.

KI-Sicherheit

Das Forschungsgebiet, das darauf abzielt, sicherzustellen, dass Systeme der künstlichen Intelligenz auf eine Weise arbeiten, die für die Menschheit von Vorteil ist und nicht versehentlich Schaden anrichtet, indem Themen wie Zuverlässigkeit, Fairness, Transparenz und Ausrichtung von KI-Systemen auf menschliche Werte angegangen werden.

KI-Service

Eine einsatzfähige Codeeinheit, die die Logik eines generativen KI-Anwendungsfalls enthält und einen Endpunkt für Inferenzen aus einer Anwendung bereitstellt.

KI-System

Siehe System für künstliche Intelligenz.

Algorithmus

Eine Formel, die auf Daten angewendet wird, um optimale Methoden zur Lösung analytischer Probleme zu bestimmen

Versicherungsnehmeranalyse

Das Studieren von Daten, um bedeutsame Muster in den Daten zu finden und auf Grundlage dieser Muster Schlussfolgerungen zu ziehen.

Angemessenes Vertrauen

In einem KI-System ein Maß an Vertrauen, das auf seine Genauigkeit, Zuverlässigkeit und Glaubwürdigkeit abgestimmt ist.

künstliche Intelligenz (KI)

Die Fähigkeit, Wissen in Form eines Modells zu erwerben, zu verarbeiten, zu erstellen und anzuwenden, um Vorhersagen, Empfehlungen oder Entscheidungen zu treffen

Künstliche Intelligenz (KI-System)

Ein System, das Vorhersagen, Empfehlungen oder Entscheidungen treffen kann, die physische oder virtuelle Umgebungen beeinflussen, und dessen Ausgaben oder Verhalten nicht unbedingt vom Entwickler oder Benutzer vorgegeben werden. KI-Systeme werden in der Regel mit großen Mengen an strukturierten oder unstrukturierten Daten trainiert und können so konzipiert sein, dass sie mit unterschiedlichen Autonomiegraden oder ohne Autonomie betrieben werden, um vom Menschen definierte Ziele zu erreichen.

Asset

Ein Element, das Informationen zu Daten, andere wertvolle Informationen oder Code enthält, der mit Daten arbeitet Siehe auch Datenasset.

Abrufmechanismus

Ein Mechanismus in Deep-Learning-Modellen, der bestimmt, auf welche Teile der Eingabe sich ein Modell beim Erzeugen der Ausgabe konzentriert.

AutoAI-Experiment

Ein automatisierter Trainingsprozess, der eine Reihe von Trainingsdefinitionen und -parametern berücksichtigt, um eine Gruppe von eingestuften Pipelines als Modellkandidaten zu erstellen.

B

Batchbereitstellung

Eine Methode zur Bereitstellung von Modellen, die Eingabedaten aus einer Datei, einer Datenverbindung oder verbundenen Daten in einem Speicherbucket verarbeitet und dann die Ausgabe an ein ausgewähltes Ziel schreibt.

systematischer Fehler

Systematischer Fehler in einem KI-System, das bewusst oder nicht so konzipiert wurde, dass es zu unfairen Entscheidungen führen kann. Verzerrungen können sowohl im KI-System als auch in den Daten, die zum Trainieren und Testen verwendet werden, auftreten. KI-Verzerrungen können in einem KI-System durch kulturelle Erwartungen, technische Einschränkungen oder unvorhergesehene Bereitstellungskontexte entstehen. Siehe auch Fairness.

Verzerrungserkennung

Der Prozess zur Berechnung der Fairness für Metriken, um auf der Basis bestimmter Attribute zu erkennen, wann AI-Modelle nicht akzeptable Ergebnisse liefern.

Verzerrungsminderung

Reduzierung von Verzerrungen in KI-Modellen durch Kuratierung von Trainingsdaten und Anwendung von Fairnessverfahren.

Binäre Klassifikation

Ein Klassifikationsmodell mit zwei Klassen Vorhersagen sind eine binäre Auswahl einer der beiden Klassen.

C

Klassifikationsmodell

Ein Vorhersagemodell, das Daten in unterschiedlichen Kategorien vorhersagt. Klassifikationen können binär sein, mit zwei Datenklassen oder mit mehreren Klassen, wenn mehr als zwei Kategorien vorhanden sind.

bereinigen

Hierdurch wird sichergestellt, dass alle Werte in einem Dataset konsistent sind und ordnungsgemäß aufgezeichnet werden.

CNN

Siehe Convolutional Neural Network.

Kognitive Zwangsfunktion

Ein Eingriff, der zu einem Zeitpunkt der Entscheidungsfindung angewendet wird, um heuristisches Denken zu unterbrechen und eine Person dazu zu veranlassen, analytisches Denken zu betreiben. Beispiele sind eine Checkliste, ein Diagnosezeitlimit oder das Bitten einer Person, eine Alternative auszuschließen.

Computerlinguistik

Interdisziplinäres Feld, das Ansätze zur computergestützten Modellierung natürlicher Sprachen untersucht.

Rechenressource

Die Hardware-und Softwareressourcen, die von einer Umgebungsvorlage definiert werden, um Assets in Tools auszuführen.

Fehlermatrix

Eine Leistungsmessung, die die Genauigkeit zwischen den positiven und negativen vorhergesagten Ergebnissen eines Modells im Vergleich zu positiven und negativen tatsächlichen Ergebnissen bestimmt.

Verbundenes Datenasset

Ein Verweis auf Daten, auf die über eine Verbindung zu einer externen Datenquelle zugegriffen wird.

Verbundenes Ordnerasset

Ein Verweis auf einen Ordner in IBM Cloud Object Storage.

Verbindung

Die Informationen, die zum Herstellen einer Verbindung zu einer Datenbank erforderlich sind. Die tatsächlich erforderlichen Informationen variieren je nach DBMS und Verbindungsaufbaumethode.

Verbindungsasset

Ein Asset, das Informationen enthält, die das Herstellen einer Verbindung zu einer Datenquelle ermöglichen.

Einschränkung

  • In Datenbanken eine Beziehung zwischen Tabellen.
  • In Decision Optimizationeine Bedingung, die durch die Lösung eines Problems erfüllt werden muss.

kontinuierliches Lernen

Automatisiert das Überwachen der Modellleistung, erneute Trainieren mit neuen Daten und erneute Bereitstellen, um die Vorhersagequalität sicherzustellen.

Convolutional Neural Network (CNN)

Eine Klasse neuronaler Netze, die häufig in Computer-Vision-Tasks verwendet wird und Faltungsschichten zur Verarbeitung von Bilddaten verwendet.

Core ML-Bereitstellung

Das Herunterladen einer Bereitstellung im Core ML-Format für die Verwendung in iOS-Apps.

Haupttext

Eine Sammlung von Quellendokumenten, die zum Trainieren eines Machine Learning-Modells verwendet werden.

CPLEX-Modell

Ein Decision Optimization -Modell, das formuliert ist, um von der CPLEX-Engine gelöst zu werden.

CPO-Modell

Ein Programmiermodell für Integritätsbedingungen, das zur Lösung durch die Engine Decision Optimization CP Optimizer (CPO) formuliert ist.

Kreuzvalidierung

Ein Verfahren zum Testen, wie gut ein Modell verallgemeinert wird, wenn keine ausgeschlossene Teststichprobe vorhanden ist. Bei der Kreuzvalidierung werden die Trainingsdaten in eine Anzahl von Subsets unterteilt und anschließend wird dieselbe Anzahl von Modellen erstellt, wobei jedes Subset wiederum zurückgehalten wird. Jedes dieser Modelle wird an der Holdout-Stichprobe getestet und die durchschnittliche Genauigkeit der Modelle an diesen Holdout-Stichproben wird verwendet, um die Genauigkeit des Modells zu schätzen, wenn es auf neue Daten angewendet wird.

kuratieren

Auswählen, Erfassen, Beibehalten und Verwalten von Inhalt, der für ein bestimmtes Thema relevant ist. Kuratieren von Daten bedeutet, dass sie zusätzlichen Wert erhalten, der verwaltet und ihnen hinzugefügt wird; dadurch entstehen aus Daten vertrauenswürdige Informationen und Wissen.

D

Datenasset

Ein Asset, das auf Daten verweist, z. B. eine hochgeladene Datei. Verbindungen und verbundene Datenassets werden auch als Datenassets betrachtet. Siehe auch Asset.

Datenimputation

Die Ersetzung fehlender Werte in einem Dataset durch geschätzte oder explizite Werte.

Data-Lake

Ein großes Datenspeicherrepository, das Rohdaten in einem beliebigen Format in einer unstrukturierten Architektur speichert. Data Lakes enthalten strukturierte und unstrukturierte Daten sowie Binärdaten für die Verarbeitung und Analyse.

Datenlakehouse

Eine einheitliche Datenspeicher-und Verarbeitungsarchitektur, die die Flexibilität eines Data Lakes mit den strukturierten Abfrage-und Leistungsoptimierungen eines Data-Warehouse kombiniert und eine skalierbare und effiziente Datenanalyse für KI-und Analyseanwendungen ermöglicht.

Data-Mining

Das Erfassen kritischer Geschäftsinformationen aus einer Datenquelle, Korrelieren der Informationen und Aufdecken von Zuordnungen, Mustern und Trends. Siehe auch Vorhersageanalyse.

Data Refinery-Ablauf

Eine Gruppe von Schritten zum Bereinigen und Formen von Daten, um ein neues Datenasset zu erzeugen

Datenwissenschaft

Die Analyse und Visualisierung von strukturierten und unstrukturierten Daten zum Aufspüren von Erkenntnissen und Wissen.

Dataset

Eine Sammlung von Daten, in der Regel in Form von Zeilen (Datensätzen) und Spalten (Feldern), die in einer Datei- oder Datenbanktabelle enthalten sind.

Datenquelle

Ein Repository, eine Warteschlange oder ein Feed zum Lesen von Daten, z. B. eine Datenbank.

Datentabelle

Eine Sammlung von Daten, in der Regel in Form von Zeilen (Datensätzen) und Spalten (Feldern), die in einer Tabelle enthalten sind.

Data-Warehouse

Ein großes, zentralisiertes Repository mit Daten, die aus verschiedenen Quellen erfasst und für die Berichterstellung und Datenanalyse verwendet werden. Es speichert in erster Linie strukturierte und semistrukturierte Daten, sodass Unternehmen fundierte Entscheidungen treffen können.

DDL

Siehe Distributed Deep Learning.

Entscheidungsgrenze

Eine Aufteilung von Datenpunkten in einem Bereich in unterschiedliche Gruppen oder Klassifizierungen.

Nur-Decoder-Modell

Ein Modell, das Ausgabetext Wort für Wort durch Inferenz aus der Eingabefolge generiert. Nur Decodermodelle werden für Aufgaben wie das Generieren von Text und das Beantworten von Fragen verwendet.

Deep Learning

Ein Berechnungsmodell, das mehrere Ebenen miteinander verbundener Knoten verwendet, die in hierarchischen Ebenen organisiert sind, um Eingabedaten (erste Ebene) durch eine Reihe von Berechnungen zu transformieren, um eine Ausgabe zu erzeugen (letzte Ebene). Deep Learning ist inspiriert von der Struktur und Funktion des menschlichen Gehirns. Siehe auch Verteiltes Deep Learning.

Deep Neural Network

Ein neuronales Netzwerk mit mehreren verborgenen Schichten, das komplexere Darstellungen der Daten ermöglicht

Deep Reasoning

Eine Klasse des maschinellen Lernens, bei der Systeme Erkenntnisse aus Daten generieren, um kognitive Aufgaben zu unterstützen, die über Wahrnehmung und Klassifizierung hinausgehen, z. B. gesunder Menschenverstand, Veränderung von Situationen, Planung und Entscheidungsfindung.

Bereitstellung

Ein Modell oder ein Anwendungspaket, das für Verwendung verfügbar ist.

Bereitstellungsbereich

Ein Arbeitsbereich, in dem Modelle bereitgestellt und Implementierungen verwaltet werden.

deterministisch

Beschreibt ein Merkmal von Computersystemen, wenn ihre Ausgaben vollständig durch ihre Eingaben bestimmt werden.

diskriminierende KI

Eine Klasse von Algorithmen, die sich auf die Suche nach einer Grenze konzentriert, die verschiedene Klassen in den Daten trennt.

Distributed Deep Learning (DDL)

Ein Ansatz für Deep-Learning-Training, der die Methoden der verteilten Datenverarbeitung nutzt. In einer DDL-Umgebung wird die Rechenworkload auf die Zentraleinheit und die Grafikverarbeitungseinheit verteilt. Siehe auch Deep Learning.

DOcplex

Eine Python -API zur Modellierung und Lösung von Decision Optimization -Problemen.

E

integrieren

Eine numerische Darstellung einer Informationseinheit, wie z. B. ein Wort oder ein Satz, als Vektor reeller Zahlen. Einbettungen sind gelernte, niedrigdimensionale Darstellungen von höherdimensionalen Daten. Siehe auch Codierung, Darstellung.

Emergenz

Eine Eigenschaft von Basismodellen, in denen das Modell Verhaltensweisen aufweist, die nicht explizit trainiert wurden.

Emergent-Verhalten

Ein Verhalten, das von einem foundation model gezeigt wird, das nicht ausdrücklich konstruiert wurde.

Encoder-Decoder-Modell

Ein Modell zum Verständnis von Eingabetext und zum Generieren von Ausgabetext auf der Basis des Eingabetexts. Encoder-Decoder-Modelle werden für Aufgaben wie Zusammenfassung oder Übersetzung verwendet.

Nur-Encoder-Modell

Ein Modell, das Eingabetext auf Satzebene versteht, indem es Eingabesequenzen in Darstellungsvektoren, so genannte Einbettungen, transformiert. Reine Encoder-Modelle werden für Aufgaben wie die Klassifizierung von Kundenfeedback und das Extrahieren von Informationen aus großen Dokumenten verwendet.

Codierung

Die Darstellung einer Informationseinheit, wie z. B. ein Zeichen oder ein Wort, als Gruppe von Zahlen. Siehe auch Einbetten, Positionscodierung.

Endpunkt-URL

Eine Netzzieladresse, die Ressourcen, wie z. B. Services und Objekte, angibt. Eine Endpunkt-URL wird beispielsweise verwendet, um die Position eines Modells oder einer Funktionsbereitstellung anzugeben, wenn ein Benutzer Nutzdaten an die Bereitstellung sendet.

Umgebung

Die Rechenressourcen für aktive Jobs.

Umgebungslaufzeit

Eine Instanziierung der Umgebungsvorlage zur Ausführung von Assets.

Umgebungsvorlage

Eine Definition, die Hardware- und Softwareressourcen zum Instanziieren von Umgebungslaufzeiten angibt.

Exogene Funktion

Eine Funktion, die das Vorhersagemodell beeinflussen kann, aber nicht im Gegenzug beeinflusst werden kann Beispielsweise können sich die Temperaturen auf vorhergesagte Eisverkäufe auswirken, die Eisverkäufe können sich jedoch nicht auf die Temperaturen auswirken.

experiment (Experiment)

Ein Modelltrainingsprozess, der eine Reihe von Trainingsdefinitionen und -parametern berücksichtigt, um die genaueste Modellkonfiguration zu bestimmen

Erklärbarkeit

  • Die Fähigkeit menschlicher Benutzer, Prognosen zu verfolgen, zu auditieren und zu verstehen, die in Anwendungen erstellt werden, die AI-Systeme verwenden.
  • Die Fähigkeit eines KI-Systems, Erkenntnisse zu liefern, die Menschen nutzen können, um die Ursachen der Vorhersagen des Systems zu verstehen.

F

Fairness

In einem KI-System die Gleichbehandlung von Einzelpersonen oder Gruppen von Einzelpersonen. Die Wahl eines bestimmten Begriffs der Gerechtigkeit für ein KI-System hängt von dem Kontext ab, in dem es verwendet wird. Siehe auch Verzerrung.

Element

Eine Eigenschaft oder ein Merkmal eines Elements in einem Dataset, z. B. eine Spalte in einem Arbeitsblatt. In einigen Fällen werden Features als Kombinationen anderer Features im Dataset entwickelt.

Feature-Engineering

Der Prozess der Auswahl, Transformation und Erstellung neuer Funktionen aus Rohdaten, um die Leistung und Vorhersagekraft von Modellen für maschinelles Lernen zu verbessern.

Featuregruppe

Eine Gruppe von Spalten eines bestimmten Datenassets zusammen mit den Metadaten, die für maschinelles Lernen verwendet werden

Featureauswahl

Ermitteln der Spalten mit Daten, die eine genaue Vorhersage oder Bewertung in einem Modell für maschinelles Lernen am besten unterstützen

Feature-Store

Ein zentrales Repository oder System, das Features verwaltet und organisiert und eine skalierbare und effiziente Möglichkeit bietet, Featuredaten in Pipelines und Anwendungen für maschinelles Lernen zu speichern, abzurufen und gemeinsam zu nutzen.

Featuretransformation

In AutoAI eine Phase der Pipelineerstellung, die Algorithmen anwendet, um die Trainingsdaten so zu transformieren und zu optimieren, dass das beste Ergebnis für den Modelltyp erzielt wird.

Federated Learning

Das Training eines allgemeinen Modells für maschinelles Lernen, das mehrere Datenquellen verwendet, die nicht verschoben, verknüpft oder gemeinsam genutzt werden. Das Ergebnis ist ein besser trainiertes Modell ohne Beeinträchtigung der Datensicherheit.

Bedienerführung für wenige Schritte

Ein Eingabeaufforderungsverfahren, bei dem dem Modell eine kleine Anzahl von Beispielen bereitgestellt wird, um die Ausführung der Task zu veranschaulichen.

Feinabstimmung

Der Prozess, bei dem ein vortrainiertes Modell angepasst wird, um eine bestimmte Aufgabe auszuführen, indem zusätzliche Schulungen durchgeführt werden. Die Feinabstimmung kann Folgendes beinhalten: (1) Aktualisieren der vorhandenen Parameter des Modells, bekannt als vollständige Feinabstimmung, oder (2) Aktualisieren einer Untergruppe der vorhandenen Parameter des Modells oder Hinzufügen neuer Parameter zum Modell und Trainieren dieser Parameter, während die vorhandenen Parameter des Modells eingefroren werden, bekannt als parametereffiziente Feinabstimmung.

Fluss

Eine Sammlung von Knoten, die eine Gruppe von Schritten zum Verarbeiten von Daten oder zum Trainieren eines Modells definieren.

foundation model

Ein KI-Modell, das an eine Vielzahl nachgeordneter Aufgaben angepasst werden kann. Basismodelle sind in der Regel groß angelegte generative Modelle, die mit unbeschrifteten Daten unter Selbstüberwachung trainiert werden. Als große Modelle können Basismodelle Milliarden von Parametern enthalten.

G

Gantt-Diagramm

Eine grafische Darstellung einer Projektzeitachse und -dauer, in der Plandaten als horizontale Balken entlang einer Zeitskala angezeigt werden.

Gen KI

Siehe generative KI.

Generative AI (Generation AI)

Eine Klasse von KI-Algorithmen, die verschiedene Inhaltstypen wie Text, Quellcode, Bilder, Audio und synthetische Daten erzeugen können.

Generative Variabilität

Das Merkmal generativer Modelle, um unterschiedliche Ausgaben zu erzeugen, auch wenn die Eingabe für das Modell konstant gehalten wird. Siehe auch probabilistisch.

Graphic Processing Unit (GPU)

Siehe Grafikverarbeitungseinheit.

grafisches Erstellungsprogramm

Ein Werkzeug zur Erstellung von Flow Assets durch visuelle Kodierung. Ein Erstellungsbereich ist ein Bereich, in den Objekte oder Knoten platziert werden können, die zum Erstellen eines Ablaufs verbunden werden können.

Grafikverarbeitungseinheit (Graphics Processing Unit, GPU)

Ein spezialisierter Prozessor, der entwickelt wurde, um Speicher schnell zu bearbeiten und zu ändern, um die Erstellung von Images in einem Rahmenpuffer zu beschleunigen, der für die Ausgabe an eine Anzeige bestimmt ist. GPUs werden aufgrund ihrer Parallelverarbeitungsfunktionalität im maschinellen Lernen stark ausgelastet. Siehe auch Direktaufruf.

Erdung

Bereitstellung eines großen Sprachmodells mit Informationen zur Verbesserung der Genauigkeit von Ergebnissen.

H

Halluzination

Eine Antwort eines foundation model, die themenfremde, sich wiederholende, falsche oder erfundene Inhalte enthält. Halluzinationen mit Details zur Erstellung können auftreten, wenn ein Modell zum Generieren von Text aufgefordert wird, das Modell jedoch nicht über genügend zugehörigen Text verfügt, um ein Ergebnis zu generieren, das die richtigen Details enthält.

HAP-Erkennung (HAP-Erkennung)

  • Die Fähigkeit, Hass, Missbrauch und Profanität sowohl in Eingabeaufforderungen, die von Benutzern übergeben werden, als auch in Antworten, die von einem KI-Modell generiert werden, zu erkennen und zu filtern.

HAP-Detektor (HAP-Detektor)

  • Ein Satzklassifikator, der potenziell schädliche Inhalte wie Hassreden, Beleidigungen und Obszönitäten aus der Ausgabe und Eingabe foundation model entfernt.

Aushaltset

Eine Gruppe beschrifteter Daten, die sowohl aus den Trainings-als auch aus den Validierungsgruppen absichtlich zurückgehalten werden und als unverzerrte Bewertung der Leistung des endgültigen Modells für unsichtbare Daten dienen.

Homogenisierung

Der Trend in der Machine-Learning-Forschung, bei der eine kleine Anzahl von Deep Neural Net-Architekturen, wie z. B. der Transformator, über eine Vielzahl von Aufgaben hinweg modernste Ergebnisse erzielen.

HPO

Siehe Hyperparameteroptimierung.

Menschliche Aufsicht

Menschliche Beteiligung an der Überprüfung von Entscheidungen, die von einem KI-System getroffen wurden, und ermöglicht menschliche Autonomie und Verantwortlichkeit von Entscheidungen.

Hyperparameter

Bei maschinellem Lernen ein Parameter, dessen Wert vor dem Training zur Erhöhung der Modellgenauigkeit festgelegt wird.

Hyperparameteroptimierung (HPO)

Das Setzen von Hyperparameterwerten auf die Einstellungen, die das genaueste Modell bereitstellen.

I

Abbildung

Ein Softwarepaket, das eine Gruppe von Bibliotheken enthält.

Inkrementelles Lernen

Der Prozess zum Trainieren eines Modells unter Verwendung von Daten, die kontinuierlich aktualisiert werden, ohne dass Daten aus den vorherigen Tasks vergessen werden. Dieses Verfahren wird verwendet, um ein Modell mit Datenbatches aus einer großen Trainingsdatenquelle zu trainieren.

Inferencing

Der Prozess der Ausführung von Livedaten über ein trainiertes KI-Modell, um eine Vorhersage zu erstellen oder eine Task zu lösen.

aufnehmen

  • Das fortlaufende Hinzufügen eines hohen Echtzeitdatenvolumens zu einer Datenbank.
  • Daten in ein System einspeisen, um eine Wissensbasis zu erstellen.

Erkenntnis

Ein genaues oder tiefes Verständnis von etwas. Erkenntnisse werden mithilfe kognitiver Analysen gewonnen, um aktuelle Momentaufnahmen und Vorhersagen zu Kundenverhalten und -einstellungen bereitzustellen.

intelligente KI

Künstliche Intelligenz Systeme, die Wissen verstehen, lernen, anpassen und implementieren können, zeigen Fähigkeiten wie Entscheidungsfindung, Problemlösung und Verständnis für komplexe Konzepte, ähnlich wie menschliche Intelligenz.

Absicht

Ein Zweck oder Ziel, das durch die Eingabe des Kunden in einen Chatbot ausgedrückt wird, z. B. die Beantwortung einer Frage oder die Verarbeitung einer Rechnungszahlung.

J

Job

Eine separat ausführbare Arbeitseinheit.

K

Wissensdatenbank

Siehe Korpus.

L

Bezeichnung (Label)

Eine Klasse oder Kategorie, die einem Datenpunkt in überwachtem learning.Labels zugeordnet ist, kann aus Daten abgeleitet werden, wird aber häufig von Labelern oder Annotatoren angewendet.

Gekennzeichnete Daten

Rohdaten, denen Bezeichnungen zugeordnet sind, um Kontext oder Bedeutung hinzuzufügen, sodass sie zum Trainieren von Modellen für maschinelles Lernen verwendet werden kann. Numerische Werte können beispielsweise als Postleitzahlen oder Alter bezeichnet werden, um Kontext für Modelleingaben und -ausgaben bereitzustellen.

Large Language Model (LLM)

Ein Sprachmodell mit einer großen Anzahl von Parametern, das mit einer großen Textmenge trainiert wurde.

Latenter Raum

Ein n-dimensionaler mathematischer Raum, in den Dateninstanzen eingebettet werden. In einem zweidimensionalen latenten Raum werden Daten als Punkte in einer 2D -Ebene eingebettet (siehe auch: Darstellungsbereich). Siehe auch Darstellungsbereich.

LLM

Siehe Large Language Model.

M

Maschinelles Lernen (ML)

Ein Zweig der künstlichen Intelligenz (KI) und Informatik, der sich auf die Verwendung von Daten und Algorithmen konzentriert, um die Art und Weise zu imitieren, wie Menschen lernen, und schrittweise die Genauigkeit von KI-Modellen verbessert.

Framework für maschinelles Lernen

Die Bibliotheken und die Laufzeit für das Training und die Bereitstellung eines Modells.

Machine Learning-Modell

Ein KI-Modell, das mit einer Gruppe von Daten trainiert wird, um Algorithmen zu entwickeln, mit denen es neue Daten analysieren und daraus lernen kann.

mentales Modell

Das Verständnis einer Person darüber, wie ein System funktioniert und wie sich ihre Aktionen auf Systemergebnisse auswirken. Wenn diese Erwartungen nicht mit den tatsächlichen Leistungsmerkmalen eines Systems übereinstimmen, kann dies zu Frustration, Abbruch oder Missbrauch führen.

Fehlausrichtung

Eine Diskrepanz zwischen den Zielen oder Verhaltensweisen, für die ein KI-System optimiert ist, und den wahren, oft komplexen Zielen seiner Benutzer oder Designer

Maschinelles Lernen

Siehe Machine Learning.

MLOps

  • Eine Methodik, die ein Modell für maschinelles Lernen von der Entwicklung bis zur Produktion verwendet.
  • Das Verfahren für die Zusammenarbeit zwischen Data-Scientists und Betriebsexperten, um das Management des Produktionslebenszyklus für maschinelles Lernen (oder Deep Learning) zu unterstützen MLOps ist darauf ausgerichtet, die Automatisierung zu verbessern und die Qualität von Produktions-ML zu verbessern und sich gleichzeitig auf geschäftliche und regulatorische Anforderungen zu konzentrieren. Es umfasst Modellentwicklung, Training, Validierung, Implementierung, Überwachung und Management und verwendet Methoden wie CI/CD.

modell

  • In einem Kontext für maschinelles Lernen eine Gruppe von Funktionen und Algorithmen, die anhand eines Datasets trainiert und getestet wurden, um Vorhersagen oder Entscheidungen bereitzustellen.
  • In Decision Optimization eine mathematische Formulierung eines Problems, das mit CPLEX-Optimierungsengines unter Verwendung unterschiedlicher Datasets gelöst werden kann.

ModelOps

Eine Methodik für die Verwaltung des gesamten Lebenszyklus eines KI-Modells, einschließlich Training, Implementierung, Scoring, Evaluierung, erneutes Training und Aktualisierung.

Überwachte Gruppe

Eine Datenklasse, die überwacht wird, um festzustellen, ob die Ergebnisse eines Vorhersagemodells signifikant von den Ergebnissen der Referenzgruppe abweichen. Gruppen werden häufig auf der Basis von Merkmalen wie Rasse, Geschlecht oder Alter überwacht.

Klassifikationsmodell mit mehreren Klassen

Eine Klassifikationsaufgabe mit mehr als zwei Klassen. Beispiel: Wenn ein binäres Klassifikationsmodell Werte mit 'Ja' oder 'Nein' vorhersagt, sagt ein Modell mit mehreren Klassen 'Ja', 'Nein', 'Vielleicht' oder 'Nicht zutreffend' voraus.

Multimodales Modell

Ein generatives KI-Modell, das mehrere Datentypen wie Text, Bilder und Audio verarbeiten und zwischen ihnen konvertieren kann. Ein multimodales Modell kann beispielsweise eine Texteingabe verwenden und eine Bildausgabe generieren.

multivariate Zeitreihe

Zeitreihenexperiment, das zwei oder mehr sich ändernde Variablen enthält Beispiel: Ein Zeitreihenmodell prognostiziert den Stromverbrauch von drei Kunden.

N

Verarbeitung natürlicher Sprache (NLP – Natural Language Processing)

Ein Gebiet der künstlichen Intelligenz und der Linguistik, in dem die Probleme untersucht werden, die bei der Verarbeitung und Bearbeitung der natürlichen Sprache inhärent sind, wobei das Ziel die Verbesserung der Fähigkeit von Computern ist, menschliche Sprache zu verstehen.

Bibliothek für Verarbeitung natürlicher Sprache

Eine Bibliothek, die grundlegende Verarbeitungsfunktionen für natürliche Sprache für die Syntaxanalyse und sofort einsatzfähige vortrainierte Modelle für eine Vielzahl von Textverarbeitungstasks bereitstellt.

neuronales Netz

Ein mathematisches Modell für das Vorhersagen oder Klassifizieren von Fällen unter Verwendung eines komplexen mathematischen Schemas, das eine abstrakte Version von Gehirnzellen simuliert. Ein neuronales Netz wird trainiert, indem es eine hohe Anzahl beobachteter Fälle verarbeiten muss, wobei es sich wiederholt selbst aktualisieren kann, bis die Aufgabe erlernt wurde.

NLP

Siehe Verarbeitung natürlicher Sprache.

Knoten

In einem SPSS Modeler -Ablauf die grafische Darstellung einer Datenoperation.

Notizbuch

Ein interaktives Dokument, das ausführbaren Code, beschreibenden Text für diesen Code und die Ergebnisse eines beliebigen Codes enthält, der ausgeführt wird.

Notebook-Kernel

Der Teil des Notebook-Editors, der Code ausführt und die Berechnungsergebnisse zurückgibt.

O

Objektspeicher

Eine Methode zum Speichern von Daten, die in der Regel in der Cloud verwendet werden. Hierbei werden die Daten als diskrete Einheiten oder Objekte in einem Speicherpool oder Repository gespeichert, der oder die keine Dateihierarchie verwendet, sondern alle Objekte auf derselben Ebene speichert.

Einmaliges Lernen

Ein Modell für Deep Learning, das auf der Prämisse basiert, dass das meiste menschliche Lernen stattfindet, wenn man nur ein oder zwei Beispiele erhält. Dieses Modell ähnelt dem nicht überwachten Lernen.

Einmalige Aufforderung

Ein Eingabeaufforderungsverfahren, bei dem ein einzelnes Beispiel für das Modell bereitgestellt wird, um die Ausführung der Task zu veranschaulichen.

Onlinebereitstellung

Methode zum Zugreifen auf eine Modell-oder Python -Codebereitstellung über einen API-Endpunkt als Web-Service zum Generieren von Vorhersagen online in Echtzeit.

Ontologie

Eine explizite formale Spezifikation der Darstellung von Objekten, Konzepten und anderen Entitäten, die in einem bestimmten Interessengebiet vorhanden sein können, und die Beziehungen zwischen ihnen.

Operatives Asset

Ein Asset, das Code in einem Tool oder einem Job ausführt.

Optimierung

Der Prozess der Suche nach der am besten geeigneten Lösung für ein genau definiertes Problem unter Beachtung der auferlegten Einschränkungen. Sie können beispielsweise festlegen, wie Ressourcen zugeordnet werden oder wie die besten Elemente oder Kombinationen aus einer großen Gruppe von Alternativen gefunden werden.

Programmiersprache für Optimierung

Eine Modellierungssprache für das Ausdrücken von Modellformulierungen von Optimierungsproblemen in einem Format, das von CPLEX-Optimierungsengines wie IBM CPLEX gelöst werden kann.

Optimierte Metrik

Ein Messwert zum Messen der Leistung des Modells. Die Genauigkeit ist beispielsweise die typische Metrik, die zum Messen der Leistung eines binären Klassifikationsmodells verwendet wird.

Orchestrierung

Der Prozess der Erstellung eines End-to-End-Ablaufs, der ein Modell für maschinelles Lernen trainieren, ausführen, bereitstellen, testen und auswerten kann und die Automatisierung verwendet, um das System zu koordinieren, wobei häufig Mikroservices verwendet werden.

Überabhängigkeit

Die Annahme einer falschen Empfehlung durch einen Benutzer durch ein KI-Modell. Siehe auch Abhängigkeit, Abhängigkeit.

P

Parameter

  • Ein konfigurierbarer Teil des Modells, der für ein Modell intern ist und dessen Werte geschätzt oder aus Daten gelernt werden. Parameter sind Aspekte des Modells, die während des Trainingsprozesses angepasst werden, damit das Modell die Ausgabe präzise vorhersagen kann. Die Leistung und Vorhersagekraft des Modells hängen weitgehend von den Werten dieser Parameter ab.
  • Eine Gewichtung mit reellen Werten zwischen 0.0 und 1.0 , die die Stärke der Verbindung zwischen zwei Neuronen in einem neuronalen Netz angibt.

Teilnehmer

In Federated Learning eine Entität, die Daten zum Trainieren eines allgemeinen Modells beiträgt. Die Daten werden nicht verschoben oder kombiniert, aber jede Partei profitiert vom föderierten Training.

Nutzdaten

Die Daten, die an eine Bereitstellung übergeben werden, um einen Score, eine Vorhersage oder eine Lösung zurückzugeben.

Nutzdatenprotokollierung

Die Erfassung von Nutzdaten und Bereitstellungsausgaben, um den einwandfreien Status der AI in Geschäftsanwendungen fortlaufend zu überwachen.

pipeline (Pipeline)

  • In Watson Pipelines, einem durchgängigen Fluss von Assets von der Erstellung bis zur Bereitstellung.
  • In AutoAI, ein Kandidatenmodell.

Pipelinebestenliste

In AutoAI, eine Tabelle, die die Liste der automatisch generierten Modellkandidaten als Pipelines anzeigt, geordnet nach den angegebenen Kriterien.

Richtlinie

Eine Strategie oder Regel, die ein Agent befolgt, um die nächste Aktion basierend auf dem aktuellen Status zu bestimmen.

Positionsgebundene Codierung

Eine Codierung einer geordneten Folge von Daten, die Positionsinformationen enthält, z. B. die Codierung von Wörtern in einem Satz, der die Position jedes Wortes innerhalb des Satzes enthält. Siehe auch Codierung.

Vorhersageanalysen

Ein Geschäftsprozess und eine Gruppe verwandter Technologien, die sich mit der Vorhersage zukünftiger Möglichkeiten und Trends befassen. Die Vorhersageanalyse wendet so unterschiedliche Disziplinen wie Wahrscheinlichkeit, Statistik, maschinelles Lernen und künstliche Intelligenz auf Geschäftsprobleme an, um die beste Aktion für eine bestimmte Situation zu finden. Siehe auch Data-Mining.

Vortrainiertes Modell

Ein KI-Modell, das zuvor für ein großes Dataset trainiert wurde, um eine bestimmte Aufgabe auszuführen. Vortrainierte Modelle werden verwendet, anstatt ein Modell völlig neu zu erstellen.

Vortraining

Der Prozess, mit dem ein Modell für maschinelles Lernen in einem großen Dataset trainiert wird, bevor es für eine bestimmte Task optimiert wird

schutz

Gewährleistung, dass Informationen über eine Person vor unbefugtem Zugriff und unangemessener Verwendung geschützt sind.

probabilistisch

Die Eigenschaft, randomisiert zu sein; nicht deterministisch. Probabilistische Modelle erzeugen bei denselben Eingaben nicht dieselben Ausgaben. Siehe auch generative Variabilität.

Projekt

Ein interaktiver Arbeitsbereich für die Arbeit mit Daten und anderen Assets.

Systemanfrage

  • Daten, wie z. B. Text oder ein Bild, die die Ausgabe eines foundation model vorbereiten, anweisen oder bedingen.
  • Eine Komponente einer Aktion, mit der angegeben wird, dass eine Benutzereingabe für ein Feld erforderlich ist, bevor ein Übergang zur Ausgabeanzeige erfolgt.

Entwicklung von Eingabeaufforderungen

Der Prozess des Entwerfens von Eingabeaufforderungen für natürliche Sprache für ein Sprachmodell, um eine bestimmte Task auszuführen

Bedienerführung

Der Prozess der Bereitstellung von Input für ein foundation model, um es zu veranlassen, Output zu produzieren.

Prompt-Tuning

Eine effiziente, kostengünstige Möglichkeit, ein vorab trainiertes Modell an neue Aufgaben anzupassen, ohne das Modell neu zu trainieren oder seine Gewichtungen zu aktualisieren Zur Optimierung von Eingabeaufforderungen gehört das Lernen einer kleinen Anzahl neuer Parameter, die an die Eingabeaufforderung eines Modells angehängt werden, während die vorhandenen Parameter des Modells eingefroren werden.

Reduzieren

Der Prozess zum Vereinfachen, Verkleinern oder Trimmen eines Entscheidungsbaums oder neuronalen Netzes. Dies geschieht durch Entfernen weniger wichtiger Knoten oder Ebenen, wodurch die Komplexität reduziert wird, um eine Überanpassung zu verhindern und die Modellgeneralisierung zu verbessern, während die Vorhersagekraft erhalten bleibt.

Python

Eine Programmiersprache, die in Data-Science und KI verwendet wird.

Python-Funktion

Eine Funktion, die Python -Code zur Unterstützung eines Modells in der Produktion enthält.

Q

Unterteilung

Eine Methode zur Komprimierung der Gewichte foundation model, um die Inferenz zu beschleunigen und den Speicherbedarf der GPU zu reduzieren.

R

R

Eine erweiterbare Scriptsprache, die in Data-Science und KI verwendet wird und eine Vielzahl von analytischen, statistischen und grafischen Funktionen und Verfahren bietet.

RAG

Siehe Erweiterte Generierung abrufen.

Zufallswert

Eine Zahl, die zum Initialisieren eines Pseudozufallszahlengenerators verwendet wird. Random Seeds ermöglichen Reproduzierbarkeit für Prozesse, die auf Zufallszahlengenerierung angewiesen sind.

Referenzgruppe

Eine Gruppe, die als am wahrscheinlichsten identifiziert wird, ein positives Ergebnis in einem Vorhersagemodell zu erhalten. Die Ergebnisse können mit einer überwachten Gruppe verglichen werden, um potenzielle Verzerrungen in den Ergebnissen zu suchen.

verfeinern

Hiermit werden Daten bereinigt und geformt.

Regressionsmodell

Ein Modell, das eine abhängige Variable mit einer oder mehreren unabhängigen Variablen in Beziehung setzt.

Verstärkungslernen

Ein maschinelles Lernverfahren, bei dem ein Agent lernt, sequenzielle Entscheidungen in einer Umgebung zu treffen, um ein Belohnungssignal zu maximieren. Inspiriert durch Test-und Fehlerschulungen interagieren Agenten mit der Umgebung, erhalten Feedback und passen ihre Aktionen an, um optimale Richtlinien zu erreichen.

Verstärkung des Lernens am menschlichen Feedback (RLHF)

Eine Methode zum Ausrichten der Antworten eines Sprachlernmodells auf die Anweisungen in einer Eingabeaufforderung. RLHF erfordert, dass Annotatorbenutzer mehrere Ausgaben aus dem Modell einstufen. Diese Rankings werden dann verwendet, um ein Belohnungsmodell durch Verstärkungslernen zu trainieren. Das Belohnungsmodell wird dann verwendet, um die Ausgabe des großen Sprachmodells zu optimieren.

Abhängigkeit

In KI-Systemen die Annahme einer Empfehlung durch einen Benutzer oder die von einem KI-Modell generierte Ausgabe. Siehe auch Überabhängigkeit, Unterabhängigkeit.

Darstellung

Eine Codierung einer Informationseinheit, häufig als Vektor reeller Zahlen. Siehe auch Einbetten.

Darstellungsbereich

Ein n-dimensionaler mathematischer Raum, in den Dateninstanzen eingebettet werden. Ein zweidimensionaler latenter Raum integriert Daten als Punkte in einer 2D -Ebene (siehe auch: latenter Raum). Siehe auch Latenter Speicherbereich.

Neueinstufung

Ein generatives KI-Verfahren zur Einstufung einer Reihe von Dokumentenpassagen von der höchsten bis zur niedrigsten Wahrscheinlichkeit, eine bestimmte Anfrage zu beantworten.

Abruf, erweiterte Generierung (RAG)

Ein Verfahren, bei dem ein großes Sprachmodell mit Wissen aus externen Quellen erweitert wird, um Text zu generieren. Im Abrufschritt werden relevante Dokumente aus einer externen Quelle aus der Abfrage des Benutzers identifiziert. Im Generierungsschritt werden Teile dieser Dokumente in die LLM-Eingabeaufforderung eingeschlossen, um eine geerdete Antwort in den abgerufenen Dokumenten zu generieren.

Prämie

Ein Signal, das verwendet wird, um einen Agenten zu führen, in der Regel einen Verstärkungslernagenten, der Feedback zur Güte einer Entscheidung gibt

RLHF

Siehe Verstärktes Lernen auf menschliches Feedback.

Laufzeitumgebung

Die vordefinierte oder angepasste Hardware-und Softwarekonfiguration, die zum Ausführen von Tools oder Jobs wie Notebooks verwendet wird.

S

Scoring

  • Bei maschinellem Lernen die Messung der Konfidenz eines vorhergesagten Ergebnisses.
  • Ein Prozess, der berechnet, wie eng die Attribute für eine ankommende Identität mit den Attributen einer vorhandenen Entität übereinstimmen.

Skript

Eine Datei, die Python -oder R-Scripts zur Unterstützung eines Modells in der Produktion enthält.

Selbstkontrolle

Ein Abrufmechanismus, der Informationen aus den Eingabedaten selbst verwendet, um festzulegen, auf welche Teile der Eingabe beim Generieren der Ausgabe der Fokus gelegt werden soll.

Selbstüberwachtes Lernen

Eine Trainingsmethode für maschinelles Lernen, bei der ein Modell aus nicht beschrifteten Daten lernt, indem es Tokens in einer Eingabesequenz maskiert und dann versucht, sie vorherzusagen. Ein Beispiel ist "Ich mag ________ Sprossen".

Stimmungsanalyse

Untersuchung der im Text ausgedrückten Stimmung oder Emotion, z. B. ob eine Filmbewertung positiv oder negativ ist.

Form

Das Anpassen von Daten durch Filtern, Sortieren, Entfernen von Spalten, Verkettung von Tabellen und Ausführen von Operationen, die Berechnungen, Datengruppierungen, Hierarchien usw. umfassen.

Small Data

Daten, die für Menschen zugänglich und verständlich sind. Siehe auch Strukturierte Daten.

SQL-Pushback

In SPSS Modeler das Ausführen vieler Datenaufbereitungs- und Mining-Operationen direkt in der Datenbank über SQL-Code.

strukturierte Daten

Daten, die sich in festen Feldern innerhalb eines Datensatzes oder einer Datei befinden. Relationale Datenbanken und Arbeitsblätter sind Beispiele für strukturierte Daten. Siehe auch Unstrukturierte Daten, kleine Daten.

strukturierte Informationen

Elemente, die in strukturierten Ressourcen gespeichert sind, z. B. Suchmaschinenindizes, Datenbanken oder Wissensbasen.

überwachtes Lernen

Eine Trainingsmethode für maschinelles Lernen, bei der ein Modell mit einem gekennzeichneten Dataset trainiert wird, um Vorhersagen für neue Daten zu treffen.

T

Temperatur

Ein Parameter in einem generativen Modell, der den Umfang der Variation im Generierungsprozess angibt. Höhere Temperaturen führen zu einer größeren Variabilität der Modellausgabe.

Textklassifikation

Ein Modell, das Text automatisch in angegebenen Kategorien identifiziert und klassifiziert.

Textextraktion

Eine generative KI-Methode zur Umwandlung stark strukturierter Informationen in ein einfacheres Textformat zur Verwendung als Eingabe für große Sprachmodelle.

Zeitreihe

Eine Gruppe von Werten einer Variablen zu periodischen Zeitpunkten.

Zeitreihenmodell

Ein Modell, das Daten im Zeitverlauf verfolgt und vorhersagt.

Jeton

Eine diskrete Bedeutungs-oder Analyseeinheit in einem Text, z. B. ein Wort oder Unterwort.

Tokenisierung

Der Prozess, der bei der Verarbeitung natürlicher Sprache verwendet wird, um eine Textzeichenfolge in kleinere Einheiten wie Wörter oder Unterwörter aufzuteilen.

trainiertes Modell

Ein Modell, das mit tatsächlichen Daten trainiert wird und bereitgestellt werden kann, um Ergebnisse vorherzusagen, wenn neue Daten präsentiert werden.

Schulungen

Die erste Phase der Modellerstellung, die ein Subset der Quellendaten umfasst. Das Modell lernt anhand von Beispielen aus den bekannten Daten. Das Modell kann dann anhand eines weiteren, anderen Subsets getestet werden, für das das Ergebnis bereits bekannt ist.

Trainingsdaten

Eine Sammlung von Daten, die zum Trainieren von Modellen für maschinelles Lernen verwendet wird.

Trainingsset

Eine Gruppe beschrifteter Daten, die verwendet werden, um ein Modell für maschinelles Lernen zu trainieren, indem es es Beispielen und den entsprechenden Bezeichnungen zugänglich macht, sodass das Modell Muster erlernen und Vorhersagen treffen kann.

Transferlernen

Eine Strategie für maschinelles Lernen, bei der ein trainiertes Modell auf ein völlig neues Problem angewendet wird.

Transformator

Eine neuronale Netzarchitektur, die positionsgebundene Codierungen und den Self-Attention-Mechanismus verwendet, um das nächste Token in einer Folge von Tokens vorherzusagen

Transparenz

Teilen Sie geeignete Informationen mit Interessengruppen darüber, wie ein KI-System entworfen und entwickelt wurde. Beispiele für diese Informationen sind, welche Daten erfasst werden, wie sie verwendet und gespeichert werden und wer Zugriff darauf hat, sowie Testergebnisse auf Genauigkeit, Robustheit und Verzerrung.

Trust-Kalibrierung

Der Prozess der Bewertung und Anpassung des Vertrauens in ein KI-System, basierend auf Faktoren wie Genauigkeit, Zuverlässigkeit und Glaubwürdigkeit.

Turing-Test

Vorgeschlagen von Alan Turing im Jahr 1950, ein Test auf die Fähigkeit einer Maschine, intelligentes Verhalten gleichwertig oder ununterscheidbar von dem eines Menschen zu zeigen.

U

Unterständigkeit

Die Ablehnung einer korrekten Empfehlung durch einen Benutzer durch ein KI-Modell. Siehe auch Überabhängigkeit, Abhängigkeit.

Univariate Zeitreihen

Zeitreihenexperiment, das nur eine sich ändernde Variable enthält Beispiel: Ein Zeitreihenmodell, das die Temperatur prognostiziert, verfügt über eine einzige Vorhersagespalte der Temperatur.

unstrukturierte Daten

Alle Daten, die nicht in festen Feldern, sondern in einem unstrukturierten Format gespeichert sind. Die Daten in einem Textverarbeitungsdokument sind ein Beispiel für unstrukturierte Daten. Siehe auch Strukturierte Daten.

unstrukturierte Informationen

Data that is not contained in a fixed location, such as the natural language text document.

Nicht überwachtes Lernen

  • Ein Modell für Deep Learning, bei dem unformatierte, unbeschriftete Daten zum Trainieren eines System mit geringem bis zukeinem menschlichen Aufwand verwendet werden.
  • Eine Trainingsmethode für maschinelles Lernen, bei der ein Modell nicht mit gekennzeichneten Daten bereitgestellt wird und Muster oder Strukturen in den Daten eigenständig finden muss.

V

Validierungsset

Eine separate Gruppe beschrifteter Daten, die verwendet werden, um die Leistung und Generalisierungsfähigkeit eines Modells für maschinelles Lernen während des Trainingsprozesses zu bewerten und die Optimierung von Hyperparametern und die Modellauswahl zu unterstützen.

Vektor

Eine eindimensionale, sortierte Liste von Zahlen, z. B. [1, 2, 5] oder [0.7, 0.2, -1.0].

Vektordatenbank

Siehe Vektorspeicher.

Vektorindex

Ein Index, der die vektorisierten Einbettungen von Dokumenten aus einem Vektorspeicher abruft.

Vektorspeicher

Ein Repository, in dem vektorisierte Einbettungen von Dokumenten gespeichert werden.

Verbalisierer

In generativer KI eine Vorlage zum Formatieren der Daten während der Optimierung und Inferenz.

Virtueller Agent

Ein vorab trainierter Chat-Bot, der natürliche Sprache verarbeiten kann, um einfache Geschäftstransaktionen zu beantworten und abzuschließen oder komplexere Anforderungen an eine Person mit Fachwissen weiterzuleiten.

visualisierung

Ein Diagramm, eine Grafik, ein Kurvendiagramm, eine Tabelle, eine Karte oder eine andere visuelle Darstellung von Daten.

W

Gewicht

Ein Koeffizient für einen Knoten, der Eingabedaten innerhalb der Netzebene transformiert. Die Gewichtung ist ein Parameter, den ein KI-Modell durch Training lernt und dessen Wert anpasst, um Fehler in den Vorhersagen des Modells zu reduzieren.

Z

Zero-shot-Eingabeaufforderung

Ein Eingabeaufforderungsverfahren, bei dem das Modell eine Task ausführt, ohne dass ein konkretes Beispiel dafür gegeben wird.

Generative KI-Suche und -Antwort
Diese Antworten werden von einem großen Sprachmodell in watsonx.ai basierend auf dem Inhalt der Produktdokumentation generiert. Weitere Informationen