Dieses Glossar enthält Begriffe und Definitionen für watsonx.ai und watsonx.governance.
In diesem Glossar werden die folgenden Querverweise verwendet:
- Siehe verweist von einem nicht bevorzugten Begriff auf den bevorzugten Begriff oder von einer Abkürzung auf die ausgeschriebene Form.
- Siehe auch verweist auf einen verwandten Begriff oder einen Begriff mit gegenteiliger Bedeutung.
A | B | C | D | E | F | G | H | I | J | K | L | M | N | O | P | R | S | T | U | V | W | Z
A
Tastenkürzel
In der Hochleistungsdatenverarbeitung eine spezialisierte Schaltung, die verwendet wird, um einen Teil der Rechenlast von der CPU zu nehmen, wodurch die Effizienz des Systems erhöht wird. In Deep Learning wird die GPU-beschleunigte Datenverarbeitung häufig verwendet, um einen Teil der Rechenworkload auf eine GPU auszulagern, während die Hauptanwendung von der CPU ausgeführt wird. Siehe auch Grafikverarbeitungseinheit.
Abrechenbarkeit
Die Erwartung, dass Organisationen oder Einzelpersonen während ihres gesamten Lebenszyklus das ordnungsgemäße Funktionieren der KI-Systeme, die sie entwerfen, entwickeln, betreiben oder bereitstellen, in Übereinstimmung mit ihren Rollen und geltenden Regulierungsrahmen sicherstellen. Dazu gehört auch die Bestimmung, wer für einen KI-Fehler verantwortlich ist, der Rechtsexperten dazu auffordern kann, die Haftung von Fall zu Fall zu bestimmen.
Aktivierungsfunktion
Eine Funktion, die die Ausgabe einer neuronalen Einheit bei einer Gruppe eingehender Aktivierungen von anderen Neuronen definiert.
aktives Lernen
Ein Modell für maschinelles Lernen, in dem das System mehr beschriftete Daten nur anfordert, wenn es sie benötigt.
aktive Metadaten
Metadaten, die basierend auf der Analyse durch Prozesse für maschinelles Lernen automatisch aktualisiert werden. Beispiel: Bei der Profilerstellung und Datenqualitätsanalyse werden Metadaten für Datenassets automatisch aktualisiert.
Aktive Laufzeit
Eine Instanz einer Umgebung, die ausgeführt wird, um Rechenressourcen für Assets bereitzustellen, die Code ausführen.
vorbereitung
Ein Algorithmus oder ein Programm, das mit einer Umgebung interagiert, um optimale Aktionen oder Entscheidungen zu erlernen, in der Regel durch Verstärkungslernen, um ein bestimmtes Ziel zu erreichen.
Agentic AI
Ein generativer KI-Ablauf, mit dem eine Eingabeaufforderung in mehrere Tasks zerlegt werden kann, Tasks geeigneten Gen-AI-Agenten zugeordnet werden und eine Antwort ohne manuellen Eingriff synthetisch erstellt werden kann.
KI
Siehe Künstliche Intelligenz.
KI-Beschleuniger
Spezialisierte Siliziumhardware für die effiziente Ausführung von KI-bezogenen Aufgaben wie Deep Learning, maschinelles Lernen und neuronale Netze für schnellere, energieeffiziente Datenverarbeitung. Es kann eine dedizierte Einheit in einem Kern, ein separates Chiplet auf einem Multi-Modul-Chip oder eine separate Karte sein.
KI-Ethik
Ein multidisziplinäres Feld, das untersucht, wie die positiven Auswirkungen von KI optimiert und gleichzeitig Risiken und negative Ergebnisse reduziert werden können. Beispiele für KI-ethische Fragen sind Datenverantwortlichkeit und Datenschutz, Fairness, Erklärbarkeit, Robustheit, Transparenz, ökologische Nachhaltigkeit, Inklusion, moralische Agentur, Werteausrichtung, Rechenschaftspflicht, Vertrauen und Technologiemissbrauch.
KI-Governance
Das Regulierungsprogramm eines Unternehmens durch seine Unternehmensanweisungen, Mitarbeiter, Prozesse und Systeme, um den gesamten KI-Lebenszyklus zu steuern, zu bewerten, zu überwachen und Korrekturmaßnahmen zu ergreifen, um sicherzustellen, dass das KI-System so funktioniert, wie es das Unternehmen beabsichtigt, wie es von seinen Stakeholdern erwartet wird und wie es die relevanten Bestimmungen erfordern.
KI-Sicherheit
Das Forschungsgebiet, das darauf abzielt, sicherzustellen, dass Systeme der künstlichen Intelligenz auf eine Weise arbeiten, die für die Menschheit von Vorteil ist und nicht versehentlich Schaden anrichtet, indem Themen wie Zuverlässigkeit, Fairness, Transparenz und Ausrichtung von KI-Systemen auf menschliche Werte angegangen werden.
KI-Service
Eine einsatzfähige Codeeinheit, die die Logik eines generativen KI-Anwendungsfalls enthält und einen Endpunkt für Inferenzen aus einer Anwendung bereitstellt.
KI-System
Algorithmus
Eine Formel, die auf Daten angewendet wird, um optimale Methoden zur Lösung analytischer Probleme zu bestimmen
Versicherungsnehmeranalyse
Das Studieren von Daten, um bedeutsame Muster in den Daten zu finden und auf Grundlage dieser Muster Schlussfolgerungen zu ziehen.
Angemessenes Vertrauen
In einem KI-System ein Maß an Vertrauen, das auf seine Genauigkeit, Zuverlässigkeit und Glaubwürdigkeit abgestimmt ist.
künstliche Intelligenz (KI)
Die Fähigkeit, Wissen in Form eines Modells zu erwerben, zu verarbeiten, zu erstellen und anzuwenden, um Vorhersagen, Empfehlungen oder Entscheidungen zu treffen
Künstliche Intelligenz (KI-System)
Ein System, das Vorhersagen, Empfehlungen oder Entscheidungen treffen kann, die physische oder virtuelle Umgebungen beeinflussen, und dessen Ausgaben oder Verhalten nicht unbedingt vom Entwickler oder Benutzer vorgegeben werden. KI-Systeme werden in der Regel mit großen Mengen an strukturierten oder unstrukturierten Daten trainiert und können so konzipiert sein, dass sie mit unterschiedlichen Autonomiegraden oder ohne Autonomie betrieben werden, um vom Menschen definierte Ziele zu erreichen.
Asset
Ein Element, das Informationen zu Daten, andere wertvolle Informationen oder Code enthält, der mit Daten arbeitet Siehe auch Datenasset.
Abrufmechanismus
Ein Mechanismus in Deep-Learning-Modellen, der bestimmt, auf welche Teile der Eingabe sich ein Modell beim Erzeugen der Ausgabe konzentriert.
AutoAI-Experiment
Ein automatisierter Trainingsprozess, der eine Reihe von Trainingsdefinitionen und -parametern berücksichtigt, um eine Gruppe von eingestuften Pipelines als Modellkandidaten zu erstellen.
B
Batchbereitstellung
Eine Methode zur Bereitstellung von Modellen, die Eingabedaten aus einer Datei, einer Datenverbindung oder verbundenen Daten in einem Speicherbucket verarbeitet und dann die Ausgabe an ein ausgewähltes Ziel schreibt.
systematischer Fehler
Systematischer Fehler in einem KI-System, das bewusst oder nicht so konzipiert wurde, dass es zu unfairen Entscheidungen führen kann. Verzerrungen können sowohl im KI-System als auch in den Daten, die zum Trainieren und Testen verwendet werden, auftreten. KI-Verzerrungen können in einem KI-System durch kulturelle Erwartungen, technische Einschränkungen oder unvorhergesehene Bereitstellungskontexte entstehen. Siehe auch Fairness.
Verzerrungserkennung
Der Prozess zur Berechnung der Fairness für Metriken, um auf der Basis bestimmter Attribute zu erkennen, wann AI-Modelle nicht akzeptable Ergebnisse liefern.
Verzerrungsminderung
Reduzierung von Verzerrungen in KI-Modellen durch Kuratierung von Trainingsdaten und Anwendung von Fairnessverfahren.
Binäre Klassifikation
Ein Klassifikationsmodell mit zwei Klassen Vorhersagen sind eine binäre Auswahl einer der beiden Klassen.
C
Klassifikationsmodell
Ein Vorhersagemodell, das Daten in unterschiedlichen Kategorien vorhersagt. Klassifikationen können binär sein, mit zwei Datenklassen oder mit mehreren Klassen, wenn mehr als zwei Kategorien vorhanden sind.
bereinigen
Hierdurch wird sichergestellt, dass alle Werte in einem Dataset konsistent sind und ordnungsgemäß aufgezeichnet werden.
CNN
Siehe Convolutional Neural Network.
Kognitive Zwangsfunktion
Ein Eingriff, der zu einem Zeitpunkt der Entscheidungsfindung angewendet wird, um heuristisches Denken zu unterbrechen und eine Person dazu zu veranlassen, analytisches Denken zu betreiben. Beispiele sind eine Checkliste, ein Diagnosezeitlimit oder das Bitten einer Person, eine Alternative auszuschließen.
Computerlinguistik
Interdisziplinäres Feld, das Ansätze zur computergestützten Modellierung natürlicher Sprachen untersucht.
Rechenressource
Die Hardware-und Softwareressourcen, die von einer Umgebungsvorlage definiert werden, um Assets in Tools auszuführen.
Fehlermatrix
Eine Leistungsmessung, die die Genauigkeit zwischen den positiven und negativen vorhergesagten Ergebnissen eines Modells im Vergleich zu positiven und negativen tatsächlichen Ergebnissen bestimmt.
Verbundenes Datenasset
Ein Verweis auf Daten, auf die über eine Verbindung zu einer externen Datenquelle zugegriffen wird.
Verbundenes Ordnerasset
Ein Verweis auf einen Ordner in IBM Cloud Object Storage.
Verbindung
Die Informationen, die zum Herstellen einer Verbindung zu einer Datenbank erforderlich sind. Die tatsächlich erforderlichen Informationen variieren je nach DBMS und Verbindungsaufbaumethode.
Verbindungsasset
Ein Asset, das Informationen enthält, die das Herstellen einer Verbindung zu einer Datenquelle ermöglichen.
Einschränkung
- In Datenbanken eine Beziehung zwischen Tabellen.
- In Decision Optimizationeine Bedingung, die durch die Lösung eines Problems erfüllt werden muss.
kontinuierliches Lernen
Automatisiert das Überwachen der Modellleistung, erneute Trainieren mit neuen Daten und erneute Bereitstellen, um die Vorhersagequalität sicherzustellen.
Convolutional Neural Network (CNN)
Eine Klasse neuronaler Netze, die häufig in Computer-Vision-Tasks verwendet wird und Faltungsschichten zur Verarbeitung von Bilddaten verwendet.
Core ML-Bereitstellung
Das Herunterladen einer Bereitstellung im Core ML-Format für die Verwendung in iOS-Apps.
Haupttext
Eine Sammlung von Quellendokumenten, die zum Trainieren eines Machine Learning-Modells verwendet werden.
CPLEX-Modell
Ein Decision Optimization -Modell, das formuliert ist, um von der CPLEX-Engine gelöst zu werden.
CPO-Modell
Ein Programmiermodell für Integritätsbedingungen, das zur Lösung durch die Engine Decision Optimization CP Optimizer (CPO) formuliert ist.
Kreuzvalidierung
Ein Verfahren zum Testen, wie gut ein Modell verallgemeinert wird, wenn keine ausgeschlossene Teststichprobe vorhanden ist. Bei der Kreuzvalidierung werden die Trainingsdaten in eine Anzahl von Subsets unterteilt und anschließend wird dieselbe Anzahl von Modellen erstellt, wobei jedes Subset wiederum zurückgehalten wird. Jedes dieser Modelle wird an der Holdout-Stichprobe getestet und die durchschnittliche Genauigkeit der Modelle an diesen Holdout-Stichproben wird verwendet, um die Genauigkeit des Modells zu schätzen, wenn es auf neue Daten angewendet wird.
kuratieren
Auswählen, Erfassen, Beibehalten und Verwalten von Inhalt, der für ein bestimmtes Thema relevant ist. Kuratieren von Daten bedeutet, dass sie zusätzlichen Wert erhalten, der verwaltet und ihnen hinzugefügt wird; dadurch entstehen aus Daten vertrauenswürdige Informationen und Wissen.
D
Datenasset
Ein Asset, das auf Daten verweist, z. B. eine hochgeladene Datei. Verbindungen und verbundene Datenassets werden auch als Datenassets betrachtet. Siehe auch Asset.
Datenimputation
Die Ersetzung fehlender Werte in einem Dataset durch geschätzte oder explizite Werte.
Data-Lake
Ein großes Datenspeicherrepository, das Rohdaten in einem beliebigen Format in einer unstrukturierten Architektur speichert. Data Lakes enthalten strukturierte und unstrukturierte Daten sowie Binärdaten für die Verarbeitung und Analyse.
Datenlakehouse
Eine einheitliche Datenspeicher-und Verarbeitungsarchitektur, die die Flexibilität eines Data Lakes mit den strukturierten Abfrage-und Leistungsoptimierungen eines Data-Warehouse kombiniert und eine skalierbare und effiziente Datenanalyse für KI-und Analyseanwendungen ermöglicht.
Data-Mining
Das Erfassen kritischer Geschäftsinformationen aus einer Datenquelle, Korrelieren der Informationen und Aufdecken von Zuordnungen, Mustern und Trends. Siehe auch Vorhersageanalyse.
Data Refinery-Ablauf
Eine Gruppe von Schritten zum Bereinigen und Formen von Daten, um ein neues Datenasset zu erzeugen
Datenwissenschaft
Die Analyse und Visualisierung von strukturierten und unstrukturierten Daten zum Aufspüren von Erkenntnissen und Wissen.
Dataset
Eine Sammlung von Daten, in der Regel in Form von Zeilen (Datensätzen) und Spalten (Feldern), die in einer Datei- oder Datenbanktabelle enthalten sind.
Datenquelle
Ein Repository, eine Warteschlange oder ein Feed zum Lesen von Daten, z. B. eine Datenbank.
Datentabelle
Eine Sammlung von Daten, in der Regel in Form von Zeilen (Datensätzen) und Spalten (Feldern), die in einer Tabelle enthalten sind.
Data-Warehouse
Ein großes, zentralisiertes Repository mit Daten, die aus verschiedenen Quellen erfasst und für die Berichterstellung und Datenanalyse verwendet werden. Es speichert in erster Linie strukturierte und semistrukturierte Daten, sodass Unternehmen fundierte Entscheidungen treffen können.
DDL
Siehe Distributed Deep Learning.
Entscheidungsgrenze
Eine Aufteilung von Datenpunkten in einem Bereich in unterschiedliche Gruppen oder Klassifizierungen.
Nur-Decoder-Modell
Ein Modell, das Ausgabetext Wort für Wort durch Inferenz aus der Eingabefolge generiert. Nur Decodermodelle werden für Aufgaben wie das Generieren von Text und das Beantworten von Fragen verwendet.
Deep Learning
Ein Berechnungsmodell, das mehrere Ebenen miteinander verbundener Knoten verwendet, die in hierarchischen Ebenen organisiert sind, um Eingabedaten (erste Ebene) durch eine Reihe von Berechnungen zu transformieren, um eine Ausgabe zu erzeugen (letzte Ebene). Deep Learning ist inspiriert von der Struktur und Funktion des menschlichen Gehirns. Siehe auch Verteiltes Deep Learning.
Deep Neural Network
Ein neuronales Netzwerk mit mehreren verborgenen Schichten, das komplexere Darstellungen der Daten ermöglicht
Deep Reasoning
Eine Klasse des maschinellen Lernens, bei der Systeme Erkenntnisse aus Daten generieren, um kognitive Aufgaben zu unterstützen, die über Wahrnehmung und Klassifizierung hinausgehen, z. B. gesunder Menschenverstand, Veränderung von Situationen, Planung und Entscheidungsfindung.
Bereitstellung
Ein Modell oder ein Anwendungspaket, das für Verwendung verfügbar ist.
Bereitstellungsbereich
Ein Arbeitsbereich, in dem Modelle bereitgestellt und Implementierungen verwaltet werden.
deterministisch
Beschreibt ein Merkmal von Computersystemen, wenn ihre Ausgaben vollständig durch ihre Eingaben bestimmt werden.
diskriminierende KI
Eine Klasse von Algorithmen, die sich auf die Suche nach einer Grenze konzentriert, die verschiedene Klassen in den Daten trennt.
Distributed Deep Learning (DDL)
Ein Ansatz für Deep-Learning-Training, der die Methoden der verteilten Datenverarbeitung nutzt. In einer DDL-Umgebung wird die Rechenworkload auf die Zentraleinheit und die Grafikverarbeitungseinheit verteilt. Siehe auch Deep Learning.
DOcplex
Eine Python -API zur Modellierung und Lösung von Decision Optimization -Problemen.
E
integrieren
Eine numerische Darstellung einer Informationseinheit, wie z. B. ein Wort oder ein Satz, als Vektor reeller Zahlen. Einbettungen sind gelernte, niedrigdimensionale Darstellungen von höherdimensionalen Daten. Siehe auch Codierung, Darstellung.
Emergenz
Eine Eigenschaft von Basismodellen, in denen das Modell Verhaltensweisen aufweist, die nicht explizit trainiert wurden.
Emergent-Verhalten
Ein Verhalten, das von einem foundation model gezeigt wird, das nicht ausdrücklich konstruiert wurde.
Encoder-Decoder-Modell
Ein Modell zum Verständnis von Eingabetext und zum Generieren von Ausgabetext auf der Basis des Eingabetexts. Encoder-Decoder-Modelle werden für Aufgaben wie Zusammenfassung oder Übersetzung verwendet.
Nur-Encoder-Modell
Ein Modell, das Eingabetext auf Satzebene versteht, indem es Eingabesequenzen in Darstellungsvektoren, so genannte Einbettungen, transformiert. Reine Encoder-Modelle werden für Aufgaben wie die Klassifizierung von Kundenfeedback und das Extrahieren von Informationen aus großen Dokumenten verwendet.
Codierung
Die Darstellung einer Informationseinheit, wie z. B. ein Zeichen oder ein Wort, als Gruppe von Zahlen. Siehe auch Einbetten, Positionscodierung.
Endpunkt-URL
Eine Netzzieladresse, die Ressourcen, wie z. B. Services und Objekte, angibt. Eine Endpunkt-URL wird beispielsweise verwendet, um die Position eines Modells oder einer Funktionsbereitstellung anzugeben, wenn ein Benutzer Nutzdaten an die Bereitstellung sendet.
Umgebung
Die Rechenressourcen für aktive Jobs.
Umgebungslaufzeit
Eine Instanziierung der Umgebungsvorlage zur Ausführung von Assets.
Umgebungsvorlage
Eine Definition, die Hardware- und Softwareressourcen zum Instanziieren von Umgebungslaufzeiten angibt.
Exogene Funktion
Eine Funktion, die das Vorhersagemodell beeinflussen kann, aber nicht im Gegenzug beeinflusst werden kann Beispielsweise können sich die Temperaturen auf vorhergesagte Eisverkäufe auswirken, die Eisverkäufe können sich jedoch nicht auf die Temperaturen auswirken.
experiment (Experiment)
Ein Modelltrainingsprozess, der eine Reihe von Trainingsdefinitionen und -parametern berücksichtigt, um die genaueste Modellkonfiguration zu bestimmen
Erklärbarkeit
- Die Fähigkeit menschlicher Benutzer, Prognosen zu verfolgen, zu auditieren und zu verstehen, die in Anwendungen erstellt werden, die AI-Systeme verwenden.
- Die Fähigkeit eines KI-Systems, Erkenntnisse zu liefern, die Menschen nutzen können, um die Ursachen der Vorhersagen des Systems zu verstehen.
F
Fairness
In einem KI-System die Gleichbehandlung von Einzelpersonen oder Gruppen von Einzelpersonen. Die Wahl eines bestimmten Begriffs der Gerechtigkeit für ein KI-System hängt von dem Kontext ab, in dem es verwendet wird. Siehe auch Verzerrung.
Element
Eine Eigenschaft oder ein Merkmal eines Elements in einem Dataset, z. B. eine Spalte in einem Arbeitsblatt. In einigen Fällen werden Features als Kombinationen anderer Features im Dataset entwickelt.
Feature-Engineering
Der Prozess der Auswahl, Transformation und Erstellung neuer Funktionen aus Rohdaten, um die Leistung und Vorhersagekraft von Modellen für maschinelles Lernen zu verbessern.
Featuregruppe
Eine Gruppe von Spalten eines bestimmten Datenassets zusammen mit den Metadaten, die für maschinelles Lernen verwendet werden
Featureauswahl
Ermitteln der Spalten mit Daten, die eine genaue Vorhersage oder Bewertung in einem Modell für maschinelles Lernen am besten unterstützen
Feature-Store
Ein zentrales Repository oder System, das Features verwaltet und organisiert und eine skalierbare und effiziente Möglichkeit bietet, Featuredaten in Pipelines und Anwendungen für maschinelles Lernen zu speichern, abzurufen und gemeinsam zu nutzen.
Featuretransformation
In AutoAI eine Phase der Pipelineerstellung, die Algorithmen anwendet, um die Trainingsdaten so zu transformieren und zu optimieren, dass das beste Ergebnis für den Modelltyp erzielt wird.
Federated Learning
Das Training eines allgemeinen Modells für maschinelles Lernen, das mehrere Datenquellen verwendet, die nicht verschoben, verknüpft oder gemeinsam genutzt werden. Das Ergebnis ist ein besser trainiertes Modell ohne Beeinträchtigung der Datensicherheit.
Bedienerführung für wenige Schritte
Ein Eingabeaufforderungsverfahren, bei dem dem Modell eine kleine Anzahl von Beispielen bereitgestellt wird, um die Ausführung der Task zu veranschaulichen.
Feinabstimmung
Der Prozess, bei dem ein vortrainiertes Modell angepasst wird, um eine bestimmte Aufgabe auszuführen, indem zusätzliche Schulungen durchgeführt werden. Die Feinabstimmung kann Folgendes beinhalten: (1) Aktualisieren der vorhandenen Parameter des Modells, bekannt als vollständige Feinabstimmung, oder (2) Aktualisieren einer Untergruppe der vorhandenen Parameter des Modells oder Hinzufügen neuer Parameter zum Modell und Trainieren dieser Parameter, während die vorhandenen Parameter des Modells eingefroren werden, bekannt als parametereffiziente Feinabstimmung.
Fluss
Eine Sammlung von Knoten, die eine Gruppe von Schritten zum Verarbeiten von Daten oder zum Trainieren eines Modells definieren.
foundation model
Ein KI-Modell, das an eine Vielzahl nachgeordneter Aufgaben angepasst werden kann. Basismodelle sind in der Regel groß angelegte generative Modelle, die mit unbeschrifteten Daten unter Selbstüberwachung trainiert werden. Als große Modelle können Basismodelle Milliarden von Parametern enthalten.
G
Gantt-Diagramm
Eine grafische Darstellung einer Projektzeitachse und -dauer, in der Plandaten als horizontale Balken entlang einer Zeitskala angezeigt werden.
Gen KI
Siehe generative KI.
Generative AI (Generation AI)
Eine Klasse von KI-Algorithmen, die verschiedene Inhaltstypen wie Text, Quellcode, Bilder, Audio und synthetische Daten erzeugen können.
Generative Variabilität
Das Merkmal generativer Modelle, um unterschiedliche Ausgaben zu erzeugen, auch wenn die Eingabe für das Modell konstant gehalten wird. Siehe auch probabilistisch.
Graphic Processing Unit (GPU)
Siehe Grafikverarbeitungseinheit.
grafisches Erstellungsprogramm
Ein Werkzeug zur Erstellung von Flow Assets durch visuelle Kodierung. Ein Erstellungsbereich ist ein Bereich, in den Objekte oder Knoten platziert werden können, die zum Erstellen eines Ablaufs verbunden werden können.
Grafikverarbeitungseinheit (Graphics Processing Unit, GPU)
Ein spezialisierter Prozessor, der entwickelt wurde, um Speicher schnell zu bearbeiten und zu ändern, um die Erstellung von Images in einem Rahmenpuffer zu beschleunigen, der für die Ausgabe an eine Anzeige bestimmt ist. GPUs werden aufgrund ihrer Parallelverarbeitungsfunktionalität im maschinellen Lernen stark ausgelastet. Siehe auch Direktaufruf.
Erdung
Bereitstellung eines großen Sprachmodells mit Informationen zur Verbesserung der Genauigkeit von Ergebnissen.
H
Halluzination
Eine Antwort eines foundation model, die themenfremde, sich wiederholende, falsche oder erfundene Inhalte enthält. Halluzinationen mit Details zur Erstellung können auftreten, wenn ein Modell zum Generieren von Text aufgefordert wird, das Modell jedoch nicht über genügend zugehörigen Text verfügt, um ein Ergebnis zu generieren, das die richtigen Details enthält.
HAP-Erkennung (HAP-Erkennung)
- Die Fähigkeit, Hass, Missbrauch und Profanität sowohl in Eingabeaufforderungen, die von Benutzern übergeben werden, als auch in Antworten, die von einem KI-Modell generiert werden, zu erkennen und zu filtern.
HAP-Detektor (HAP-Detektor)
- Ein Satzklassifikator, der potenziell schädliche Inhalte wie Hassreden, Beleidigungen und Obszönitäten aus der Ausgabe und Eingabe foundation model entfernt.
Aushaltset
Eine Gruppe beschrifteter Daten, die sowohl aus den Trainings-als auch aus den Validierungsgruppen absichtlich zurückgehalten werden und als unverzerrte Bewertung der Leistung des endgültigen Modells für unsichtbare Daten dienen.
Homogenisierung
Der Trend in der Machine-Learning-Forschung, bei der eine kleine Anzahl von Deep Neural Net-Architekturen, wie z. B. der Transformator, über eine Vielzahl von Aufgaben hinweg modernste Ergebnisse erzielen.
HPO
Siehe Hyperparameteroptimierung.
Menschliche Aufsicht
Menschliche Beteiligung an der Überprüfung von Entscheidungen, die von einem KI-System getroffen wurden, und ermöglicht menschliche Autonomie und Verantwortlichkeit von Entscheidungen.
Hyperparameter
Bei maschinellem Lernen ein Parameter, dessen Wert vor dem Training zur Erhöhung der Modellgenauigkeit festgelegt wird.
Hyperparameteroptimierung (HPO)
Das Setzen von Hyperparameterwerten auf die Einstellungen, die das genaueste Modell bereitstellen.
I
Abbildung
Ein Softwarepaket, das eine Gruppe von Bibliotheken enthält.
Inkrementelles Lernen
Der Prozess zum Trainieren eines Modells unter Verwendung von Daten, die kontinuierlich aktualisiert werden, ohne dass Daten aus den vorherigen Tasks vergessen werden. Dieses Verfahren wird verwendet, um ein Modell mit Datenbatches aus einer großen Trainingsdatenquelle zu trainieren.
Inferencing
Der Prozess der Ausführung von Livedaten über ein trainiertes KI-Modell, um eine Vorhersage zu erstellen oder eine Task zu lösen.
aufnehmen
- Das fortlaufende Hinzufügen eines hohen Echtzeitdatenvolumens zu einer Datenbank.
- Daten in ein System einspeisen, um eine Wissensbasis zu erstellen.
Erkenntnis
Ein genaues oder tiefes Verständnis von etwas. Erkenntnisse werden mithilfe kognitiver Analysen gewonnen, um aktuelle Momentaufnahmen und Vorhersagen zu Kundenverhalten und -einstellungen bereitzustellen.
intelligente KI
Künstliche Intelligenz Systeme, die Wissen verstehen, lernen, anpassen und implementieren können, zeigen Fähigkeiten wie Entscheidungsfindung, Problemlösung und Verständnis für komplexe Konzepte, ähnlich wie menschliche Intelligenz.
Absicht
Ein Zweck oder Ziel, das durch die Eingabe des Kunden in einen Chatbot ausgedrückt wird, z. B. die Beantwortung einer Frage oder die Verarbeitung einer Rechnungszahlung.
J
Job
Eine separat ausführbare Arbeitseinheit.
K
Wissensdatenbank
Siehe Korpus.
L
Bezeichnung (Label)
Eine Klasse oder Kategorie, die einem Datenpunkt in überwachtem learning.Labels zugeordnet ist, kann aus Daten abgeleitet werden, wird aber häufig von Labelern oder Annotatoren angewendet.
Gekennzeichnete Daten
Rohdaten, denen Bezeichnungen zugeordnet sind, um Kontext oder Bedeutung hinzuzufügen, sodass sie zum Trainieren von Modellen für maschinelles Lernen verwendet werden kann. Numerische Werte können beispielsweise als Postleitzahlen oder Alter bezeichnet werden, um Kontext für Modelleingaben und -ausgaben bereitzustellen.
Large Language Model (LLM)
Ein Sprachmodell mit einer großen Anzahl von Parametern, das mit einer großen Textmenge trainiert wurde.
Latenter Raum
Ein n-dimensionaler mathematischer Raum, in den Dateninstanzen eingebettet werden. In einem zweidimensionalen latenten Raum werden Daten als Punkte in einer 2D -Ebene eingebettet (siehe auch: Darstellungsbereich). Siehe auch Darstellungsbereich.
LLM
Siehe Large Language Model.
M
Maschinelles Lernen (ML)
Ein Zweig der künstlichen Intelligenz (KI) und Informatik, der sich auf die Verwendung von Daten und Algorithmen konzentriert, um die Art und Weise zu imitieren, wie Menschen lernen, und schrittweise die Genauigkeit von KI-Modellen verbessert.
Framework für maschinelles Lernen
Die Bibliotheken und die Laufzeit für das Training und die Bereitstellung eines Modells.
Machine Learning-Modell
Ein KI-Modell, das mit einer Gruppe von Daten trainiert wird, um Algorithmen zu entwickeln, mit denen es neue Daten analysieren und daraus lernen kann.
mentales Modell
Das Verständnis einer Person darüber, wie ein System funktioniert und wie sich ihre Aktionen auf Systemergebnisse auswirken. Wenn diese Erwartungen nicht mit den tatsächlichen Leistungsmerkmalen eines Systems übereinstimmen, kann dies zu Frustration, Abbruch oder Missbrauch führen.
Fehlausrichtung
Eine Diskrepanz zwischen den Zielen oder Verhaltensweisen, für die ein KI-System optimiert ist, und den wahren, oft komplexen Zielen seiner Benutzer oder Designer
Maschinelles Lernen
Siehe Machine Learning.
MLOps
- Eine Methodik, die ein Modell für maschinelles Lernen von der Entwicklung bis zur Produktion verwendet.
- Das Verfahren für die Zusammenarbeit zwischen Data-Scientists und Betriebsexperten, um das Management des Produktionslebenszyklus für maschinelles Lernen (oder Deep Learning) zu unterstützen MLOps ist darauf ausgerichtet, die Automatisierung zu verbessern und die Qualität von Produktions-ML zu verbessern und sich gleichzeitig auf geschäftliche und regulatorische Anforderungen zu konzentrieren. Es umfasst Modellentwicklung, Training, Validierung, Implementierung, Überwachung und Management und verwendet Methoden wie CI/CD.
modell
- In einem Kontext für maschinelles Lernen eine Gruppe von Funktionen und Algorithmen, die anhand eines Datasets trainiert und getestet wurden, um Vorhersagen oder Entscheidungen bereitzustellen.
- In Decision Optimization eine mathematische Formulierung eines Problems, das mit CPLEX-Optimierungsengines unter Verwendung unterschiedlicher Datasets gelöst werden kann.
ModelOps
Eine Methodik für die Verwaltung des gesamten Lebenszyklus eines KI-Modells, einschließlich Training, Implementierung, Scoring, Evaluierung, erneutes Training und Aktualisierung.
Überwachte Gruppe
Eine Datenklasse, die überwacht wird, um festzustellen, ob die Ergebnisse eines Vorhersagemodells signifikant von den Ergebnissen der Referenzgruppe abweichen. Gruppen werden häufig auf der Basis von Merkmalen wie Rasse, Geschlecht oder Alter überwacht.
Klassifikationsmodell mit mehreren Klassen
Eine Klassifikationsaufgabe mit mehr als zwei Klassen. Beispiel: Wenn ein binäres Klassifikationsmodell Werte mit 'Ja' oder 'Nein' vorhersagt, sagt ein Modell mit mehreren Klassen 'Ja', 'Nein', 'Vielleicht' oder 'Nicht zutreffend' voraus.
Multimodales Modell
Ein generatives KI-Modell, das mehrere Datentypen wie Text, Bilder und Audio verarbeiten und zwischen ihnen konvertieren kann. Ein multimodales Modell kann beispielsweise eine Texteingabe verwenden und eine Bildausgabe generieren.
multivariate Zeitreihe
Zeitreihenexperiment, das zwei oder mehr sich ändernde Variablen enthält Beispiel: Ein Zeitreihenmodell prognostiziert den Stromverbrauch von drei Kunden.
N
Verarbeitung natürlicher Sprache (NLP – Natural Language Processing)
Ein Gebiet der künstlichen Intelligenz und der Linguistik, in dem die Probleme untersucht werden, die bei der Verarbeitung und Bearbeitung der natürlichen Sprache inhärent sind, wobei das Ziel die Verbesserung der Fähigkeit von Computern ist, menschliche Sprache zu verstehen.
Bibliothek für Verarbeitung natürlicher Sprache
Eine Bibliothek, die grundlegende Verarbeitungsfunktionen für natürliche Sprache für die Syntaxanalyse und sofort einsatzfähige vortrainierte Modelle für eine Vielzahl von Textverarbeitungstasks bereitstellt.
neuronales Netz
Ein mathematisches Modell für das Vorhersagen oder Klassifizieren von Fällen unter Verwendung eines komplexen mathematischen Schemas, das eine abstrakte Version von Gehirnzellen simuliert. Ein neuronales Netz wird trainiert, indem es eine hohe Anzahl beobachteter Fälle verarbeiten muss, wobei es sich wiederholt selbst aktualisieren kann, bis die Aufgabe erlernt wurde.
NLP
Knoten
In einem SPSS Modeler -Ablauf die grafische Darstellung einer Datenoperation.
Notizbuch
Ein interaktives Dokument, das ausführbaren Code, beschreibenden Text für diesen Code und die Ergebnisse eines beliebigen Codes enthält, der ausgeführt wird.
Notebook-Kernel
Der Teil des Notebook-Editors, der Code ausführt und die Berechnungsergebnisse zurückgibt.
O
Objektspeicher
Eine Methode zum Speichern von Daten, die in der Regel in der Cloud verwendet werden. Hierbei werden die Daten als diskrete Einheiten oder Objekte in einem Speicherpool oder Repository gespeichert, der oder die keine Dateihierarchie verwendet, sondern alle Objekte auf derselben Ebene speichert.
Einmaliges Lernen
Ein Modell für Deep Learning, das auf der Prämisse basiert, dass das meiste menschliche Lernen stattfindet, wenn man nur ein oder zwei Beispiele erhält. Dieses Modell ähnelt dem nicht überwachten Lernen.
Einmalige Aufforderung
Ein Eingabeaufforderungsverfahren, bei dem ein einzelnes Beispiel für das Modell bereitgestellt wird, um die Ausführung der Task zu veranschaulichen.
Onlinebereitstellung
Methode zum Zugreifen auf eine Modell-oder Python -Codebereitstellung über einen API-Endpunkt als Web-Service zum Generieren von Vorhersagen online in Echtzeit.
Ontologie
Eine explizite formale Spezifikation der Darstellung von Objekten, Konzepten und anderen Entitäten, die in einem bestimmten Interessengebiet vorhanden sein können, und die Beziehungen zwischen ihnen.
Operatives Asset
Ein Asset, das Code in einem Tool oder einem Job ausführt.
Optimierung
Der Prozess der Suche nach der am besten geeigneten Lösung für ein genau definiertes Problem unter Beachtung der auferlegten Einschränkungen. Sie können beispielsweise festlegen, wie Ressourcen zugeordnet werden oder wie die besten Elemente oder Kombinationen aus einer großen Gruppe von Alternativen gefunden werden.
Programmiersprache für Optimierung
Eine Modellierungssprache für das Ausdrücken von Modellformulierungen von Optimierungsproblemen in einem Format, das von CPLEX-Optimierungsengines wie IBM CPLEX gelöst werden kann.
Optimierte Metrik
Ein Messwert zum Messen der Leistung des Modells. Die Genauigkeit ist beispielsweise die typische Metrik, die zum Messen der Leistung eines binären Klassifikationsmodells verwendet wird.
Orchestrierung
Der Prozess der Erstellung eines End-to-End-Ablaufs, der ein Modell für maschinelles Lernen trainieren, ausführen, bereitstellen, testen und auswerten kann und die Automatisierung verwendet, um das System zu koordinieren, wobei häufig Mikroservices verwendet werden.
Überabhängigkeit
Die Annahme einer falschen Empfehlung durch einen Benutzer durch ein KI-Modell. Siehe auch Abhängigkeit, Abhängigkeit.
P
Parameter
- Ein konfigurierbarer Teil des Modells, der für ein Modell intern ist und dessen Werte geschätzt oder aus Daten gelernt werden. Parameter sind Aspekte des Modells, die während des Trainingsprozesses angepasst werden, damit das Modell die Ausgabe präzise vorhersagen kann. Die Leistung und Vorhersagekraft des Modells hängen weitgehend von den Werten dieser Parameter ab.
- Eine Gewichtung mit reellen Werten zwischen 0.0 und 1.0 , die die Stärke der Verbindung zwischen zwei Neuronen in einem neuronalen Netz angibt.
Teilnehmer
In Federated Learning eine Entität, die Daten zum Trainieren eines allgemeinen Modells beiträgt. Die Daten werden nicht verschoben oder kombiniert, aber jede Partei profitiert vom föderierten Training.
Nutzdaten
Die Daten, die an eine Bereitstellung übergeben werden, um einen Score, eine Vorhersage oder eine Lösung zurückzugeben.
Nutzdatenprotokollierung
Die Erfassung von Nutzdaten und Bereitstellungsausgaben, um den einwandfreien Status der AI in Geschäftsanwendungen fortlaufend zu überwachen.
pipeline (Pipeline)
- In Watson Pipelines, einem durchgängigen Fluss von Assets von der Erstellung bis zur Bereitstellung.
- In AutoAI, ein Kandidatenmodell.
Pipelinebestenliste
In AutoAI, eine Tabelle, die die Liste der automatisch generierten Modellkandidaten als Pipelines anzeigt, geordnet nach den angegebenen Kriterien.
Richtlinie
Eine Strategie oder Regel, die ein Agent befolgt, um die nächste Aktion basierend auf dem aktuellen Status zu bestimmen.
Positionsgebundene Codierung
Eine Codierung einer geordneten Folge von Daten, die Positionsinformationen enthält, z. B. die Codierung von Wörtern in einem Satz, der die Position jedes Wortes innerhalb des Satzes enthält. Siehe auch Codierung.
Vorhersageanalysen
Ein Geschäftsprozess und eine Gruppe verwandter Technologien, die sich mit der Vorhersage zukünftiger Möglichkeiten und Trends befassen. Die Vorhersageanalyse wendet so unterschiedliche Disziplinen wie Wahrscheinlichkeit, Statistik, maschinelles Lernen und künstliche Intelligenz auf Geschäftsprobleme an, um die beste Aktion für eine bestimmte Situation zu finden. Siehe auch Data-Mining.
Vortrainiertes Modell
Ein KI-Modell, das zuvor für ein großes Dataset trainiert wurde, um eine bestimmte Aufgabe auszuführen. Vortrainierte Modelle werden verwendet, anstatt ein Modell völlig neu zu erstellen.
Vortraining
Der Prozess, mit dem ein Modell für maschinelles Lernen in einem großen Dataset trainiert wird, bevor es für eine bestimmte Task optimiert wird
schutz
Gewährleistung, dass Informationen über eine Person vor unbefugtem Zugriff und unangemessener Verwendung geschützt sind.
probabilistisch
Die Eigenschaft, randomisiert zu sein; nicht deterministisch. Probabilistische Modelle erzeugen bei denselben Eingaben nicht dieselben Ausgaben. Siehe auch generative Variabilität.
Projekt
Ein interaktiver Arbeitsbereich für die Arbeit mit Daten und anderen Assets.
Systemanfrage
- Daten, wie z. B. Text oder ein Bild, die die Ausgabe eines foundation model vorbereiten, anweisen oder bedingen.
- Eine Komponente einer Aktion, mit der angegeben wird, dass eine Benutzereingabe für ein Feld erforderlich ist, bevor ein Übergang zur Ausgabeanzeige erfolgt.
Entwicklung von Eingabeaufforderungen
Der Prozess des Entwerfens von Eingabeaufforderungen für natürliche Sprache für ein Sprachmodell, um eine bestimmte Task auszuführen
Bedienerführung
Der Prozess der Bereitstellung von Input für ein foundation model, um es zu veranlassen, Output zu produzieren.
Prompt-Tuning
Eine effiziente, kostengünstige Möglichkeit, ein vorab trainiertes Modell an neue Aufgaben anzupassen, ohne das Modell neu zu trainieren oder seine Gewichtungen zu aktualisieren Zur Optimierung von Eingabeaufforderungen gehört das Lernen einer kleinen Anzahl neuer Parameter, die an die Eingabeaufforderung eines Modells angehängt werden, während die vorhandenen Parameter des Modells eingefroren werden.
Reduzieren
Der Prozess zum Vereinfachen, Verkleinern oder Trimmen eines Entscheidungsbaums oder neuronalen Netzes. Dies geschieht durch Entfernen weniger wichtiger Knoten oder Ebenen, wodurch die Komplexität reduziert wird, um eine Überanpassung zu verhindern und die Modellgeneralisierung zu verbessern, während die Vorhersagekraft erhalten bleibt.
Python
Eine Programmiersprache, die in Data-Science und KI verwendet wird.
Python-Funktion
Eine Funktion, die Python -Code zur Unterstützung eines Modells in der Produktion enthält.
Q
Unterteilung
Eine Methode zur Komprimierung der Gewichte foundation model, um die Inferenz zu beschleunigen und den Speicherbedarf der GPU zu reduzieren.
R
R
Eine erweiterbare Scriptsprache, die in Data-Science und KI verwendet wird und eine Vielzahl von analytischen, statistischen und grafischen Funktionen und Verfahren bietet.
RAG
Zufallswert
Eine Zahl, die zum Initialisieren eines Pseudozufallszahlengenerators verwendet wird. Random Seeds ermöglichen Reproduzierbarkeit für Prozesse, die auf Zufallszahlengenerierung angewiesen sind.
Referenzgruppe
Eine Gruppe, die als am wahrscheinlichsten identifiziert wird, ein positives Ergebnis in einem Vorhersagemodell zu erhalten. Die Ergebnisse können mit einer überwachten Gruppe verglichen werden, um potenzielle Verzerrungen in den Ergebnissen zu suchen.
verfeinern
Hiermit werden Daten bereinigt und geformt.
Regressionsmodell
Ein Modell, das eine abhängige Variable mit einer oder mehreren unabhängigen Variablen in Beziehung setzt.
Verstärkungslernen
Ein maschinelles Lernverfahren, bei dem ein Agent lernt, sequenzielle Entscheidungen in einer Umgebung zu treffen, um ein Belohnungssignal zu maximieren. Inspiriert durch Test-und Fehlerschulungen interagieren Agenten mit der Umgebung, erhalten Feedback und passen ihre Aktionen an, um optimale Richtlinien zu erreichen.
Verstärkung des Lernens am menschlichen Feedback (RLHF)
Eine Methode zum Ausrichten der Antworten eines Sprachlernmodells auf die Anweisungen in einer Eingabeaufforderung. RLHF erfordert, dass Annotatorbenutzer mehrere Ausgaben aus dem Modell einstufen. Diese Rankings werden dann verwendet, um ein Belohnungsmodell durch Verstärkungslernen zu trainieren. Das Belohnungsmodell wird dann verwendet, um die Ausgabe des großen Sprachmodells zu optimieren.
Abhängigkeit
In KI-Systemen die Annahme einer Empfehlung durch einen Benutzer oder die von einem KI-Modell generierte Ausgabe. Siehe auch Überabhängigkeit, Unterabhängigkeit.
Darstellung
Eine Codierung einer Informationseinheit, häufig als Vektor reeller Zahlen. Siehe auch Einbetten.
Darstellungsbereich
Ein n-dimensionaler mathematischer Raum, in den Dateninstanzen eingebettet werden. Ein zweidimensionaler latenter Raum integriert Daten als Punkte in einer 2D -Ebene (siehe auch: latenter Raum). Siehe auch Latenter Speicherbereich.
Neueinstufung
Ein generatives KI-Verfahren zur Einstufung einer Reihe von Dokumentenpassagen von der höchsten bis zur niedrigsten Wahrscheinlichkeit, eine bestimmte Anfrage zu beantworten.
Abruf, erweiterte Generierung (RAG)
Ein Verfahren, bei dem ein großes Sprachmodell mit Wissen aus externen Quellen erweitert wird, um Text zu generieren. Im Abrufschritt werden relevante Dokumente aus einer externen Quelle aus der Abfrage des Benutzers identifiziert. Im Generierungsschritt werden Teile dieser Dokumente in die LLM-Eingabeaufforderung eingeschlossen, um eine geerdete Antwort in den abgerufenen Dokumenten zu generieren.
Prämie
Ein Signal, das verwendet wird, um einen Agenten zu führen, in der Regel einen Verstärkungslernagenten, der Feedback zur Güte einer Entscheidung gibt
RLHF
Laufzeitumgebung
Die vordefinierte oder angepasste Hardware-und Softwarekonfiguration, die zum Ausführen von Tools oder Jobs wie Notebooks verwendet wird.
S
Scoring
- Bei maschinellem Lernen die Messung der Konfidenz eines vorhergesagten Ergebnisses.
- Ein Prozess, der berechnet, wie eng die Attribute für eine ankommende Identität mit den Attributen einer vorhandenen Entität übereinstimmen.
Skript
Eine Datei, die Python -oder R-Scripts zur Unterstützung eines Modells in der Produktion enthält.
Selbstkontrolle
Ein Abrufmechanismus, der Informationen aus den Eingabedaten selbst verwendet, um festzulegen, auf welche Teile der Eingabe beim Generieren der Ausgabe der Fokus gelegt werden soll.
Selbstüberwachtes Lernen
Eine Trainingsmethode für maschinelles Lernen, bei der ein Modell aus nicht beschrifteten Daten lernt, indem es Tokens in einer Eingabesequenz maskiert und dann versucht, sie vorherzusagen. Ein Beispiel ist "Ich mag ________ Sprossen".
Stimmungsanalyse
Untersuchung der im Text ausgedrückten Stimmung oder Emotion, z. B. ob eine Filmbewertung positiv oder negativ ist.
Form
Das Anpassen von Daten durch Filtern, Sortieren, Entfernen von Spalten, Verkettung von Tabellen und Ausführen von Operationen, die Berechnungen, Datengruppierungen, Hierarchien usw. umfassen.
Small Data
Daten, die für Menschen zugänglich und verständlich sind. Siehe auch Strukturierte Daten.
SQL-Pushback
In SPSS Modeler das Ausführen vieler Datenaufbereitungs- und Mining-Operationen direkt in der Datenbank über SQL-Code.
strukturierte Daten
Daten, die sich in festen Feldern innerhalb eines Datensatzes oder einer Datei befinden. Relationale Datenbanken und Arbeitsblätter sind Beispiele für strukturierte Daten. Siehe auch Unstrukturierte Daten, kleine Daten.
strukturierte Informationen
Elemente, die in strukturierten Ressourcen gespeichert sind, z. B. Suchmaschinenindizes, Datenbanken oder Wissensbasen.
überwachtes Lernen
Eine Trainingsmethode für maschinelles Lernen, bei der ein Modell mit einem gekennzeichneten Dataset trainiert wird, um Vorhersagen für neue Daten zu treffen.
T
Temperatur
Ein Parameter in einem generativen Modell, der den Umfang der Variation im Generierungsprozess angibt. Höhere Temperaturen führen zu einer größeren Variabilität der Modellausgabe.
Textklassifikation
Ein Modell, das Text automatisch in angegebenen Kategorien identifiziert und klassifiziert.
Textextraktion
Eine generative KI-Methode zur Umwandlung stark strukturierter Informationen in ein einfacheres Textformat zur Verwendung als Eingabe für große Sprachmodelle.
Zeitreihe
Eine Gruppe von Werten einer Variablen zu periodischen Zeitpunkten.
Zeitreihenmodell
Ein Modell, das Daten im Zeitverlauf verfolgt und vorhersagt.
Jeton
Eine diskrete Bedeutungs-oder Analyseeinheit in einem Text, z. B. ein Wort oder Unterwort.
Tokenisierung
Der Prozess, der bei der Verarbeitung natürlicher Sprache verwendet wird, um eine Textzeichenfolge in kleinere Einheiten wie Wörter oder Unterwörter aufzuteilen.
trainiertes Modell
Ein Modell, das mit tatsächlichen Daten trainiert wird und bereitgestellt werden kann, um Ergebnisse vorherzusagen, wenn neue Daten präsentiert werden.
Schulungen
Die erste Phase der Modellerstellung, die ein Subset der Quellendaten umfasst. Das Modell lernt anhand von Beispielen aus den bekannten Daten. Das Modell kann dann anhand eines weiteren, anderen Subsets getestet werden, für das das Ergebnis bereits bekannt ist.
Trainingsdaten
Eine Sammlung von Daten, die zum Trainieren von Modellen für maschinelles Lernen verwendet wird.
Trainingsset
Eine Gruppe beschrifteter Daten, die verwendet werden, um ein Modell für maschinelles Lernen zu trainieren, indem es es Beispielen und den entsprechenden Bezeichnungen zugänglich macht, sodass das Modell Muster erlernen und Vorhersagen treffen kann.
Transferlernen
Eine Strategie für maschinelles Lernen, bei der ein trainiertes Modell auf ein völlig neues Problem angewendet wird.
Transformator
Eine neuronale Netzarchitektur, die positionsgebundene Codierungen und den Self-Attention-Mechanismus verwendet, um das nächste Token in einer Folge von Tokens vorherzusagen
Transparenz
Teilen Sie geeignete Informationen mit Interessengruppen darüber, wie ein KI-System entworfen und entwickelt wurde. Beispiele für diese Informationen sind, welche Daten erfasst werden, wie sie verwendet und gespeichert werden und wer Zugriff darauf hat, sowie Testergebnisse auf Genauigkeit, Robustheit und Verzerrung.
Trust-Kalibrierung
Der Prozess der Bewertung und Anpassung des Vertrauens in ein KI-System, basierend auf Faktoren wie Genauigkeit, Zuverlässigkeit und Glaubwürdigkeit.
Turing-Test
Vorgeschlagen von Alan Turing im Jahr 1950, ein Test auf die Fähigkeit einer Maschine, intelligentes Verhalten gleichwertig oder ununterscheidbar von dem eines Menschen zu zeigen.
U
Unterständigkeit
Die Ablehnung einer korrekten Empfehlung durch einen Benutzer durch ein KI-Modell. Siehe auch Überabhängigkeit, Abhängigkeit.
Univariate Zeitreihen
Zeitreihenexperiment, das nur eine sich ändernde Variable enthält Beispiel: Ein Zeitreihenmodell, das die Temperatur prognostiziert, verfügt über eine einzige Vorhersagespalte der Temperatur.
unstrukturierte Daten
Alle Daten, die nicht in festen Feldern, sondern in einem unstrukturierten Format gespeichert sind. Die Daten in einem Textverarbeitungsdokument sind ein Beispiel für unstrukturierte Daten. Siehe auch Strukturierte Daten.
unstrukturierte Informationen
Data that is not contained in a fixed location, such as the natural language text document.
Nicht überwachtes Lernen
- Ein Modell für Deep Learning, bei dem unformatierte, unbeschriftete Daten zum Trainieren eines System mit geringem bis zukeinem menschlichen Aufwand verwendet werden.
- Eine Trainingsmethode für maschinelles Lernen, bei der ein Modell nicht mit gekennzeichneten Daten bereitgestellt wird und Muster oder Strukturen in den Daten eigenständig finden muss.
V
Validierungsset
Eine separate Gruppe beschrifteter Daten, die verwendet werden, um die Leistung und Generalisierungsfähigkeit eines Modells für maschinelles Lernen während des Trainingsprozesses zu bewerten und die Optimierung von Hyperparametern und die Modellauswahl zu unterstützen.
Vektor
Eine eindimensionale, sortierte Liste von Zahlen, z. B. [1, 2, 5] oder [0.7, 0.2, -1.0].
Vektordatenbank
Siehe Vektorspeicher.
Vektorindex
Ein Index, der die vektorisierten Einbettungen von Dokumenten aus einem Vektorspeicher abruft.
Vektorspeicher
Ein Repository, in dem vektorisierte Einbettungen von Dokumenten gespeichert werden.
Verbalisierer
In generativer KI eine Vorlage zum Formatieren der Daten während der Optimierung und Inferenz.
Virtueller Agent
Ein vorab trainierter Chat-Bot, der natürliche Sprache verarbeiten kann, um einfache Geschäftstransaktionen zu beantworten und abzuschließen oder komplexere Anforderungen an eine Person mit Fachwissen weiterzuleiten.
visualisierung
Ein Diagramm, eine Grafik, ein Kurvendiagramm, eine Tabelle, eine Karte oder eine andere visuelle Darstellung von Daten.
W
Gewicht
Ein Koeffizient für einen Knoten, der Eingabedaten innerhalb der Netzebene transformiert. Die Gewichtung ist ein Parameter, den ein KI-Modell durch Training lernt und dessen Wert anpasst, um Fehler in den Vorhersagen des Modells zu reduzieren.
Z
Zero-shot-Eingabeaufforderung
Ein Eingabeaufforderungsverfahren, bei dem das Modell eine Task ausführt, ohne dass ein konkretes Beispiel dafür gegeben wird.