0 / 0
Zurück zur englischen Version der Dokumentation
Glossar
Letzte Aktualisierung: 11. Dez. 2024
Glossar

Dieses Glossar enthält Begriffe und Definitionen für Cloud Pak for Data as a Service.

A | B | C | D | E | F | G | H | I | J | K | L | M | N | O | P | R | S | T | U | V | W

A

Tastenkürzel

In der Hochleistungsinformatik eine spezielle Schaltung, die einen Teil der Rechenlast von der CPU übernimmt und so die Effizienz des Systems erhöht. So wird beispielsweise beim Deep Learning häufig GPU-beschleunigtes Computing eingesetzt, um einen Teil der Rechenlast auf einen Grafikprozessor zu verlagern, während die Hauptanwendung auf der CPU läuft. Siehe auch Grafikverarbeitungseinheit.

Abrechenbarkeit

Die Erwartung, dass Organisationen oder Einzelpersonen während ihres gesamten Lebenszyklus das ordnungsgemäße Funktionieren der KI-Systeme, die sie entwerfen, entwickeln, betreiben oder bereitstellen, in Übereinstimmung mit ihren Rollen und geltenden Regulierungsrahmen sicherstellen. Dazu gehört auch die Bestimmung, wer für einen KI-Fehler verantwortlich ist, der Rechtsexperten dazu auffordern kann, die Haftung von Fall zu Fall zu bestimmen.

Aktivierungsfunktion

Eine Funktion, die die Ausgabe einer neuronalen Einheit bei einer Reihe von eingehenden Aktivierungen von anderen Neuronen definiert

aktives Lernen

Ein Modell für maschinelles Lernen, in dem das System mehr beschriftete Daten nur anfordert, wenn es sie benötigt.

aktive Metadaten

Metadaten, die basierend auf der Analyse durch Prozesse für maschinelles Lernen automatisch aktualisiert werden. Beispiel: Bei der Profilerstellung und Datenqualitätsanalyse werden Metadaten für Datenassets automatisch aktualisiert.

Aktive Laufzeit

Eine Instanz einer Umgebung, die ausgeführt wird, um Rechenressourcen für Assets bereitzustellen, die Code ausführen.

vorbereitung

Ein Algorithmus oder ein Programm, das mit einer Umgebung interagiert, um optimale Handlungen oder Entscheidungen zu erlernen, in der Regel durch Verstärkungslernen, um ein bestimmtes Ziel zu erreichen.

KI

Siehe Künstliche Intelligenz.

KI-Beschleuniger

Spezialisierte Silizium-Hardware zur effizienten Ausführung von KI-bezogenen Aufgaben wie Deep Learning, maschinelles Lernen und neuronale Netze für schnellere, energieeffiziente Berechnungen. Dabei kann es sich um eine dedizierte Einheit in einem Kern, ein separates Chiplet auf einem Multimodul-Chip oder eine separate Karte handeln.

KI-Ethik

Ein multidisziplinäres Feld, das untersucht, wie die positiven Auswirkungen von KI optimiert und gleichzeitig Risiken und negative Ergebnisse reduziert werden können. Beispiele für KI-ethische Fragen sind Datenverantwortlichkeit und Datenschutz, Fairness, Erklärbarkeit, Robustheit, Transparenz, ökologische Nachhaltigkeit, Inklusion, moralische Agentur, Werteausrichtung, Rechenschaftspflicht, Vertrauen und Technologiemissbrauch.

KI-Governance

Das Regulierungsprogramm eines Unternehmens durch seine Unternehmensanweisungen, Mitarbeiter, Prozesse und Systeme, um den gesamten KI-Lebenszyklus zu steuern, zu bewerten, zu überwachen und Korrekturmaßnahmen zu ergreifen, um sicherzustellen, dass das KI-System so funktioniert, wie es das Unternehmen beabsichtigt, wie es von seinen Stakeholdern erwartet wird und wie es die relevanten Bestimmungen erfordern.

KI-Sicherheit

Das Forschungsgebiet, das darauf abzielt, sicherzustellen, dass Systeme der künstlichen Intelligenz auf eine Weise arbeiten, die für die Menschheit von Vorteil ist und nicht versehentlich Schaden anrichtet, indem Themen wie Zuverlässigkeit, Fairness, Transparenz und Ausrichtung von KI-Systemen auf menschliche Werte angegangen werden.

KI-System

Siehe System für künstliche Intelligenz.

Algorithmus

Eine Formel, die auf Daten angewendet wird, um optimale Methoden zur Lösung analytischer Probleme zu bestimmen

Versicherungsnehmeranalyse

Das Studieren von Daten, um bedeutsame Muster in den Daten zu finden und auf Grundlage dieser Muster Schlussfolgerungen zu ziehen.

künstliche Intelligenz (KI)

Die Fähigkeit, Wissen in Form eines Modells zu erwerben, zu verarbeiten, zu erstellen und anzuwenden, um Vorhersagen, Empfehlungen oder Entscheidungen zu treffen.

Künstliche Intelligenz (KI-System)

Ein System, das Vorhersagen, Empfehlungen oder Entscheidungen treffen kann, die physische oder virtuelle Umgebungen beeinflussen, und dessen Ausgaben oder Verhalten nicht unbedingt vom Entwickler oder Benutzer vorgegeben werden. KI-Systeme werden in der Regel mit großen Mengen an strukturierten oder unstrukturierten Daten trainiert und können so konzipiert sein, dass sie mit unterschiedlichen Autonomiegraden oder ohne Autonomie betrieben werden, um vom Menschen definierte Ziele zu erreichen.

Asset

Ein Element in einem Projekt oder Katalog, das Metadaten zu Daten oder zur Datenanalyse enthält.

kompositionsregel für Attribute

Eine von mehreren Regeln, die festlegen, wie die Attributwerte einer Stammdatenentität aus ihren Mitgliedsdatensätzen ausgewählt werden. Siehe auch Regel.

AutoAI-Experiment

Ein automatisierter Trainingsprozess, der eine Reihe von Trainingsdefinitionen und -parametern berücksichtigt, um eine Gruppe von eingestuften Pipelines als Modellkandidaten zu erstellen.

B

Batchbereitstellung

Eine Methode zur Bereitstellung von Modellen, die Eingabedaten aus einer Datei, einer Datenverbindung oder verbundenen Daten in einem Speicherbucket verarbeitet und dann die Ausgabe an ein ausgewähltes Ziel schreibt.

systematischer Fehler

Systematischer Fehler in einem KI-System, das bewusst oder nicht so konzipiert wurde, dass es zu unfairen Entscheidungen führen kann. Verzerrungen können sowohl im KI-System als auch in den Daten, die zum Trainieren und Testen verwendet werden, auftreten. KI-Verzerrungen können in einem KI-System durch kulturelle Erwartungen, technische Einschränkungen oder unvorhergesehene Bereitstellungskontexte entstehen. Siehe auch Fairness.

Verzerrungserkennung

Der Prozess zur Berechnung der Fairness für Metriken, um auf der Basis bestimmter Attribute zu erkennen, wann AI-Modelle nicht akzeptable Ergebnisse liefern.

Verzerrungsminderung

Verringerung von Verzerrungen in KI-Modellen durch Kuratieren von Trainingsdaten und Anwendung von Fairness-Techniken.

Binäre Klassifikation

Ein Klassifikationsmodell mit zwei Klassen Vorhersagen sind eine binäre Auswahl einer der beiden Klassen.

Geschäftsbegriff

Ein Wort oder eine Wortfolge, das ein Geschäftskonzept standardmäßig für ein Unternehmen definiert. Mit Begriffen können die Metadaten von Datenassets bereichert und die Kriterien von Datenschutzregeln definiert werden.

Geschäftsvokabular

Die Gruppe von Governance-Artefakten, wie z. B. Geschäftsbegriffe und Datenklassen, die Datenassets beschreiben und aufbereiten.

C

Katalog

Ein Repository mit Assets für die gemeinsame Nutzung innerhalb einer Organisation. Assets in Katalogen können durch Datenschutzregeln reguliert und durch andere Governance-Artefakte, wie z. B. Klassifikationen, Datenklassen und Geschäftsbegriffe, aufbereitet werden. In Katalogen können strukturierte und unstrukturierte Daten, Verweise auf Daten in externen Datenquellen und andere Analyseassets, wie z. B. Modelle für maschinelles Lernen, gespeichert werden.

Kategorie

Für Data Governance: ein kollaborativer Arbeitsbereich für die Organisation und Verwaltung von Governance-Artefakten.

Klassifikation

Für Data Governance ein Governance-Artefakt, das die Sensibilitätsstufe der Daten in einem Datenbestand beschreibt.

bereinigen

Hierdurch wird sichergestellt, dass alle Werte in einem Dataset konsistent sind und ordnungsgemäß aufgezeichnet werden.

Mitbearbeiter

Ein Mitglied einer Gruppe von Personen, die gemeinsam auf ein gemeinsames Ziel hinarbeiten.

kombinatorisches Problem

Ein Problem, das schwierig zu lösen ist, weil mehrere Entscheidungen getroffen werden müssen, die zu viele Kombinationen potenziller Auswahlmöglichkeiten einschließen. Einige Beispiele sind das Suchen einer Zusammenfassung, Reihenfolge oder Objektzuordnung.

Rechenressourcen

Die Hardware- und Softwareressourcen, die durch eine Umgebungsdefinition zur Ausführung von Analyseassets definiert sind.

Fehlermatrix

Eine Leistungsmessung, die die Genauigkeit zwischen den positiven und negativen vorhergesagten Ergebnissen eines Modells im Vergleich zu positiven und negativen tatsächlichen Ergebnissen bestimmt.

Verbundene Daten

Ein Dataset, auf das über die Verbindung zu einer externen Datenquelle zugegriffen wird

Verbindung

Die Informationen, die zum Herstellen einer Verbindung zu einer Datenbank erforderlich sind. Die tatsächlich erforderlichen Informationen variieren je nach DBMS und Verbindungsaufbaumethode.

Einschränkung

In Decision Optimizationeine Bedingung, die durch die Lösung eines Problems erfüllt werden muss.

kontinuierliches Lernen

Automatisiert das Überwachen der Modellleistung, erneute Trainieren mit neuen Daten und erneute Bereitstellen, um die Vorhersagequalität sicherzustellen.

Core ML-Bereitstellung

Das Herunterladen einer Bereitstellung im Core ML-Format für die Verwendung in iOS-Apps.

Haupttext

Eine Sammlung von Quellendokumenten, die zum Trainieren eines Machine Learning-Modells verwendet werden.

CPLEX-Modell

Ein Decision Optimization, das so formuliert ist, dass es von der CPLEX-Maschine gelöst werden kann.

CPO-Modell

Ein Constraint-Programmiermodell, das so formuliert ist, dass es von der CPO-Engine ( Decision Optimization CP Optimizer) gelöst werden kann.

kuratieren

  • Auswählen, Erfassen, Beibehalten und Verwalten von Inhalt, der für ein bestimmtes Thema relevant ist. Kuratieren von Daten bedeutet, dass sie zusätzlichen Wert erhalten, der verwaltet und ihnen hinzugefügt wird; dadurch entstehen aus Daten vertrauenswürdige Informationen und Wissen.
  • Das Erstellen und Vorbereiten eines Datenassets für Publizierung in einem Katalog. Zum Kuratieren kann das Aufbereiten des Datenassets durch das Zuordnen von Governance-Artefakten, wie z. B. Geschäftsbegriffe, Klassifikationen und Datenklassen, und das Analysieren der Qualität der Daten im Datenasset gehören.

D

Datenasset

Ein Asset, das auf Daten verweist, z. B. eine hochgeladene Datei. Verbindungen und verbundene Datenassets werden auch als Datenassets betrachtet.

Datenklasse

Ein Governance-Artefakt, das Spalten in relationalen Datasets entsprechend dem Typ und der Verwendungsweise der Daten kategorisiert.

Datengovernance

Der Prozess der Verfolgung und Kontrolle von Daten zur Aufrechterhaltung der Datenqualität, der Datensicherheit und der Einhaltung von Vorschriften.

Datenintegration

Die Kombination von technischen und Geschäftsprozessen, die verwendet werden, um Daten aus unterschiedlichen Quellen in aussagekräftigen und wertvollen Informationen zu kombinieren.

Data-Lake

Ein großes Datenspeicherrepository, das Rohdaten in einem beliebigen Format in einer unstrukturierten Architektur speichert. Data Lakes enthalten strukturierte und unstrukturierte Daten sowie Binärdaten für die Verarbeitung und Analyse.

Datenlakehouse

Eine einheitliche Datenspeicher-und Verarbeitungsarchitektur, die die Flexibilität eines Data Lakes mit den strukturierten Abfrage-und Leistungsoptimierungen eines Data-Warehouse kombiniert und eine skalierbare und effiziente Datenanalyse für KI-und Analyseanwendungen ermöglicht.

Data-Mining

Das Erfassen kritischer Geschäftsinformationen aus einer Datenquelle, Korrelieren der Informationen und Aufdecken von Zuordnungen, Mustern und Trends. Siehe auch Vorhersageanalyse.

Datenmodell

Visualisierung von Datenelementen, ihren Beziehungen und ihren Attributen.

Datenpipeline

Eine Reihe von Datenverarbeitungs- und Transformationsschritten.

Datenschutz

Schutz der Daten vor unberechtigtem Zugriff und unsachgemäßer Verwendung.

Datenprodukt

Eine Sammlung optimierter Daten oder datenbezogener Assets, die zur Wiederverwendung und Verteilung mit kontrolliertem Zugriff gepackt werden. Datenprodukte enthalten Daten sowie Modelle, Dashboards und andere Berechnungsassettypen. Im Gegensatz zu Datenassets in Governance-Katalogen werden Datenprodukte als Produkte mit mehreren Zwecken verwaltet, um einen geschäftlichen Nutzen zu bieten.

Datenschutzregel

Ein Governance-Artefakt, das angibt, welche Daten wie gesteuert werden sollen. Eine Datenschutzregel enthält Kriterien und eine Aktion. Siehe auch Regel.

Datenqualitätsanalyse

Die Analyse von Daten anhand der Qualitätsdimensionen Genauigkeit, Vollständigkeit, Konsistenz, Aktualität, Eindeutigkeit und Gültigkeit.

Datenqualitätsdefinition

Eine Datenqualitätsdefinition beschreibt eine Regelauswertung oder Bedingung für Datenqualitätsregeln.

Datenqualitätsregel

Während der Datenqualitätsanalyse eine Datenqualitätsregel, die Daten dahingehend bewertet, ob bestimmte Bedingungen erfüllt werden und Datensätze identifiziert, die die Bedingungen nicht als Regelverstöße erfüllen. Siehe auch Regel.

Data Refinery-Ablauf

Eine Datenquelle, eine Kette von mindestens einer Operation, die diese Datenquelle verfeinert und formt, und ein Ziel, zu dem die Daten sich bewegen.

Datenwissenschaft

Die Analyse und Visualisierung von strukturierten und unstrukturierten Daten zum Aufspüren von Erkenntnissen und Wissen.

Dataset

Eine Sammlung von Daten, in der Regel in Form von Zeilen (Datensätzen) und Spalten (Feldern), die in einer Datei- oder Datenbanktabelle enthalten sind.

Datenquelle

Ein Repository, eine Warteschlange oder ein Feed zum Lesen von Daten, wie z. B. eine Datenbank.

DataStage-Fluss

Ein Asset, das auf einer geordneten Reihe von Schritten zum Extrahieren, Transformieren und Laden von Daten basiert.

Datentabelle

Eine Sammlung von Daten, in der Regel in Form von Zeilen (Datensätzen) und Spalten (Feldern), die in einer Tabelle enthalten sind.

Data-Warehouse

Ein großes, zentralisiertes Repository mit Daten, die aus verschiedenen Quellen erfasst und für die Berichterstellung und Datenanalyse verwendet werden. Es speichert in erster Linie strukturierte und semistrukturierte Daten, sodass Unternehmen fundierte Entscheidungen treffen können.

Decision Optimization-Experiment

Ein Asset, das eine Gruppe von Szenarios enthält, die verschiedene Modellformulierungen oder Datasets darstellen, die sich auf das gleiche zu lösende Problem beziehen.

Decision Optimization-Modell

Ein präskriptives Modell, das mit Optimierung gelöst werden kann, um die beste Lösung für ein Decision Optimization-Problem bereitzustellen.

Entscheidungsvariable

Eine Variable aus einer Variablengruppe, die zu treffende Entscheidungen darstellt und deren Werte von der Optimierungsengine bestimmt werden, während gleichzeitig sichergestellt wird, dass alle Einschränkungen erfüllt werden und das Ziel optimiert wird.

Deep Learning

Ein Berechnungsmodell, das mehrere Schichten miteinander verbundener Knoten verwendet, die in hierarchischen Schichten organisiert sind, um Eingabedaten (erste Schicht) durch eine Reihe von Berechnungen umzuwandeln und eine Ausgabe (letzte Schicht) zu erzeugen. Deep Learning orientiert sich an der Struktur und Funktion des menschlichen Gehirns.

Deep-Learning-Experiment

Ein Modelltrainingsverfahren, das auf einer logischen Gruppierung von einer oder mehreren Modelltrainingsdefinitionen basiert, die in einem neuronalen Netz verbunden sind.

tiefes neuronales Netzwerk

Ein neuronales Netz mit mehreren versteckten Schichten, das komplexere Darstellungen der Daten ermöglicht.

Bereitstellung

Ein Modell oder ein Anwendungspaket, das für Verwendung verfügbar ist.

Bereitstellungsbereich

Ein Arbeitsbereich, in dem Modelle bereitgestellt und Implementierungen verwaltet werden.

DOcplex

Eine Python -API zur Modellierung und Lösung von Decision Optimization -Problemen.

E

Endpunkt-URL

Eine Netzzieladresse, die Ressourcen, wie z. B. Services und Objekte, angibt. Eine Endpunkt-URL wird beispielsweise verwendet, um die Position eines Modells oder einer Funktionsbereitstellung anzugeben, wenn ein Benutzer Nutzdaten an die Bereitstellung sendet.

Umgebung

Die Rechenressourcen für aktive Jobs.

Umgebungslaufzeit

Eine Instanziierung der Umgebungsvorlage zur Ausführung von Assets.

Umgebungsvorlage

Eine Definition, die Hardware- und Softwareressourcen zum Instanziieren von Umgebungslaufzeiten angibt.

Erklärbarkeit

  • Die Fähigkeit menschlicher Benutzer, Prognosen zu verfolgen, zu auditieren und zu verstehen, die in Anwendungen erstellt werden, die AI-Systeme verwenden.
  • Die Fähigkeit eines KI-Systems, Erkenntnisse zu liefern, die Menschen nutzen können, um die Ursachen der Vorhersagen des Systems zu verstehen.

F

Fairness

In einem KI-System die Gleichbehandlung von Einzelpersonen oder Gruppen von Einzelpersonen. Die Wahl eines bestimmten Begriffs der Gerechtigkeit für ein KI-System hängt von dem Kontext ab, in dem es verwendet wird. Siehe auch Verzerrung.

Element

Eine Eigenschaft oder ein Merkmal eines Elements in einem Dataset, z. B. eine Spalte in einem Arbeitsblatt. In einigen Fällen werden Features als Kombinationen anderer Features im Dataset entwickelt.

Feature-Engineering

Der Prozess der Auswahl, Transformation und Erstellung neuer Funktionen aus Rohdaten, um die Leistung und Vorhersagekraft von Modellen für maschinelles Lernen zu verbessern.

Featureauswahl

Ermitteln der Spalten mit Daten, die eine genaue Vorhersage oder Bewertung in einem Modell für maschinelles Lernen am besten unterstützen

Feature-Store

Ein zentrales Repository oder System, das Features verwaltet und organisiert und eine skalierbare und effiziente Möglichkeit bietet, Featuredaten in Pipelines und Anwendungen für maschinelles Lernen zu speichern, abzurufen und gemeinsam zu nutzen.

Featuretransformation

In AutoAI eine Phase der Pipelineerstellung, die Algorithmen anwendet, um die Trainingsdaten so zu transformieren und zu optimieren, dass das beste Ergebnis für den Modelltyp erzielt wird.

Federated Learning

Das Training eines allgemeinen Modells für maschinelles Lernen, das mehrere Datenquellen verwendet, die nicht verschoben, verknüpft oder gemeinsam genutzt werden. Das Ergebnis ist ein besser trainiertes Modell ohne Beeinträchtigung der Datensicherheit.

Ablauf

Eine Sammlung von Knoten, die eine Gruppe von Schritten zum Verarbeiten von Daten oder zum Trainieren eines Modells definieren.

Basismodell

Ein KI-Modell, das an ein breites Spektrum nachgelagerter Aufgaben angepasst werden kann. Basismodelle sind in der Regel groß angelegte generative Modelle, die mit Hilfe von Selbstüberwachung auf nicht beschrifteten Daten trainiert werden. Da es sich um großmaßstäbliche Modelle handelt, können Fundamentmodelle Milliarden von Parametern enthalten.

G

Gantt-Diagramm

Eine grafische Darstellung einer Projektzeitachse und -dauer, in der Plandaten als horizontale Balken entlang einer Zeitskala angezeigt werden.

Gen KI

Siehe generative KI.

generative KI (gen AI)

Eine Klasse von KI-Algorithmen, die verschiedene Arten von Inhalten produzieren können, darunter Text, Quellcode, Bilder, Audio und synthetische Daten.

Governance-Artefakt

Governance-Elemente, die Datenassets aufbereiten oder steuern. Zu Governance-Artefakten gehören Geschäftsbegriffe, Klassifikationen, Datenklassen, Richtlinien, Regeln und Referenzdatasets.

Governanceregel

Ein Governance-Artefakt, das eine Beschreibung in natürlicher Sprache der Kriterien bereitstellt, anhand derer festgestellt wird, ob Datenassets mit Geschäftszielen konform sind. Siehe auch Regel.

Governance-Workflow

Ein taskbezogener Prozess zum Steuern der Erstellung, Änderung und Löschung von Governance-Artefakten.

regulierter Katalog

Ein Katalog, für den die Durchsetzung von Datenschutzregeln aktiviert ist.

GPU

Siehe Grafikverarbeitungseinheit.

grafisches Erstellungsprogramm

Ein Werkzeug zur Erstellung von Flow Assets durch visuelle Kodierung. Ein Erstellungsbereich ist ein Bereich, in den Objekte oder Knoten platziert werden können, die zum Erstellen eines Ablaufs verbunden werden können.

Grafikverarbeitungseinheit (Graphics Processing Unit, GPU)

Ein spezialisierter Prozessor, der entwickelt wurde, um Speicher schnell zu bearbeiten und zu ändern, um die Erstellung von Images in einem Rahmenpuffer zu beschleunigen, der für die Ausgabe an eine Anzeige bestimmt ist. GPUs werden aufgrund ihrer Parallelverarbeitungsfunktionalität im maschinellen Lernen stark ausgelastet. Siehe auch Beschleuniger.

Erdung

Versorgung eines umfangreichen Sprachmodells mit Informationen zur Verbesserung der Genauigkeit der Ergebnisse.

H

HAP-Nachweis (HAP-Nachweis)

  • Die Fähigkeit, Hass, Beleidigungen und Obszönitäten zu erkennen und herauszufiltern, sowohl in den von den Nutzern eingereichten Prompts als auch in den von einem KI-Modell generierten Antworten.

HAP-Detektor (HAP-Detektor)

  • Ein Satzklassifikator, der potenziell schädliche Inhalte wie Hassreden, Beleidigungen und Obszönitäten aus der Ausgabe und Eingabe des Stiftungsmodells entfernt.

Aushaltset

Eine Gruppe beschrifteter Daten, die sowohl aus den Trainings-als auch aus den Validierungsgruppen absichtlich zurückgehalten werden und als unverzerrte Bewertung der Leistung des endgültigen Modells für unsichtbare Daten dienen.

Menschliche Aufsicht

Menschliche Beteiligung an der Überprüfung von Entscheidungen, die von einem KI-System getroffen wurden, und ermöglicht menschliche Autonomie und Verantwortlichkeit von Entscheidungen.

Hyperparameter

Bei maschinellem Lernen ein Parameter, dessen Wert vor dem Training zur Erhöhung der Modellgenauigkeit festgelegt wird.

I

Abbildung

Ein Softwarepaket, das eine Gruppe von Bibliotheken enthält.

Inferencing

Der Prozess, bei dem Live-Daten durch ein trainiertes KI-Modell laufen, um eine Vorhersage zu treffen oder eine Aufgabe zu lösen.

aufnehmen

  • Daten in ein System einspeisen, um eine Wissensbasis zu erstellen.
  • Das fortlaufende Hinzufügen eines hohen Echtzeitdatenvolumens zu einer Datenbank.

Erkenntnis

Ein genaues oder tiefes Verständnis von etwas. Erkenntnisse werden mithilfe kognitiver Analysen gewonnen, um aktuelle Momentaufnahmen und Vorhersagen zu Kundenverhalten und -einstellungen bereitzustellen.

Absicht

Ein Zweck oder Ziel, das durch die Eingabe des Kunden in einen Chatbot ausgedrückt wird, z. B. die Beantwortung einer Frage oder die Verarbeitung einer Rechnungszahlung.

J

Job

Eine separat ausführbare Arbeitseinheit.

K

Wissensdatenbank

Siehe Korpus.

L

Gekennzeichnete Daten

Rohdaten, denen Bezeichnungen zugeordnet sind, um Kontext oder Bedeutung hinzuzufügen, sodass sie zum Trainieren von Modellen für maschinelles Lernen verwendet werden kann. Numerische Werte können beispielsweise als Postleitzahlen oder Alter bezeichnet werden, um Kontext für Modelleingaben und -ausgaben bereitzustellen.

großes Sprachmodell (LLM)

Ein Sprachmodell mit einer großen Anzahl von Parametern, das mit einer großen Textmenge trainiert wurde.

Herkunft

  • Der Verlauf des Datenflusses durch Assets.
  • Der Verlauf der für ein Asset ausgeführten Ereignisse.

LLM

Siehe großes Sprachmodell.

logisches Modell

Eine logische Darstellung von Datenobjekten, die zu einer Geschäftsdomäne gehören.

M

Maschinelles Lernen (ML)

Ein Zweig der künstlichen Intelligenz (KI) und Informatik, der sich auf die Verwendung von Daten und Algorithmen konzentriert, um die Art und Weise zu imitieren, wie Menschen lernen, und schrittweise die Genauigkeit von KI-Modellen verbessert.

Framework für maschinelles Lernen

Die Bibliotheken und die Laufzeit für das Training und die Bereitstellung eines Modells.

Machine Learning-Modell

Ein KI-Modell, das mit einer Gruppe von Daten trainiert wird, um Algorithmen zu entwickeln, mit denen es neue Daten analysieren und daraus lernen kann.

Maske

Ersetzen sensibler Datenwerte in einer Spalte eines Datasets. Maskierungsmethoden unterscheiden sich in Datendienstprogramm und Datenschutz von der Bereitstellung ähnlich formatierter Ersetzungswerte, die die referenzielle Integrität beibehalten, bis zur Bereitstellung desselben Ersetzungswerts für die gesamte Spalte.

Maskierungsfluss

Ein Datenfluss, der permanent maskierte Kopien von Daten erzeugt

Masterdaten

  • Beim Modelltraining Referenzdaten, die für mehrere Jobs in demselben Modell gleich bleiben, aber bei Bedarf geändert werden können.
  • In Match 360eine konsolidierte Ansicht der Daten aus den unterschiedlichen Quellen.

stammdaten-Entität

Eine Zusammenstellung von Datensätzen, bei denen ein Abgleichsalgorithmus festgestellt hat, dass sie dieselbe reale Entität darstellen, z. B. eine Person oder eine Organisation. Jede Entität enthält einen oder mehrere Mitgliedsdatensätze, die der Abgleichsalgorithmus miteinander verknüpft hat.

Mathematische Programmierung (MP)

Ein Feld der Mathematik oder operativen Forschung, die zur Modellierung und Lösung von Decision Optimization-Problemen verwendet wird. Es umfasst lineare, ganzzahlige sowie gemischte ganzzahlige und nicht lineare Programmierung.

Metadatenimport

Eine Methode zum Importieren von Metadaten, die Datenassets zugeordnet sind, einschließlich Prozessmetadaten, die die Herkunft von Datenassets beschreiben, und technische Metadaten, die die Struktur von Datenassets beschreiben.

Fehlausrichtung

Eine Diskrepanz zwischen den Zielen oder Verhaltensweisen, für die ein KI-System optimiert ist, und den wahren, oft komplexen Zielen seiner Benutzer oder Designer

ML

Siehe Machine Learning.

MLOps

  • Das Verfahren für die Zusammenarbeit zwischen Data-Scientists und Betriebsexperten, um das Management des Produktionslebenszyklus für maschinelles Lernen (oder Deep Learning) zu unterstützen MLOps ist darauf ausgerichtet, die Automatisierung zu verbessern und die Qualität von Produktions-ML zu verbessern und sich gleichzeitig auf geschäftliche und regulatorische Anforderungen zu konzentrieren. Es umfasst Modellentwicklung, Training, Validierung, Implementierung, Überwachung und Management und verwendet Methoden wie CI/CD.
  • Eine Methodik, die ein Modell für maschinelles Lernen von der Entwicklung bis zur Produktion verwendet.

modell

  • In einem Kontext für maschinelles Lernen eine Gruppe von Funktionen und Algorithmen, die anhand eines Datasets trainiert und getestet wurden, um Vorhersagen oder Entscheidungen bereitzustellen.
  • In Decision Optimization eine mathematische Formulierung eines Problems, das mit CPLEX-Optimierungsengines unter Verwendung unterschiedlicher Datasets gelöst werden kann.

Modellformulierung

In Decision Optimization die mathematische Formulierung eines Modells, die als Liste von Entscheidungsvariablen, mindestens eine zu maximierende oder minimierende Zielfunktionen und einige zu erfüllenden Einschränkungen ausgedrückt wird.

ModelOps

Eine Methodik für die Verwaltung des gesamten Lebenszyklus eines KI-Modells, einschließlich Training, Implementierung, Scoring, Evaluierung, erneutes Training und Aktualisierung.

Fertigungszeitraum

Siehe Mathematische Programmierung.

N

Natürliche Sprache

Eine Modellierungssyntax, die natürlicher menschlicher Sprache (in Englisch) ähnelt, um Modelle zu formulieren.

Verarbeitung natürlicher Sprache (NLP – Natural Language Processing)

Ein Gebiet der künstlichen Intelligenz und der Linguistik, in dem die Probleme untersucht werden, die bei der Verarbeitung und Bearbeitung der natürlichen Sprache inhärent sind, wobei das Ziel die Verbesserung der Fähigkeit von Computern ist, menschliche Sprache zu verstehen.

Bibliothek für Verarbeitung natürlicher Sprache

Eine Bibliothek, die grundlegende Verarbeitungsfunktionen für natürliche Sprache für die Syntaxanalyse und sofort einsatzfähige vortrainierte Modelle für eine Vielzahl von Textverarbeitungstasks bereitstellt.

neuronales Netz

Ein mathematisches Modell für das Vorhersagen oder Klassifizieren von Fällen unter Verwendung eines komplexen mathematischen Schemas, das eine abstrakte Version von Gehirnzellen simuliert. Ein neuronales Netz wird trainiert, indem es eine hohe Anzahl beobachteter Fälle verarbeiten muss, wobei es sich wiederholt selbst aktualisieren kann, bis die Aufgabe erlernt wurde.

NLP

Siehe Verarbeitung natürlicher Sprache.

Knoten

Die grafische Darstellung einer Datenoperation in einem Datenstrom oder Ablauf. Verschiedene Typen von Knoten weisen unterschiedliche Formen auf, um den Typ der durchzuführenden Operation anzugeben.

Notebook

Ein interaktives Dokument, das ausführbaren Code, beschreibenden Text für diesen Code und die Ergebnisse eines beliebigen Codes enthält, der ausgeführt wird.

Notebook-Kernel

Der Teil des Notebook-Editors, der Code ausführt und die Berechnungsergebnisse zurückgibt.

O

verschleiern

Daten in einer Spalte durch ähnlich formatierte Werte ersetzen, die dem ursprünglichen Format entsprechen. Eine Form der Maskierung.

Zielfunktion

In Decision Opmization und Unternehmensforschung ein Ausdruck zum Optimieren (d. h. Minimieren oder Maximieren) bei gleichzeitiger Erfüllung anderer Einschränkungen des Problems.

Objektspeicher

Eine Methode zum Speichern von Daten, die in der Regel in der Cloud verwendet werden. Hierbei werden die Daten als diskrete Einheiten oder Objekte in einem Speicherpool oder Repository gespeichert, der oder die keine Dateihierarchie verwendet, sondern alle Objekte auf derselben Ebene speichert.

Onlinebereitstellung

Methode zum Zugreifen auf eine Modell-oder Python -Codebereitstellung über einen API-Endpunkt als Web-Service zum Generieren von Vorhersagen online in Echtzeit.

Ontologie

Eine explizite formale Spezifikation der Darstellung von Objekten, Konzepten und anderen Entitäten, die in einem bestimmten Interessengebiet vorhanden sein können, und die Beziehungen zwischen ihnen.

Operatives Asset

Ein Asset, das Code in einem Tool oder einem Job ausführt.

OPL-Modell

Eine in OPL-Modellierungssprache ausgedrückte Modellformulierung.

Optimale Lösung

In Unternehmensforschung eine Lösung für ein Problem, die die (lineare oder quadratische) Zielfunktion optimiert und alle anderen Einschränkungen des Problems erfüllt.

Optimierung

Der Prozess der Suche nach der am besten geeigneten Lösung für ein genau definiertes Problem unter Beachtung der auferlegten Einschränkungen. Sie können beispielsweise festlegen, wie Ressourcen zugeordnet werden oder wie die besten Elemente oder Kombinationen aus einer großen Gruppe von Alternativen gefunden werden.

Orchestrierung

Der Prozess der Erstellung eines End-to-End-Ablaufs, der ein Modell für maschinelles Lernen trainieren, ausführen, bereitstellen, testen und auswerten kann und die Automatisierung verwendet, um das System zu koordinieren, wobei häufig Mikroservices verwendet werden.

P

Paarprüfung

Ein Prozess, bei dem ein Datenverwalter Datensätze vergleicht, um festzustellen, ob sie übereinstimmen. Die Ergebnisse der Paarprüfung dienen dazu, einen Abgleichsalgorithmus zu trainieren, der entscheidet, welche Datensätze mit Stammdatenentitäten abgeglichen werden.

Parameter

Ein konfigurierbarer Teil des Modells, der für ein Modell intern ist und dessen Werte geschätzt oder aus Daten gelernt werden. Parameter sind Aspekte des Modells, die während des Trainingsprozesses angepasst werden, damit das Modell die Ausgabe präzise vorhersagen kann. Die Leistung und Vorhersagekraft des Modells hängen weitgehend von den Werten dieser Parameter ab.

Teilnehmer

In Federated Learning eine Entität, die Daten zum Trainieren eines allgemeinen Modells beiträgt. Die Daten werden nicht verschoben oder kombiniert, aber jede Partei profitiert vom föderierten Training.

Nutzdaten

Die Daten, die an eine Bereitstellung übergeben werden, um einen Score, eine Vorhersage oder eine Lösung zurückzugeben.

Nutzdatenprotokollierung

Die Erfassung von Nutzdaten und Bereitstellungsausgaben, um den einwandfreien Status der AI in Geschäftsanwendungen fortlaufend zu überwachen.

Physisches Modell

Eine Definition der physischen Strukturen und Beziehungen von Daten.

pipeline (Pipeline)

  • In Watson Pipelines, einem durchgängigen Fluss von Assets von der Erstellung bis zur Bereitstellung.
  • In AutoAI, ein Kandidatenmodell.

Pipelinebestenliste

In AutoAI, eine Tabelle, die die Liste der automatisch generierten Modellkandidaten als Pipelines anzeigt, geordnet nach den angegebenen Kriterien.

Platzhalter

Ein Feld oder eine Variable, die durch einen Wert ersetzt werden soll.

Richtlinie

  • Eine Strategie oder Regel, die ein Agent befolgt, um die nächste Aktion basierend auf dem aktuellen Status zu bestimmen.
  • Ein Regelset zum Schützen von Daten durch Steuerung des Datenzugriffs oder Anonymisierng sensibler Daten in Datenassets.
  • Ein Governance-Artefakt, das aus mindestens einer Datenschutz- und Governanceregel besteht.

Vorhersageanalysen

Ein Geschäftsprozess und eine Gruppe verwandter Technologien, die sich mit der Vorhersage zukünftiger Möglichkeiten und Trends befassen. Die Vorhersageanalyse wendet so unterschiedliche Disziplinen wie Wahrscheinlichkeit, Statistik, maschinelles Lernen und künstliche Intelligenz auf Geschäftsprobleme an, um die beste Aktion für eine bestimmte Situation zu finden. Siehe auch Data-Mining.

Vortrainiertes Modell

Ein KI-Modell, das zuvor für ein großes Dataset trainiert wurde, um eine bestimmte Aufgabe auszuführen. Vortrainierte Modelle werden verwendet, anstatt ein Modell völlig neu zu erstellen.

primäre Kategorie

Für Data Governance: die Kategorie, die das Governance-Artefakt enthält. Eine Kategorie ist mit einem Ordner oder Verzeichnis vergleichbar, in dem die Governance-Artefakt eines Benutzers verwaltet werden.

schutz

Gewährleistung, dass Informationen über eine Person vor unbefugtem Zugriff und unangemessener Verwendung geschützt sind.

Profil

Die generierten Metadaten und Statistikdaten zum Textinhalt von Daten.

Projekt

Ein interaktiver Arbeitsbereich für die Arbeit mit Daten und anderen Assets.

Reduzieren

Der Prozess der Vereinfachung, Verkleinerung oder Beschneidung eines Entscheidungsbaums oder neuronalen Netzes. Dabei werden weniger wichtige Knoten oder Schichten entfernt, um die Komplexität zu reduzieren, eine Überanpassung zu verhindern und die Generalisierung des Modells zu verbessern, während die Vorhersagekraft erhalten bleibt.

publish

Das Kopieren eines Assets in einen Katalog.

Python

Eine Programmiersprache, die in Data-Science und KI verwendet wird.

Python DOcplex-Modell

Eine in Python ausgedrückte Modellformulierung.

Python-Funktion

Eine Funktion, die Python -Code zur Unterstützung eines Modells in der Produktion enthält.

Q

Qualitätsregel

Eine oder mehrere Bedingungen, die erforderlich sind, damit ein Datensatz den Qualitätsstandards entspricht. Während der Datenqualitätsanalyse werden Datensätze anhand dieser Bedingungen überprüft. Siehe auch Regel.

Unterteilung

Eine Methode zur Komprimierung der Gewichte von Fundamentmodellen, um die Inferenz zu beschleunigen und den Speicherbedarf der GPU zu reduzieren.

R

R

Eine erweiterbare Scriptsprache, die in Data-Science und KI verwendet wird und eine Vielzahl von analytischen, statistischen und grafischen Funktionen und Verfahren bietet.

lesen

Daten zum Bearbeiten oder Analysieren in eine Anwendung kopieren.

redigieren

Alle Datenwerte in einer Spalte mit derselben Zeichenfolge ersetzen, um sensible Werte, das Datenformat und alle Beziehungen zwischen Werten auszublenden. Eine Form der Maskierung ..

Referenzdataset

Ein Governance-Artefakt, das Werte für bestimmte Spaltentypen definiert.

verfeinern

Hiermit werden Daten bereinigt und geformt.

Verstärkungslernen

Ein maschinelles Lernverfahren, bei dem ein Agent lernt, sequenzielle Entscheidungen in einer Umgebung zu treffen, um ein Belohnungssignal zu maximieren. Inspiriert durch Test-und Fehlerschulungen interagieren Agenten mit der Umgebung, erhalten Feedback und passen ihre Aktionen an, um optimale Richtlinien zu erreichen.

Prämie

Ein Signal, das dazu dient, einen Agenten zu leiten, in der Regel einen Agenten mit verstärktem Lernen, der eine Rückmeldung über die Güte einer Entscheidung gibt

Regel

Ein Artefakt, das Informationen, Kriterien oder Logik zur Analyse oder zum Schutz von Daten enthält. Siehe auch Datenschutzregel, Datenqualitätsregel, Governance-Regel, Qualitätsregel, Attributzusammensetzungsregel.

Laufzeitumgebung

Die vordefinierte oder angepasste Hardware-und Softwarekonfiguration, die zum Ausführen von Tools oder Jobs wie Notebooks verwendet wird.

S

Scoring

  • Bei maschinellem Lernen die Messung der Konfidenz eines vorhergesagten Ergebnisses.
  • Ein Prozess, der berechnet, wie eng die Attribute für eine ankommende Identität mit den Attributen einer vorhandenen Entität übereinstimmen.

Skript

Eine Datei, die Python -oder R-Scripts zur Unterstützung eines Modells in der Produktion enthält.

Sekundäre Kategorie

Eine optionale Kategorie, die auf das Governance-Artefakt verweist.

Selbstkontrolle

Ein Abrufmechanismus, der Informationen aus den Eingabedaten selbst verwendet, um festzulegen, auf welche Teile der Eingabe beim Generieren der Ausgabe der Fokus gelegt werden soll.

Selbstüberwachtes Lernen

Eine Trainingsmethode für maschinelles Lernen, bei der ein Modell aus nicht beschrifteten Daten lernt, indem es Tokens in einer Eingabesequenz maskiert und dann versucht, sie vorherzusagen. Ein Beispiel ist "Ich mag ________ Sprossen".

semantische Suche

Eine Stichwortsuche, die eine linguistische und kontextuelle Analyse beinhaltet. Bei einer semantischen Suche wird die Absicht der Abfrage durch einen oder mehrere Spezifizierer angegeben. So ist es zum Beispiel möglich, eine Person mit dem Namen "Bush" anzugeben, und eine solche Abfrage würde dann keine Ergebnisse über die Art der Sträucher liefern, die in einem Garten wachsen, sondern nur über Personen mit dem Namen Bush.

vertrauliche Daten

Daten, die Informationen enthalten, die vor unbefugtem Zugriff oder Offenlegung geschützt werden sollten. Zu den sensiblen Daten können geschützte Gesundheitsinformationen, persönlich identifizierbare Informationen, Geschäftsgeheimnisse oder Finanzergebnisse gehören.

Stimmungsanalyse

Untersuchung der in einem Text ausgedrückten Stimmung oder Emotion, z. B. die Feststellung, ob eine Filmkritik positiv oder negativ ist.

Form

Das Anpassen von Daten durch Filtern, Sortieren, Entfernen von Spalten, Verkettung von Tabellen und Ausführen von Operationen, die Berechnungen, Datengruppierungen, Hierarchien usw. umfassen.

Small Data

Daten, die für Menschen zugänglich und verständlich sind. Siehe auch Strukturierte Daten.

SQL-Pushback

In SPSS Modeler das Ausführen vieler Datenaufbereitungs- und Mining-Operationen direkt in der Datenbank über SQL-Code.

strukturierte Daten

Daten, die sich in festen Feldern innerhalb eines Datensatzes oder einer Datei befinden. Relationale Datenbanken und Arbeitsblätter sind Beispiele für strukturierte Daten. Siehe auch Unstrukturierte Daten, kleine Daten.

strukturierte Informationen

Elemente, die in strukturierten Ressourcen gespeichert sind, z. B. Suchmaschinenindizes, Datenbanken oder Wissensbasen.

Substitution

Das Austauschen von Daten in einer Spalte durch Werte, die nicht mit dem ursprünglichen Format übereinstimmen, aber die referenzielle Integrität bewahren.

Superknoten

Ein SPSS Modeler-Knoten, der einen Datenstrom verkleinert, indem er mehrere Knoten in einen Knoten einbindet.

überwachtes Lernen

Eine Trainingsmethode für maschinelles Lernen, bei der ein Modell mit einem gekennzeichneten Dataset trainiert wird, um Vorhersagen für neue Daten zu treffen.

T

Textklassifikation

Ein Modell, das Text automatisch in angegebenen Kategorien identifiziert und klassifiziert.

Zeitreihen

Eine Gruppe von Werten einer Variablen zu periodischen Zeitpunkten.

trainiertes Modell

Ein Modell, das mit tatsächlichen Daten trainiert wird und bereitgestellt werden kann, um Ergebnisse vorherzusagen, wenn neue Daten präsentiert werden.

Schulungen

Die erste Phase der Modellerstellung, die ein Subset der Quellendaten umfasst. Das Modell lernt anhand von Beispielen aus den bekannten Daten. Das Modell kann dann anhand eines weiteren, anderen Subsets getestet werden, für das das Ergebnis bereits bekannt ist.

Trainingsdaten

Eine Sammlung von Daten, die zum Trainieren von Modellen für maschinelles Lernen verwendet wird.

Trainingsset

Eine Gruppe beschrifteter Daten, die verwendet werden, um ein Modell für maschinelles Lernen zu trainieren, indem es es Beispielen und den entsprechenden Bezeichnungen zugänglich macht, sodass das Modell Muster erlernen und Vorhersagen treffen kann.

Transferlernen

Eine Strategie für maschinelles Lernen, bei der ein trainiertes Modell auf ein völlig neues Problem angewendet wird.

Transformator

Eine neuronale Netzarchitektur, die Positionskodierungen und den Mechanismus der Selbstaufmerksamkeit verwendet, um das nächste Token in einer Tokenfolge vorherzusagen.

Transparenz

Teilen Sie geeignete Informationen mit Interessengruppen darüber, wie ein KI-System entworfen und entwickelt wurde. Beispiele für diese Informationen sind, welche Daten erfasst werden, wie sie verwendet und gespeichert werden und wer Zugriff darauf hat, sowie Testergebnisse auf Genauigkeit, Robustheit und Verzerrung.

Turing-Test

Vorgeschlagen von Alan Turing im Jahr 1950, ein Test auf die Fähigkeit einer Maschine, intelligentes Verhalten gleichwertig oder ununterscheidbar von dem eines Menschen zu zeigen.

U

Unbegrenztes Problem

Ein Decision Optimization-Problem, bei dem eine unbegrenzte Anzahl Lösungen vorhanden ist und das Ziel Werte bis zur Unendlichkeit aufnehmen kann. Unbegrenzte Probleme werden häufig durch fehlende Einschränkungen in der Modellformulierung verursacht.

unstrukturierte Daten

Alle Daten, die nicht in festen Feldern, sondern in einem unstrukturierten Format gespeichert sind. Die Daten in einem Textverarbeitungsdokument sind ein Beispiel für unstrukturierte Daten. Siehe auch Strukturierte Daten.

unstrukturierte Informationen

Data that is not contained in a fixed location, such as the natural language text document.

Nicht überwachtes Lernen

Eine Trainingsmethode für maschinelles Lernen, bei der ein Modell nicht mit gekennzeichneten Daten bereitgestellt wird und Muster oder Strukturen in den Daten eigenständig finden muss.

V

Validierungsset

Eine separate Gruppe beschrifteter Daten, die verwendet werden, um die Leistung und Generalisierungsfähigkeit eines Modells für maschinelles Lernen während des Trainingsprozesses zu bewerten und die Optimierung von Hyperparametern und die Modellauswahl zu unterstützen.

Visualisierung

Ein Diagramm, eine Grafik, ein Kurvendiagramm, eine Tabelle, eine Karte oder eine andere visuelle Darstellung von Daten.

W

Gewicht

Ein Koeffizient für einen Knoten, der Eingabedaten innerhalb der Netzebene transformiert. Die Gewichtung ist ein Parameter, den ein KI-Modell durch Training lernt und dessen Wert anpasst, um Fehler in den Vorhersagen des Modells zu reduzieren.

Generative KI-Suche und -Antwort
Diese Antworten werden von einem großen Sprachmodell in watsonx.ai basierend auf dem Inhalt der Produktdokumentation generiert. Weitere Informationen