In diesem Tutorial wird der Knotenpunkt Self-Learning Response Model (SLRM) verwendet, der ein Modell erstellt und dessen Aktualisierung ermöglicht, um vorherzusagen, welche Angebote für Kunden am besten geeignet sind und wie hoch die Wahrscheinlichkeit ist, dass die Angebote angenommen werden. Modelle dieser Art sind am nützlichsten für Customer Relationship Management, beispielsweise in Marketinganwendungen oder im Callcenter.
Dieses Beispiel beruht auf einem fiktiven Kreditinstitut. Die Marketingabteilung möchte in zukünftigen Kampagnen profitablere Ergebnisse erzielen, indem sie jedem Kunden das passende Angebot an Finanzdienstleistungen anpasst. Insbesondere wird in dem Beispiel ein lernfähiges Antwortmodell verwendet, mit dem auf der Grundlage früherer Angebote und Reaktionen die Eigenschaften der Kunden ermittelt werden, die mit der größten Wahrscheinlichkeit positiv reagieren werden, und mit dem auf der Grundlage der Ergebnisse das beste aktuelle Angebot beworben wird.
Vorschau des Lernprogramms anzeigen
Sehen Sie sich dieses Video an, um eine Vorschau der Schritte in diesem Lernprogramm anzuzeigen. Die Benutzeroberfläche, die im Video gezeigt wird, kann geringfügig abweichen. Das Video ist als Ergänzung zum schriftlichen Tutorial gedacht. Dieses Video bietet eine visuelle Methode, um die Konzepte und Aufgaben in dieser Dokumentation zu erlernen.
Versuchen Sie das Tutorial
In diesem Lernprogramm werden Sie die folgenden Tasks ausführen:
In diesem Lernprogramm wird der Ablauf "Angebote an Kunden - Selbstlernen " im Beispielprojekt verwendet. Die verwendeten Datendateien sind pm_customer_train1.csv, pm_customer_train2.csv und pm_customer_train3.csv. Das folgende Bild zeigt ein Beispiel für den Ablauf der Modellierung.
Abb. 1. Ablauf der Modellierung von Proben
Das Bankinstitut hat Daten über die Angebote aufgezeichnet, die den Kunden in früheren Kampagnen unterbreitet wurden, sowie über die Reaktionen auf diese Angebote. Diese Daten umfassen auch demografische Informationen und Finanzdaten, mit denen die Antwortquoten für verschiedene Kunden prognostiziert werden können. Das folgende Bild zeigt den Beispieldatensatz.Abbildung 2: Beispielhafter Datensatz
Aufgabe 1: Öffnen Sie das Beispielprojekt
Das Beispielprojekt enthält mehrere Datensätze und Modellierungsabläufe. Wenn Sie das Beispielprojekt noch nicht haben, finden Sie unter Tutorials eine Anleitung zum Erstellen des Beispielprojekts. Gehen Sie dann wie folgt vor, um das Beispielprojekt zu öffnen:
In Cloud Pak for Data wählen Sie im NavigationsmenüProjekte > Alle Projekte anzeigen aus.
Klicken Sie auf SPSS Modeler.
Klicken Sie auf die Registerkarte Assets, um die Datensätze und Modellierungsabläufe zu sehen.
Überprüfen Sie Ihren Fortschritt
Die folgende Abbildung zeigt die Registerkarte Assets des Projekts. Sie sind nun bereit, mit dem zu diesem Lehrgang gehörenden Beispielmodellierungsablauf zu arbeiten.
Aufgabe 2: Untersuchen Sie den Knoten Daten-Asset und Füller
Angebote an Kunden machen - Der Self-Learning Modeler Flow umfasst mehrere Knotenpunkte. Gehen Sie wie folgt vor, um die Knoten Data Asset und Filler zu untersuchen:
Öffnen Sie auf der Registerkarte Assets den Modellierungsablauf Angebote für Kunden - Selbstlernen und warten Sie, bis die Leinwand geladen ist.
Doppelklicken Sie auf den Knoten pm_customer_train1.csv. Dieser Knoten ist ein Data Asset-Knoten, der auf die Datei pm_customer_train1.csv im Projekt verweist.
Überprüfen Sie die Eigenschaften des Dateiformats.
Optional: Klicken Sie auf Datenvorschau, um den vollständigen Datensatz zu sehen.
Doppelklicken Sie auf den Knoten Füller.Füllknoten werden verwendet, um Feldwerte zu ersetzen und die Speicherung zu ändern. Sie können auswählen, dass die Werte auf der Grundlage einer angegebenen CLEM-Bedingung ersetzt werden sollen, beispielsweise @BLANK(FIELD). Alternativ können Sie auswählen, dass alle Leerstellen oder Nullwerte mit einem bestimmten Wert ersetzt werden sollen. Füllknoten werden häufig zusammen mit dem Knoten Typ verwendet, um fehlende Werte zu ersetzen.Im Abschnitt Felder ausfüllen können Sie die Felder aus dem Dataset angeben, deren Werte untersucht und ersetzt werden sollen. In diesem Fall wird die Spalte " campaign zusammen mit einer Auswahl "Immer" unter dem Abschnitt " Ersetzen" angegeben.
Klicken Sie auf Abbrechen.
Überprüfen Sie Ihren Fortschritt
Das folgende Bild zeigt den Filler-Knoten. Sie können nun die Knoten "Typ" und " Reklassifizieren" untersuchen.
Aufgabe 3: Untersuchen Sie den Typ und reklassifizieren Sie die Knoten
Führen Sie die folgenden Schritte aus, um die Knoten " Typ" und " Neu klassifizieren" zu untersuchen:
Doppelklicken Sie auf den Knoten Typ, um seine Eigenschaften anzuzeigen.Mit dem Knoten Typ können Sie angeben, welche Arten von Feldern Sie verwenden und wie diese zur Vorhersage der Ergebnisse verwendet werden. Beachten Sie, dass die Rolle für die Felder " campaign und " response auf "Ziel" gesetzt ist. Die angegebenen Ziele sind die Felder, auf die Sie Ihre Vorhersagen stützen wollen. Die Maßnahme wird für das Feld " response auf Flag gesetzt.
Klicken Sie auf Werte lesen.
Abb. 3 Messniveaus
Klicken Sie auf Speichern.
Da die Daten des Kampagnenfelds eine Liste mit Zahlen (1, 2, 3 und 4) enthalten, können Sie die Felder umcodieren, um ihnen aussagekräftigere Titel zu geben.
Doppelklicken Sie auf den Knoten Reclassify, um seine Eigenschaften anzuzeigen.
Wählen Sie im Abschnitt Umgliedern in dasFeld Vorhanden aus.
Wählen Sie dann im Abschnitt Feld neu klassifizieren die Option Kampagne.
Klicken Sie auf Abrufen. Die Werte der Kampagne werden der Spalte " ORIGINAL
VALUE hinzugefügt.
Beachten Sie, dass es im Abschnitt Werte in der Spalte " NEW VALUE vier Zeilen gibt:
Mortgage
Car loan
Savings
Pension
Klicken Sie auf Speichern.
Überprüfen Sie Ihren Fortschritt
Das folgende Bild zeigt den Knoten Reclassify. Sie sind nun bereit, den SLRM-Knoten zu erkunden.
Folgen Sie diesen Schritten, um den SLRM-Knoten zu erkunden:
Doppelklicken Sie auf den Knoten Kampagne (SLRM), um seine Eigenschaften anzuzeigen.
Wählen Sie campaign für das Zielfeld und response für das Zielantwortfeld aus.
Reduzieren Sie unter Modelloptionen für Maximale Anzahl von Vorhersagen pro Datensatz die Zahl auf 2. Das bedeutet, dass für jeden Kunden zwei Angebote ermittelt werden, die die höchste Wahrscheinlichkeit haben, angenommen zu werden.
Stellen Sie sicher, dass die Option Modellzuverlässigkeit berücksichtigen ausgewählt ist.
Klicken Sie auf Speichern.
Überprüfen Sie Ihren Fortschritt
Die folgende Abbildung zeigt den Ablauf. Sie sind nun bereit, das Modell zu erstellen.
Folgen Sie diesen Schritten, um das Modell zu erstellen:
Bewegen Sie den Mauszeiger über den Kampagnenknoten (SLRM) und klicken Sie auf das Symbol "Ausführen".
Klicken Sie im Fensterbereich Ausgaben und Modelle auf das Kampagnenmodell, um die Ergebnisse anzuzeigen.
Die Eingangsanzeige enthält die geschätzte Genauigkeit der Vorhersagen für jedes Angebot. Sie können auch auf Prädiktoreinfluss klicken, um die relative Wichtigkeit jedes Prädiktors für die Schätzung des Modells anzuzeigen, oder klicken Sie auf Assoziation mit Antwort, um die Korrelation der einzelnen Prädiktoren mit der Zielvariablen anzuzeigen.
Abbildung 4. Leistung des Kampagnenmodells
Um zwischen den vier Angeboten zu wechseln, für die es Vorhersagen gibt, verwenden Sie das Menü Ansicht.
Kehren Sie zum Ablauf zurück.
Überprüfen Sie Ihren Fortschritt
Die folgende Abbildung zeigt den Ablauf. Sie können nun mit anderen Daten-Asset-Knoten experimentieren.
Aufgabe 6: Experimentieren Sie mit anderen Daten-Asset-Knoten
Folgen Sie diesen Schritten, um mit anderen Daten-Asset-Knoten zu experimentieren:
Trennen Sie den Knoten pm_customer_train1.csv vom Knoten Filler.
Verbinden Sie den Knoten pm_customer_train2.csv mit dem Knoten Filler.
Doppelklicken Sie auf den Knoten Kampagne (SLRM) und vergewissern Sie sich, dass unter den Build Options die Option Continue training existing model ausgewählt ist.
Klicken Sie auf Speichern.
Führen Sie den Ablauf aus, um das Modellnugget erneut zu erstellen. Bewegen Sie den Mauszeiger über den Kampagnenknoten (SLRM) und klicken Sie auf das Symbol "Ausführen".
Klicken Sie im Fensterbereich Ausgaben und Modelle auf das Kampagnenmodell, um die Ergebnisse anzuzeigen. Das Modell weist nun die revidierten Schätzungen für die Genauigkeit der Vorhersagen für die einzelnen Angebote auf.
Abbildung 5. Leistung des Kampagnenmodells
Trennen Sie den Knoten pm_customer_train2.csv vom Knoten Filler.
Verbinden Sie den Knoten pm_customer_train3.csv mit dem Knoten Filler.
Führen Sie den Ablauf aus, um das Modellnugget erneut zu erstellen. Bewegen Sie den Mauszeiger über den Kampagnenknoten (SLRM) und klicken Sie auf das Symbol "Ausführen".
Klicken Sie im Fensterbereich Ausgaben und Modelle auf das Kampagnenmodell, um die Ergebnisse anzuzeigen.
Abbildung 6. Leistung des Kampagnenmodells
Das Modell zeigt nun die endgültige geschätzte Genauigkeit der Vorhersagen für die einzelnen Angebote an. Wie Sie sehen können, nahm die durchschnittliche Genauigkeit geringfügig ab, als Sie die zusätzlichen Datenquellen hinzufügten. Diese Schwankung ist jedoch minimal und könnte auf leichte Anomalien in den verfügbaren Daten zurückzuführen sein.
Fahren Sie mit der Maus über den Tabellenknoten und klicken Sie auf das Symbol "Ausführen".
Klicken Sie im Fensterbereich Ausgaben und Modelle auf das Tabellenmodell, um die Ergebnisse anzuzeigen.
Abbildung 7. Leistung des Kampagnenmodells
Die Vorhersagen in der Tabelle zeigen, welche Angebote ein Kunde am ehesten annehmen wird und wie hoch die Wahrscheinlichkeit ist, dass er dieses Angebot annimmt, je nach den Angaben des Kunden. In der ersten Zeile gibt es zum Beispiel nur ein 13.2 Konfidenzniveau (gekennzeichnet durch den Wert " 0.132 in der Spalte " $SC-campaign-1 ), dass ein Kunde, der zuvor einen Autokredit aufgenommen hat, eine Rente annimmt, wenn er sie angeboten bekommt. In der zweiten und dritten Zeile sind jedoch zwei weitere Kunden zu sehen, die ebenfalls einen Autokredit aufgenommen haben; in ihren Fällen besteht eine 95.7 Zuversicht, dass sie und andere Kunden mit ähnlicher Vorgeschichte ein Sparkonto eröffnen, wenn ihnen eines angeboten wird, und eine über 80 %ige Zuversicht, dass sie eine Rente annehmen.
Abbildung 8. Modellausgabe - vorhergesagte Angebote und Vertrauenswerte
Erläuterungen zu den mathematischen Grundlagen der Modellierungsmethoden, die in SPSS Modeler verwendet werden, sind im SPSS Modeler Algorithms Guide verfügbar.
Diese Ergebnisse beruhen nur auf den Trainingsdaten. Um zu beurteilen, wie gut das Modell auf andere Daten in der realen Welt verallgemeinert werden kann, verwenden Sie einen Partitionsknoten, um eine Untergruppe von Datensätzen zu Test- und Validierungszwecken herauszuhalten.
In diesem Beispiel wurde gezeigt, wie der Knotenpunkt Self-Learning Response Model (SLRM) verwendet werden kann, um vorherzusagen, welche Angebote ein Kunde mit hoher Wahrscheinlichkeit annehmen wird und wie hoch die Wahrscheinlichkeit ist, dass er das Angebot annimmt, je nach den Angaben des Kunden.
Use this interactive map to learn about the relationships between your tasks, the tools you need, the services that provide the tools, and where you use the tools.
Select any task, tool, service, or workspace
You'll learn what you need, how to get it, and where to use it.
Tasks you'll do
Some tasks have a choice of tools and services.
Tools you'll use
Some tools perform the same tasks but have different features and levels of automation.
Create a notebook in which you run Python, R, or Scala code to prepare, visualize, and analyze data, or build a model.
Automatically analyze your tabular data and generate candidate model pipelines customized for your predictive modeling problem.
Create a visual flow that uses modeling algorithms to prepare data and build and train a model, using a guided approach to machine learning that doesn’t require coding.
Create and manage scenarios to find the best solution to your optimization problem by comparing different combinations of your model, data, and solutions.
Create a flow of ordered operations to cleanse and shape data. Visualize data to identify problems and discover insights.
Automate the model lifecycle, including preparing data, training models, and creating deployments.
Work with R notebooks and scripts in an integrated development environment.
Create a federated learning experiment to train a common model on a set of remote data sources. Share training results without sharing data.
Deploy and run your data science and AI solutions in a test or production environment.
Find and share your data and other assets.
Import asset metadata from a connection into a project or a catalog.
Enrich imported asset metadata with business context, data profiling, and quality assessment.
Measure and monitor the quality of your data.
Create and run masking flows to prepare copies of data assets that are masked by advanced data protection rules.
Create your business vocabulary to enrich assets and rules to protect data.
Track data movement and usage for transparency and determining data accuracy.
Track AI models from request to production.
Create a flow with a set of connectors and stages to transform and integrate data. Provide enriched and tailored information for your enterprise.
Create a virtual table to segment or combine data from one or more tables.
Measure outcomes from your AI models and help ensure the fairness, explainability, and compliance of all your models.
Replicate data to target systems with low latency, transactional integrity and optimized data capture.
Consolidate data from the disparate sources that fuel your business and establish a single, trusted, 360-degree view of your customers.
Services you can use
Services add features and tools to the platform.
Develop powerful AI solutions with an integrated collaborative studio and industry-standard APIs and SDKs. Formerly known as Watson Studio.
Quickly build, run and manage generative AI and machine learning applications with built-in performance and scalability. Formerly known as Watson Machine Learning.
Discover, profile, catalog, and share trusted data in your organization.
Create ETL and data pipeline services for real-time, micro-batch, and batch data orchestration.
View, access, manipulate, and analyze your data without moving it.
Monitor your AI models for bias, fairness, and trust with added transparency on how your AI models make decisions.
Provide efficient change data capture and near real-time data delivery with transactional integrity.
Improve trust in AI pipelines by identifying duplicate records and providing reliable data about your customers, suppliers, or partners.
Increase data pipeline transparency so you can determine data accuracy throughout your models and systems.
Where you'll work
Collaborative workspaces contain tools for specific tasks.
Where you work with data.
> Projects > View all projects
Where you find and share assets.
> Catalogs > View all catalogs
Where you deploy and run assets that are ready for testing or production.
> Deployments
Where you manage governance artifacts.
> Governance > Categories
Where you virtualize data.
> Data > Data virtualization
Where you consolidate data into a 360 degree view.
Über den Einsatz von Cookies auf dieser WebsiteUnsere Websites benötigen einige Cookies, um ordnungsgemäß zu funktionieren (erforderlich). Darüber hinaus können mit Ihrer Zustimmung weitere Cookies verwendet werden, um die Nutzung der Website zu analysieren, die Benutzerfreundlichkeit zu verbessern und Werbung zu schalten.Weitere Informationen finden Sie in Ihren. Durch den Besuch unserer Website erklären Sie sich mit der Verarbeitung von Informationen einverstanden, wie in der IBMDatenschutzbestimmung beschrieben.Um eine reibungslose Navigation zu ermöglichen, werden Ihre Cookie-Präferenzen über die hier aufgeführten IBM Web-Domains hinweg gemeinsam genutzt.