Este tutorial utiliza el nodo Modelo de respuesta de autoaprendizaje (SLRM), que genera y permite actualizar un modelo para predecir qué ofertas son las más adecuadas para los clientes y la probabilidad de que las ofertas sean aceptadas. Estos tipos de modelos son muy beneficiosos en la gestión de relaciones con los clientes, incluidas las aplicaciones de marketing y los centros de llamadas.
Este ejemplo se basa en una empresa bancaria ficticia. El departamento de marketing quiere conseguir resultados más rentables en futuras campañas haciendo coincidir la oferta adecuada de servicios financieros a cada cliente. Específicamente, el ejemplo utiliza un modelo de respuesta de autoaprendizaje para identificar las características de los clientes que tienen más probabilidad de responder favorablemente en base a ofertas y respuestas anteriores y a promocionar la mejor oferta actual en función de los resultados.
Vista previa de la guía de aprendizaje
Vea este vídeo para obtener una vista preliminar de los pasos de esta guía de aprendizaje. Puede haber ligeras diferencias en la interfaz de usuario que se muestra en el vídeo. El vídeo pretende ser un complemento del tutorial escrito. Este vídeo ofrece un método visual para aprender los conceptos y tareas de esta documentación.
Pruebe el tutorial
En esta guía de aprendizaje, realizará estas tareas:
Ejemplo de flujo de modelización y conjunto de datos
Este tutorial utiliza el flujo Hacer ofertas a los clientes - Autoaprendizaje en el proyecto de ejemplo. Los archivos de datos utilizados son pm_customer_train1.csv, pm_customer_train2.csv y pm_customer_train3.csv. La siguiente imagen muestra el flujo del modelador de muestra.
Figura 1. Flujo del modelador de muestras
La empresa bancaria tiene datos históricos de seguimiento de las ofertas realizadas a los clientes en campañas anteriores, junto con las respuestas a esas ofertas. Estos datos incluyen también información demográfica y financiera que se puede utilizar para prever los índices de respuesta para los distintos clientes. La siguiente imagen muestra el conjunto de datos de muestra.Figura 2. Muestra de datos
Tarea 1: Abrir el proyecto de ejemplo
El proyecto de muestra contiene varios conjuntos de datos y flujos de modelado de muestra. Si aún no tiene el proyecto de muestra, consulte el tema Tutoriales para crear el proyecto de muestra. A continuación, siga estos pasos para abrir el proyecto de ejemplo:
En Cloud Pak for Data, en el menú de navegación, elija Proyectos > Ver todos los proyectos.
Haga clic en ProyectoSPSS Modeler.
Haga clic en la pestaña Activos para ver los conjuntos de datos y los flujos del modelador.
Compruebe su progreso
La siguiente imagen muestra la pestaña Activos del proyecto. Ya está preparado para trabajar con el flujo del modelador de ejemplo asociado a este tutorial.
Tarea 2: Examinar el activo de datos y el nodo de relleno
el flujo del modelador Hacer ofertas a los clientes - Autoaprendizaje ' incluye varios nodos. Siga estos pasos para examinar los nodos Activo de datos y Relleno:
En la pestaña Activos, abra el flujo de modelado Hacer ofertas a los clientes - Autoaprendizaje y espere a que se cargue el lienzo.
Haga doble clic en el nodo pm_customer_train1.csv. Este nodo es un nodo de Activo de Datos que apunta al archivo pm_customer_train1.csv en el proyecto.
Revise las propiedades del formato de archivo.
Opcional: Haga clic en Vista previa de datos para ver el conjunto de datos completo.
Haga doble clic en el nodo Relleno.Los nodos de relleno se utilizan para sustituir valores de campo y modificar el almacenamiento. Puede sustituir los valores en función de una condición CLEM especificada, como @BLANK(FIELD). También puede sustituir todos los espacios vacíos o valores nulos por un valor específico. Los nodos de relleno se utilizan a menudo con el nodo Tipo para reemplazar los valores que faltan.En la sección Rellenar campos, puede especificar los campos del conjunto de datos cuyos valores desea examinar y sustituir. En este caso, la columna " campaign " se especifica junto con una selección Siempre en la sección Sustituir.
Haz clic en Cancelar.
Compruebe su progreso
La siguiente imagen muestra el nodo Relleno. Ahora está listo para examinar los nodos Tipo y Reclasificar.
Siga estos pasos para examinar los nodos Tipo y Reclasificar:
Haga doble clic en el nodo Tipo para ver sus propiedades.Con el nodo Tipo, puede indicar los tipos de campos que está utilizando y cómo se utilizan para predecir los resultados. Fíjese en que la función de los campos " campaign " y " response " es " Objetivo. Los objetivos especificados son los campos en los que desea basar sus predicciones. La Medida se establece en Indicador para el campo " response ".
Haz clic en Leer valores.
Figura 3. Niveles de medición
Pulse Guardar.
Puesto que los datos del campo campaña se muestran como una lista de números (1, 2, 3 y 4), puede reclasificar los campos para que tengan títulos significativos.
Haga doble clic en el nodo Reclasificar para ver sus propiedades.
En la sección Reclasificar en, seleccione Campo existente.
A continuación, en la sección Reclasificar campo, seleccione campaña.
Pulse Obtener valores. Los valores de la campaña se añaden a la columna " ORIGINAL
VALUE ".
Observe que en la sección Valores de la columna " NEW VALUE " hay cuatro filas:
Mortgage
Car loan
Savings
Pension
Pulse Guardar.
Compruebe su progreso
La siguiente imagen muestra el nodo Reclasificar. Ya está listo para explorar el nodo SLRM.
Haga doble clic en el nodo de campaña (SLRM ) para ver sus propiedades.
Seleccione " campaign " para el campo Target, y " response " para el campo Target response.
En Opciones del modelo, en Número máximo de predicciones por registro, reduzca el número a 2. Esto significa que para cada cliente se identifican dos ofertas que tienen la mayor probabilidad de ser aceptadas.
Asegúrese de que la opción Tener en cuenta la fiabilidad del modelo está seleccionada.
Pulse Guardar.
Compruebe su progreso
La imagen siguiente muestra el flujo. Ya está listo para generar el modelo.
Pase el cursor sobre el nodo de la campaña (SLRM ) y haga clic en el icono Ejecutar.
En el panel Resultados y modelos, haga clic en el modelo de campaña para ver los resultados.
La vista inicial muestra la precisión estimada de las predicciones de cada oferta. También puede pulsar Importancia del predictor para ver la importancia relativa de cada predictor en la estimación del modelo, o bien pulsar Asociación con respuesta para mostrar la correlación de cada predictor con la variable objetivo.
Figura 4. Rendimiento del modelo de campaña
Para cambiar entre cada una de las cuatro ofertas para las que hay predicciones, utilice el menú Ver.
Vuelva al flujo.
Compruebe su progreso
La imagen siguiente muestra el flujo. Ahora está listo para experimentar con otros nodos de Activos de datos.
Tarea 6: Experimentar con otros nodos de Activos de Datos
Siga estos pasos para experimentar con otros nodos de Activos de datos:
Desconecte el nodo pm_customer_train1.csv del nodo Filler.
Conecte el nodo pm_customer_train2.csv al nodo Filler.
Haga doble clic en el nodo de la campaña (SLRM) y, en las Opciones de construcción, asegúrese de que está seleccionada la opción Continuar con el entrenamiento del modelo existente.
Pulse Guardar.
Ejecute el flujo para volver a generar el nugget de modelo. Pase el cursor sobre el nodo de la campaña (SLRM ) y haga clic en el icono Ejecutar.
En el panel Resultados y modelos, haga clic en el modelo de campaña para ver los resultados. El modelo muestra ahora las estimaciones de precisión revisadas de las predicciones de cada oferta.
Figura 5. Rendimiento del modelo de campaña
Desconecte el nodo pm_customer_train2.csv del nodo Filler.
Conecte el nodo pm_customer_train3.csv al nodo Filler.
Ejecute el flujo para volver a generar el nugget de modelo. Pase el cursor sobre el nodo de la campaña (SLRM ) y haga clic en el icono Ejecutar.
En el panel Resultados y modelos, haga clic en el modelo de campaña para ver los resultados.
Figura 6. Rendimiento del modelo de campaña
Ahora el modelo muestra la precisión final estimada de las predicciones de cada oferta. Como puede ver, la precisión media cayó ligeramente a medida que se añadieron orígenes de datos adicionales. Sin embargo, esta fluctuación es mínima y podría atribuirse a ligeras anomalías en los datos disponibles.
Pase el cursor por encima del nodo Tabla y haga clic en el icono Ejecutar.
En el panel Salidas y modelos, haga clic en el modelo Tabla para ver los resultados.
Figura 7. Rendimiento del modelo de campaña
Las predicciones de la tabla muestran qué ofertas es más probable que acepte un cliente y la confianza en que acepte esa oferta, en función de los datos de cada cliente. Por ejemplo, en la primera fila, sólo hay un 13.2 confianza (denotado por el valor " 0.132 " en la columna " $SC-campaign-1 ) en que un cliente que antes pidió un préstamo para un coche acepte una pensión si se la ofrecen. Sin embargo, las líneas segunda y tercera muestran a otros dos clientes que también pidieron un préstamo para comprar un coche; en sus casos, hay un 95.7 confianza en que ellos, y otros clientes con historiales similares, abran una cuenta de ahorro si se la ofrecen, y más de un 80% de confianza en que acepten una pensión.
Figura 8. Resultados del modelo: ofertas previstas y puntuaciones de confianza
Las explicaciones de los fundamentos matemáticos de los métodos de modelización que se utilizan en SPSS Modeler están disponibles en la Guía de algoritmos de SPSS Modeler.
Estos resultados se basan únicamente en los datos de entrenamiento. Para evaluar la generalización del modelo a otros datos del mundo real, se utiliza un nodo Partición para seleccionar un subconjunto de registros con fines de prueba y validación.
Este ejemplo mostraba cómo utilizar el nodo Modelo de respuesta de autoaprendizaje (SLRM ) para predecir qué ofertas es más probable que acepte un cliente y la confianza en que acepte la oferta, en función de los datos de cada cliente.
Use this interactive map to learn about the relationships between your tasks, the tools you need, the services that provide the tools, and where you use the tools.
Select any task, tool, service, or workspace
You'll learn what you need, how to get it, and where to use it.
Tasks you'll do
Some tasks have a choice of tools and services.
Tools you'll use
Some tools perform the same tasks but have different features and levels of automation.
Create a notebook in which you run Python, R, or Scala code to prepare, visualize, and analyze data, or build a model.
Automatically analyze your tabular data and generate candidate model pipelines customized for your predictive modeling problem.
Create a visual flow that uses modeling algorithms to prepare data and build and train a model, using a guided approach to machine learning that doesn’t require coding.
Create and manage scenarios to find the best solution to your optimization problem by comparing different combinations of your model, data, and solutions.
Create a flow of ordered operations to cleanse and shape data. Visualize data to identify problems and discover insights.
Automate the model lifecycle, including preparing data, training models, and creating deployments.
Work with R notebooks and scripts in an integrated development environment.
Create a federated learning experiment to train a common model on a set of remote data sources. Share training results without sharing data.
Deploy and run your data science and AI solutions in a test or production environment.
Find and share your data and other assets.
Import asset metadata from a connection into a project or a catalog.
Enrich imported asset metadata with business context, data profiling, and quality assessment.
Measure and monitor the quality of your data.
Create and run masking flows to prepare copies of data assets that are masked by advanced data protection rules.
Create your business vocabulary to enrich assets and rules to protect data.
Track data movement and usage for transparency and determining data accuracy.
Track AI models from request to production.
Create a flow with a set of connectors and stages to transform and integrate data. Provide enriched and tailored information for your enterprise.
Create a virtual table to segment or combine data from one or more tables.
Measure outcomes from your AI models and help ensure the fairness, explainability, and compliance of all your models.
Replicate data to target systems with low latency, transactional integrity and optimized data capture.
Consolidate data from the disparate sources that fuel your business and establish a single, trusted, 360-degree view of your customers.
Services you can use
Services add features and tools to the platform.
Develop powerful AI solutions with an integrated collaborative studio and industry-standard APIs and SDKs. Formerly known as Watson Studio.
Quickly build, run and manage generative AI and machine learning applications with built-in performance and scalability. Formerly known as Watson Machine Learning.
Discover, profile, catalog, and share trusted data in your organization.
Create ETL and data pipeline services for real-time, micro-batch, and batch data orchestration.
View, access, manipulate, and analyze your data without moving it.
Monitor your AI models for bias, fairness, and trust with added transparency on how your AI models make decisions.
Provide efficient change data capture and near real-time data delivery with transactional integrity.
Improve trust in AI pipelines by identifying duplicate records and providing reliable data about your customers, suppliers, or partners.
Increase data pipeline transparency so you can determine data accuracy throughout your models and systems.
Where you'll work
Collaborative workspaces contain tools for specific tasks.
Where you work with data.
> Projects > View all projects
Where you find and share assets.
> Catalogs > View all catalogs
Where you deploy and run assets that are ready for testing or production.
> Deployments
Where you manage governance artifacts.
> Governance > Categories
Where you virtualize data.
> Data > Data virtualization
Where you consolidate data into a 360 degree view.
Acerca de las cookies de este sitioNuestros sitios web necesitan algunas cookies para funcionar correctamente (necesarias). Además, se pueden utilizar otras cookies con su consentimiento para analizar el uso del sitio, para mejorar la experiencia del usuario y para publicidad.Para obtener más información, consulte sus opciones de. Al visitar nuestro sitio web, acepta que procesemos la información tal y como se describe en ladeclaración de privacidad de IBM.Para facilitar la navegación, sus preferencias de cookies se compartirán entre los dominios web de IBM que se muestran aquí.