Puede realizar un seguimiento y medir los resultados de sus modelos de IA para ayudar a garantizar que cumplen los procesos empresariales, independientemente de dónde se creen o ejecuten sus modelos.
- Servicio necesario
- tiempo de ejecución de watsonx.ai
- Formato de datos de entrenamiento
- Relacional: Tablas en orígenes de datos relacionales
- Tabular: archivos Excel (.xls o .xlsx), archivos CSV
- Textual: En los archivos o tablas relacionales soportadas
- Datos conectados
- Cloud Object Storage (infrastructure)
- Db2
- Tamaño de datos
- Cualquiera
Las empresas utilizan las evaluaciones de modelos como parte de las estrategias de gobierno de IA para asegurarse de que los modelos de los entornos de despliegue cumplen los estándares de conformidad establecidos, independientemente de las herramientas y las infraestructuras que se utilizan para crear y ejecutar los modelos. Este enfoque garantiza que los modelos de inteligencia artificial no contienen sesgos, que los usuarios empresariales los pueden explicar y comprender fácilmente y que son auditables en las transacciones empresariales.
Vea este breve vídeo para saber más sobre las evaluaciones de modelos.
Este vídeo proporciona un método visual para aprender los conceptos y tareas de esta documentación.
Intentar una guía de aprendizaje
El tutorial Evaluar un modelo de aprendizaje automático proporciona experiencia práctica con la configuración de evaluaciones para controlar la imparcialidad, la calidad y la explicabilidad.
Más información
- Opciones de configuración para Watson OpenScale
- Glosario
- Preguntas frecuentes
- Motores, infraestructuras y modelos de aprendizaje automático soportados
- Preparación para evaluar modelos
- Gestión de datos para evaluaciones de modelo
- Configuración de evaluaciones de modelo
- Configuración de la explicabilidad
- Revisión de los modelos
- Gestión de riesgos de modelo y gobierno de modelo