0 / 0
Volver a la versión inglesa de la documentación
Evaluación de modelos de IA
Última actualización: 22 nov 2024
Evaluación de modelos de IA

Puede realizar un seguimiento y medir los resultados de sus modelos de IA para ayudar a garantizar que cumplen los procesos empresariales, independientemente de dónde se creen o ejecuten sus modelos.

Servicio necesario
tiempo de ejecución de watsonx.ai
Formato de datos de entrenamiento
Relacional: Tablas en orígenes de datos relacionales
Tabular: archivos Excel (.xls o .xlsx), archivos CSV
Textual: En los archivos o tablas relacionales soportadas
Datos conectados
Cloud Object Storage (infrastructure)
Db2
Tamaño de datos
Cualquiera

Las empresas utilizan las evaluaciones de modelos como parte de las estrategias de gobierno de IA para asegurarse de que los modelos de los entornos de despliegue cumplen los estándares de conformidad establecidos, independientemente de las herramientas y las infraestructuras que se utilizan para crear y ejecutar los modelos. Este enfoque garantiza que los modelos de inteligencia artificial no contienen sesgos, que los usuarios empresariales los pueden explicar y comprender fácilmente y que son auditables en las transacciones empresariales.

Vea este breve vídeo para saber más sobre las evaluaciones de modelos.

Este vídeo proporciona un método visual para aprender los conceptos y tareas de esta documentación.

Intentar una guía de aprendizaje

El tutorial Evaluar un modelo de aprendizaje automático proporciona experiencia práctica con la configuración de evaluaciones para controlar la imparcialidad, la calidad y la explicabilidad.

Más información

Búsqueda y respuesta de IA generativa
Estas respuestas las genera un modelo de lenguaje grande en watsonx.ai que se basa en el contenido de la documentación del producto. Más información