Descripción
Los sesgos históricos, representativos y sociales presentes en los datos utilizados para entrenar y afinar el modelo pueden afectar negativamente al comportamiento del modelo.
¿Por qué el sesgo de datos es una preocupación para los modelos de base?
El entrenamiento de un sistema de IA sobre datos con sesgo, como el sesgo histórico o representacional, podría conducir a resultados sesgados o sesgados que pueden representar injustamente o discriminar de otro modo a ciertos grupos o individuos. Además de los impactos sociales negativos, las entidades empresariales podrían enfrentarse a consecuencias legales o daños reputacionales derivados de resultados de modelos sesgados.
Sesgo de asistencia sanitaria
Según el artículo de investigación sobre el refuerzo de las disparidades en la medicina mediante el uso de datos y aplicaciones de IA para transformar la forma en que las personas reciben asistencia sanitaria es sólo tan fuerte como los datos detrás del esfuerzo. Por ejemplo, el uso de datos de entrenamiento con escasa representación minoritaria o que reflejen lo que ya es una atención desigual puede conducir a un aumento de las desigualdades en salud.
Tema principal: Atlas de riesgo de IA
Proporcionamos ejemplos cubiertos por la prensa para ayudar a explicar muchos de los riesgos de los modelos básicos. Muchos de estos eventos cubiertos por la prensa están todavía en evolución o se han resuelto, y hacer referencia a ellos puede ayudar al lector a comprender los riesgos potenciales y trabajar hacia las mitigaciones. El resaltado de estos ejemplos sólo tiene fines ilustrativos.