INTELIGENCIA ARTIFICIAL

Un estudio profundiza en los sesgos de desigualdad de la IA

Participa el investigador de la UCO Javier Sánchez

Un momento durante la presentación del Informe.

Un momento durante la presentación del Informe. / CÓRDOBA

Diario CÓRDOBA

Diario CÓRDOBA

Una investigación realizada por la organización Civio concluyó que el software Bosco, que determina quién tiene acceso al bono social de electricidad, se lo denegaba a personas que sí tienen derecho al mismo. El simulador del ingreso mínimo vital se inicia preguntando sobre el estatus migratorio de la persona y el tiempo de residencia en España. En caso de no residir de forma continuada, el simulador estima que no tendría derecho al IMV aún cuando la ley establece excepciones al año de residencia en España. La aplicación EPV-R, que usa la Ertzaintza para predecir el riesgo de violencia de género, pregunta en primer lugar la nacionalidad de víctima y agresor y estudios previos han establecido que la nacionalidad no es un factor determinante.

Son algunos casos de discriminación en la Inteligencia Artificial que recoge el informe Una introducción a la IA y la discriminación algorítmica para movimientos sociales realizado dentro del proyecto AlgoRace, en el que participa el investigador de la UCO Javier Sánchez Monedero, y que se presentó el sábado en el Espacio Afro Conciencia de Madrid. Este estudio se orienta como una herramienta pedagógica para que colectivos de Derechos Humanos y que luchan contra la discriminación racial puedan entender, a través de ejemplos concretos, cómo funciona la IA y qué problemas puede causar.

Suscríbete para seguir leyendo