TecnoXplora» Internet» Empresas

UNA INICIATIVA ESPAÑOLA COMBATE EL PROBLEMA

Las ofertas de trabajo son discriminatorias (y este algoritmo lo demuestra)

Nos guste o no reconocerlo, muchas ofertas de trabajo tienen un sesgo discriminatorio. Así podemos combatirlo.

Ofertas de trabajoAgencias

Hay una propuesta que, en los últimos años, está empezando a popularizarse en según qué contextos laborales: la de los curriculum 'ciegos'. Es decir, sin foto, sin indicar el sexo y sin que aparezca tampoco ningún tipo de vinculación religiosa o de otra clase.

La propuesta puede ser polémica, pero tiene doble motivación: en primer lugar, aceptar que todos nos dejamos llevar por todo tipo de sesgos discriminatorios a la hora de juzgar a una persona a la que no conocemos; en segundo lugar, eliminar todos esos sesgos y valorar a la gente de la manera más objetiva posible.

Y si alguien duda de esos condicionantes, hay una iniciativa española que lo ha demostrado. Ha sido llevada de manera conjunta por la Unidad de Data Science del centro tecnológico Eurecat (miembro de Tecnio), la Universidad Pompeu Fabra y la Universidad Técnica de Berlín.

Los responsables del estudio no tienen dudas: los sesgos subjetivos juegan un papel fundamental a la hora de evaluar a alguien. Sobre todo en el ámbito laboral, el más perjudicial de todos, pero también en otras herramientas como las búsquedas en internet o las webs de citas.

La solución: FA*IR

“¿Por qué, si buscas en Google Imágenes la palabra 'Policía', en la mayoría de imágenes sólo aparecen hombres y en las que aparecen mujeres visten de forma provocativa?”, se preguntan. “¿Por qué muchos resultados de búsquedas de minorías étnicas muestran imágenes negativas?”. Las conclusiones parecen obvias.

Y es que, como afirman, “la analítica de datos puede ayudar a determinar el mejor candidato para un puesto de trabajo o la concesión de una hipoteca”. De hecho, “que tu código postal indique que vives en un barrio con una renta per cápita baja puede ser un dato objetivo que juegue en tu contra a la hora de aprobar un préstamo hipotecario”.

Ante este hecho, los investigadores de los tres centros han llevado a cabo un proyecto denominado FA*IR y con el que pretenden liberarnos de estos sesgos. Ya que, en línea con esas reflexiones, “las máquinas aprenden de nuestro prejuicios y estereotipos”. El objetivo está claro: acabar con ellos.

El proyecto se divide en tres fases. En la fase de preprocesamiento de la información, la estrategia utilizada consiste en controlar la distorsión del conjunto de datos: “En la práctica, supone eliminar datos sensibles de potenciar la discriminación como el código postal, el género o la raza para que no se puedan extraer modelos de decisión que discriminen”, asegura Sara Hajian, investigadora de la Unidad de Data Science de Eurecat.

Una vez se tienen los datos “hay que hacer una aproximación ética que integre la antidiscriminación por diseño. Esto supone modificar los algoritmos de 'data mining' para que no contengan decisiones injustas”. Por último, “en la tercera fase se proponen tareas de postprocesamiento de los modelos de extracción de datos obtenidos en vez de limpiar el conjunto de datos original o cambiar los algoritmos de minería de datos”.

De esta manera, asegura la investigadora, “comenzaremos realmente a trabajar en modelos antidiscriminación. La personalización es buena pero hasta cierto punto, porque quizá nuestros intereses no se ajustan al de los roles mayoritarios”. Habrá que seguir la evolución de este proyecto para ver si los resultados son los deseados.

Más sobre este tema: