TecnoXplora» SINC

SEGÚN UN ESTUDIO

Los sesgos de la inteligencia artificial pueden pasar a las personas

Es conocido que los algoritmos a menudo reflejan los errores y prejuicios de sus creadores, pero también puede ocurrir lo contrario: que personas aconsejadas por una IA sesgada adapten sus decisiones a lo que recomienda el agente artificial, incluso cuando ya no cuentan con su asistencia. Así lo revelan experimentos realizados en la Universidad de Deusto.

Los sesgos de la inteligencia artificial pueden pasar a las personasSinc

Una investigación realizada por las psicólogas Lucía Vicente y Helena Matute de la Universidad de Deusto, en Bilbao, evidencia que las personas podemos heredar sesgos de la inteligencia artificial (IA). El estudio se publica en la revista de acceso abierto Scientific Reports.

Los impresionantes resultados logrados por esta nueva tecnología reflejan su imagen de alta fiabilidad. Sin embargo, los algoritmos de IA también pueden estar sesgados (cometer errores sistemáticos).

Estos programas son entrenados con datos que son producto de decisiones humanas, y si contienen sesgos, los modelos de inteligencia artificial pueden aprenderlos y reproducirlos. De hecho, existen ya numerosas pruebas de que, efectivamente, hereda y amplifica los sesgos humanos.

Esa situación era conocida, pero el nuevo estudio muestra que también puede ocurrir el efecto contrario: las personas podríamos heredar sesgos de la IA, con lo que corremos el riesgo de entrar en un bucle bastante peligroso.

Las autoras plantearon una serie de experimentos donde los voluntarios realizaron una tarea de diagnóstico médico mediante una matriz con celdas de dos colores, oscuro y claro, para simular muestras de tejidos humanos extraídas a pacientes afectadas por un síndrome ficticio.

Así crearon el criterio de clasificación, de forma que, si había una mayor proporción de celdas oscuras, significaba que la muestra de tejido estaba afectada por la enfermedad, era un positivo; mientras que, si había una mayor proporción de células claras, era un negativo. Los participantes debían elegir entre esas dos opciones.

Ejemplos de pantallas de uno de los experimentos. / Vicente, L, & Matute, H. /Scientific Reports

La mitad de los voluntarios constituyeron el grupo de control que no tuvo ningún tipo de asistencia. La otra mitad realizó la tarea con las recomendaciones de una IA, que tenía la particularidad de tener un error sistemático. Siempre se equivocaba para una muestra de tejido con una configuración de colores particular: un 40% de células oscuras y un 60% de células claras.

Para estas imágenes, la recomendación de la inteligencia artificial contradecía el criterio de clasificación, indicando que era positivo cuando, atendiendo a las proporciones de los dos colores, sería clasificada como negativo.

"Los participantes reprodujeron este error sistemático de la IA, aunque era muy sencillo discriminar las imágenes, como demostró el grupo control, que no tenía asistencia de esa IA sesgada y apenas cometía errores en la tarea", explican Lucía Vicente y Helena Matute.

Mismo error ya sin la IA

Además, el resultado más relevante fue que, en una segunda fase en la que la IA ya no estaba presente, los voluntarios continuaron cometiendo el mismo error sistemático que cometía la IA, cuando pasaron a realizar la tarea de diagnóstico sin asistencia.

En otras palabras, los participantes que recibieron al principio la ayuda de la IA sesgada, reprodujeron el sesgo en un contexto en el que ya no estaba presente la inteligencia artificial, evidenciando así un sesgo heredado. Esto no ocurría en los participantes del grupo de control, que habían realizado desde el primer momento la tarea sin ayuda.

Las autoras concluyen: "Hemos encontrado que es posible que personas aconsejadas por una IA sesgada acaben adaptando sus decisiones a los resultados de este agente artificial, y aún más importante, que esa influencia puede perdurar incluso cuando las personas pasan a un contexto en el que ya no tienen esa asistencia".

Estos resultados muestran, por tanto, que información sesgada proporcionada por una inteligencia artificial puede ejercer un impacto negativo perdurable en las decisiones de las personas.

Para la investigadoras, este hallazgo señala la necesidad de más investigación psicológica y multidisciplinar sobre la interacción entre la inteligencia artificial y los humanos.

También se hace necesaria una regulación basada en evidencia que garantice una IA ética y fiable, que no tenga en cuenta solo los aspectos técnicos, sino también los aspectos psicológicos de la relación entre IA y humanos, según las autoras.

Referencia:

Vicente, L, & Matute, H. "Humans inherit artificial intelligence biases". Scientific Reports, 2023