Astronomía, divulgación, descubrimientos, ecología, innovación...
LAS ADAPTARÁ A AMBOS SEXOS
Sí, la tecnología también tiene sesgos, y Google quiere acabar con los que tiene dentro.
Si algo creíamos que tenía la tecnología era una visión totalmente neutra e imparcial de las cosas. Ante los sesgos humanos, qué mejor que un algoritmo automático que nos libere de los prejuicios que todos podemos llegar a tener, ¿verdad?
Pues lo cierto es que la tecnología también tiene sus sesgos, ya que no deja de estar programada por humanos. Y en el caso de la inteligencia artificial y el aprendizaje automático pasa lo mismo: a medida que aprenden de los comportamientos que observan en los humanos, reproducen sus sesgos en sus resultados.
Google cambia su traductor
En Google son conscientes de ello y han decidido pegar un golpe de timón. Tal y como ha anunciado la compañía, a partir de ahora su traductor online va a dejar de recurrir al masculino como forma genérica para referirse al hombre y a la mujer. A partir de ahora, en los casos de ese tipo ofrecerá una traducción en masculino y otra en femenino.
La cosa no se queda ahí. Además, el gigante de Silicon Valley se está planteando empezar a introducir las identidades no binarias dentro de sus traducciones, si bien esta tarea les llevará más tiempo, ya que aún está en fase de desarrollo y los ingenieros deben trabajar en la manera de adaptar este tipo de traducciones.
Los sesgos que cometía su traductor
Podemos pensar que se trata de una estrategia de marketing por parte de Google, ya que cabría esperar que una tecnología como la de su traductor no esté cometiendo errores a la hora de hacer sus traducciones o que, aun cometiéndolos, esto no suponga ningún perjuicio real en el ámbito de género. Sin embargo, la experiencia nos dice que no es así.
La propia Google lo reconoce: “Google Translate aprende de cientos de millones de ejemplos ya traducidos de la web. Históricamente ha proporcionado solo una traducción para una consulta, incluso si la traducción podría tener una forma femenina o masculina”. El problema llegó cuando en Google observaron que “cuando el modelo producía una traducción, replicaba inadvertidamente sesgos de género que ya existían. Por ejemplo: sesgaba masculino para palabras como 'fuerte' o 'médico', y femenino para otras palabras, como 'enfermera' o 'hermoso'.
La compañía, por tanto, lo tiene claro: el aprendizaje automático, antes o después, acaba reproduciendo los mismos sesgos que tenemos los humanos, así que hace falta una acción voluntariosa para acabar con dichos ellos.