La IA detecta cáncer de páncreas tres años antes de que aparezcan los síntomas
Astronomía, divulgación, descubrimientos, ecología, innovación...
LOS ROBOTS MÁS PELIGROSOS
Awful AI es una recopilación de los proyectos de inteligencia artificial más alarmantes que han visto la luz hasta la fecha, desde el algoritmo de imágenes de Google que etiquetaba a las personas negras como gorilas hasta una aplicación que escanea tu rostro para decirle a un futuro jefe si debe o no contratarte.
Aunque el potencial de la inteligencia artificial para cambiar el mundo a mejor es enorme e innegable, lo cierto es que la imagen que Hollywood nos ha mostrado de la IA a lo largo de décadas de películas de ciencia ficción tenía algo de cierto. Aunque no hay cerebro artificial que ejerza, de momento, su supremacía sobre la raza humana, sí hay varias amenazas que los omnipresentes algoritmos empiezan a representar, algunas tan evidentes como la desinformación (las ‘fake news’ y el uso de noticias y vídeos falsos generados por máquinas para manipular a la opinión pública), la discriminación (algoritmos que aprenden lo peor del ser humano y se tornan racistas, homófobos, misóginos…) o la cibervigilancia masiva.
Con la esperanza de “concienciar sobre los malos usos” que ya se están produciendo, el experto en inteligencia artificial David Dao ha creado una lista negra de proyectos de inteligencia artificial que, en lugar de contribuir al progreso, están haciendo del mundo un lugar peor. También espera que su iniciativa dé lugar a un debate y al desarrollo de tecnología destinada a combatir esos peligros que entraña la tecnología.
El primer apartado de la lista negra se centra en la discriminación, que se ha dejado ver en los algoritmos en todas sus indeseables variantes: racial, por clase, de género, por la orientación sexual… Lamentablemente, hay todo tipo de ejemplos. Al fin y al cabo, la inteligencia artificial se entrena observando a los humanos. Y de todo lo malo se aprende.
Encabeza la recopilación HireVue, un ‘software’ para empresas que promete mejorar los procesos de selección de personal gracias a la inteligencia artificial. Entre otras cosas, sus algoritmos emplean una combinación de IA con reconocimiento facial y de voz para analizar los rostros de los candidatos, sus gestos, su tono o elección de palabras durante una entrevista con el objetivo de determinar, en base a estos y otros criterios, si resultan adecuados para un puesto. La idea es hacer de filtro para que los profesionales de recursos humanos dediquen su tiempo a los perfiles más sobresalientes, lo que dejaría fuera a muchos otros que, según la máquina, no encajan en el canon de fichaje ideal.
Preocupa que una herramienta como esta acabe compartiendo criterios con otras dos que aparecen en la lista: el ‘chatbot’ Tay de Microsoft, que comenzó a decir barbaridades antisemitas tras solo un día aprendiendo de los usuarios de Twitter, y el programa de reconocimiento de imágenes de Google que etiquetó las fotos de varias personas negras como gorilas.
Pero no solo preocupa el racismo, sino también, entre otras cosas, la homofobia que podrían destilar algunos algoritmos. Muy sonada fue la polémica cuando el mismo investigador de Stanford que había desarrollado el método de análisis del comportamiento que después, sin su participación, usó Cambridge Analytica, dijo haber desarrollado un algoritmo capaz de distinguir si una persona es gay con un 81 % de acierto en el caso de los hombres y un 74 % en el caso de las mujeres. El potencial de esta herramienta para ser usada como un arma en los países que persiguen la homosexualidad, así como la enorme intromisión en la privacidad que supondría este tipo de averiguaciones, hizo que muchos cuestionasen la ética de la investigación.
Si cabe más preocupante es el mal uso de la inteligencia artificial cuando se trata de perseguir o juzgar posibles delitos. Por esta causa, tres herramientas de inteligencia artificial ya se han ganado un puesto en la lista negra. PredPol, un programa que utilizan varios departamentos policiales estadounidenses para predecir en qué barrios se concentrará el crimen, preocupa por la alta probabilidad de que sus vaticinios deriven en un exceso de vigilancia sobre vecindarios con población mayoritariamente negra. Por su parte COMPAS, un algoritmo para evaluar el riesgo de reincidencia de un presunto criminal que se ha utilizado en juicios en el estado de Wisconsin, ha mostrado claros y alarmantes prejuicios contra las personas de color. Y no es el único: otro ‘software’ de reconocimiento facial diseñado para detectar la criminalidad en el rostro de la gente ha despertado recelos por su sesgo racista.
La desinformación y manipulación de la opinión pública es otro de los grandes riesgos que entraña el mal uso de la inteligencia artificial. En su apartado de la lista negra se incluyen cuatro casos, uno de los cuales, por todos conocido, es el uso por parte de Cambridge Analytica de datos de Facebook para influenciar a la ciudadanía con fines políticos y comerciales. Otro, la forma en que los gigantes tecnológicos, de Facebook a YouTube, utilizan todo tipo de trucos para competir por la atención de la gente y generar una adicción que el extrabajador de Google Tristan Harris ha comparado con la que producen las máquinas tragaperras.
Cierran la sección dos técnicas que se están utilizando para distorsionar la realidad: los ‘deep fakes’, en los que un algoritmo de inteligencia artificial se emplea para crear todo tipo de montajes preocupantemente creíbles a partir de imágenes reales (desde un falso discurso de Obama hasta un supuesto vídeo pornográfico de una ‘celebrity’), y los ‘bots’ que se utilizan para difundir noticias falsas en las redes sociales con todo tipo de perversos fines, desde manipular los mercados o unas elecciones hasta vender peligrosas curas milagro sin ningún respaldo científico.
En lo que respecta a la cibervigilancia, otro de los peligros de la IA que preocupan al creador de la lista negra, destacan los sistemas que ya se están usando en China, y cada vez en más países del mundo, para tener siempre localizados a los ciudadanos gracias a la extensa red de cámaras de seguridad. Una vez que el sistema se ha quedado con tu cara, ya puede saber dónde estás y qué estás haciendo a cada momento. Por este motivo, herramientas como SenseTime o Megvii, que están detrás del Gran Hermano chino, resultan alarmantes.
Y no son los únicos ejemplos de inteligencia artificial perniciosa que se incluyen en la lista negra de David Dao, que seguirá actualizándose a medida que este investigador y todo el que decida ayudarle vayan descubriendo nuevas amenazas. Desgraciadamente, irán surgiendo, así que iniciativas como esta que permitan mantenerse al tanto y crear conciencia siempre serán bienvenidas.