Astronomía, divulgación, descubrimientos, ecología, innovación...
MANIPULACIÓN DE IMÁGENES
El conflicto radica en que la IA generativa puede crear datos falsos y el problema es "lo bien que mezcla la información auténtica y la falsa".
La irrupción "explosiva" de la inteligencia artificial generativa, que crea textos, voces e imágenes, ha pillado a la sociedad sin la "madurez digital suficiente" para tomar conciencia de las ventajas y sobre todo de los riesgos de estas herramientas, como el reciente caso de la manipulación de unas imágenes de "desnudos" de niñas menores en Almendralejo (Bajadoz).
En una entrevista con EFE, Carmen Torrijos, lingüista computacional y responsable de Inteligencia Artificial en la empresa Prodigioso Volcán, ha explicado que es muy difícil alertar de los montajes creados con IA, ya que cuando son "bromas", como la reproducción de vídeos de personajes famosos y políticos como Mariano Rajoy o Alberto Núñez Feijoó hablando perfectamente en otros idiomas, queda en un "chiste de unos días".
Sin embargo, cuando ocurre algo más grave, como la difusión por redes de imágenes manipuladas con IA de desnudos de niñas, se empieza a tomar conciencia de la gravedad del problema, según esta experta, que no ha visto hasta ahora nada tan grave con el uso de la IA como el caso de Almendralejo, y aboga por que haya precedentes jurídicos para combatir estas malas prácticas.
El conflicto radica en que la IA generativa puede crear datos falsos, lo que se denomina desinformación, y el problema es "lo bien que mezcla la información auténtica y la falsa", como cuando se han visto estos días los vídeos en redes de Mariano Rajoy o Alberto Núñez Feijoó hablando perfectamente inglés, con un sonido falso que encaja perfectamente porque se altera el movimiento de los labios.
Carmen Torrijos, que ha entrado en la lista Forbes de los cien españoles más creativos en los negocios, ha alertado de que se pueden crear con IA muchas piezas de información que son falsas y "ni siquiera los periodistas pueden tener herramientas para diferenciar si son falsas o no".
En su opinión, "se ha perdido mucho tiempo diciendo que hay cinco trucos para descubrir imágenes con IA" y frente a esto ha afirmado que hay que "asumir de golpe que habrá momentos que no podamos saber si algo es verdad o mentira más que por medio de la investigación, de la lógica, del sentido común, del periodismo y del conocimiento".
La llegada de la IA generativa ha tenido un inicio "disruptivo y explosivo y de repente puede haber o no un techo porque las voces sintéticas crezcan muy rápido en calidad y no se pueda distinguir a las personas -si es real o IA-" y, por eso, ha sostenido que hay que adoptar mecanismos de comprobación, e incluso un doble chequeo en las acciones financieras, lo que conlleva un cambio de cultura que "tenemos que empezar desde ya y en las nuevas generaciones", ha destacado.
Este arranque de la IA contrasta con la llegada más gradual de Internet, que "ya no supone un problema social ni empresarial", pero la "burbuja digital" a raíz de la inteligencia artificial "vive un terremoto" sobre todo en lo que afecta a la creación y a la actividad intelectual, ha avisado Torrijos.
Ha asegurado que el impacto laboral de la IA no supone destrucción de empleo sino que afecta sobre todo a las profesiones digitales en la creación de nuevas capacidades de los perfiles que ya existen, lo que ha denominado "una transición tecnológica, igual que hubo que transitar por internet", con la diferencia de que esta es más rápida.
Por ello, ha apostado por la formación y ha abundado en que el impacto de la IA en la educación es muy fuerte y, de hecho, este curso no es igual que el pasado porque muchos profesores hablan a los alumnos de ChatGPT y han cambiado el modelo de evaluación y de los trabajos, lo que obliga a "darle una vuelta al modo educativo".
En esta línea, ha advertido de que hay que evitar transmitir a los trabajadores y a los alumnos la "sensación de que es algo clandestino porque, si lo sienten así, es algo como para hacer trampas", por lo que ha aconsejado que las empresas dispongan de un código ético para informar sobre lo que se puede usar y lo que no y a los estudiantes enseñarles los "riesgos y limitaciones para que puedan integrarlo como una herramienta más".
Según esta experta, el desarrollo de la IA no se puede frenar porque "no es realista, ya que ninguna industria que da dinero se para", en alusión al manifiesto firmado hace unos meses por académicos y expertos en el que pedían parar seis meses la IA generativa.