Comparable a una guerra nuclear
Líderes del sector de la inteligencia artificial advierten de que esta tecnología puede suponer un riesgo de extinción humana
En un breve comunicado de solo 22 palabras dejan claro que las consecuencias por un mal uso podrían ser equiparables a las de una pandemia o una guerra nuclear. Entre los firmantes, se encuentran los creadores de DeepMind o de ChatGPT.
La inteligencia artificial (IA) plantea un "riesgo de extinción" comparable al de las pandemias o la guerra nuclear, según ha advertido este martes en una carta un grupo de más de 300 expertos e investigadores de la industria, entre los que se encuentran los consejeros delegados de Google (NASDAQ:GOOGL) DeepMind, Demis Hassabis; de Anthropic, Dario Amodei; y de OpenAI, Sam Altman, entre otros.
"Mitigar el riesgo de extinción de la IA debería ser una prioridad mundial junto con otros riesgos a escala social, como las pandemias y la guerra nuclear", dice el comunicado de un párrafo publicado por Center for AI Safety, una organización sin fines de lucro con sede en San Francisco (EEUU).
Otros de los firmantes del breve comunicado, de solo 22 palabras, son Geoffrey Hinton -bautizado como el "padrino" de la IA y tuvo parte de su carrera en Google- y Youshua Bengio, dos de los tres investigadores de IA que ganaron el Premio Turing 2018 -premio conocido popularmente como el Premio Nobel de la informática- por su trabajo en IA.
Desde que el chatbot de OpenAI, ChatGPT, se lanzó en noviembre de 2023 ha aumentado la preocupación sobre las consecuencias que podría conllevar el éxito de esta tecnología, siendo dos de los mayores temores la difusión a gran escala de desinformación y propaganda y la posible eliminación de trabajos de todo tipo.
Superar la capacidad intelectual humana
Por su parte, Hinton, en una reciente entrevista con The New York Times el pasado 1 de mayo, fue un paso más lejos y señaló su preocupación por que esta tecnología supere la capacidad intelectual de un humano. "La idea de que estas cosas en realidad podrían volverse más inteligentes que las personas, algunas personas lo creían", explicó en esa entrevista. "Pero la mayoría de la gente pensaba que estaba muy lejos. Yo pensaba que estaba muy lejos. Pensaba que faltaban entre 30 y 50 años o incluso más. Obviamente, ya no pienso eso", explicó Hinton entonces.
Altman, Hassabis y Amodei se reunieron este mes con el presidente de Estados Unidos, Joe Biden, y la vicepresidenta, Kamala Harris, para hablar sobre la regulación de la IA. Además, el director ejecutivo de OpenAI testificó ante el Senado y advirtió de que los riesgos de esta tecnología eran lo suficientemente serios como para justificar la intervención del Gobierno.
En marzo, más de mil empresarios e investigadores del sector tecnológico -entre ellos Elon Musk, que no firma la carta de este martes- solicitaron en una misiva de tono apocalíptico que se suspendan durante seis meses los sistemas de IA "más poderosos que GPT-4" -el último modelo de OpenAI-.
Por usar un sistema de contenido adictivo
TikTok se enfrenta a la demanda de una coalición de 14 estados en EEUU por ser dañina para la salud mental infantil
Un total de 14 fiscales estatales han demandado a la red social china de vídeos TikTok por ser dañina para la salud mental infantil, acusándole de usar un sistema de contenidos adictivo para lucrarse con los usuarios más jóvenes.