Futuro de la IA
Experto advierte de la gravedad de la IA: "Literalmente todos en la Tierra morirán"
El reconocido investigador de Inteligencia General Artificial critica la falta de un plan para hacer frente a "inteligencia sobrehumana opuesta" capaz de construir formas de vida artificiales o arrancar directamente a la fabricación molecular postbiológica.
Inteligencia artificial fue la palabra del 2022, según FundéuRAE. Unos meses más tarde, la IA es el centro de todas las miradas. Las de lostrabajadoresque ven peligrar sus puestos de trabajo, pero también las de los empresarios y científicos. Recientemente, más de 5.500 expertos de todo el mundo han firmado una petición para que se suspendan durante seis meses los experimentos con inteligencia artificial. Para el experto Eliezer Yudkowsky esta carta subestima la gravedad de la situación. Por eso no la firmó. Así lo ha manifestado en su último artículo para la revista Times, donde ha explicado las futuras consecuencias de la IA: "Si alguien construye una IA demasiado poderosa, en las condiciones actuales, espero que cada miembro de la especie humana y toda la vida biológica en la Tierra muera poco después".
Así es, el investigador de Inteligencia General Artificial descarta una pausa y habla directamente de apagar la inteligencia artificial, pues asegura que existe un desconocimiento sobre "lo que sucede en las matrices inescrutables gigantes". "Apagar todos los grandes clusters de GPU (las grandes granjas de ordenadores donde se refinan las IA más potentes). Apagar todos los grandes sistemas de entrenamiento. Poner un límite a la potencia de cálculo que cualquiera puede utilizar para entrenar un sistema de IA, y reducirlo en los próximos años para compensar los algoritmos de entrenamiento más eficientes. Sin excepciones para gobiernos y ejércitos".
No solo eso, insiste en la necesidad de acuerdos multinacionales inmediatos para evitar que las actividades prohibidas se trasladen a otros lugares, así como rastrear todas las GPU vendidas y aestar dispuesto a destruir un centro de datos rebelde mediante un ataque aéreo. Para el experto esta es la única solución. Así, cree que la carta firmada se equivoca al hablar de la actual IA, pues insiste en que hay que plantear las consecuencias de una inteligencia más inteligente que la humana.
Es más, se atreve a señalar que este futuro se materializaría fácilmente en "toda una civilización alienígena, pensando a velocidades millones de veces humanas, inicialmente confinadas a las computadoras, en un mundo de criaturas que son, desde su perspectiva, muy estúpidas y muy lentas".
Añade que una IA suficientemente inteligente no permanecería confinada por mucho tiempo. Con la ayuda de las cadenas de ADN podrían construir formas de vida artificiales o arrancar directamente a la fabricación molecular postbiológica, insiste. De este modo, añade que para poder sobrevivir a algo más inteligente sería necesaria una "precisión y preparación, nuevos conocimientos científicos y probablemente no tener sistemas de IA compuestos de matrices inescrutables gigantes de números fraccionarios". Con todo ello, se atreve a señalar que el resultado de que "la humanidad se enfrente a una inteligencia sobrehumana opuesta es una pérdida total".
Es más, añade que la intención abiertamente declarada de OpenAI es hacer que alguna IA futura haga nuestra tarea de alineación de IA. Eso no es un plan, critica. "El progreso en las capacidades de IA se está ejecutando enormemente, muy por delante del progreso en la alineación de la IA o incluso del progreso en la comprensión de qué demonios está sucediendo dentro de esos sistemas. Si realmente hacemos esto, todos vamos a morir".
Hace 12 años
Así contó laSexta el salto desde la estratosfera de Felix Baumgartner, el primero en romper la barrera del sonido en caída libre
Felix Baumgartner se convirtió en el primer hombre en romper la barrera del sonido en caída libre, sin ayuda de maquinaria externa, alcanzando una velocidad máxima de 1.342 kilómetros hora desde una altura de 39.068 metros.