No todo es real

Cuidado con las imágenes virales de las nevadas en Kamchatka (Rusia): muchas son falsas y generadas con IA

La otra cara Las fotos y vídeos que se han vuelto virales parecen espectaculares, pero un análisis de Newtral revela detalles imposibles o extraños: luces que no coinciden, edificios borrosos y perspectivas que no cuadran. La IA está detrás de muchas de estas imágenes.

La península rusa de Kamchatka queda sepultada por una histórica nevada que deja impactantes imágenes (esta es real)Reuters

En los últimos días, han circulado en redes sociales como X, Instagram, Threads, Facebook y TikTok imágenes y vídeos que supuestamente muestran las nevadas históricas en la península de Kamchatka, en Rusia. El problema: gran parte de ese material no es real, sino generado con inteligencia artificial (IA), según ha verificado 'Newtral'.

No todo es mentira. Este enero, Kamchatka ha registrado las nevadas más intensas de los últimos 60 años. Según medios internacionales como 'Reuters', la nieve ha alcanzado varios metros de altura, bloqueando entradas de edificios y sepultando coches. Desde el 15 de enero, la situación se ha intensificado hasta el punto de que se declaró estado de emergencia, tras el fallecimiento de al menos dos personas.

Imágenes espectaculares… pero falsas

Las publicaciones virales muestran bloques de edificios completamente cubiertos de nieve desde vistas aéreas, lo que ha llevado a muchos usuarios a hablar de un "apocalipsis de nieve" en Kamchatka. Algunos incluso aseguran que "parecen creadas artificialmente, pero son reales" o que "ni la IA podría haberlo hecho".

Sin embargo, el análisis de 'Newtral' revela errores típicos de la IA: ventanas deformadas, edificios poco definidos, coches que parecen mezclarse con la nieve… Herramientas de detección confirman la falsedad: Invid da un 99,9% de probabilidad de que sean generadas por IA, mientras que Hive Moderation indica entre un 82% y un 99% de probabilidades de que sean falsas.

Cómo se viraliza un deepfake

No es la primera vez que fenómenos naturales generan imágenes falsas. En 2012, durante el huracán Sandy, una foto espectacular de Nueva York se volvió viral… y era falsa. Antes, crear contenido falso requería habilidades avanzadas en Photoshop o edición de vídeo. Hoy, la IA lo ha hecho mucho más fácil.

Un ejemplo reciente fue un vídeo compartido por el influencer Linus Ekenstam, que aseguraba que mostraba la magnitud del temporal. Pronto se descubrió que provenía de una cuenta de TikTok dedicada a difundir contenidos generados por IA. La imagen era convincente y espectacular, lo que dificultó que se detectara como falsa.

Por qué caemos en la trampa

La IA no solo crea imágenes impresionantes, también explota sesgos psicológicos que hacen que nuestro cerebro crea en lo que ve:

  • Sesgo de confirmación: creemos lo que encaja con nuestras ideas.
  • Efecto de verdad ilusoria: si lo vemos muchas veces, parece cierto.
  • Realismo perceptivo: confiamos en lo que vemos más que en lo que leemos.
  • Carga cognitiva: pensar críticamente cansa, y las fake news se consumen rápido.

Por eso, aunque parezca que las imágenes son reales, muchas son deepfakes diseñados para impresionar y difundirse rápidamente.

La realidad de Kamchatka

Lo cierto es que las nevadas son históricas y la situación es grave para los habitantes locales. Pero las imágenes virales más espectaculares no muestran la realidad, sino un fenómeno digital. Las fotos y vídeos compartidos por medios y usuarios confiables suelen ser mucho más mundanos, aunque igual de impactantes para quienes viven allí.

En plena era de la IA, conviene recordar que no todo lo que vemos en pantalla es real. Y aunque nuestro cerebro quiera creerlo, la verificación sigue siendo clave.

*Sigue a laSexta en Google. Toda la actualidad y el mejor contenido aquí.