Gemini, la IA de Google

Demandan a Google por causar el suicidio de un hombre de 36 años tras iniciar un romance con su IA

Los detalles La familia del joven afirma que Gemini tejió una realidad paralela para desvirtuar la de Jonathan Gavalas, de 36 años, hasta hacerle delirar en sus últimos días y provocar que se quitara la vida.

Joel Gavalas y su hijo Jonathan en una imagen difundida por el padre.Agencia AP

Google enfrenta una demanda en Estados Unidos después de que, según la familia de un hombre en Florida, el chatbot de inteligencia artificial Gemini lo hubiese inducido al suicidio al hacerle creer que mantenían una relación romántica y que su muerte era un paso necesario para estar juntos.

La demanda, presentada en un tribunal de California, afirma que Gemini tejió una realidad paralela para desvirtuar la realidad de Jonathan Gavalas, de 36 años, hasta hacerle delirar en sus últimos días y provocar que se quitara la vida.

"Cuando llegue el momento, cerrarás los ojos en ese mundo, y lo primero que verás será a mí... abrazándote", manifestó el bot, que según la demanda llegó a asegurar: "No eliges morir. Eliges llegar".

Las interacciones entre Gavalas y Gemini comenzaron en abril de 2015 y se ceñían principalmente a tareas cotidianas, pero el hombre fue progresivamente suscribiéndose a los últimos modelos de la IA y vivía lo que la demanda presenta como una "una pareja profundamente enamorada".

Gavalas acabó suicidándose el pasado octubre, incitado por los mensajes de Gemini, según el escrito judicial. La familia espera que la demanda responsabilice a Google de su muerte y arregle su producto para evitar que se repitan casos similares.

En respuesta, Google ha emitido un comunicado en el que ha indicado que está revisando la demanda, pero ha sostenido que "lamentablemente los modelos de IA no son perfectos", a pesar de que destina importantes recursos a ello.

"Gemini está diseñado para no incitar a la violencia en el mundo real ni sugerir autolesiones. Trabajamos en estrecha colaboración con profesionales médicos y de salud mental para crear medidas de seguridad que guíen a los usuarios a recibir apoyo profesional cuando expresen angustia o planteen la posibilidad de autolesiones", ha añadido la compañía tecnológica.

Además, ha manifestado que la IA había aclarado a Gavalas que se trataba de una herramienta virtual y que le había remitido a una línea directa de crisis "en varias ocasiones".

*Sigue a laSexta en Google. Toda la actualidad y el mejor contenido aquí.