Astronomía, divulgación, descubrimientos, ecología, innovación...
MUCHO CUIDADO
De acuerdo con un estudio, puede causar daño psicológico e incluso "perseguir" digitalmente a las personas vivas sin ningún tipo de control.
Se trata sin duda de uno de los usos más polémicos de la IA. No tiene que ver con la guerra ni con prácticas ilegales, sino con nuestra salud mental: el desarrollo de chatbots para hablar con familiares muertos. Se trata de Deadbots (Bots Muertos) o Griefbots (Bots de duelo), básicamente chatbots de inteligencia artificial que simulan los patrones de lenguaje y los rasgos de personalidad de personas muertas utilizando las huellas digitales que dejan (correos electrónicos, redes sociales, mensajes de voz, etc.). El problema es que algunas empresas ya ofrecen estos servicios, proporcionando un tipo completamente nuevo de "presencia post mortem".
Esta práctica, de acuerdo con científicos de la Universidad de Cambridge, permite a los usuarios mantener conversaciones de texto y de voz con sus seres queridos, pero presenta el riesgo de causar daño psicológico e incluso de "perseguir" digitalmente a quienes se quedan atrás sin estándares de seguridad de diseño.
Los especialistas en ética de la IA del Centro Leverhulme para el Futuro de la Inteligencia de Cambridge describen tres escenarios, para mostrar las posibles consecuencias de un diseño descuidado en un área de la IA que describen como de alto riesgo.
Los resultados, publicados en Philosophy and Technology, destacan la posibilidad de que las empresas utilicen estos chatbots para enviar spam a familiares y amigos, algo similar a ser "acechados digitalmente por los muertos".
Incluso aquellos que inicialmente encuentran consuelo en una IA pueden sentirse agotados por las interacciones diarias que se convierten en un peso emocional abrumador, argumentan los autores, liderados por Katarzyna Nowaczyk-Basińska. A esto hay que sumarle un obstáculo: suspender la simulación puede resultar casi imposible si la persona fallecida firmó un contrato a largo plazo con un servicio de vida futura digital.
"Los rápidos avances en la IA generativa significan que casi cualquier persona con acceso a Internet y algunos conocimientos básicos puede revivir a un ser querido fallecido – explica Nowaczyk-Basińska -. Este área de la IA es un campo minado ético. Es importante dar prioridad a la dignidad del difunto y garantizar que esto no se vea invadido por motivos financieros de servicios digitales de ultratumba, por ejemplo. Al mismo tiempo, una persona puede dejar una simulación de IA como regalo de despedida a sus seres queridos que no están preparados para procesar su dolor de esta manera. Los derechos tanto de los donantes de datos como de quienes interactúan con los servicios de inteligencia artificial después de la muerte deben salvaguardarse por igual".
Esto, que parece un escenario de ciencia ficción no lo es: ya existen plataformas que ofrecen recrear a los muertos con IA por una pequeña tarifa, como "Project December", que comenzó aprovechando modelos GPT antes de desarrollar sus propios sistemas, y aplicaciones como "HereAfter".
Uno de los escenarios potenciales que describe el estudio es "MaNana": un servicio de inteligencia artificial conversacional que permite a las personas crear un avatar digital que simule a su abuela fallecida sin el consentimiento del "donante de datos" (la persona fallecida).
En el escenario hipotético, un nieto adulto que inicialmente se siente reconfortado por la tecnología comienza a recibir anuncios una vez que finaliza una "prueba premium". Por ejemplo, el chatbot le sugiere realizar pedidos a los servicios de entrega de comida con la voz y el estilo de su abuela.
El familiar siente que le han faltado el respeto a la memoria de su abuela y desea desactivar el robot muerto, pero de un modo que le permita cerrar el círculo, algo que los proveedores de servicios no han considerado.
"Las personas podrían desarrollar fuertes vínculos emocionales con tales simulaciones, lo que las hará particularmente vulnerables a la manipulación – añade el coautor del estudio, Tomasz Hollanek -. Deben considerarse métodos e incluso rituales para retirar estos chatbots de manera digna. Esto puede significar una forma de funeral digital, por ejemplo, u otros tipos de ceremonia dependiendo del contexto social. Recomendamos diseñar protocolos que impidan que se utilicen de manera irrespetuosa, como por ejemplo para publicidad o para tener una presencia activa en las redes sociales".
La sugerencia de los autores es que los procesos de diseño incluyan una serie de indicaciones para quienes buscan "resucitar" a sus seres queridos, como "¿alguna vez has hablado con X sobre cómo te gustaría ser recordado?", de modo que la dignidad de los difuntos pase a primer plano. en el desarrollo de deadbot.
En otro escenario presentado en el artículo, una empresa imaginaria llamada "Paren't", destaca el ejemplo de una mujer con una enfermedad terminal que deja un chatbot para ayudar a su hijo de ocho años en el proceso de duelo. En estos casos, se recomiendan restricciones de edad.
El escenario final explorado por el estudio, una empresa ficticia llamada Stay, muestra a una persona mayor firmando un contrato de 20 años para que un chatbot tome su lugar cuando muera y reconforte a sus hijos y le permita "conocer" a sus nietos.
Una vez que la persona muere, se activa el servicio. Uno de los hijos, mayor de edad, no participa y recibe una avalancha de correos electrónicos con la voz de su padre o madre fallecida. Otro lo hace, pero termina emocionalmente agotado y atormentado por la culpa. Sin embargo, suspender el chatbot violaría los términos del contrato firmado.
"Es vital que este tipo de servicios digitales consideren los derechos y el consentimiento no sólo de aquellos que recrean, sino también de aquellos que tendrán que interactuar con las simulaciones – afirma Hollanek -. Estos servicios corren el riesgo de causar una gran angustia a las personas si se ven sometidas a apariciones digitales no deseadas provenientes de recreaciones de IA. El posible efecto psicológico, especialmente en un momento que ya es difícil, podría ser devastador. Tenemos que empezar a pensar ahora en cómo mitigar los riesgos sociales y psicológicos de la inmortalidad digital, porque la tecnología ya está aquí".