Un experimento usó inteligencia artificial para que la gente hable con sus familiares muertos

Un experimento usó inteligencia artificial para que la gente hable con sus familiares muertos

El proyecto, que utilizó audios de personas que murieron para recrear sus voces, abrió el debate sobre el duelo y la aceptación.

Un grupo de personas pudo hablar con seres queridos muertos gracias a una inteligencia artificial que replica la voz conversa en tiempo real. El curioso y no menos polémico experimento formó parte de un programa de televisión español, en el que se pidió a voluntarios que enviaran audios de familiares muertos para luego interactuar con ellos.

El video con las reacciones fue subido a las redes sociales y no solo muestra la emoción de las personas al escuchar de nuevo a sus seres queridos, sino que despertó una novedosa polémica: no son pocos quienes advierten que este tipo de experiencias puede interferir en la adaptación natural al duelo y contribuir a la negación de la pérdida.

Para llevar a cabo el segmento, la producción de El Hormiguero, un talk show con humor, entrevistas y experimentos de divulgación científica, presentado por Pablo Motos, solicitó audios de personas fallecidas a voluntarios que quisieran participar.

Todos los participantes del experimento se emocionaron al escuchar las voces de sus seres queridos muertos. (Captura: Twitter/El_Hormiguero)
Todos los participantes del experimento se emocionaron al escuchar las voces de sus seres queridos muertos. (Captura: Twitter/El_Hormiguero)

El experimento aprovechó tecnologías basadas en inteligencia artificial para recrear, a partir de audios reales, las voces de personas fallecidas. Pero fueron un paso más allá: no solo reprodujeron esas voces, algo muy sencillo de hacer (ejemplos sobran) sino que crearon bots con identidades que se hacían pasar por el familiar que ya no está.

Así, hicieron que los muertos puedan conversar con los vivos y les plantearan cuestiones como, por ejemplo, si les había quedado algún tema pendiente para hablar, si les querían contar algo, o cómo habían estado desde su propia muerte.

Los resultados y las interacciones fueron sorprendentes. Aun sabiendo que del otro lado había una computadora que se hacía pasar por el ser querido fallecido, los participantes del experimento se emocionaron y lloraron después de oír la voz de su familiar. Incluso todos les respondieron como si hubieran estado hablando con la persona real, viva.

Sin embargo, en las redes sociales, el experimento no fue muy bien recibido. “Es una pésima idea, genera expectativa sobre el proceso de volver a escuchar y hablar con un muerto. No hay que ir muy lejos, Black Mirror ya lo planteó y salió mal”, reflexionó un usuario en Twitter/X en referencia a un capítulo de la serie futurista de Netflix en el que la protagonista podría hablar e interactuar con su pareja muerta en un accidente de tránsito, gracias a una inteligencia artificial.

Esto está mal. Esas personas están muertas. No tratemos de sustituirlas por robots que no son ellos, me parece jugar con temas en los que no hay que entrar. Es todo ilusionismo y puede salirnos caro”, afirmó otra persona.

En general, las respuestas al video publicado por la cuenta oficial de El Hormiguero en X, coincidían en que se trató de un golpe bajo y una experiencia cruel, poco ética. Muchos aseguraron que este tipo de situaciones terminaría dejando traumas y problemas psicológicos a quienes las experimenten.

¿Qué puede pasar si usamos la inteligencia artificial para hablar con muertos?

“Un trauma es una situación repentina e inesperada, imposible de manejar por una persona que no tiene herramientas para afrontarlo y que perturba su bienestar”, explicó a TN Tecno Violeta Laurenti, psicóloga clínica M.N. 50366. “En este caso, los participantes, al saber que van a escuchar la voz de su familiar que ya no está, están un poco protegidos: hay expectativas y saben lo que va a pasar. Pero eso no quiere decir que después se despierten emociones con las que sea difícil lidiar”, agregó. “Así, pueden reactivarse emociones que tienen que ver con la pérdida, la angustia, la tristeza, etc.”

En cuanto al duelo y el shock que puede producir escuchar la voz de un ser querido muerto hace poco, Laurenti expresó: “Los procesos de duelo suponen la elaboración de la pérdida y la transformación de los vínculos. Al crear una comunicación que no existe, se interfiere en ese proceso”. Y agregó: “Hablar con un muerto, es decir, tener una conversación que no existiría en la realidad, supone inevitablemente una disrupción en la lógica temporal y psíquica que requiere un duelo y en la diferenciación entre lo que era el vínculo con esa persona antes y después de la muerte”.

La especialista explicó que esa disrupción en el proceso de transformación de ese vínculo en presencia, a un vínculo en ausencia, podría producir efectos disociativos, especialmente para personas frágiles o vulnerables a las cuales el proceso del duelo les haya sido dificultoso o esté en elaboración. Sin embargo, aclaró: “No se puede ser concluyente sobre daños irreparables para algo que en la práctica no está estudiado formalmente todavía, o al menos no con suficiente evidencia. Pero sí es posible conjeturar que cualquier instancia irreal sobre la que se crea verdad tiene un impacto psicológico que podría tener efectos desreguladores y consecuencias para la salud integral”.

Respecto a estas nuevas tecnologías, la psicóloga fue determinante: “Las inteligencias artificiales tienen una cuota creativa. Agotado el caudal de información de base, construiría una vivencia ilusoria de continuidad vital de aquel que ya no está”. Y finalizó: “A diario, hay personas que conversan con bots, como por ejemplo los bots de servicios de atención al cliente, que creen que son personas reales que del otro lado contestan, y eso les da una sensación de satisfacción. Pero la diferencia entre esa interacción y una interacción con alguien fallecido y significativo para la persona, es que se vuelve riesgoso para la salud mental la idea de construir una continuidad existencial que no se corresponde con la realidad”.

Fuente: TN