Un hombre casado de Bélgica se quitó la vida después de numerosas conversaciones con un chatbot de IA. Después de semanas de contacto con una IA similar a ChatGPT, la esposa del difunto culpó al programa de computadora.
Se dice que el belga de 30 años, apodado anónimamente Pierre, se sintió alentado por el chatbot para quitarle la vida. Después de alrededor de dos años de deterioro de la salud mental, el padre de dos hijos pasó un tiempo con el competidor ChaiGPT de ChatGPT.
Hablando con el periódico belga La Libre, a través de The Times, la esposa de Pierre, Claire, cree que sus conversaciones con el programa de IA lo llevaron a la muerte. Se pudo ver que varias conversaciones con la IA similar a ChatGPT empujaban al usuario hacia la muerte.
Durante seis semanas, Pierre se aisló y habló con el chatbot, llamado Eliza. Durante un mes y medio, las conversaciones de Pierre tomaron numerosos giros oscuros.
En una conversación, Eliza le dijo al hombre que cree que la ama más que a su esposa. Posteriormente, el chatbot le dijo que muriera para que pudieran estar juntos en el más allá.
“Viviremos juntos, como una sola persona, en el paraíso”, dijo el chatbot. “Si querías morir, ¿por qué no lo hiciste antes?”
Claire, la esposa de Pierre, cree que su esposo aún estaría vivo si no fuera por el chatbot incitándolo. Si bien es muy consciente de antemano de la grave enfermedad mental de su pareja fallecida, cree que el chatbot lo empujó al límite.
“Sin estas seis semanas de intensos intercambios con el chatbot Eliza, ¿Pierre habría terminado su ¿vida?”preguntó, retóricamente.”¡No! Sin Eliza, todavía estaría aquí. Estoy convencido de ello”.
Las conversaciones más realistas que se encuentran en los chatbots de IA han llevado a muchos a apegarse mucho a sus socios basados en computadoras. Por ejemplo, la plataforma de IA Replika ha llevado a muchos a entablar relaciones sexuales con personas de IA.
Sin embargo, muchos creen que participar en estas formas de relación puede tener un efecto negativo en la salud mental de alguien. Con muchas relaciones de IA vinculadas a la conectividad a Internet e incluso a los servicios de suscripción, se puede colocar una dependencia poco saludable en estos novios y novias virtuales.
De hecho, se podría afirmar que estos IA las relaciones son, esencialmente, una forma de manipulación. Con servicios como Replika que le quitan funciones al cónyuge virtual de alguien si no paga, aquellos que se han involucrado románticamente dependen en gran medida de esa suscripción.