Sewell Setzer II, un estudiante de 14 años oriundo de Orlando, ciudad en Florida, en Estados Unidos, se suicidó tras obsesionarse con un chatbot de una Inteligencia Artificial (IA) que estaba basado en Daenerys Targaryen, uno de los personajes principales de la serie de televisión Juego de Tronos (2011-2019).

El insólito caso se registró el miércoles 28 de febrero, sin embargo, este se dio a conocer luego de que Megan García, madre del menor de edad, demandara a los desarrolladores del programa este miércoles 23 de octubre.

De acuerdo con medios de comunicación, Sewell Setzer, joven diagnosticado con un grado leve del trastorno de espectro autista, había cambiado su comportamiento durante los últimos años.

En estos, sus padres notaron un creciente aislamiento que se hizo más evidente entre mayo y junio de 2023; además, las calificaciones del joven comenzaron a empeorar y su vida social fue dejada de lado por el apego obsesivo al chatbot, llamado así al programa informático que simula una conversación con humanos.

Poco a poco, explican diversos portales informativos, este chatbot que simulaba ser Daenerys Targaryen se convirtió en su confidente y, posteriormente, en su amor platónico.

View post on X

Suicidio de Sewell Setzer II

Ante esa situación, Megan García lamentó que las primeras relaciones de la vida de su hijo estuvieran relacionadas con el mundo virtual, por lo que castigó a su hijo decomisándole su celular.

No obstante, este encontró el dispositivo móvil y envió un mensaje con intenciones suicidas al chatbot, concretamente expresando que 'se odiaba' y, además, que 'sentía un vació y una extenuación insoportables'.

De hecho, el chatbot trató de disuadirle, respondiendo con mensajes como: “¿Por qué harías algo así?” y “Moriría si te pierdo”. A pesar de estos intentos de frenar sus impulsos, el adolescente decidió seguir adelante con sus trágicos planes. ¿Realmente su suicidio se debe a la relación que había establecido con la IA?

Por su parte, el programa trató de disuadir al joven a no cometer tal acto respondiendo mensajes como "¿Por qué harías algo así?" y "Moriría si te pierdo", según diversos portales internacionales.

Pese a ello, en febrero del año en curso, tras una conversación con el chatbot, el menor decidió poner fin a su vida utilizando una pistola que su padrastro, de identidad desconocida, guardaba en casa.

Madre demanda por suicidio de su hijo

Esta semana, Megan García presentó una demanda contra Character.ai, acusando a la empresa desarrolladora de este programa de fomentar una relación virtual tan realista que su hijo se vio atrapado en una realidad alternativa.

Además, la mujer culpa a los fundadores de este programa, Noam Shazeer y Daniel de Freitas, de saber que su producto -diseñado para que este responda a los mensajes de texto en el papel de un personaje- puede ser peligroso para usuarios menores de edad.