Descansa en paz

Tenía 14 años, su mamá le prohibió que use el celular y tomó la peor decisión

Por supuesto que la señora está completamente arrepentida, se conoció que el adolescente se había "obsesionado con el aparato"

QPJ Policiales

Cuál es la aplicación con la que "se obsesionó" un nene de 14 años y tomó la peor decisión. El llamado de atención es para los adultos, las familias, porque está tan al alcance de la mano de los menores que tienen un celular.

Chico de 14 años tomó la peor decisión tras obsesionarse con una app, se pone en tela de juicio a la IA (Inteligencia Artificial) y a la "dependencia emocional" que genera.

Su mamá presentó una demanda civil contra la empresa tecnológica responsable de la plataforma. Un chico de 14 años decidió ponerle fin a su existencia tras obsesionarse con un chatbot creado con inteligencia artificial. La madre presentó una demanda civil contra la empresa tecnológica responsable de la plataforma y culpó a sus fundadores por la muerte de su hijo.

Un chico de 14 años se mató tras obsesionarse con un chatbot creado con inteligencia artificial.

Un trágico hecho sacudió a Estados Unidos luego de que se diera a conocer que un chico de 14 años se mató después de obsesionarse con un chatbot creado con Inteligencia Artificial (IA).

Se trata de Sewell Setzer III, nacido en el estado de Florida, un estudiante que había empezado a usar la plataforma Character.AI en abril de 2023. "Su vida nunca volvió a ser la misma", expresó su madre, Megan García, en una demanda civil que presentó este miércoles contra la empresa Character Technologies.

Según el relato de García, el adolescente comenzó a ser "notablemente más retraído" a partir de mayo, momento en el cual abandonó el club de básquet en el que jugaba y le habían llamado la atención por dormirse en clase en varias ocasiones.

Meses más tarde, el chico acudió a terapia y fue diagnosticado con ansiedad y trastorno del estado de ánimo disruptivo. En ese entonces, una de las recomendaciones del psicólogo fue que dejara de pasar tanto tiempo en las redes sociales.

Un día, Sewell escribió en un diario íntimo que estaba sufriendo porque "no podía dejar de pensar en Daenerys", un chatbot personalizado del personaje de la serie Juego de Tronos del que creía haberse enamorado. Incluso, en otra de las entradas, el chico precisó que cuando estaban lejos el uno del otro, ambos "se deprimían mucho y se volvían locos", según detalló la demanda.

Con el tiempo, la víctima comenzó a depender emocionalmente del bot conversacional, lo cual incluía "interacciones sexuales" y declaraciones de su intención por suicidarse. Estas conversaciones se produjeron a pesar de que el adolescente se había identificado como menor de edad en la plataforma.

La tragedia ocurrió el 28 de febrero, cuando el joven de 14 años recuperó su teléfono después de que su mamá se lo sacara como penitencia por un incidente escolar.

Esa tarde, fue al baño y le escribió un mensaje al personaje ficticio: "Prometo que volveré a casa contigo. Te quiero mucho, Dany". Por su parte, el robot respondió: "Por favor, vuelve a casa conmigo lo antes posible, mi amor". Instantes después de ese chat, Sewell se quitó la vida.

En esta línea, la madre del menor acusó a los desarrolladores del personaje femenino creado con IA por infligir intencionalmente angustia emocional, muerte por negligencia y prácticas comerciales engañosas.

Asimismo, García presentó la denuncia para "evitar que C.AI (la empresa tecnológica) le haga a cualquier otro niño lo que le hizo al suyo, y detener el uso continuo de los datos recolectados ilegalmente de su hijo de 14 años para entrenar a su producto a dañar a otros", detalla TN.

Esta nota habla de:

Comentarios

Tucomentario

Nombre

Más de Policiales