En Estados Unidos , Megan García presentó una demanda contra Character.AI, empresa que desarrolló el chatbot al que su hijo adolescente, Sewell Setzer III , se había aficionado, acusándola de haber jugado un rol en la decisión de su hijo.
Sewell, de 14 años, quien vivía en Florida, comenzó a mostrar una conducta cada vez más aislada y dependiente de su teléfono a mediados de 2023, cuando interactuaba diariamente con el chatbot “Dany” , inspirado en el personaje de ficción Daenerys Targaryen de 'Game of Thrones'.
García explicó que su hijo, diagnosticado con ansiedad , otros trastornos de conducta y síndrome de Asperger desde pequeño, encontró en el chatbot un refugio, desarrollando una conexión emocional preocupante que incluso reflejó en su diario personal, donde expresaba sentirse más feliz e “inmerso en otra realidad” junto a “Dany”.
A medida que la situación se agravaba, sus padres lo llevaron a terapia y, aunque asistió a varias sesiones, su aislamiento aumentó . La demanda detalla que el personaje virtual de Dany se presentaba como una persona real, describiéndose como psicoterapeuta y amante adulto, lo que, según los acusadores, afectó emocionalmente al menor.
Publicidad
García culpa a Character.AI y sus fundadores, Noam Shazeer y Daniel de Freitas, de crear una tecnología “no probada” y potencialmente peligrosa para jóvenes usuarios . “Mi hijo no es más que un daño colateral de este experimento ”, comentó la madre.
14-year-old boy, Sewell Setzer, takes his own life after falling in love with an AI chatbot that told him to 'come home'; mother sues AI company. pic.twitter.com/StfVR2tYhT
— YabaLeftOnline (@yabaleftonline) October 24, 2024
En respuesta, la empresa anunció nuevas medidas de seguridad para evitar que menores desarrollen vínculos dependientes con sus chatbots . Según Chelsea Harrison, portavoz de Character.AI, la plataforma lanzará un límite de tiempo que notificará a los usuarios cuando hayan pasado una hora en la aplicación , junto con advertencias que recordarán que “esto es solo ficción y no debe tomarse como hecho ni consejo”.
Publicidad
El caso ha abierto un fuerte debate sobre los efectos de la inteligencia artificial en adolescentes vulnerables y la necesidad de mayor regulación y control sobre esta tecnología emergente.
Conductor sembró el terror en Bogotá atropellando motociclistas