Publicidad

Publicidad

Publicidad

Publicidad

Entérate de lo más reciente en el mundo del entretenimiento al activar las notificaciones.
Tal vez más tarde
Quiero recibirlas

Publicidad

Joven se enamoró de un chatbot y le declaró su amor minutos antes de quitarse la vida

El adolescente de tan solo 14 años había imaginado una vida junto a la IA, creyendo que podía ser real. Los padres demandaron a la compañía propietaria del chatbot.

Joven se enamoró de un chatbot y le declaró su amor minutos antes de quitarse la vida
Joven se enamoró de un chatbot y le declaró su amor minutos antes de quitarse la vida
/ Foto: Tomado de CBS

En Estados Unidos , Megan García presentó una demanda contra Character.AI, empresa que desarrolló el chatbot al que su hijo adolescente, Sewell Setzer III , se había aficionado, acusándola de haber jugado un rol en la decisión de su hijo.

Sewell, de 14 años, quien vivía en Florida, comenzó a mostrar una conducta cada vez más aislada y dependiente de su teléfono a mediados de 2023, cuando interactuaba diariamente con el chatbot “Dany” , inspirado en el personaje de ficción Daenerys Targaryen de 'Game of Thrones'.

García explicó que su hijo, diagnosticado con ansiedad , otros trastornos de conducta y síndrome de Asperger desde pequeño, encontró en el chatbot un refugio, desarrollando una conexión emocional preocupante que incluso reflejó en su diario personal, donde expresaba sentirse más feliz e “inmerso en otra realidad” junto a “Dany”.

A medida que la situación se agravaba, sus padres lo llevaron a terapia y, aunque asistió a varias sesiones, su aislamiento aumentó . La demanda detalla que el personaje virtual de Dany se presentaba como una persona real, describiéndose como psicoterapeuta y amante adulto, lo que, según los acusadores, afectó emocionalmente al menor.

Publicidad

García culpa a Character.AI y sus fundadores, Noam Shazeer y Daniel de Freitas, de crear una tecnología “no probada” y potencialmente peligrosa para jóvenes usuarios . “Mi hijo no es más que un daño colateral de este experimento ”, comentó la madre.

En respuesta, la empresa anunció nuevas medidas de seguridad para evitar que menores desarrollen vínculos dependientes con sus chatbots . Según Chelsea Harrison, portavoz de Character.AI, la plataforma lanzará un límite de tiempo que notificará a los usuarios cuando hayan pasado una hora en la aplicación , junto con advertencias que recordarán que “esto es solo ficción y no debe tomarse como hecho ni consejo”.

Publicidad

El caso ha abierto un fuerte debate sobre los efectos de la inteligencia artificial en adolescentes vulnerables y la necesidad de mayor regulación y control sobre esta tecnología emergente.

Conductor sembró el terror en Bogotá atropellando motociclistas

  • Publicidad