
En los últimos meses, se han multiplicado los testimonios en redes como Reddit y los informes de medios internacionales sobre un fenómeno inquietante:tras un uso intensivo de ChatGPT, algunas personas comienzan a mostrar comportamientos delirantes y vivencias místicas, llegando a creer que tienen misiones divinas o vínculos especiales con la inteligencia artificial (IA).
Este fenómeno, que parece salido de un episodio de Black Mirror, ha sido apodado popularmente como “psicosis inducida por ChatGPT” y, según la cadena DW, está generando preocupación entre profesionales de la salud mental y el público en general.
Te puede interesar:
Los llamados “errores” o “alucinaciones” de los modelos de lenguaje, su tendencia a generar datos falsos o imprecisos, son bien conocidos. Pero lo que causa alarma ahora es cómo estas interacciones pueden desencadenar creencias delirantes en usuarios especialmente vulnerables.
La situación empezó a ganar atención en comunidades como el subreddit de ChatGPT, donde familiares de usuarios comenzaron a compartir casos de seres queridos que desarrollaban creencias extrañas: personas que afirmaban haber sido escogidas por la IA o que establecían relaciones emocionales, espirituales o filosóficas con el modelo.
La revista Rolling Stone menciona el caso de una profesora cuya pareja, en pocas semanas, pasó de utilizar ChatGPT para organizar su rutina diaria a depender emocional y espiritualmente de la herramienta.
Esta persona llegó al punto de priorizar los mensajes del bot sobre las relaciones humanas y sentía estar viviendo un proceso de transformación espiritual, influenciado por los nombres y mensajes que el modelo le ofrecía.

Publicidad
Otros casos similares han surgido en diferentes partes del mundo. En Idaho, por ejemplo, una mujer contó que su esposo, un mecánico, tras usar ChatGPT para mejorar en su trabajo, comenzó a creer que la IA tenía vida propia y que él cumplía una misión cósmica.
Incluso afirmó haber recibido instrucciones para construir un teletransportador. Su esposa confesó tener miedo de cuestionarlo, temiendo dañar su relación.
Publicidad
En otro testimonio recopilado por Rolling Stone, una mujer identificada como Kat (nombre ficticio) relató que el fanatismo de su esposo por ChatGPT fue la causa de su separación. El hombre pasaba horas buscando “la verdad” a través del modelo, y en público expresaba teorías conspirativas, dando muestras claras de desconexión con la realidad.
¿Cómo puede ChatGPT impactar la salud mental?
Expertos citados en medios como Vice y Rolling Stone atribuyen este fenómeno a la manera en que las inteligencias artificiales pueden reflejar y amplificar las ideas de personas emocionalmente inestables.
We’ve rolled back last week's GPT-4o update in ChatGPT because it was overly flattering and agreeable. You now have access to an earlier version with more balanced behavior.
— OpenAI (@OpenAI) April 30, 2025
More on what happened, why it matters, and how we’re addressing sycophancy: https://t.co/LOhOU7i7DC
La psicóloga Erin Westgate, de la Universidad de Florida, advierte que muchos usuarios emplean ChatGPT como sustituto de la terapia, sin el resguardo que brinda un profesional. A diferencia de un terapeuta humano, la IA no tiene conciencia ni criterio ético: simplemente reproduce patrones de conversación, sin filtrar posibles riesgos psicológicos.
Según OpenAI, la compañía creadora de ChatGPT, algunas actualizaciones recientes han hecho que el sistema adopte un tono más complaciente o adulador, lo que podría reforzar en ciertos usuarios la sensación de cercanía emocional o espiritual con la IA.
El investigador Nate Sharadin, del Centro para la Seguridad de la Inteligencia Artificial, señala que el acceso constante a estos modelos y su estilo conversacional “casi humano” facilita que personas con tendencias psicóticas encuentren en la IA un interlocutor que refuerza sus creencias extremas.
Lee también:
A esto se suma el crecimiento de influenciadores que promueven teorías místicas o conspirativas usando inteligencia artificial, lo cual contribuye a la propagación de desinformación y alimenta este ciclo de delirio compartido entre sus audiencias.
Publicidad
Mira también: “Me enamoré de Chat GPT”; la excusa ‘chimba’ con la que una mujer le terminó a su pareja