Publicidad

Publicidad

Publicidad

Publicidad

Entérate de lo más reciente en el mundo del entretenimiento al activar las notificaciones.
Tal vez más tarde
Quiero recibirlas

Publicidad

Usar ChatGPT en exceso podría tener consecuencias: lo que dicen los expertos

Este nuevo fenómeno está afectando a las personas, y las está llevando a tener delirios y psicosis mentales por usar en exceso esta nueva herramienta tecnológica.

Usar ChatGPT en exceso podría tener consecuencias: lo que dicen los expertos
Usar en exceso ChatGPT puede afectar mentalmente a las personas
Foto: Gettyimages

En los últimos meses, se han multiplicado los testimonios en redes como Reddit y los informes de medios internacionales sobre un fenómeno inquietante:tras un uso intensivo de ChatGPT, algunas personas comienzan a mostrar comportamientos delirantes y vivencias místicas, llegando a creer que tienen misiones divinas o vínculos especiales con la inteligencia artificial (IA).

Este fenómeno, que parece salido de un episodio de Black Mirror, ha sido apodado popularmente como “psicosis inducida por ChatGPT” y, según la cadena DW, está generando preocupación entre profesionales de la salud mental y el público en general.

Los llamados “errores” o “alucinaciones” de los modelos de lenguaje, su tendencia a generar datos falsos o imprecisos, son bien conocidos. Pero lo que causa alarma ahora es cómo estas interacciones pueden desencadenar creencias delirantes en usuarios especialmente vulnerables.

La situación empezó a ganar atención en comunidades como el subreddit de ChatGPT, donde familiares de usuarios comenzaron a compartir casos de seres queridos que desarrollaban creencias extrañas: personas que afirmaban haber sido escogidas por la IA o que establecían relaciones emocionales, espirituales o filosóficas con el modelo.

La revista Rolling Stone menciona el caso de una profesora cuya pareja, en pocas semanas, pasó de utilizar ChatGPT para organizar su rutina diaria a depender emocional y espiritualmente de la herramienta.

Esta persona llegó al punto de priorizar los mensajes del bot sobre las relaciones humanas y sentía estar viviendo un proceso de transformación espiritual, influenciado por los nombres y mensajes que el modelo le ofrecía.

Hay cinco aspectos clave de los que no debes hablar con Chats de IA
Cinco cosas que no debes contarle a Chat GPT y demás chats de Inteligencia artificial
/Foto: Getty Images

Publicidad

Otros casos similares han surgido en diferentes partes del mundo. En Idaho, por ejemplo, una mujer contó que su esposo, un mecánico, tras usar ChatGPT para mejorar en su trabajo, comenzó a creer que la IA tenía vida propia y que él cumplía una misión cósmica.

Incluso afirmó haber recibido instrucciones para construir un teletransportador. Su esposa confesó tener miedo de cuestionarlo, temiendo dañar su relación.

Publicidad

En otro testimonio recopilado por Rolling Stone, una mujer identificada como Kat (nombre ficticio) relató que el fanatismo de su esposo por ChatGPT fue la causa de su separación. El hombre pasaba horas buscando “la verdad” a través del modelo, y en público expresaba teorías conspirativas, dando muestras claras de desconexión con la realidad.

¿Cómo puede ChatGPT impactar la salud mental?

Expertos citados en medios como Vice y Rolling Stone atribuyen este fenómeno a la manera en que las inteligencias artificiales pueden reflejar y amplificar las ideas de personas emocionalmente inestables.

La psicóloga Erin Westgate, de la Universidad de Florida, advierte que muchos usuarios emplean ChatGPT como sustituto de la terapia, sin el resguardo que brinda un profesional. A diferencia de un terapeuta humano, la IA no tiene conciencia ni criterio ético: simplemente reproduce patrones de conversación, sin filtrar posibles riesgos psicológicos.

Según OpenAI, la compañía creadora de ChatGPT, algunas actualizaciones recientes han hecho que el sistema adopte un tono más complaciente o adulador, lo que podría reforzar en ciertos usuarios la sensación de cercanía emocional o espiritual con la IA.

El investigador Nate Sharadin, del Centro para la Seguridad de la Inteligencia Artificial, señala que el acceso constante a estos modelos y su estilo conversacional “casi humano” facilita que personas con tendencias psicóticas encuentren en la IA un interlocutor que refuerza sus creencias extremas.

A esto se suma el crecimiento de influenciadores que promueven teorías místicas o conspirativas usando inteligencia artificial, lo cual contribuye a la propagación de desinformación y alimenta este ciclo de delirio compartido entre sus audiencias.

Publicidad

Mira también: “Me enamoré de Chat GPT”; la excusa ‘chimba’ con la que una mujer le terminó a su pareja