Publicidad

Publicidad

Publicidad

Publicidad

Entérate de lo más reciente en el mundo del entretenimiento al activar las notificaciones.
Tal vez más tarde
Quiero recibirlas

Publicidad

La cruda verdad tras usar ChatGPT como psicólogo; hay serio peligro

Antes de confiarle tus secretos a la inteligencia artificial, debes saber lo que expertos detectaron sobre los chatbots; se esconden fallas éticas.

¿Hay peligro de usar ChatGPT como psicólogo?
Revelan peligro de usar ChatGPT como psicólogo; ¿por qué tu chatbot no te entiende?
Foto: Creada con IA

Hablar con una máquina sobre tus problemas de pareja, el estrés de la oficina o esa ansiedad que no te deja dormir se ha vuelto la nueva normalidad para muchos que buscan respuestas rápidas y baratas.

Sin embargo, antes de que decidas que tu próximo "mejor amigo" es un algoritmo, un reciente estudio de la Universidad de Brown ha encendido las alarmas sobre lo que realmente sucede cuando intentas convertir a ChatGPT en tu terapeuta de cabecera.

Puedes leer: Así puedes crear tu caricatura con ChatGPT según tus conversaciones; prompt y PASO A PASO

Uno de los puntos más fascinantes y, a la vez, aterradores de esta investigación es lo que los expertos llaman "empatía engañosa".

Seguro has notado que el chatbot suele responder con frases reconfortantes como "entiendo cómo te sientes" o "estoy aquí para apoyarte".

El problema es que, aunque suena dulce, es una mentira técnica: la inteligencia artificial no tiene la capacidad de sentir absolutamente nada, ni posee un inconsciente o voluntad propia para comprender tu dolor de manera genuina.

Esta simulación de cercanía crea una falsa sensación de conexión que no tiene un respaldo real detrás. Es como recibir un abrazo de un holograma; se ve bien, pero no hay calor humano que te sostenga cuando las cosas se ponen difíciles.

Errores que la IA comete contigo

El estudio académico no se quedó en la superficie. Identificó al menos 15 violaciones a los principios básicos de la terapia psicológica, agrupadas en cinco categorías críticas.

Publicidad

Entre los fallos más graves se encuentra la falta de adaptación contextual. Mientras que un psicólogo humano conoce tu historia, tus traumas pasados y tu entorno, el chatbot suele ofrecer consejos genéricos que podrían aplicarse a ti o a cualquier otra persona en el mundo.

Esta desconexión con tu realidad personal puede llevar a que la IA valide ideas incorrectas o refuerce creencias que son perjudiciales para ti mismo.

Publicidad

En lugar de ayudarte a crecer, el sistema podría estar simplemente dándote la razón en cosas que deberías cuestionar.

Puedes leer: Así puedes usar ChatGPT como identificador de llamadas gratis; te alerta de estafas

¿La IA logra tener sentimientos y empatizar?

A diferencia de un profesional que ha pasado años entrenándose en clínicas, la IA no cuenta con un diagnóstico formal ni entrenamiento clínico.

Esto significa que, aunque puede darte datos interesantes sobre psicología (lo que llaman psicoeducación), carece del juicio necesario para manejar momentos emocionalmente sensibles o peligrosos.

Otro giro importante es el tema de la responsabilidad ética. Si un terapeuta comete un error grave, existen marcos legales y supervisiones profesionales que responden por ello.

Con ChatGPT, no hay nadie a quien reclamar si un consejo automatizado termina empeorando tu situación emocional. La información que entrega es, en última instancia, fría y carece de ese vínculo relacional que es el verdadero motor de la sanación en el famoso "diván".

Publicidad

¿La inteligencia artificial puede remplazar a los psicólogos?

A pesar de los riesgos, los investigadores no dicen que la IA deba ser desterrada por completo del mundo de la salud mental.

Reconocen que es una herramienta poderosa para democratizar el acceso al conocimiento y que puede ser un gran apoyo en lugares donde la atención profesional es impagable o inexistente.

Publicidad

La clave está en no delegar procesos emocionales complejos en una herramienta que no puede darte un apretón de manos ni mirarte a los ojos.

La inteligencia artificial es un excelente "asistente", pero está muy lejos de replicar la profundidad de un juicio clínico humano.

Al final del día, tu mente merece más que un algoritmo que simplemente predice cuál es la siguiente palabra que quieres escuchar.