
Las 5 cosas que jamás debes decirle a ChatGPT; la quinta es muy delicada
Evita riesgos digitales. Descubre las 5 cosas que jamás debes decirle a ChatGPT y cómo proteger tu información personal al usar la Inteligencia Artificial.

Publicidad
Publicidad
Publicidad
Publicidad
Cada día, millones de personas conversan con asistentes de inteligencia artificial como ChatGPT para resolver dudas, redactar textos, aprender nuevas habilidades o incluso distraerse un rato.
Sin embargo, no siempre se es consciente de que compartir cierta información sensible en este tipo de plataformaspuede conllevar riesgos para la seguridad personal o financiera.
Por eso, si te preguntas qué no deberías decirle nunca a ChatGPT, aquí te compartimos las 5 cosas que jamás debes escribirle a esta IA y te explicamos por qué es mejor evitarlo.
1. Datos bancarios o información financiera confidencial
Nunca debes compartir con ChatGPT detalles como el número de tu tarjeta de crédito, códigos CVV, contraseñas de cuentas bancarias, números de cuenta o claves de billeteras digitales.
Aunque la plataforma está diseñada para no almacenar conversaciones ni datos sensibles a largo plazo, existe el riesgo de que la información sea expuesta en caso de vulnerabilidades o accesos no autorizados.
Riesgos:
Publicidad
2. Contraseñas y claves personales
Al igual que los datos financieros, las contraseñas de redes sociales, correos electrónicos,
cuentas de servicios o cualquier otro tipo de credencial no deben compartirse con ChatGPT. Ni siquiera si el motivo es pedir ayuda para recordarlas o gestionarlas.
Riesgos:
3. Tu dirección exacta o ubicación en tiempo real
Aunque preguntar por recomendaciones de restaurantes cercanos o rutas puede ser útil, no deberías darle a ChatGPT información como tu dirección exacta de residencia, lugar de trabajo o ubicación actual con coordenadas precisas.
Publicidad
Riesgos:
4. Documentos de identidad o números oficiales
Evita compartir imágenes o números de documentos como tu cédula, pasaporte, licencia de conducción, NIT o número de seguro social. Estos datos son sumamente sensibles y pueden ser utilizados en delitos como la falsificación de identidad.
Riesgos:
5. Confesiones de actos ilegales o información comprometedora
Aunque la tentación de desahogarte con una IA sea alta, confesar delitos, actividades ilegales o compartir información comprometedora puede tener consecuencias no solo a nivel ético sino también legal.
ChatGPT está programado para no fomentar ni participar en actividades ilegales y podría bloquear tu acceso si detecta este tipo de contenidos.
Riesgos:
Si quieres aprovechar al máximo las ventajas de la inteligencia artificial sin poner en riesgo tu información, sigue estas recomendaciones:
ChatGPT es una herramienta potente y útil cuando se usa con precaución. Evitar compartir datos confidenciales, proteger tu identidad y tener presente los riesgos asociados te permitirá disfrutar de sus beneficios con total tranquilidad.
También puedes ver: “Me enamoré de Chat GPT”; la excusa ‘chimba’ con la que una mujer le terminó a su pareja
Publicidad