Publicidad

Publicidad

Publicidad

Publicidad

Entérate de lo más reciente en el mundo del entretenimiento al activar las notificaciones.
Tal vez más tarde
Quiero recibirlas

Publicidad

Las 5 cosas que no debes preguntar ni hablar con ChatGPT; te dejan en jaque

Miles de usuarios estarían entregando información sensible a herramientas de inteligencia artificial sin medir consecuencias, lo que podría facilitar accesos a información privada.

Diseño sin título (9).jpg
Información privada que debes evitar compartir con la IA
Foto: imagen de referencia generada por ImageFX

La criminóloga y experta en delitos digitales María Aperador compartió una serie de recomendaciones sobre los riesgos de proporcionar información sensible a sistemas de inteligencia artificial como ChatGPT y otros chatbots disponibles en línea.

Su advertencia se basa en el incremento de consultas y usos cotidianos de estas plataformas, que muchas veces llevan a los usuarios a compartir datos personales sin medir las consecuencias.

Puedes leer: Mujer se casa con un novio virtual creado en ChatGPT: “Sé que es raro”

¿Qué tipo de información nunca se debe compartir con ChatGPT?

Existen cinco tipos de información que no deben compartirse bajo ninguna circunstancia, como lo son las siguientes:

  1. Información personal de identidad: en esta categoría se incluyen el nombre completo, número de identificación, dirección, teléfonos, ubicación exacta, fotografías personales, información familiar, nombres de hijos o datos de menores de edad, ya que estos datos puedan ser utilizados para suplantación de identidad, extorsiones, ingeniería social o estafas.
    ChatGPT 5 cosas que debes evitar
    ChatGPT y lo que nunca debes preguntarle
    Foto: captura de pantalla ibertronica
  2. Salud y la información médica: esto comprende diagnósticos, síntomas, resultados de pruebas, historiales clínicos, incapacidades o tratamientos, aunque los usuarios soliciten orientación médica en estos sistemas, la información podría llegar a manos de terceros o ser usada para discriminación laboral o fraudes con seguros. Este tipo de consultas debe dirigirse directamente a profesionales de la salud.
  3. Datos financieros: ingresos reales, números de cuentas bancarias, movimientos, estados de cuenta, extractos, facturas, comprobantes de pago y cualquier archivo que revele la situación económica del usuario, entregar esta información, incluso parcialmente, puede facilitar delitos como robo de identidad, estafas electrónicas o acceso no autorizado a plataformas financieras.

Puedes leer: Joven acabó con la vida de su mamá y usó la IA para simular que seguía viva

  1. Información confidencial laboral o corporativa: documentos internos, bases de datos, listas de clientes, información de proyectos, estrategias de negocio, contratos o materiales protegidos por acuerdos de confidencialidad, compartir este tipo de información, aunque sea para solicitar redacción, corrección o análisis, puede generar fugas, sanciones legales o incumplimiento de obligaciones contractuales.
  2. Contraseñas, códigos de autenticación, llaves, accesos a servicios digitales ni capturas de pantalla donde aparezcan credenciales: esta información ofrece acceso directo a servicios personales o empresariales y su divulgación puede causar pérdidas económicas o ataques informáticos.

La especialista resume su posición en una idea central: los usuarios deben recordar que, si no compartirían cierta información con un desconocido o en un espacio público, tampoco deberían ingresarla en una herramienta de inteligencia artificial.

Mira también: Inteligencia Artificial deja sin trabajo a más de 30 mil empleados en famosa empresa

Publicidad