La criminóloga y experta en delitos digitales María Aperador compartió una serie de recomendaciones sobre los riesgos de proporcionar información sensible a sistemas de inteligencia artificial como ChatGPT y otros chatbots disponibles en línea.
Su advertencia se basa en el incremento de consultas y usos cotidianos de estas plataformas, que muchas veces llevan a los usuarios a compartir datos personales sin medir las consecuencias.
Puedes leer: Mujer se casa con un novio virtual creado en ChatGPT: “Sé que es raro”
¿Qué tipo de información nunca se debe compartir con ChatGPT?
Existen cinco tipos de información que no deben compartirse bajo ninguna circunstancia, como lo son las siguientes:
- Información personal de identidad: en esta categoría se incluyen el nombre completo, número de identificación, dirección, teléfonos, ubicación exacta, fotografías personales, información familiar, nombres de hijos o datos de menores de edad, ya que estos datos puedan ser utilizados para suplantación de identidad, extorsiones, ingeniería social o estafas.
ChatGPT y lo que nunca debes preguntarle Foto: captura de pantalla ibertronica - Salud y la información médica: esto comprende diagnósticos, síntomas, resultados de pruebas, historiales clínicos, incapacidades o tratamientos, aunque los usuarios soliciten orientación médica en estos sistemas, la información podría llegar a manos de terceros o ser usada para discriminación laboral o fraudes con seguros. Este tipo de consultas debe dirigirse directamente a profesionales de la salud.Te puede interesar
-
- Datos financieros: ingresos reales, números de cuentas bancarias, movimientos, estados de cuenta, extractos, facturas, comprobantes de pago y cualquier archivo que revele la situación económica del usuario, entregar esta información, incluso parcialmente, puede facilitar delitos como robo de identidad, estafas electrónicas o acceso no autorizado a plataformas financieras.
Puedes leer: Joven acabó con la vida de su mamá y usó la IA para simular que seguía viva
- Información confidencial laboral o corporativa: documentos internos, bases de datos, listas de clientes, información de proyectos, estrategias de negocio, contratos o materiales protegidos por acuerdos de confidencialidad, compartir este tipo de información, aunque sea para solicitar redacción, corrección o análisis, puede generar fugas, sanciones legales o incumplimiento de obligaciones contractuales.
- Contraseñas, códigos de autenticación, llaves, accesos a servicios digitales ni capturas de pantalla donde aparezcan credenciales: esta información ofrece acceso directo a servicios personales o empresariales y su divulgación puede causar pérdidas económicas o ataques informáticos.
Te puede interesar
La especialista resume su posición en una idea central: los usuarios deben recordar que, si no compartirían cierta información con un desconocido o en un espacio público, tampoco deberían ingresarla en una herramienta de inteligencia artificial.
Mira también: Inteligencia Artificial deja sin trabajo a más de 30 mil empleados en famosa empresa
Publicidad