Publicidad

Publicidad

Publicidad

Publicidad

Entérate de lo más reciente en el mundo del entretenimiento al activar las notificaciones.
Tal vez más tarde
Quiero recibirlas

Publicidad

¡Alerta! Aumentan las estafas con clonación de voz mediante Inteligencia Artificial

La clonación de voz con Inteligencia Artificial está en auge y los ciberdelincuentes la usan para engañar a sus víctimas. Conoce cómo operan y cómo puedes protegerte.

Ciberdelincuentes aprovechan los avances de la Inteligencia Artificial para estafar
Ciberdelincuentes aprovechan los avances de la Inteligencia Artificial para estafar
/Foto: Getty Images

La Inteligencia Artificial (IA) ha transformado el mundo de manera sorprendente, pero también ha sido aprovechada por ciberdelincuentes para realizar fraudes cada vez más sofisticados. Una de las técnicas más preocupantes es la clonación de voz, utilizada para suplantar la identidad de amigos, familiares o conocidos con el objetivo de obtener información privada o dinero.

Los delincuentes recolectan fragmentos de audio de videos y publicaciones en redes sociales como Instagram o TikTok. Luego, con herramientas de IA, analizan los patrones de voz y generan mensajes falsos que imitan a la perfección el tono y la entonación de la persona suplantada. Esto les permite llevar a cabo fraudes que pueden generar grandes pérdidas económicas y emocionales para las víctimas.

El impacto de estas estafas ha sido alarmante. La Comisión Federal de Comercio de los Estados Unidos reportó que en 2023 se perdieron 2.700 millones de dólares debido a este tipo de engaños. En el Reino Unido, una encuesta del banco digital Starling Bank reveló que más del 25% de los adultos ha sido víctima de una estafa de clonación de voz al menos una vez en el último año, y el 46% desconoce la existencia de esta modalidad delictiva.

Autoridades advierten ante crecientes denuncias por estafas con IA

El creciente uso de la IA en fraudes ha llevado al FBI a emitir una alerta sobre los riesgos que implican estos ataques. Según el organismo, los estafadores están empleando tecnologías avanzadas para crear mensajes de voz, videos y correos electrónicos altamente convincentes.

Publicidad

Esto puede traducirse en pérdidas financieras considerables, daño a la reputación y compromisos de información confidencial tanto para individuos como para empresas.

Consejos para evitar ser víctima de estafa con Inteligencia Artificial

Expertos en ciberseguridad de ESET recomiendan tomar medidas de precaución para evitar caer en este tipo de estafas. Algunas de las estrategias más efectivas incluyen:

  • Estar atentos a solicitudes sospechosas: Si recibes un mensaje urgente pidiendo dinero o credenciales de acceso, verifica su autenticidad antes de responder.
  • Confirmar la identidad de la persona: Si un supuesto familiar o amigo te contacta con una solicitud inusual, devuelve la llamada a un número conocido para asegurarte de que realmente sea quien dice ser.
  • Usar una "frase segura": Establece con tus seres queridos una palabra clave que solo ustedes conozcan y puedan utilizar para verificar su identidad en situaciones sospechosas.
  • Habilitar la autenticación multifactor: Esta medida añade una capa adicional de seguridad en cuentas digitales, dificultando el acceso a los ciberdelincuentes.

Publicidad

Las empresas también deben reforzar sus estrategias de ciberseguridad. Según Camilo Gutiérrez Amaya, Jefe del Laboratorio de Investigación de ESET Latinoamérica, es crucial implementar herramientas que reduzcan el phishing y capacitar a los empleados para detectar engaños.

Ante la creciente amenaza de estafas con IA, mantenerse informado y aplicar medidas de seguridad es fundamental para protegerse de estos fraudes cada vez más sofisticados.

También puedes ver: Carolina Soto cayó en la estafa del falso sacerdote que le echa agua bendita a los carros