Publicidad

Publicidad

Publicidad

Publicidad

Entérate de lo más reciente en el mundo del entretenimiento al activar las notificaciones.
Tal vez más tarde
Quiero recibirlas

Publicidad

Alerta sobre estafas con videos manipulados con IA; así le ocurrió a María Lucía Fernández

La presentadora de Noticias Caracol tuvo que salir a desmentir que fuera su voz la que está circulando en línea, con una falsa recomendación médica.

María Lucía Fernández, presentadora de Noticias Caracol
María Lucía Fernández, presentadora de Noticias Caracol
/Foto: Noticias Caracol

Una preocupante modalidad de estafa está ganando terreno en las redes sociales: videos manipulados con inteligencia artificial (IA) que utilizan de manera fraudulenta la imagen y voz de figuras reconocidas como la periodista María Lucía Fernández y el médico Carlos Francisco Fernández.

Estas producciones buscan engañar al público para promover tratamientos falsos para enfermedades como la diabetes y el dolor en las articulaciones.

Según informó Noticias Caracol, los delincuentes crearon videos en los que María Lucía Fernández , conocida por su trayectoria en Caracol Televisión, aparece hablando sobre una supuesta “explosión en la casa del doctor Carlos Francisco Fernández” debido a declaraciones contra farmacéuticas.

Publicidad

Este contenido es completamente falso y fue fabricado mediante tecnología de IA , ya que la periodista nunca grabó dicho material. El uso de su imagen y voz manipuladas busca otorgar credibilidad al fraude.

El doctor Carlos Francisco Fernández también fue víctima de esta suplantación. Reconocido por su experiencia en medicina física, rehabilitación y neurofisiología del dolor, su imagen es utilizada para respaldar supuestos tratamientos milagrosos.

Publicidad

La intención de los estafadores es clara: aprovechar la confianza que estas figuras generan en el público para comercializar productos que carecen de respaldo médico.

El caso de estafa en el que involucraron a Brad Pitt


La inteligencia artificial ha demostrado ser una herramienta poderosa, pero también plantea riesgos cuando cae en manos equivocadas. Un caso similar involucra a un supuesto Brad Pitt creado con IA , que llevó a una ciudadana europea a perder más de 800.000 euros en una estafa, los pidió prestados para enviárselos supuestamente al actor.

Estos ejemplos evidencian cómo los delincuentes están aprovechando la tecnología para crear contenido altamente convincente.

Riesgos para la salud y la seguridad digital

Publicidad

La promoción de tratamientos sin respaldo médico no solo es un delito, sino que también representa un grave riesgo para la salud de quienes puedan llegar a consumirlos. Por ello, es fundamental verificar la autenticidad de la información antes de confiar en ella.

Las redes sociales son el principal canal donde circulan estos videos, lo que hace necesario que los usuarios estén atentos a las señales de posibles fraudes.

Publicidad

¿Cómo identificar una estafa en redes sociales?

  1. Verifica la fuente: Asegúrate de que la información provenga de un medio o una cuenta oficial.
  2. Analiza el contenido: Busca inconsistencias en el lenguaje, el tono o el contexto del video.
  3. Evita enlaces sospechosos: No hagas clic en enlaces que prometen soluciones milagrosas.
  4. Consulta a expertos: Antes de adquirir tratamientos, confirma su legitimidad con un profesional de la salud.

La suplantación de identidad y el uso fraudulento de la IA son problemas crecientes que requieren medidas legales y tecnológicas para proteger tanto a figuras públicas como a los ciudadanos comunes.

Mantenerse informado y adoptar una postura crítica ante el contenido en línea es clave para evitar caer en estas trampas.

Este video te puede interesar: Verónica Alcocer fue suplantada con una Inteligencia Artificial