ESTAFA

Una argentina fue estafada por un falso George Clooney creado con IA

Un estafador suplantó al actor estadounidense utilizando inteligencia artificial y logró convencer a la víctima de que iniciaran una relación. Le decía que la amaba y que necesitaba dinero para pagarle al abogado. Los detalles, en la nota.

Redacción BAE

Una mujer argentina, identificada como Marta, se convirtió en víctima de una insólita estafa que combina tecnología y manipulación emocional. Creyendo mantener una relación amorosa virtual con el famoso actor estadounidense George Clooney, Marta transfirió la suma de 15.000 dólares a un estafador que suplantó la identidad del artista mediante herramientas de inteligencia artificial.

Según el relato de la víctima, el impostor logró convencerla de que estaba enamorado de ella y que, debido a una complicada situación personal, necesitaba ayuda económica. "Me dijo que me amaba, que se estaba por separar y necesitaba la plata", explicó Marta, quien fue manipulada durante semanas por el atacante.

El estafador utilizó tecnología de IA para recrear la voz del actor con una precisión inquietante. En uno de los videos que recibió, el falso Clooney aseguraba: "Gracias por apoyarme, te prometo que te voy a pagar todo. Te amo". Este tipo de mensajes calaron hondo en Marta, quien sentía que estaba colaborando en momentos difíciles del actor en medio de un complicado proceso de divorcio.

La situación se volvió más crítica cuando el supuesto Clooney le informó que tenía su cuenta bancaria bloqueada y que la urgencia por el dinero aumentaba. En otro video, el impostor reiteraba la necesidad de ayuda: "Hey, soy George, Richard (su supuesto representante) me dijo que tuviste problema con la tarjeta y que no pudiste solucionarlo, por favor habla conmigo". Este mensaje reforzó la sensación de cercanía y urgencia, convenciendo a Marta de la veracidad de la situación.

El uso de inteligencia artificial en este caso pone de relieve los riesgos y peligros que enfrenta la población frente a nuevas tecnologías. La capacidad de simular voces y crear contenido audiovisual realista abre la puerta a un sinfín de posibles fraudes, como el que sufrió Marta. En el contexto argentino, esta estafa sirve como un recordatorio de la importancia de la precaución y el escepticismo frente a interacciones virtuales que parecen demasiado buenas para ser verdad.

     

 

 

Esta nota habla de: