Una mujer estafada con 800.000 euros mediante una IA falsa de Brad Pitt

-

spot_img

Lo que comenzó como una publicación de Instagram sobre unas vacaciones de esquí terminó en la ruina financiera para una diseñadora de interiores francesa después de que los estafadores usaron inteligencia artificial para convencerla de que estaba en una relación con Brad Pitt.

La estafa que duró 18 meses estuvo dirigida a Anne, de 53 años, quien recibió un mensaje inicial de alguien que se hacía pasar por Jane Etta Pitt, la madre de Brad, afirmando que su hijo “necesitaba una mujer como tú”.

No mucho después, Anne comenzó a hablar con lo que ella creía que era la estrella de Hollywood, con fotos y videos generados por IA.

“Estamos hablando de Brad Pitt aquí y me quedé atónito”. Anne dijo a los medios franceses.. “Al principio pensé que era falso, pero realmente no entendía lo que me estaba pasando”.

La relación se profundizó a lo largo de meses de contacto diario, con el falso Pitt enviando poemas, declaraciones de amor y, finalmente, una propuesta de matrimonio.

“Hay muy pocos hombres que te escriban así”, describió Anne. “Me encantó el hombre con el que estaba hablando. Sabía cómo hablar con las mujeres y siempre estuvo muy bien organizado”.

Las tácticas de los estafadores resultaron tan convincentes que Anne finalmente se divorció de su marido, un empresario millonario.

Después de establecer una buena relación, los estafadores comenzaron a extraer dinero con una modesta solicitud: 9.000 euros por supuestos derechos de aduana sobre regalos de lujo. La situación se intensificó cuando el imitador afirmó que necesitaba tratamiento contra el cáncer mientras sus cuentas estaban congeladas debido a su divorcio de Angelina Jolie.

Leer  Claudior Coelho, director de IA de Zscaler – Serie de entrevistas

Un mensaje falso de un médico sobre el estado de Pitt llevó a Anne a transferir 800.000 euros a una cuenta turca.

Estafa de Brad Pitt
Estafadores pidieron dinero para el tratamiento falso contra el cáncer de Brad Pitt

“Me costó hacerlo, pero pensé que podría estar salvando la vida de un hombre”, dijo. Cuando su hija reconoció la estafa, Anne se negó a creerlo: “Verás cuando esté aquí en persona y pedirás perdón”.

Sus ilusiones se hicieron añicos al ver la cobertura periodística del verdadero Brad Pitt junto a su pareja Inés de Ramon en el verano de 2024.

Incluso entonces, los estafadores intentaron mantener el control, enviando alertas de noticias falsas desestimando estos informes y afirmando que Pitt en realidad estaba saliendo con una “persona muy especial” anónima. En una última tirada de dados, alguien que se hizo pasar por un agente del FBI obtuvo otros 5.000 euros ofreciéndose a ayudarla a escapar del plan.

Las consecuencias resultaron devastadoras: tres intentos de suicidio llevaron a la hospitalización por depresión.

Anne habló sobre su experiencia con la emisora ​​francesa TF1, pero la entrevista fue eliminada más tarde después de que enfrentó un intenso acoso cibernético.

Ahora vive con una amiga después de vender sus muebles, presentó denuncias penales y lanzó una campaña de financiación colectiva para obtener ayuda legal.

Una situación trágica, aunque Anne no está sola. Su historia es paralela a un aumento masivo del fraude impulsado por la IA en todo el mundo.

Las autoridades españolas arrestaron recientemente a cinco personas que robaron 325.000 euros a dos mujeres mediante imitaciones similares de Brad Pitt.

Hablando sobre el fraude de IA el año pasado, el director de tecnología de McAfee, Steve Grobman explica por qué estas estafas tienen éxito: “Los ciberdelincuentes pueden utilizar IA generativa para voces falsas y deepfakes de formas que antes requerían mucha más sofisticación”.

Leer  Incluso los modelos de idiomas de última generación luchan por comprender la lógica temporal

No son sólo las personas las que están en el punto de mira de los estafadores, sino también las empresas. En Hong Kong el año pasado, Los estafadores robaron 25,6 millones de dólares. de una empresa multinacional que utiliza imitadores de ejecutivos generados por IA en videollamadas.

El superintendente Baron Chan Shun-ching describió cómo “el trabajador fue atraído a una videoconferencia en la que se decía que había muchos participantes. La apariencia realista de los individuos llevó al empleado a ejecutar 15 transacciones en cinco cuentas bancarias locales”.

¿Serías capaz de detectar una estafa de IA?

A la mayoría de las personas les gustaría tener posibilidades de detectar una estafa de IA, pero las investigaciones dicen lo contrario.

Los estudios muestran que los humanos luchan por distinguir rostros reales de creaciones de IAy voces sintéticas engañar a aproximadamente una cuarta parte de los oyentes. Esa evidencia surgió el año pasado: la imagen de voz, la voz y la síntesis de video de IA han evolucionado considerablemente desde entonces.

Synthesia, una plataforma de vídeo de IA que genera avatares humanos realistas que hablan varios idiomas, ahora respaldada por Nvidia, acaba de duplicó su valoración a 2.100 millones de dólares. Las plataformas de síntesis de voz y vídeo como Synthesia y Elevenlabs se encuentran entre las herramientas que los estafadores utilizan para lanzar estafas falsas.

Synthesia lo admite y recientemente demostró su compromiso de prevenir el uso indebido a través de una rigurosa prueba pública del equipo rojo, que mostró cómo sus controles de cumplimiento bloquean con éxito los intentos de crear deepfakes no consensuados o usar avatares para contenido dañino como promover el suicidio y el juego.

Leer  Foundation respaldado por el MIT EGI debuta ingeniería de inteligencia general para transformar la fabricación

Si dichas medidas son efectivas o no para detener el uso indebido – claramente el jurado está deliberando.

A medida que las empresas y los individuos luchan con medios convincentemente reales generados por IA, el costo humano (ilustrado por la devastadora experiencia de Anne) probablemente aumentará.

spot_img

LEAVE A REPLY

Please enter your comment!
Please enter your name here

spot_img

Recomendar noticias

Los más populares