Este hacker recrea la voz de un CEO para estafar a un empleado en WhatsApp

-

Una gran empresa fue objeto de un intento de fraude. El hacker utilizó inteligencia artificial para imitar la voz del CEO y contactar con un empleado de la firma por WhatsApp.

Créditos: 123RF

Desde hace varios años, los piratas tienen a su disposición una herramienta tremendamente eficaz: elinteligencia artificial. Sin mencionar la posibilidad de crear malware con ChatGPT, permite nuevo tipo de estafas que ya han causado varias víctimas. la idea yusa IA para recrear la voz o el rostro de alguien que conoces. A veces ambas cosas al mismo tiempo. Por ejemplo, un estafador logró extorsionar a una empresa por 25 millones de dólares con una videoconferencia falsa y gigantesca.

También puedes recibir una llamada de alguien cercano a ti pidiendo dinero, excepto que es una IA que imita su voz. AbiertoAI, la empresa matriz detrás de ChatGPT, también ha presentado un programa capaz de hacer esto a partir de unos segundos de grabación. El hacker en cuestión debe haber utilizado un servicio similar ya que envió un mensaje de voz en WhatsApp con la voz de Karim Toubba, el Director ejecutivo de LastPassfamoso administrador de contraseñas. Un empleado de la empresa fue el objetivo.

Gracias a la IA, este hacker envía un mensaje de voz por WhatsApp con la voz de un CEO

LastPass especifica en un comunicado de prensa que el hacker falló. “Como el intento de comunicación tuvo lugar fuera de los canales de comunicación profesionales normales y debido a las sospechas del empleado de que había muchos signos característicos de un intento de ingeniería social (como urgencia forzada), nuestro empleado ignoró con razón los mensajes y reportó el incidente a nuestra seguridad interna. equipo para que podamos tomar medidas para mitigar la amenaza y crear conciencia sobre esta táctica, tanto interna como externamente.“.

Lea también – IA: crear un deepfake pronto te enviará a prisión durante mucho tiempo

En la conversación de WhatsApp podemos ver que el delincuente también intentó llamar al empleado, probablemente habiendo preparado otra grabación imitando la voz del director general. Incluso si en este caso la “víctima” tuviera los reflejos correctos, es seguro que Los intentos de este tipo se multiplicarán a medida que avanza la inteligencia artificial. Como explica LastPass, es importante hablar de este tipo de asuntos para alertar al mayor número de personas posible.

-

PREV Su cuenta bancaria está en riesgo si instaló esta “actualización” de Chrome en su teléfono inteligente Android
NEXT Kendji Girac, Julien Doré, Cécile de France, Élodie Gossuin… Decidieron vivir aislados del mundo