La inteligencia artificial (IA) plantea un doble desafío: mientras promete beneficios significativos y mejoras en nuestra calidad de vida, también abre nuevas puertas para el crimen organizado, que puede falsificar contenido textual, de video, imágenes, voz y llamadas telefónicas.
Clona la Voz de tus Seres Queridos para engañarte - No confíes en todo lo que escuchas en el teléfono o en las llamadas de voz
Recientemente, los expertos en seguridad han alertado sobre el aumento de estafas utilizando técnicas de clonación de voz.
Una usuaria fue contactada después de caer víctima de un intento de fraude:
recibió una llamada de un número desconocido en la que escuchó la voz de su esposo diciéndole: "¡Hola! No puedo comunicarme contigo, envíame un mensaje a este número [X]".
Al percatarse de la situación sospechosa, decidió ignorar la llamada y contactar directamente al número de su esposo, quien confirmó no haberla contactado. Este incidente, aunque no es el único reportado, ejemplifica de manera clara cómo opera este tipo de fraude.
La IA ya permite la creación de comentarios de voz que imitan a cualquier persona, no solo a celebridades, sino también a conocidos. Esta capacidad genera preocupaciones incluso en los más altos niveles de seguridad, como el jefe de seguridad de la Casa Blanca.
Los criminales han identificado esta tecnología como un nuevo método preferido para cometer estafas, ya que resulta más convincente para las víctimas al suplantar la identidad de bancos u otras instituciones. Aunque la IA aún no es perfecta, su nivel de realismo plantea serios desafíos.
El mayor peligro radica en que los delincuentes disponen de información personal que les facilita perpetrar fraudes. Conocen a nuestros familiares y amigos, lo cual, si bien puede ser obtenido fácilmente a través de redes sociales, también puede ser resultado de grandes brechas de seguridad y filtraciones de datos.