El avance de la inteligencia artificial y su capacidad de generar imágenes y videos cada vez más realistas plantea un desafío para la ciberseguridad de las personas y las empresas.
Es que más allá de la sorpresa que pueden causar algunas imágenes fotorrealistas generadas por IA, la verosimilitud de los resultados empieza a generar preocupación: los cibercriminales cuentan ahora con una herramienta para crear fotos, videos y voces falsos de personas reales, lo que les facilita el engaño conocido como suplantación de identidad.
“Vamos a ver un número creciente de deepfakes, simulaciones de secuestros o de declaraciones armadas con IA, y es muy preocupante porque es cada vez más difícil de detectar. Todavía no son simulaciones perfectas, pero si se ve la velocidad con la cual van avanzando, dentro de muy poco va a ser muy difícil distinguir lo que es un video hecho por una persona de uno generado con inteligencia artificial”, evaluó en diálogo con El Cronista Walter Risi, Socio Líder de Consulting y Líder Global de Ciberseguridad OT en KPMG.
Riesgo en el mundo cripto
Los engaños potenciados por IA ya están golpeando fuerte en un ámbito preeminentemente digital, como es de las criptomonedas. Según un informe difundido por el exchange Bitget, el uso de deepfakes maliciosos en el sector cripto aumentó un 245% a nivel mundial en comparación con el año pasado.
Pese a los esfuerzos de las empresas y autoridades, las pérdidas por deepfakes pueden llegar a los u$s 25.000 millones en 2024. Y en 2025 podrían dispararse a un nivel de u$s 10.000 millones trimestrales.
“Los deepfakes están entrando en el sector cripto con fuerza y hay poco que podamos hacer para detenerlos sin una educación y conciencia adecuadas. La vigilancia de los usuarios y su capacidad para discernir estafas y fraudes de ofertas reales sigue siendo la línea de defensa más efectiva contra tales delitos, hasta que se establezca un marco legal y de ciberseguridad integral a escala global”, dijo al respecto Gracy Chen, CEO de Bitget.
El informe señala que entre los tipos más comunes de deepfakes en el mundo cripto se encuentran el robo de identidad, las identificaciones falsas generadas para redes de bots, esquemas de manipulación de mercado y fraude de inversión.
Personas “falsificadas”
“Para las empresas, una preocupación clave es si un ejecutivo puede ser falsificado de forma convincente, o si un empleado “privilegiado” puede ser engañado por esa falsificación. A principios de este año, un diligente trabajador financiero de Hong Kong fue engañado para que aprobara un pago de 25 millones de dólares mediante una elaborada videoconferencia con un deepfake del director financiero de la empresa. Solicitó una reunión con Zoom en respuesta a una petición de transferencia de dinero y sólo envió el dinero después de hablar con quien creía que era el director financiero y varios compañeros más en la misma llamada, todos ellos deepfakes”, alertó Sadiq Iqbal, asesor de ciberseguridad, Check Point Software Technologies.
El experto señaló que el caso puso de manifiesto la evolución de la tecnología y su potencial como nuevo vector de amenaza para las estafas empresariales.
En este contexto, surge la pregunta sobre cómo se puede averiguar si la persona del otro lado de una llamada o un video o una conferencia es real o un deepfake. Sadiq Iqbal contestó que “se requiere que la gente esté alerta y realice algunas comprobaciones de sentido común. En toda situación, la gente tiende a sopesar lo que ve y a hacer evaluaciones de riesgo”.
Y aconsejó: “De la misma manera que se comprueba la veracidad de un correo electrónico o su contenido -verificando la identidad del remitente, pasando el mouse por encima de una URL o un adjunto, examinando el estilo y la gramática-, hoy puede resultar beneficioso aplicar el mismo tipo de enfoque a las videoconferencias”.
Fuente El Cronista