Buenos Aires, 22 de noviembre de 2025 – Total News Agency-TNA-La inteligencia artificial (IA) se ha consolidado como una herramienta de doble filo en el escenario digital global: por un lado, habilita fraudes más complejos operados por ciberdelincuentes; por otro, constituye la principal línea de defensa que gobiernos y compañías despliegan para proteger transacciones, identidades y redes críticas. En Argentina, los números reflejan un mundo en plena transformación: según el informe de la plataforma de biometría BioCatch, en los tres primeros trimestres del año se registraron 262 ataques informáticos, lo que representa un aumento del 63 % respecto al mismo período en América Latina.
Los fraudes digitales han mutado a velocidad superior a la de los sistemas tradicionales de seguridad. El uso intensivo de dispositivos móviles, la proliferación del comercio electrónico y la liberación de pagos a través de múltiples canales han generado un terreno fértil para nuevas modalidades de extorsión, apropiación de dispositivos (device takeover), cuenta falsas con deepfakes y amenazas hacia infraestructuras críticas. El 61 % de las organizaciones en Argentina experimentaron brechas de seguridad en el último año, mientras el 29 % reportó pérdidas económicas directas por ataques digitales. A nivel usuario, el 76 % admitió haber sido víctima de alguna forma de estafa online.
En el medio de esta transformación, la IA funciona como catalizador del delito. “La democratización de la inteligencia artificial hace que hoy sea más fácil hacerte pasar por alguien más. Los procesos de validación de identidad se comprometen ahora por los riesgos existentes en el mercado”, advierte Iñigo Castillo, gerente general para Latinoamérica de Incode. De hecho, la autoridad local de ciberdelincuencia indicó que el 47 % de los profesionales de seguridad detectaron el uso de IA en intentos de ataque, mientras el 92 % estima que esta tecnología será clave para la defensa empresarial en los próximos años.
Los testimonios de expertos subrayan la doble cara de la IA. “Puede emplearse para defraudar a una empresa, un usuario o un gobierno. Al mismo tiempo, crea soluciones para que todos esos actores se cubran ante la posibilidad de una embestida”, afirma Castillo. Pablo Poza, asociado de Together Business Consulting, añade: “La inteligencia artificial es… nuestra mente, nuestro razonar. Se anticipa a algo. No necesita que esté el error humano sobre la mesa. Es capaz de prevenirlo”. Sin embargo, esa capacidad preventiva se enfrenta a una realidad donde la sofisticación del ataque adelanta a la infraestructura de defensa.
Uno de los pilares de la ofensiva fraudulenta es la identidad falsa. Las “deepfakes” de rostros y voces sintéticas han impulsado un 300 % los fraudes en apertura de cuentas bancarias en plataformas digitales. Tecnologías de verificación de identidad basadas en aprendizaje profundo (deep learning) ahora intentan distinguir lo real de lo falso: “Hoy cualquiera puede hacer un deepfake y engañar a los sentidos humanos aun cuando sea de mediana calidad”, afirma Castillo. La IA multimodal, que analiza desde la profundidad de la cámara hasta el patrón de voz, se ha vuelto indispensable para asegurar que una persona remota y un documento no sean suplantados por un algoritmo.
Los gobiernos se han subido a esta nueva frontera y han activado estrategias defensivas intensivas. La UFECI en Argentina ya genera estadísticas delictuales donde el 80 % de los delitos cibernéticos corresponde a engaños online y suplantación de identidad. A nivel macro, el desarrollo de sistemas de inteligencia artificial para monitoreo, detección de anomalías y automatización de respuestas se ha convertido en prioridad para blindar sistemas financieros, cadenas de suministro y gobierno digital.
Este escenario plantea un reto mayor: la velocidad del cambio tecnológico dejó obsoletos muchos protocolos de seguridad diseñados para riesgos convencionales. La consultora Gartner prevé que más del 25 % de todas las interacciones con consumidores se gestionarán por completo mediante agentes autónomos en pocos años más. En ese contexto, la resiliencia digital se convierte en imperativo: “Los sitios financieros necesitan adoptar una estrategia integral basada en la resiliencia digital, una visión que integre monitoreo en tiempo real, automatización y análisis inteligente de datos en todo el ecosistema”, subraya un estudio de OCP Tech.
Para las empresas, las implicancias van más allá de lo técnico. “El primero es la reputación. Si una plataforma de pagos sufre un ataque, ¿vas a volver a depositar dinero ahí? Muy posiblemente, no”, advierte Poza. La segunda dimensión es la informática: rastrear por dónde entraron, qué hicieron. La tercera es cómo reparar: qué se perdió, cómo recuperarlo. En ese triángulo, la IA se ha vuelto un auxiliar indispensable, desde el machine learning que automatiza patrones de fraude hasta los algoritmos que modelan escenarios de ataque.
La conclusión es clara: la inteligencia artificial ya no es solo una herramienta de futuro, sino una variable central del presente de seguridad digital. Mientras los ciberdelincuentes la emplean para diseñar ataques más eficaces y menos detectables, los gobiernos y empresas la utilizan para crear barreras dinámicas que respondan en tiempo real. Los ganadores de esta nueva batalla serán aquellos que entiendan que IA y ciberseguridad no son conceptos distintos, sino las caras de una misma moneda.

Argentina
España
USA
Israel














