Según Cofense, las estafas basadas en correo electrónico aumentaron un 70% año tras año, impulsadas por la capacidad de la IA para automatizar señuelos, falsificar conversaciones internas y eludir los filtros de spam con sutiles variaciones de texto.
Los delincuentes utilizan algoritmos de IA para analizar grandes cantidades de datos y comprender los intereses, el comportamiento y las preferencias de su objetivo. Para ello, emplean herramientas especializadas como FraudGPT , disponible en canales clandestinos. A diferencia del popular ChatGPT, no tiene restricciones que le impidan responder preguntas sobre actividades ilegales.
Uso de IA para mejorar la detección de amenazas
La detección manual depende de analistas humanos, por lo que es más lenta y menos eficiente. Además, no puede gestionar grandes cantidades de datos y, a menudo, detecta las amenazas demasiado tarde.
Aquí es donde la IA destaca, identificando patrones y actividades inusuales con rapidez, incluso en conjuntos de datos masivos. Al aprender de ejemplos reales y adaptarse a las nuevas amenazas, ayuda a detectar intentos de phishing de forma temprana.
Además de ser rápida y gestionar grandes cantidades de datos, la IA reduce las alertas irrelevantes, lo que permite a los equipos de seguridad centrarse en los problemas reales. La IA también detecta pequeños cambios en el comportamiento de los usuarios que podrían indicar que se está produciendo un ataque.
“Tratar a la IA como un ser humano es un cambio de perspectiva que transformará fundamentalmente la forma en que operan los líderes de ciberseguridad. Este cambio anima a los equipos de seguridad a considerar la IA como un aliado colaborador que comparte las deficiencias humanas”, explicó Doug Kersten , CISO de Appfire.
Técnicas de IA para detectar el phishing impulsado por IA
El aprendizaje automático ayuda a reconocer cuándo algo no funciona, como inicios de sesión desde ubicaciones inusuales o accesos a sistemas con los que el usuario no suele interactuar. Estos modelos aprenden qué es normal con el tiempo y detectan cualquier anomalía.
El procesamiento del lenguaje natural (PLN) presta atención a la redacción de los correos electrónicos. Puede detectar indicios de que algo no va bien, como solicitudes inusuales, urgencia forzada o un lenguaje demasiado formal.
El aprendizaje profundo se utiliza para detectar audios , imágenes o vídeos falsos. Detecta elementos como deepfakes o voces clonadas en estafas donde alguien se hace pasar por otra persona.
Desafíos en el despliegue de la defensa de la IA
Todas las nuevas tecnologías tienen defectos, y la IA no es la excepción. Las desventajas que debemos considerar son:
Falsos positivos : No sería la primera vez que una herramienta de IA marca un contenido escrito íntegramente por humanos como generado por IA. Lo mismo puede ocurrir con los correos electrónicos si la IA, por cualquier motivo, los etiqueta como peligrosos. Demasiadas falsas alarmas pueden saturar a los equipos de ciberseguridad y dificultarles centrarse en las amenazas reales.
Preocupaciones sobre la privacidad : Los sistemas de IA que detectan el phishing suelen analizar correos electrónicos, mensajes, archivos adjuntos y el comportamiento del usuario. Esto plantea interrogantes sobre cómo se almacenan, utilizan y protegen los datos.
Ajuste de modelos : Al igual que las aplicaciones móviles, estos modelos deben actualizarse constantemente para estar al día con las nuevas tácticas de phishing. De lo contrario, con el tiempo, su precisión podría disminuir. Esto podría provocar que se pasen por alto nuevas amenazas o que se generen aún más falsos positivos.
Falta de habilidades : Debido al rápido desarrollo de la tecnología de IA, aún no hay muchos expertos que sepan realmente cómo gestionar estos sistemas. Sin la capacitación adecuada, los equipos podrían tener dificultades para ajustar los modelos y monitorear su rendimiento.
Perspectivas de futuro
La IA seguirá avanzando, tanto para los ciberdelincuentes como para los equipos de seguridad. Es difícil predecir quién dominará esta carrera. Pero no deberíamos engañarnos pensando que la IA puede resolver los ciberdelitos por sí sola. Sin supervisión humana, la IA nunca debería tener el control total para tomar decisiones por nosotros.
“La IA es una herramienta poderosa, pero no puede reemplazar a los humanos. Su objetivo es ayudarnos a realizar mejor nuestro trabajo. Los mejores profesionales en ciberseguridad serán aquellos que puedan trabajar eficazmente con la IA, utilizándola para potenciar sus propias habilidades y conocimientos”, afirmó Vineet Chaku , presidente de Reaktr.ai.
Fuente y redacción: helpnetsecurity.com / Sinisa Markovic