La ingeniería social avanza rápidamente, a la velocidad de la IA generativa, lo que ofrece a los cibercriminales múltiples herramientas y técnicas nuevas para investigar, analizar y explotar a las organizaciones. En un comunicado reciente, el FBI señaló: «A medida que la tecnología continúa evolucionando, también lo hacen las tácticas de los cibercriminales».

En este artículo se analizan algunos de los impactos de esta aceleración impulsada por GenAI y se examina lo que significa para los líderes de TI responsables de gestionar las defensas y mitigar las vulnerabilidades.

Más realismo, mejores pretextos y escenarios de ataque multilingües

Los métodos tradicionales de ingeniería social suelen implicar hacerse pasar por alguien que el objetivo conoce. El atacante puede esconderse detrás de un correo electrónico para comunicarse, añadiendo algunos detonantes psicológicos para aumentar las posibilidades de éxito de una vulneración. Tal vez una solicitud para actuar con urgencia, de modo que sea menos probable que el objetivo se detenga y tenga dudas. O hacer que el correo electrónico provenga del director ejecutivo de un empleado, con la esperanza de que el respeto del empleado por la autoridad signifique que no cuestionará el mensaje.

Si se utiliza la voz, el atacante puede hacerse pasar por alguien con quien el objetivo no ha hablado (y que reconocería la voz), tal vez pretendiendo ser de otro departamento o un socio externo.

Por supuesto, estos métodos suelen fracasar cuando el objetivo quiere verificar su identidad de alguna manera, ya sea para comprobar su apariencia o cómo escribe en un chat en tiempo real.

Sin embargo, ahora que GenAI ha entrado en la conversación, las cosas han cambiado.

El aumento de los vídeos deepfake significa que los adversarios ya no necesitan esconderse detrás de teclados. Estos combinan grabaciones auténticas para analizar y recrear los gestos y el habla de una persona. Luego, simplemente es cuestión de ordenar al deepfake que diga algo o usarlo como una máscara digital que reproduce lo que el atacante dice y hace frente a la cámara.

El aumento del trabajo digital, con trabajadores remotos acostumbrados a reuniones virtuales, significa que es más fácil explicar posibles señales de advertencia. ¿Movimientos poco naturales o un sonido de voz ligeramente diferente? Échale la culpa a una mala conexión. Al hablar cara a cara, esto agrega una capa de autenticidad que respalda nuestro instinto natural de pensar que «ver para creer».

La tecnología de clonación de voz significa que los atacantes también pueden hablar con cualquier voz y realizar ataques de phishing de voz, también conocidos como vishing. La creciente capacidad de esta tecnología se refleja en la recomendación de Open AI para que los bancos comiencen a «eliminar gradualmente la autenticación basada en voz como medida de seguridad para acceder a cuentas bancarias y otra información confidencial».

La comunicación basada en texto también se transforma con GenAI. El auge de los LLM permite a los actores maliciosos operar a un nivel cercano al de un hablante nativo, con resultados que pueden entrenarse en dialectos regionales para lograr una mayor fluidez. Esto abre la puerta a nuevos mercados para los ataques de ingeniería social, ya que el idioma ya no es un impedimento a la hora de seleccionar objetivos.

Poniendo orden en OSINT no estructurado con GenAI

Si alguien ha estado en línea alguna vez, habrá dejado una huella digital en algún lugar. Dependiendo de lo que comparta, a veces esto puede ser suficiente para revelar suficiente información para hacerse pasar por él o comprometer su identidad. Puede compartir su cumpleaños en Facebook, publicar su lugar de trabajo en LinkedIn y poner fotos de su hogar, su familia y su vida en Instagram.

Estas acciones ofrecen formas de crear perfiles para utilizarlos en ataques de ingeniería social contra las personas y organizaciones a las que están conectados. En el pasado, recopilar toda esta información hubiera sido un proceso largo y manual: se buscaba en cada canal de redes sociales e intentaba unir los puntos entre las publicaciones de las personas y la información pública.

Ahora, la IA puede hacer todo esto a gran velocidad, rastreando Internet en busca de datos no estructurados, para recuperar, organizar y clasificar todas las coincidencias posibles. Esto incluye los sistemas de reconocimiento facial, donde es posible subir una foto de alguien y dejar que el motor de búsqueda encuentre todos los lugares en los que aparece en línea.

Además, como la información está disponible públicamente, es posible acceder a ella y agregarla de forma anónima. Incluso cuando se utilizan herramientas GenAI pagas, las cuentas robadas se venden en la red oscura, lo que ofrece a los atacantes otra forma de ocultar su actividad, uso y consultas.

Convertir grandes cantidades de datos en tesoros

Las filtraciones de datos a gran escala son un hecho de la vida digital moderna: en 2021, más de 533 millones de usuarios de Facebook vieron sus datos comprometidos (incluidos cumpleaños, números de teléfono y ubicaciones) y en 2024, más de 3 mil millones de usuarios de Yahoo vieron expuesta su información confidencial. Por supuesto, examinar manualmente estos volúmenes de datos no es práctico ni posible.

En cambio, ahora las personas pueden aprovechar las herramientas GenAI para clasificar de forma autónoma grandes volúmenes de contenido y encontrar cualquier dato que pueda usarse con fines maliciosos, como extorsión, uso de conversaciones privadas como arma o robo de propiedad intelectual oculta en documentos.

La IA también mapea a los creadores de los documentos (usando una forma de reconocimiento de entidad nombrada) para establecer cualquier conexión incriminatoria entre diferentes partes, incluidas transferencias bancarias y discusiones confidenciales.

Fuente y redacción: thehackernews.com

Compartir