El panorama de la ciberseguridad ha cambiado drásticamente con la llegada de la IA generativa. Los atacantes ahora utilizan grandes modelos de lenguaje (LLM) para suplantar la identidad de personas de confianza y automatizar estas tácticas de ingeniería social a gran escala.

Revisemos el estado de estos ataques en aumento, qué los impulsa y cómo prevenirlos, no detectarlos.

La persona con más poder en la llamada podría no ser real

Informes recientes de inteligencia de amenazas destacan la creciente sofisticación y prevalencia de los ataques impulsados ​​por IA:

  • Aumento del phishing de voz: Según el Informe Global de Amenazas 2025 de CrowdStrike, se registró un aumento del 442 % en los ataques de phishing de voz (vishing) entre el primer y el segundo semestre de 2024, impulsado por tácticas de phishing y suplantación de identidad generadas por IA.
  • Prevalencia de la ingeniería social: El Informe de Investigaciones de Violaciones de Datos de Verizon de 2025 indica que la ingeniería social sigue siendo un patrón predominante en las filtraciones, y el phishing y el uso de pretextos representan una parte significativa de los incidentes.
  • Operaciones de deepfake norcoreanas: Se ha observado que actores de amenazas norcoreanos utilizan tecnología de deepfake para crear identidades sintéticas para entrevistas de trabajo en línea, con el objetivo de conseguir puestos de trabajo remotos e infiltrarse en organizaciones.

En esta nueva era, la confianza no se puede dar por sentado ni simplemente detectar. Debe demostrarse de forma determinista y en tiempo real.

Por qué crece el problema

Tres tendencias convergen para convertir la suplantación de identidad mediante IA en el próximo gran vector de amenaza:

  • La IA abarata y escala el engaño: Con herramientas de voz y video de código abierto, los actores de amenazas pueden suplantar la identidad de cualquier persona con solo unos minutos de material de referencia.
  • La colaboración virtual expone las brechas de confianza: Herramientas como Zoom, Teams y Slack asumen que la persona detrás de una pantalla es quien dice ser. Los atacantes explotan esta suposición.
  • Las defensas generalmente se basan en la probabilidad, no en la prueba: Las herramientas de detección de deepfakes utilizan marcadores faciales y análisis para adivinar si alguien es real. Esto no es suficiente en un entorno de alto riesgo.

Y aunque las herramientas de endpoints o la capacitación de usuarios pueden ayudar, no están diseñadas para responder a una pregunta crucial en tiempo real: ¿Puedo confiar en esta persona con la que estoy hablando?

Las tecnologías de detección de IA no son suficientes

Las defensas tradicionales se centran en la detección, como capacitar a los usuarios para detectar comportamientos sospechosos o usar IA para analizar si alguien es falso. Pero los deepfakes se están volviendo demasiado efectivos, demasiado rápido. No se puede combatir el engaño generado por IA con herramientas basadas en probabilidades.

La prevención real requiere una base diferente, basada en la confianza demostrable, no en suposiciones. Esto significa:

  • Verificación de identidad: Solo los usuarios verificados y autorizados deberían poder unirse a reuniones o chats confidenciales con credenciales criptográficas, no con contraseñas ni códigos.
  • Comprobación de la integridad del dispositivo: Si el dispositivo de un usuario está infectado, liberado o no cumple con las normas, se convierte en un punto de entrada potencial para los atacantes, incluso si su identidad está verificada. Bloquee estos dispositivos de las reuniones hasta que se solucionen.
  • Indicadores de confianza visibles: Los demás participantes necesitan ver pruebas de que cada persona en la reunión es quien dice ser y utiliza un dispositivo seguro. Esto elimina la carga de juicio de los usuarios finales.

Prevenir significa crear condiciones donde la suplantación de identidad no solo sea difícil, sino imposible. Así es como se detienen los ataques deepfake de IA antes de que se involucren en conversaciones de alto riesgo, como reuniones de directorio, transacciones financieras o colaboraciones con proveedores.

Enfoque basado en la detecciónEnfoque de prevención
Marcar anomalías después de que ocurranBloquear el acceso de usuarios no autorizados
Confiar en la heurística y las conjeturasUsar prueba criptográfica de identidad
Requerir el criterio del usuarioProporcionar indicadores de confianza visibles y verificados

Fuente y redacción: segu-info.com.ar

Compartir