Un nuevo informe de Anthropic muestra cómo los delincuentes utilizan la IA para gestionar activamente partes de sus operaciones. Los hallazgos sugieren que la IA está integrada en todo el ciclo de ataque, desde el reconocimiento y el desarrollo de malware hasta el fraude y la extorsión.
El informe se basa en casos reales de uso indebido de los modelos de Anthropic. Ofrece una perspectiva inusual sobre cómo los atacantes adaptan e integran la IA en cada etapa de sus operaciones. Si bien se centra en el propio modelo de Anthropic, los casos reflejan un cambio más amplio que se aplica a los sistemas de IA avanzados .
La IA como operador activo
Uno de los hallazgos más sorprendentes es la forma en que los delincuentes utilizan los sistemas de IA como operadores dentro de sus campañas. En un caso que Anthropic denomina «hackeo de vibraciones», un solo atacante utilizó un agente de codificación de IA para ejecutar una campaña de extorsión de datos a gran escala contra al menos 17 organizaciones en tan solo un mes. Los objetivos incluían hospitales, agencias gubernamentales y servicios de emergencia.
En lugar de usar la IA únicamente para obtener asesoramiento, el atacante le dio instrucciones operativas y luego se basó en el modelo para tomar decisiones tácticas y estratégicas. La IA escaneó redes, obtuvo credenciales, creó malware para evitar ser detectado e incluso analizó los datos robados para determinar el monto del rescate exigido. El modelo también generó notas de rescate personalizadas que reflejaban el sector, el tamaño y la exposición regulatoria de la víctima.
Esto demuestra que la IA puede acortar la distancia entre el conocimiento y la ejecución. Lo que antes requería un grupo de operadores expertos ahora puede ser realizado por una sola persona que dirija un modelo. También plantea interrogantes para los defensores sobre cómo medir la sofisticación del atacante cuando la IA puede proporcionar experiencia al instante.
IA a lo largo de todo el ciclo de vida del ataque
Los delincuentes están integrando IA en cada etapa de su trabajo. Anthropic documentó que atacantes utilizan IA para reconocimiento, escalada de privilegios, ofuscación de malware, robo de datos y negociación de rescates.
Se observó a un grupo chino aprovechando la IA en casi todas las tácticas de MITRE ATT&CK durante una campaña de meses contra infraestructura crítica vietnamita. El modelo actuó como desarrollador de código, analista de seguridad y consultor operativo durante todo el proceso. Esto permitió a los atacantes generar rápidamente nuevos exploits, automatizar el escaneo y el análisis de datos, y planificar estrategias de movimiento lateral.
El uso de la IA en tantas fases crea dos problemas para los defensores. En primer lugar, los ataques pueden avanzar mucho más rápido, ya que la IA elimina los cuellos de botella manuales. En segundo lugar, las operaciones impulsadas por IA se adaptan rápidamente a las medidas defensivas. Las suposiciones tradicionales de que los ataques complejos requieren habilidades avanzadas de los operadores se están desmoronando. Un solo actor con habilidades promedio ahora puede orquestar campañas que parecen obra de un equipo bien financiado.
Fraude impulsado por IA a gran escala
Más allá de las intrusiones técnicas, el informe destaca cómo la IA está transformando el fraude . Los delincuentes utilizan modelos para analizar datos robados, crear perfiles de víctimas y ejecutar servicios fraudulentos. Anthropic encontró casos en los que la IA impulsó plataformas de carding, estafas románticas y operaciones de identidad sintética.
Por ejemplo, un actor utilizó IA para procesar cantidades masivas de datos de registro robados, convirtiéndolos en perfiles de comportamiento de las víctimas. Otro mantenía una tienda de tarjetas de crédito que utilizaba IA para validar tarjetas de crédito robadas a gran escala, con funciones de resiliencia integradas que suelen encontrarse en software empresarial. Otro caso describió un bot de Telegram que utilizaba múltiples modelos para crear mensajes emocionalmente convincentes para estafas románticas, permitiendo que hablantes no nativos parecieran fluidos y persuasivos.
En conjunto, estos casos demuestran que la IA está reduciendo la barrera técnica de entrada al cibercrimen y creando ecosistemas de fraude más escalables, adaptables y rentables. Estas herramientas permiten a los delincuentes ofrecer servicios que parecen profesionales y confiables a otros actores, ocultando al mismo tiempo que sus conocimientos técnicos pueden ser limitados.
Fuente y redacción: helpnetsecurity.com