El informe revela un crecimiento interanual superior al 3000 % en el uso empresarial de herramientas de IA/ML, destacando la rápida adopción de tecnologías de IA en todos los sectores para alcanzar nuevos niveles de productividad, eficiencia e innovación. Los resultados se basan en el análisis de un total de 536 500 millones de transacciones de IA y ML en la nube de Zscaler entre febrero y diciembre de 2024.
Las empresas están enviando volúmenes significativos de datos a herramientas de IA, que totalizan 3624 TB, lo que pone de relieve el grado de integración de estas tecnologías en sus operaciones. Sin embargo, este aumento en la adopción también genera mayores preocupaciones de seguridad. Las empresas bloquearon el 59,9 % de todas las transacciones de IA/ML, lo que demuestra su concienciación sobre los posibles riesgos asociados a estas herramientas, como la fuga de datos, el acceso no autorizado y las infracciones de cumplimiento.
Los actores de amenazas también están aprovechando cada vez más la IA para amplificar la sofisticación, la velocidad y el impacto de los ataques, lo que obliga a las empresas a repensar sus estrategias de seguridad.
“A medida que la IA transforma las industrias, también crea nuevos e imprevistos desafíos de seguridad. Los datos son el oro para la innovación en IA, pero deben gestionarse de forma segura”, afirmó Deepen Desai , director de seguridad de Zscaler.
ChatGPT domina las transacciones de IA/ML
ChatGPT se convirtió en la aplicación de IA/ML más utilizada, impulsando el 45,2 % de las transacciones globales de IA/ML identificadas. Sin embargo, también fue la herramienta más bloqueada debido a la creciente preocupación de las empresas por la exposición de datos confidenciales y el uso no autorizado. Otras aplicaciones más bloqueadas incluyen Grammarly, Microsoft Copilot, QuillBot y Wordtune, que muestran amplios patrones de uso para la creación de contenido optimizado con IA y mejoras de productividad.
Las empresas se encuentran en una situación cada vez más delicada entre la innovación en IA y la seguridad. A medida que la adopción de la IA sigue creciendo, las organizaciones tendrán que controlar mejor los riesgos, a la vez que aprovechan el potencial de la IA/ML para mantenerse competitivas.
La IA está amplificando los riesgos cibernéticos, con el uso de IA de agencia y DeepSeek, el sistema chino de código abierto que permite a los actores de amenazas escalar sus ataques. En lo que va de 2025, hemos visto a DeepSeek desafiar a gigantes estadounidenses como OpenAI, Anthropic y Meta, revolucionando el desarrollo de la IA con un alto rendimiento, acceso abierto y bajos costos. Sin embargo, estos avances también presentan importantes riesgos de seguridad.
Históricamente, el desarrollo de modelos de IA de vanguardia se limitaba a un pequeño grupo de «desarrolladores» de élite: empresas como OpenAI y Meta, que invirtieron miles de millones de dólares en el entrenamiento de modelos fundamentales masivos. Estos modelos base fueron posteriormente aprovechados por «mejoradores» que desarrollaron aplicaciones y agentes de IA sobre ellos, antes de llegar a un público más amplio de «adoptantes» o usuarios finales.
DeepSeek ha revolucionado esta estructura al reducir drásticamente el coste de entrenamiento e implementación de LLM básicos, lo que permite la entrada de un número mucho mayor de participantes en el mundo de la IA. Mientras tanto, con el lanzamiento del modelo Grok 3 de xAI, la compañía ha anunciado que Grok 2 pasará a ser de código abierto, lo que significa que, junto con modelos como el Small 3 de Mistral, los usuarios tendrán aún más opciones en cuanto a IA de código abierto .
Las industrias están intensificando sus esfuerzos para proteger las transacciones de IA/ML
Estados Unidos e India generaron los mayores volúmenes de transacciones de IA/ML, lo que representa la transición global hacia la innovación impulsada por la IA. Sin embargo, estos cambios no se producen de forma aislada, y las organizaciones en estas y otras regiones geográficas se enfrentan a desafíos cada vez mayores, como estrictos requisitos de cumplimiento, altos costos de implementación y escasez de talento cualificado.
El sector financiero y de seguros representó el 28,4 % de toda la actividad empresarial de IA/ML, lo que refleja su amplia adopción e indica las funciones críticas que respalda la industria, como la detección de fraudes, el modelado de riesgos y la automatización del servicio al cliente. La manufactura ocupó el segundo lugar, con el 21,6 % de las transacciones, probablemente impulsada por innovaciones en la optimización de la cadena de suministro y la automatización robótica.
Otros sectores, incluidos los servicios (18,5%), la tecnología (10,1%) y la atención sanitaria (9,6%), también están aumentando su dependencia de la IA, mientras que cada industria también enfrenta desafíos regulatorios y de seguridad únicos que plantean nuevos riesgos y posiblemente afecten la tasa general de adopción.
Las industrias también están intensificando sus esfuerzos para proteger las transacciones de IA/ML, pero el volumen de actividad bloqueada varía. El sector financiero y de seguros bloquea el 39,5 % de las transacciones de IA. Esta tendencia se alinea con el estricto marco de cumplimiento normativo de la industria y la necesidad de proteger los datos financieros y personales.
La manufactura bloquea el 19,2 % de las transacciones de IA, lo que sugiere un enfoque estratégico donde la IA se usa ampliamente, pero se supervisa de cerca para detectar riesgos de seguridad. Por otro lado, el sector servicios adopta un enfoque más equilibrado, bloqueando el 15 % de las transacciones de IA. Por otro lado, el sector sanitario bloquea solo el 10,8 % de las transacciones de IA. A pesar de gestionar grandes cantidades de datos de salud e información personal identificable (PII), las organizaciones sanitarias aún están rezagadas en la seguridad de las herramientas de IA, mientras que los equipos de seguridad se están poniendo al día con la rápida innovación.
Los deepfakes se convertirán en un vector de fraude masivo en todas las industrias
A medida que las empresas integran la IA en sus flujos de trabajo, también deben afrontar los riesgos de la IA en la sombra : el uso no autorizado de herramientas de IA que puede provocar
fugas de datos y puntos ciegos de seguridad. Sin los controles adecuados, la información empresarial confidencial podría quedar expuesta, ser retenida por modelos de IA de terceros o incluso utilizarse para entrenar sistemas externos.
GenAI llevará los ataques de ingeniería social a nuevas cotas a partir de 2025, especialmente en el phishing de voz y vídeo. Con el auge de las herramientas basadas en GenAI, los grupos de intermediarios de acceso inicial utilizarán cada vez más voces y vídeos generados por IA en combinación con los canales tradicionales. A medida que los ciberdelincuentes adopten idiomas, acentos y dialectos localizados para aumentar su credibilidad y sus tasas de éxito, será más difícil para las víctimas identificar las comunicaciones fraudulentas.
A medida que las empresas y los usuarios finales adoptan rápidamente la IA, los actores de amenazas capitalizarán cada vez más la confianza y el interés en la IA a través de servicios y herramientas falsos diseñados para facilitar malware, robar credenciales y explotar datos confidenciales.
La tecnología deepfake impulsará una nueva ola de fraude , que se extenderá más allá de los videos manipulados de figuras públicas y abarcará estafas más sofisticadas. Los estafadores ya utilizan contenido generado por IA para crear documentos de identidad falsos, falsificar imágenes de accidentes para reclamaciones de seguros fraudulentas e incluso producir radiografías falsificadas para explotar los sistemas de salud.
A medida que las herramientas de deepfake se vuelven más avanzadas y accesibles (y sus resultados más convincentes), el fraude será más difícil de detectar, lo que socava la verificación de identidad y la confianza en las comunicaciones.
Un enfoque estratégico y gradual es esencial para la adopción segura de aplicaciones de IA. El punto de partida más seguro es bloquear todas las aplicaciones de IA para mitigar posibles
fugas de datos. Posteriormente, se deben integrar progresivamente herramientas de IA verificadas con estrictos controles de acceso y medidas de seguridad para mantener una supervisión completa de los datos empresariales.
Fuente y redacción: helpnetsecurity.com