Casi tres de cada cuatro profesionales europeos de TI y ciberseguridad afirman que el personal ya está utilizando IA generativa en el trabajo, un aumento de diez puntos en un año, pero poco menos de un tercio de las organizaciones han implementado políticas formales, según una nueva investigación de ISACA.

Las políticas funcionan de doble manera para mejorar la actividad y proteger a las empresas

La IA ya está teniendo un impacto positivo; por ejemplo, el 56 % de los encuestados afirma haber impulsado la productividad organizacional, y el 71 % reporta mejoras en la eficiencia y ahorro de tiempo. De cara al futuro, el 62 % se muestra optimista respecto a que la IA impactará positivamente en su organización el próximo año.

Sin embargo, esa misma velocidad y escala convierten a la tecnología en un imán para los ciberdelincuentes. El 63 % está extremadamente o muy preocupado de que la IA generativa pueda volverse en su contra, mientras que el 71 % prevé que los deepfakes se agudicen y se generalicen el próximo año. A pesar de ello, solo el 18 % de las organizaciones invierte en herramientas de detección de deepfakes, lo que supone una importante brecha de seguridad. Esta desconexión deja a las empresas expuestas en un momento en que las amenazas impulsadas por la IA evolucionan rápidamente.

La IA es muy prometedora, pero sin políticas claras ni capacitación para mitigar los riesgos, se convierte en una posible desventaja. Se necesitan directrices específicas para cada puesto de trabajo para ayudar a las empresas a aprovechar de forma segura el potencial de la IA.

“Con la Ley de IA de la UE estableciendo nuevos estándares para la gestión de riesgos y la transparencia, las organizaciones necesitan pasar rápidamente de la concienciación a la acción”, afirma Chris Dimitriadis , director de Estrategia Global de ISACA. “Las amenazas de la IA, desde la desinformación hasta los deepfakes, avanzan rápidamente; sin embargo, la mayoría de las organizaciones no han invertido en las herramientas ni la formación necesarias para contrarrestarlas. Cerrar esta brecha entre el riesgo y la acción no se limita al cumplimiento normativo, sino que es fundamental para salvaguardar la innovación y mantener la confianza en la economía digital”.

La educación es la forma de sacar lo mejor de la IA

Pero las políticas sólo son tan eficaces como las personas que las entienden y pueden ponerlas en práctica con confianza.

A medida que la IA continúa evolucionando, es necesario mejorar las habilidades y obtener nuevas calificaciones. El 42% de los encuestados cree que necesitará aumentar sus habilidades y conocimientos en IA en los próximos seis meses para conservar su trabajo o avanzar en su carrera, un aumento del 8% respecto del año pasado. El 89% de los profesionales de confianza digital reconocen que esto será necesario en los próximos dos años.

El 32 % de las organizaciones no ofrece actualmente formación en IA a sus empleados. Cuando se imparte, suele ser solo para el personal de TI (35 %) y rara vez para todos los empleados (22 %). Consideremos esto en el contexto de que el 81 % cree que los empleados de su organización utilizan actualmente IA, independientemente de si su organización lo permite o no.

Fuente y redacción: helpnetsecurity.com

Compartir