IA en ciberseguridad

A medida que las organizaciones adoptan cada vez más la IA, se enfrentan a desafíos únicos a la hora de actualizar los modelos de IA para seguir el ritmo de las amenazas en evolución y, al mismo tiempo, garantizar una integración perfecta en los marcos de ciberseguridad existentes.

En esta entrevista de Help Net Security, Pukar Hamal, director ejecutivo de SecurityPal , analiza la integración de herramientas de inteligencia artificial en la ciberseguridad.

¿Cuáles son los principales desafíos de las organizaciones a la hora de integrar la IA en sus infraestructuras de ciberseguridad?

Las empresas son como organismos: cambian constantemente cada segundo. Dada la naturaleza dinámica de las empresas, mantener los modelos de IA actualizados con la información más reciente se convierte en un desafío único. Las empresas deben tener un conocimiento sólido de sí mismas y también mantenerse al día en la carrera contra las amenazas emergentes.

Además, se requiere mucha reflexión y preparación para garantizar que los sistemas de IA se integren perfectamente en el marco de ciberseguridad sin interrumpir las operaciones en curso. Las organizaciones están dirigidas por personas y, por muy buena que sea la tecnología o el marco, persiste el cuello de botella a la hora de alinear a las personas con estos objetivos compartidos.

La complejidad de esta abrumadora tarea se ve agravada por la necesidad de superar problemas de compatibilidad con sistemas heredados, abordar la escalabilidad para hacer frente a grandes volúmenes de datos e invertir fuertemente en tecnología de punta y personal calificado.

¿Cómo equilibramos la accesibilidad de potentes herramientas de IA con los riesgos de seguridad que potencialmente plantean, especialmente en lo que respecta a su uso indebido?

Es una compensación entre velocidad y seguridad. Si los sistemas son más accesibles, las organizaciones pueden avanzar más rápido. Sin embargo, el margen de riesgo y ataque también se amplía.

Es un acto de equilibrio constante que requiere que las organizaciones de seguridad y GRC comiencen con marcos de gobernanza sólidos que establezcan reglas claras de participación y controles de acceso estrictos para evitar el uso no autorizado. Emplear un enfoque de seguridad por capas, que incluya cifrado, monitoreo de comportamiento y alertas automáticas para actividades inusuales, ayuda a fortalecer las defensas. Además, mejorar la transparencia en las operaciones de IA a través de técnicas de IA explicables permite una mejor comprensión y control de las decisiones de IA, lo cual es crucial para prevenir el uso indebido y generar confianza.

En cualquier organización lo suficientemente grande o compleja, hay que aceptar que en algún momento habrá un uso indebido. Lo que importa es qué tan rápido reacciona, qué tan completas son sus estrategias de remediación y cómo comparte ese conocimiento con el resto de la organización para garantizar que no se repita el mismo patrón de uso indebido.

¿Puedes comentar algunos ejemplos de amenazas avanzadas impulsadas por IA y las soluciones innovadoras que las contrarrestan?

Ninguna tecnología, incluida la IA, es intrínsecamente buena o mala. Se trata de cómo los usamos. Y sí, si bien la IA es muy poderosa para ayudarnos a acelerar las tareas cotidianas, los malos pueden usarla para hacer lo mismo.

Veremos correos electrónicos de phishing que serán más convincentes y peligrosos que nunca gracias a la capacidad de la IA para imitar a los humanos. Si combinas eso con modelos de IA multimodales que pueden crear audio y vídeo deepfake , no es imposible que necesitemos una verificación en dos pasos para cada interacción virtual con otra persona.

No se trata de dónde se encuentra hoy la tecnología de IA, sino de qué tan sofisticada se vuelve en unos años si seguimos en la misma trayectoria.

Luchar contra estas amenazas sofisticadas requiere análisis de comportamiento igualmente avanzados impulsados ​​por IA para detectar anomalías en la comunicación y herramientas de verificación de contenido digital mejoradas por IA para detectar deepfakes. Las plataformas de inteligencia de amenazas que utilizan IA para examinar y analizar grandes cantidades de datos para predecir y neutralizar las amenazas antes de que ataquen son otra defensa sólida.

Sin embargo, las herramientas tienen una utilidad limitada. Creo que veremos un aumento de las interacciones en persona y cara a cara para flujos de trabajo y datos altamente confidenciales. La respuesta será que los individuos y las organizaciones querrán tener más control sobre cada interacción para poder verificarse a sí mismos.

¿Qué papel juegan la formación y la sensibilización a la hora de maximizar la eficacia de las herramientas de IA en ciberseguridad?

La capacitación y la concientización son fundamentales, ya que permiten a los equipos gestionar y utilizar de forma eficaz las herramientas de IA. Transforman equipos de buenos a excelentes. Las sesiones de capacitación actualizadas periódicamente brindan a los equipos de ciberseguridad conocimientos sobre las últimas herramientas y amenazas de inteligencia artificial, lo que les permite aprovechar estas herramientas de manera más efectiva. Ampliar los programas de concientización en toda la organización puede educar a todos los empleados sobre posibles amenazas a la seguridad y prácticas adecuadas de protección de datos, reforzando significativamente los mecanismos de defensa generales de la organización.

Con la rápida adopción de la IA en la ciberseguridad, ¿qué preocupaciones éticas deben tener en cuenta los profesionales y cómo pueden mitigarse?

La navegación ética en el panorama de la IA en rápida evolución es fundamental. Las principales preocupaciones incluyen garantizar la privacidad, ya que los sistemas de inteligencia artificial con frecuencia procesan una gran cantidad de datos personales. El estricto cumplimiento de normativas como el RGPD es fundamental para mantener la confianza. Además, el riesgo de sesgo en la toma de decisiones de la IA no es trivial y requiere un compromiso con la diversidad en los conjuntos de datos de capacitación y auditorías continuas para lograr equidad.

La transparencia sobre el papel de la IA y las limitaciones en los sistemas de seguridad también ayuda a mantener la confianza pública, garantizando que las partes interesadas se sientan cómodas e informadas sobre cómo se utiliza la IA para proteger sus datos. Esta vigilancia ética es esencial no sólo para el cumplimiento sino también para fomentar una cultura de confianza e integridad dentro y fuera de la organización.

Fuente y redacción: Mirko Zorz / helpnetsecurity.com

Compartir