Las estadísticas asustan. La entrada en escena de ChatGPT ha permitido simplificar muchos procesos y hacer la vida más sencilla para una gran cantidad de profesionales, pero también ha provocado graves problemas. En términos de seguridad, se acaba de desvelar que el phishing ha aumentado más del 1200% debido a ello. Y da la sensación de que no va a ir a mejor.
Un grupo de más de 300 profesionales de la ciberseguridad han participado en un estudio en el cual se buscaba descubrir cuáles son los efectos que ha tenido una nueva tecnología como la IA en cuanto a las amenazas con las que se enfrentan los usuarios. Los resultados hablan por sí solos y no auguran nada bueno para un sector que cada vez se pone más en manos de la inteligencia artificial.
Las estadísticas no se pueden ignorar.
Eso es justamente lo que dice Patrick Harr, el CEO de la empresa de seguridad SlashNext, que ha sido la que ha llevado a cabo el estudio contando con gran parte de los profesionales más reconocidos del sector. Después de haber sacado sus propias conclusiones sobre la IA y de ver cómo estaba progresando el mercado, querían comprobar hasta qué punto se trataba o no de un problema real.
Los resultados de la investigación confirman los peores temores y la manera en la que los ciberdelincuentes, sobre todo a través de la Dark Web, están recurriendo a la IA generativa para potenciar sus acciones de ataque. Tal y como se recoge en el estudio, desde el lanzamiento de ChatGPT en noviembre de 2022, se ha producido un incremento del 1265% en el caso de ataques de phishing por correo electrónico. Por su lado, el phishing de credenciales ha aumentado en un 967%, mientras que se ha descubierto que el 68% de los correos que se utilizan para ello utilizan ataques BEC con texto. Exactamente, estos ataques BEC son los que están dirigidos a directivos de empresas, lo que demuestra que los cibercriminales están aprovechando las ventajas de la IA generativa para atacar a los negocios y no tanto a los particulares.
Una situación que preocupa.
Aunque los expertos en seguridad que han organizado el estudio insisten en que no quieren alarmar de la situación, es obvio que son unos datos que preocupan. Un aumento superior al 1000% no es precisamente habitual. Que coincida con el momento en el que debutó ChatGPT no resulta, para nada, una sorpresa. Los hackers y delincuentes están utilizando el chat de la IA con la intención de escribir correos electrónicos de phishing que resulten más creíbles y que puedan engañar a las víctimas. También están utilizando este recurso con otros objetivos, como crear mejores recursos que puedan dar soporte al intento de phishing. Es decir, que ya hay casos en los que el intento de phishing no se limita a un texto, sino que se crean archivos adicionales que puedan intentar aumentar la credibilidad del mensaje.
Otra de las preocupaciones se encuentra en que los ciberdelincuentes todavía no han terminado de dominar esta tecnología y, en realidad, aún se encuentran en fase de descubrirla y exprimirla. Ha pasado menos de un año desde su estreno y está dando sus primeros pasos, por lo que se teme que la situación pueda complicarse todavía más en el futuro. Esto es algo preocupante de lo que está quedando registro en la Dark Web, donde son muchos los ciberdelincuentes y estafadores que comentan distintas técnicas para dominar los bots a fin de llevar a cabo sus planes.
Los ataques que se están llevando a cabo con la IA no son casos aleatorios en los que se trata de hacer phishing a personas que no estén habituadas a ello. En realidad, los hackers están intentando atacar a los propios expertos en seguridad de las empresas, puesto que saben que, de conseguirlo, tendrían acceso a las partes más sensibles de los negocios. En el estudio, un 77% de los encuestados dice que han sido objetivo de un ataque de phishing y un 46% comenta que ha recibido en su correo electrónico los ataques BEC antes mencionados. En el caso de los ataques que están recibiendo en el móvil, la nota dominante se encuentra en intentos de smishing a través de SMS, acción que han sufrido un 39% de los encuestados.
Además, también hablan de la importancia de tener cuidado con la actividad que se lleva a cabo en las redes sociales. Mencionan que ya se están comenzando a ver muchos ataques que se producen en perfiles falsos en el entorno del social media desde el cual los hackers crean cuentas para intentar estafar y robar a sus víctimas. Ahora que una IA puede tener un perfil social e incluso responder mensajes privados, es obvio que hay que tener mucho cuidado con ciertas acciones. Pero, tal y como dicen en el estudio, tampoco hay que olvidar que, aunque ChatGPT y otras IA están abriendo una nueva vía de ataque, también pueden ser las herramientas que sirvan para defenderse. En los próximos años seremos testigos de cambios importantes en términos de seguridad.
Fuente y redacción: underc0de.org