ChatGPT complica la seguridad de TI moderna con la capacidad de crear malware mutante que es difícil de detectar con la detección y respuesta de punto final (EDR).
ChatGPT ha logrado crear cosas divertidas e hilarantes en las manos adecuadas, como este proyecto de Big Mouth Billy Bass. Sin embargo, hay un lado mucho más oscuro de la IA que podría usarse para crear algunos problemas muy complicados para el futuro de la TI. Algunos expertos en TI han descrito recientemente el potencial peligroso de ChatGPT y su capacidad para crear malware polimórfico que es casi imposible de detectar mediante la detección y respuesta de punto final (EDR).
EDR es un tipo de técnica de ciberseguridad que se puede implementar para capturar software malicioso. Sin embargo, los expertos sugieren que este protocolo tradicional no es rival para el daño potencial que puede causar ChatGPT. El código que puede mutar (aquí es donde entra en juego el término polimórfico) puede ser mucho más difícil de detectar.
La mayoría de los modelos de aprendizaje de idiomas (LLM) como ChatGPT están diseñados con filtros para evitar generar contenido inapropiado según lo consideren sus creadores. Esto puede variar desde temas específicos hasta, en este caso, código malicioso. Sin embargo, los usuarios no tardaron mucho en encontrar formas de eludir estos filtros. Es esta táctica la que hace que ChatGPT sea particularmente vulnerable a las personas que buscan crear scripts dañinos.
Jeff Sims es ingeniero de seguridad en HYAS InfoSec, una empresa que se centra en la seguridad de TI. En marzo, Sims publicó un libro blanco que detalla un proyecto de prueba de concepto que llama BlackMamba. Esta aplicación es un tipo de keylogger polimórfico que envía solicitudes a ChatGPT usando una API cada vez que se ejecuta.
«Usando estas nuevas técnicas, un actor de amenazas puede combinar una serie de comportamientos en una combinación inusual y evadir la detección al explotar la incapacidad del modelo para reconocerlo como un patrón malicioso«, explica Sims.
Otra empresa de ciberseguridad, CyberArk, demostró recientemente la capacidad de ChatGPT para crear este tipo de malware polimórfico en una publicación de blog de Eran Shimony y Omer Tsarfati. En la publicación, explican cómo la inyección de código de las solicitudes de ChatGPT permite modificar los scripts una vez activados, evitando las técnicas más modernas utilizadas para detectar comportamientos maliciosos.
Por el momento, solo tenemos estos ejemplos como prueba de concepto, pero esperamos que esta conciencia conduzca a más desarrollos para evitar el daño que este tipo de código mutante podría causar en un entorno del mundo real.
Fuente y redacción: underc0de.org