OpenAI dijo el miércoles que ha interrumpido más de 20 operaciones y redes engañosas en todo el mundo que intentaron utilizar su plataforma con fines maliciosos desde principios de año.

Esta actividad incluyó la depuración de malware, la redacción de artículos para sitios web, la generación de biografías para cuentas de redes sociales y la creación de imágenes de perfil generadas por IA para cuentas falsas en X.

«Los actores de amenazas continúan evolucionando y experimentando con nuestros modelos, pero no hemos visto evidencia de que esto conduzca a avances significativos en su capacidad para crear malware sustancialmente nuevo o construir audiencias virales», dijo la compañía de inteligencia artificial (IA) .

También dijo que interrumpió la actividad que generó contenido en las redes sociales relacionado con las elecciones en Estados Unidos, Ruanda y, en menor medida, India y la Unión Europea, y que ninguna de estas redes atrajo una participación viral o audiencias sostenidas.

Esto incluyó los esfuerzos realizados por una empresa comercial israelí llamada STOIC (también llamada Zero Zeno) que generó comentarios en las redes sociales sobre las elecciones indias, como ya lo revelaron Meta y OpenAI a principios de mayo.

Algunas de las operaciones cibernéticas destacadas por OpenAI son las siguientes:

  • SweetSpecter , un supuesto adversario con sede en China que aprovechó los servicios de OpenAI para realizar tareas de reconocimiento basadas en LLM, investigación de vulnerabilidades, soporte de scripts, evasión de detección de anomalías y desarrollo. También se ha observado que realiza intentos fallidos de phishing dirigido contra empleados de OpenAI para entregar el RAT SugarGh0st.
  • Cyber ​​Av3ngers , un grupo afiliado al Cuerpo de la Guardia Revolucionaria Islámica de Irán (CGRI), utilizó sus modelos para realizar investigaciones sobre controladores lógicos programables.
  • Storm-0817, un actor de amenazas iraní, utilizó sus modelos para depurar malware de Android capaz de recopilar información confidencial, herramientas para extraer perfiles de Instagram a través de Selenium y traducir perfiles de LinkedIn al persa.

Por otra parte, la compañía dijo que tomó medidas para bloquear varios grupos, incluida una operación de influencia con nombre en código A2Z y Stop News, de cuentas que generaban contenido en inglés y francés para su posterior publicación en varios sitios web y cuentas de redes sociales en varias plataformas.

«Stop News fue inusualmente prolífico en el uso de imágenes», dijeron los investigadores Ben Nimmo y Michael Flossman. «Muchos de sus artículos web y tuits estaban acompañados de imágenes generadas mediante DALL·E. Estas imágenes a menudo tenían un estilo de dibujos animados y utilizaban paletas de colores brillantes o tonos dramáticos para atraer la atención».

Se ha descubierto que otras dos redes identificadas por OpenAI Bet Bot y Corrupt Comment utilizan su API para generar conversaciones con usuarios en X y enviarles enlaces a sitios de apuestas, además de fabricar comentarios que luego se publican en X, respectivamente.

La revelación se produce casi dos meses después de que OpenAI prohibiera un conjunto de cuentas vinculadas a una operación de influencia encubierta iraní llamada Storm-2035 que aprovechaba ChatGPT para generar contenido que, entre otras cosas, se centraba en las próximas elecciones presidenciales de Estados Unidos.

«Los actores de amenazas utilizaron con mayor frecuencia nuestros modelos para realizar tareas en una fase de actividad intermedia específica, después de haber adquirido herramientas básicas como acceso a Internet, direcciones de correo electrónico y cuentas de redes sociales, pero antes de implementar productos ‘terminados’ como publicaciones en redes sociales o malware en Internet mediante una variedad de canales de distribución», escribieron Nimmo y Flossman.

La empresa de ciberseguridad Sophos, en un informe publicado la semana pasada, dijo que la IA generativa podría ser abusada para difundir información errónea personalizada mediante correos electrónicos microsegmentados.

Esto implica abusar de modelos de IA para inventar sitios web de campañas políticas, personajes generados por IA en todo el espectro político y mensajes de correo electrónico dirigidos específicamente a ellos en función de los puntos de la campaña, lo que permite un nuevo nivel de automatización que hace posible difundir información errónea a escala.

«Esto significa que un usuario podría generar cualquier cosa, desde material de campaña benigno hasta desinformación intencional y amenazas maliciosas con una reconfiguración menor», dijeron los investigadores Ben Gelman y Adarsh ​​Kyadige .

«Es posible asociar cualquier movimiento político real o candidato con el apoyo a alguna política, incluso si no se está de acuerdo con ella. La desinformación intencional como esta puede hacer que la gente se alinee con un candidato que no apoya o que esté en desacuerdo con uno que creía que le gustaba».

Fuente y redacción: thehackernews.com

Compartir