Los modelos de IA se están integrando en operaciones de fraude e influencia que siguen tácticas tradicionales. Una actualización de febrero de 2026 del informe «Interrumpiendo los Usos Maliciosos de Nuestros Modelos» de OpenAI detalla cómo ChatGPT y el acceso a APIs relacionadas se utilizaron en estafas románticas , servicios legales falsos, campañas de influencia coordinadas y un esfuerzo de acoso estatal.
El documento describe casos específicos de cuentas bloqueadas por abusar de las herramientas de la empresa. Los casos abarcan delitos con fines financieros y operaciones de información con fines gubernamentales. Los modelos facilitaron la redacción, la traducción, el desarrollo de perfiles y la coordinación interna. Los sistemas de distribución y el alcance de las cuentas influyeron en el impacto.
Estafas de romance y recuperación
Uno de los casos más detallados, la Operación Cebo de Citas, describe una estafa semiautomatizada de romance y tareas dirigida a hombres en Indonesia. Un grupo de cuentas de ChatGPT y un cliente de API generaron texto promocional para un servicio de citas falso y colocaron anuncios pagados en redes sociales que dirigían a los usuarios a Telegram.
Una vez comprometidas, las víctimas eran guiadas a través de «misiones» escalonadas que requerían pagos progresivos . Los mensajes internos revisados por los investigadores indicaban que la red interactuaba con cientos de objetivos a la vez y obtenía ingresos diarios de miles de dólares. El informe señala que estas afirmaciones no pudieron verificarse de forma independiente.
La operación también utilizó los modelos para traducir mensajes entre supervisores de habla china y trabajadores indonesios y para generar informes de estado internos asignando a cada objetivo un valor de pago proyectado.
Una segunda estafa, la Operación Falso Testigo, involucraba a actores que se hacían pasar por bufetes de abogados y autoridades estadounidenses, incluyendo el Centro de Denuncias de Delitos en Internet del FBI. Utilizaban ChatGPT para generar mensajes de estilo legal y falsificar credenciales. Se les indicaba a las víctimas que pagaran por adelantado, incluyendo una comisión por servicio del 15%, antes de recibir los supuestos fondos recuperados.
Alcance del estilo de reclutamiento
La Operación Silver Lining Playbook se centró en contactar con funcionarios estatales y profesionales de la política en EE. UU. Un pequeño grupo de cuentas, probablemente originarias de China, utilizó ChatGPT para redactar invitaciones de consultoría para una empresa con sede en Hong Kong.
Las indicaciones indicaron al modelo que estableciera legitimidad, personalizara los mensajes utilizando información pública de antecedentes y trasladara las conversaciones a videollamadas por WhatsApp, Zoom o Teams. Las mismas cuentas consultaron información pública sobre la ubicación de las oficinas federales y la distribución del personal. No hubo evidencia de que la comunicación generara interacción.
Campañas de influencia coordinadas
La Operación Trolling Stone generó artículos y comentarios en español sobre el arresto en Argentina de un presunto líder de una secta rusa. Páginas de noticias falsas publicaron artículos generados por IA, y redes de cuentas publicaron comentarios coincidentes en diversas plataformas para simular la participación ciudadana.
La mayoría de las páginas de Facebook involucradas tenían solo unos pocos cientos de seguidores y una interacción limitada. Algunos artículos aparecieron en sitios de noticias regionales argentinos. La actividad se evaluó en el extremo inferior de la categoría 4 en la escala de impacto interno de la empresa.
Operación No Bell publicó comentarios geopolíticos sobre el África subsahariana bajo la firma de un académico falso cuyas credenciales no pudieron verificarse. Su alcance en redes sociales fue limitado. Varios artículos se publicaron en sitios web de noticias africanos.
En estos casos, los modelos se utilizaron para redactar artículos y comentarios. La ubicación en la plataforma y las redes existentes determinaron la visibilidad.
Producción de contenidos y actividad vinculada al Estado
La Operación Fish Food, vinculada a la red Rybar, muestra cómo ChatGPT funcionó como motor de producción de contenido. Las cuentas generaron lotes de publicaciones multilingües que posteriormente se distribuyeron en Telegram y X. En un ejemplo citado en el informe, los tuits generados a partir de una sola solicitud fueron publicados por diferentes cuentas. Uno superó las 150.000 visualizaciones, mientras que otro tuvo una atención mínima. La variación se alineó con las diferencias en el alcance de las cuentas.
La misma red utilizó los modelos para ayudar a redactar propuestas para servicios de influencia en África, incluidas actividades relacionadas con las elecciones, con presupuestos anuales proyectados que alcanzan los 600.000 dólares.
El caso más extenso involucró una cuenta vinculada a un individuo relacionado con las fuerzas del orden chinas. El usuario intentó usar ChatGPT para planear una campaña encubierta de influencia dirigida al primer ministro japonés. La modelo se negó. Posteriormente, el mismo usuario presentó informes de estado que describían un programa más amplio que involucraba a cientos de empleados, miles de cuentas falsas y actividad en más de 300 plataformas de redes sociales extranjeras.
El informe concluye que los modelos de IA se están integrando en operaciones establecidas de fraude e influencia. Estos aceleran la producción y coordinación de mensajes. El impacto sigue dependiendo de las redes de distribución y la infraestructura de cuentas.
Fuente y redacción: helpnetsecurity.com