El phishing, los deepfakes y la clonación de voz se encuentran entre las técnicas impulsadas por IA más comunes utilizadas por los ciberdelincuentes.
Phishing : La investigación de Ivanti muestra que los atacantes utilizan GenAI para crear contenido creíble a gran escala y a bajo coste, lo que aumenta la eficacia de los ataques de phishing. Creen que este vector de amenaza se volverá aún más poderoso a medida que los ciberdelincuentes personalicen aún más sus mensajes de phishing basándose en datos de dominio público.
Deepfakes : Los investigadores predicen que los ciberdelincuentes usarán cada vez más deepfakes de video y audio en futuros ciberataques. Los deepfakes ya no se limitan a figuras públicas y celebridades, y los equipos directivos corporativos se han convertido en objetivos prioritarios.
Clonación de voz : El creciente uso de herramientas de IA ha facilitado la manipulación de las voces de amigos, familiares y otras personas de confianza. Según una encuesta de McAfee , los estafadores utilizan tecnología de IA para clonar voces, enviar mensajes de voz fraudulentos o realizar llamadas a los contactos de las víctimas mientras fingen estar en apuros.
Cómo reconocer las estafas generadas por IA
Reconocer las estafas generadas por IA se ha convertido en una tarea muy difícil, pero hay algunos indicadores clave que pueden ayudarle a detectarlas.
Lenguaje . Los mensajes generados por IA a menudo carecen de un tono personal genuino. Tenga cuidado con:
- Lenguaje demasiado formal o robótico.
- Falta de detalles personales que alguien que conoces normalmente incluiría.
- Inconsistencias en cómo alguien normalmente se comunica contigo.
Indicadores visuales y auditivos . Las imágenes y los vídeos generados por IA pueden parecer convincentes, pero suelen presentar defectos sutiles:
- Movimientos oculares antinaturales, piel demasiado lisa o rasgos faciales desalineados.
- Inconsistencias en la iluminación o fondos que no parecen correctos.
- La IA tiene dificultades con los gestos de las manos, así que preste mucha atención a cómo se mueven las manos en los videos o cómo aparecen en las fotos.
Clonación de voz y llamadas sospechosas . La tecnología de clonación de voz basada en IA puede imitar voces con precisión. Si recibes un mensaje de voz o una llamada que parece extraño, estas son algunas posibles señales a las que debes prestar atención:
- Ritmo inusual: las voces pueden sonar demasiado rápidas o lentas, sin pausas naturales.
- Falta de emoción: las voces de IA pueden sonar planas o carecer de emoción genuina.
- Rasgos de voz inconsistentes: la IA podría pasar por alto pequeños detalles como acentos o la forma en que alguien habla habitualmente.
Consejos para protegerse contra las estafas generadas por IA
Ya sea un correo electrónico, una llamada telefónica o un mensaje en redes sociales, siempre mantén la cautela ante cualquier contacto no solicitado. Si es urgente o ofrece algo demasiado bueno para ser verdad, verifícalo por tu cuenta.
Manténgase informado sobre las últimas tendencias en estafas de IA, como videos deepfake y clonación de voz. Conocer los riesgos le permite detectar actividades sospechosas con mayor facilidad.
Usa la MFA en todas las cuentas importantes para añadir una capa adicional de protección. Incluso si los estafadores logran engañarte con contenido generado por IA, la MFA garantiza que no podrán acceder fácilmente sin el segundo paso de verificación.
Utilice herramientas de detección de IA para identificar contenido generado por IA, ya sea texto, imágenes o vídeos. Estas herramientas pueden ayudarle a detectar material sospechoso en línea.
Verifique cualquier solicitud urgente (dinero, información confidencial, etc.) contactando directamente a la persona a través de números de teléfono o correos electrónicos verificados. No responda ni haga clic en enlaces de mensajes no solicitados.
GenAI ha facilitado a los ciberdelincuentes la creación de deepfakes convincentes, campañas de phishing y estafas de inversión, mejorando así su eficiencia. Sin embargo, la buena noticia es que el uso de GenAI por parte de los adversarios aún no ha alcanzado el revuelo esperado . Al actuar con rapidez, las organizaciones e instituciones pueden implementar defensas para mitigar la mayoría de los ataques basados en IA.
Fuente y redacción: Sinisa Markovic / helpnetsecurity.com