ciberseguridad

El riesgo de deepfakes está aumentando: el 47 % de las organizaciones se han topado con uno y el 70 % de ellas cree que los ataques deepfake creados con herramientas de inteligencia artificial generativa tendrán un gran impacto en sus organizaciones, según iProov.

Las percepciones sobre la IA son alentadoras, ya que el 68 % de las organizaciones cree que, si bien tiene un impacto en la creación de amenazas de ciberseguridad, el 84 % considera que es fundamental para protegerse contra ellas. Esto es según una nueva encuesta global de tomadores de decisiones tecnológicas de iProov, que también descubrió que el 75 % de las soluciones que se están implementando para abordar la amenaza de las deepfakes son soluciones biométricas.

Si bien las organizaciones reconocen la mayor eficiencia que puede aportar la IA, estos beneficios también los disfrutan los desarrolladores de tecnología de amenazas y los actores maliciosos. Casi el 73 % de las organizaciones están implementando soluciones para abordar la amenaza de las deepfakes, pero la confianza es baja y el estudio identifica una preocupación primordial: las organizaciones no están haciendo lo suficiente para combatirlas. El 62 % teme que su organización no se esté tomando la amenaza de las deepfakes lo suficientemente en serio.

La amenaza de los deepfakes es una amenaza real y presente

La encuesta muestra que las organizaciones reconocen que la amenaza de las deepfakes es real y presente. Pueden utilizarse contra personas de numerosas formas dañinas, como la difamación y el daño a la reputación, pero quizás el riesgo más cuantificable sea el fraude financiero. En este caso, pueden utilizarse para cometer fraudes de identidad a gran escala haciéndose pasar por personas para obtener acceso no autorizado a sistemas o datos, iniciar transacciones financieras o engañar a otros para que envíen dinero a una escala similar a la reciente estafa de las deepfakes en Hong Kong .

La cruda realidad es que los deepfakes representan una amenaza para cualquier situación en la que una persona necesite verificar su identidad de forma remota, pero los encuestados temen que las organizaciones no tomen la amenaza lo suficientemente en serio.

“Hemos estado observando deepfakes durante años, pero lo que ha cambiado en los últimos seis a doce meses es la calidad y la facilidad con la que se pueden crear y causar una destrucción a gran escala tanto a organizaciones como a individuos”, dijo Andrew Bud , director ejecutivo de iProov. “Tal vez el uso más ignorado de deepfakes es la creación de identidades sintéticas que, debido a que no son reales y no tienen un propietario que denuncie su robo, pasan en gran medida desapercibidas mientras causan estragos y defraudan a organizaciones y gobiernos por millones de dólares”.

“Y a pesar de lo que algunos puedan creer, ahora es imposible detectar a simple vista deepfakes de calidad. Aunque nuestra investigación indica que la mitad de las organizaciones encuestadas se han topado con un deepfake, lo más probable es que esta cifra sea mucho mayor porque la mayoría de las organizaciones no están debidamente equipadas para identificar deepfakes. Con el rápido ritmo al que se innova en el panorama de amenazas, las organizaciones no pueden permitirse el lujo de ignorar las metodologías de ataque resultantes y cómo la biometría facial se ha distinguido como la solución más resistente para la verificación de identidad remota”, añade Andrew Bud.

La IA generativa potencia todo tipo de deepfakes

El estudio también revela algunas percepciones bastante matizadas de los deepfakes en el escenario global. Las organizaciones de APAC (51%), Europa (53%) y LATAM (53%) son significativamente más propensas que las organizaciones de América del Norte (34%) a decir que se han encontrado con un deepfake. Las organizaciones de APAC (81%), Europa (72%) y América del Norte (71%) son significativamente más propensas que las organizaciones de LATAM (54%) a creer que los ataques deepfake tendrán un impacto en su organización.

En medio del panorama de amenazas en constante cambio, las tácticas empleadas para vulnerar las organizaciones suelen reflejar las que se emplean en el fraude de identidad . Como era de esperar, las falsificaciones profundas ahora están empatadas en el tercer lugar entre las preocupaciones más frecuentes de los encuestados en el siguiente orden: violaciones de contraseñas (64 %), ransomware (63 %), ataques de phishing/ingeniería social (61 %) y falsificaciones profundas (61 %).

Existen muchos tipos diferentes de deepfakes, pero todos tienen un denominador común: se crean utilizando herramientas de IA generativa . Las organizaciones reconocen que la IA generativa es innovadora, segura, confiable y les ayuda a resolver problemas. La consideran más ética que poco ética y creen que tendrá un impacto positivo en el futuro. Y están tomando medidas: solo el 17% no ha aumentado su presupuesto en programas que contemplan el riesgo de la IA. Además, la mayoría ha introducido políticas sobre el uso de nuevas herramientas de IA.

Las organizaciones prefieren la biometría facial y de huellas dactilares para la mayoría de las tareas

La biometría se ha convertido en la solución elegida por las organizaciones para abordar la amenaza de las deepfakes. Las organizaciones afirmaron que lo más probable es que utilicen biometría facial y de huellas dactilares; sin embargo, el tipo de biometría puede variar según las tareas.

Por ejemplo, el estudio encontró que las organizaciones consideran que el reconocimiento facial es el modo adicional de autenticación más apropiado para protegerse contra deepfakes en el acceso/inicio de sesión de cuentas, cambios de cuentas de datos personales y transacciones típicas.

Del estudio se desprende claramente que las organizaciones consideran la biometría como un área de especialización y el 94 % está de acuerdo en que un socio de seguridad biométrica debería ser más que un mero producto de software.

Las organizaciones encuestadas afirmaron que están buscando un proveedor de soluciones que evolucione y se mantenga al día con el panorama de amenazas, con monitoreo continuo (80%), biometría multimodal (79%) y detección de vida (77%), todos ellos altamente destacados en sus requisitos para proteger adecuadamente las soluciones biométricas contra deepfakes.

Fuente y redacción: helpnetsecurity.com

Compartir