«Millones» de personas podrían ser víctimas de estafas que utilicen inteligencia artificial para clonar sus voces, advirtió Starling Bank, un banco del Reino Unido.

Starling Bank, un prestamista que solo opera en línea, dijo que los estafadores son capaces de usar inteligencia artificial para replicar la voz de una persona a partir de solo tres segundos de audio que se encuentra, por ejemplo, en un video que la persona ha publicado en línea. Luego, los estafadores pueden identificar a los amigos y familiares de la persona y usar la voz clonada por IA para realizar una llamada telefónica y pedir dinero.

Este tipo de estafas tienen el potencial de «engañar a millones», dijo Starling Bank en un comunicado de prensa el miércoles. Ya han afectado a cientos. Según una encuesta de más de 3.000 adultos que el banco realizó con Mortar Research el mes pasado, más de una cuarta parte de los encuestados dijeron que habían sido blanco de una estafa de clonación de voz de IA en los últimos 12 meses.

La encuesta también mostró que el 46% de los encuestados no sabía que existían este tipo de estafas y que el 8% enviaría tanto dinero como lo solicitara un amigo o familiar, incluso si pensaban que la llamada les parecía extraña.

«La gente publica regularmente contenido en línea que tiene grabaciones de su voz, sin siquiera imaginar que eso los hace más vulnerables a los estafadores», dijo Lisa Grahame, directora de seguridad de la información de Starling Bank, en el comunicado de prensa.

El banco está animando a las personas a acordar una «frase segura» con sus seres queridos (una frase simple y aleatoria que es fácil de recordar y diferente de sus otras contraseñas) que puede usarse para verificar su identidad por teléfono.

Los prestamistas desaconsejan compartir la frase segura a través de mensajes de texto, lo que podría facilitar que los estafadores la descubran, pero, si se comparte de esta manera, el mensaje debe eliminarse una vez que la otra persona lo haya visto.

A medida que la IA se vuelve cada vez más experta en imitar voces humanas, aumentan las preocupaciones sobre su potencial para dañar a las personas, por ejemplo, ayudando a los delincuentes a acceder a sus cuentas bancarias y difundiendo información errónea.

A principios de este año, OpenAI, el fabricante del chatbot de IA generativa ChatGPT, presentó su herramienta de replicación de voz, Voice Engine, pero no la puso a disposición del público en ese momento, citando el «potencial de uso indebido de la voz sintética».

Fuente y redacción: segu-info.com.ar

Compartir