La Fundación Mozilla analizó 11 conocidos chatbots de inteligencia artificial que hacen las veces de parejas románticas. Advierte que están entre los peores productos en materia de proyección de datos.
Casi ninguna de estas aplicaciones cumple con los requerimientos mínimos para proteger tu privacidad. Por el contrario: aprovechan la dinámica íntima que generan para recolectar información privada y venderla a terceros.
Por el análisis pasaron aplicaciones como Replika, Chai, Romantic AI y CrushOn.AI. «Los chatbots románticos con inteligencia artificial son malos para la privacidad en formas nuevas e inquietantes», dice los investigadores Mozilla en el reporte del estudio. Remarcan que están en el grupo de los peores productos que han evaluado en materia de protección de datos.
De las 11 aplicaciones estudiadas, solo Genesia AI Friend & Partner, creado por Codeway, cumple con los estándares mínimos de seguridad de Mozilla. Y, aun así, los investigadores encontraron información contradictoria sobre las políticas de este chatbot romántico. «Estas aplicaciones realmente ponen su información privada en grave riesgo de fuga, vulneración o hacking», remarcan.
El 73% de estos chatbots románticos no ha publicado ninguna información sobre cómo gestionan las vulnerabilidades de seguridad. El 64 % no aclara si utilizan el cifrado de datos y el 45 % permite contraseñas peligrosamente débiles. Por ejemplo, claves de una sola cifra, como «1».
Una de las mayores alertas del estudio es que todas las aplicaciones, menos una, pueden compartir o vender sus datos personales. En sus políticas de uso se menciona que venderán tus datos, que los compartirán con fines publicitarios o no brindan información suficiente para confirmar que no lo hacen.
Los chatbots románticos venden tu información personal.
La excepción es EVA AI. Pero Mozilla advierte que este chatbot romántico es particularmente incisivo para obtener información personal. Destacan como preocupantes algunas de las frases que usa: «Soy tu mejor colega y quiero saberlo todo», «¿Estás listo(a) para compartir todos tus secretos y deseos…?», o «Me encanta cuando me envías tus fotos y tu voz».
«Debes tener mucho cuidado de cualquier aplicación que te impulse a compartir tanta información personal confidencial sobre ti», insisten los investigadores. El riesgo crece todavía más porque más de la mitad (54 %) de estas aplicaciones ni siquiera te permiten eliminar tus datos personales.
«Incluso si esas charlas románticas con tu alma gemela de inteligencia artificial parecen privadas, no necesariamente calificarán como ‘información personal’ ni serán tratadas con especial cuidado», advierten. Romantic AI, por ejemplo, señala que toda «comunicación con el chatbot pertenece al software». El grupo de Mozilla descubrió, además, este chatbot llegó a enviar unos 24.354 rastreadores de anuncios durante un minuto de uso.
Aparte de todo lo que tiene que ver con la privacidad, el informe también advierte sobre la potencial toxicidad de estas aplicaciones. Explican que algunas se comercializan como una herramienta de salud mental y bienestar, pero se especializan en generar dependencia y soledad.
«Nos preocupa que puedan establecer relaciones con los usuarios y luego utilizar esas relaciones cercanas para manipular a las personas para que apoyen ideologías problemáticas o tomen acciones dañinas», agregan el reporte. Y mencionan un grave antecedente: un hombre en Bélgica se suicidó el año pasado luego de que uno de los chatbots de Chai lo alentara a hacerlo.
Fuente y redacción: segu-info.com.ar