Un solo toque en una solicitud de permiso puede decidir hasta qué punto una aplicación accede a los datos personales de un usuario . La mayoría de estas solicitudes ocurren durante la instalación. El número de solicitudes sigue aumentando, y esa creciente presión a menudo empuja a los usuarios a tomar decisiones apresuradas o elecciones que parecen un poco aleatorias. Una nueva investigación examina si los LLM pueden intervenir y tomar estas decisiones en nombre del usuario.
Cómo funcionó el estudio
Los investigadores realizaron un estudio en línea con más de trescientos participantes y recopilaron más de catorce mil decisiones de control de acceso en aplicaciones móviles y permisos. Todas las tareas siguieron el modelo de permisos de Android . Los participantes escribieron breves declaraciones que describían sus hábitos de intercambio de datos y luego evaluaron las solicitudes de permiso presentadas con o sin contexto del escenario.
También revisaron decisiones seleccionadas de LLM y evaluaron su grado de conformidad con ellas. Esto permitió a los autores medir los casos en los que el modelo generó una decisión que los usuarios posteriormente respaldaron.
El equipo comparó dos enfoques. Los modelos genéricos solo recibían la solicitud de acceso. Los modelos personalizados recibían la solicitud y la declaración del participante. Se incluyeron modelos de varios proveedores para evitar la dependencia de un solo sistema.
Lo que los LLM hicieron bien
Los modelos genéricos coincidieron con la elección mayoritaria en la mayoría de las tareas. Dependiendo del modelo y el tipo de tarea, la concordancia con los usuarios osciló entre el 70 % y el 86 %. En tareas esenciales, donde el acceso era el resultado esperado, los modelos seleccionados lo permitieron en todos los casos.
Los modelos tendieron a actuar con mayor cautela en tareas sensibles. A menudo seleccionaron denegar, incluso cuando algunos participantes seleccionaron permitir. Estas decisiones redujeron la exposición al acceso innecesario a los datos.
Durante la fase de retroalimentación, los participantes revisaron las explicaciones del modelo. Cuando al principio discreparon, pero leyeron el razonamiento, aproximadamente la mitad cambió de opinión y estuvo de acuerdo con el modelo. Esto sugiere que las explicaciones pueden motivar a los usuarios a reconsiderar decisiones rápidas.
Dónde se quedan cortos los LLM
La personalización mejoró los resultados, pero no para todos. Los resultados individuales variaron según la coherencia entre la declaración de privacidad del participante y las decisiones tomadas durante las tareas.
Los conflictos surgieron cuando la declaración escrita de un participante no coincidía con las opciones seleccionadas. Cuando los usuarios describieron sus hábitos de forma consistente y eligieron opciones coincidentes, el modelo se ajustó sin problemas.
Algunos participantes escribieron declaraciones que sugerían una amplia aprobación de las solicitudes, pero luego denegaron una gran parte de ellas. Otros describieron hábitos cautelosos y luego permitieron un amplio acceso. Cuando se produjo esta discrepancia, los modelos personalizados se adaptaron de forma que redujeron la alineación.
Los resultados de seguridad también cambiaron con la personalización. Un modelo que habría denegado una solicitud sensible en su forma genérica, en ocasiones, cambió a permitirla al combinarse con una declaración permisiva. Los autores señalan esto como un riesgo de diseño.
Otro riesgo proviene de cómo las explicaciones influyen en los usuarios. Los usuarios a menudo optaban por el criterio del modelo tras leer su razonamiento, incluso en tareas que implicaban permisos sensibles. Esto creaba situaciones en las que los usuarios apoyaban una decisión insegura tras revisar la explicación.
Límites vinculados a la configuración del estudio
La investigación se llevó a cabo en un entorno experimental, lo cual puede influir en el comportamiento de los participantes. Podrían concentrarse más en cada indicación que en su uso diario. Al mismo tiempo, las decisiones no conllevaron consecuencias, lo que puede llevar a respuestas menos cuidadosas.
El análisis también utiliza un modelo de amenazas limitado. Cada solicitud de permiso se trata como una simple entrada, sin probar indicaciones hostiles, ejemplos manipulados ni intentos de forzar el modelo hacia resultados inseguros. Los sistemas basados en LLM para el control de acceso necesitarán más trabajo para responder a tales condiciones y definir las defensas adecuadas.
Los modelos LLM tienen sus propias limitaciones. Los resultados pueden variar de una ejecución a otra, y el uso de modelos añade costos y demoras. Cualquier sistema que dependa de estos modelos debe sopesar estos factores frente a la carga de las indicaciones repetidas y la posibilidad de que el usuario tome decisiones rápidas o inconsistentes.
Fuente y redacción: helpnetsecurity.com / Sinisa Markovic