Apple ha puesto a disposición del público su entorno de investigación virtual (VRE) de computación en la nube privada (PCC), lo que permite a la comunidad de investigación inspeccionar y verificar las garantías de privacidad y seguridad de su oferta.

La PCC, que Apple presentó a principios de junio, se ha promocionado como la «arquitectura de seguridad más avanzada jamás implementada para la computación de inteligencia artificial en la nube a gran escala». Con la nueva tecnología, la idea es descargar las solicitudes computacionalmente complejas de Apple Intelligence a la nube de una manera que no sacrifique la privacidad del usuario.

Apple dijo que está invitando a «todos los investigadores de seguridad y privacidad, o cualquier persona con interés y curiosidad técnica, a aprender más sobre PCC y realizar su propia verificación independiente de nuestras afirmaciones».

Para incentivar aún más la investigación, el fabricante del iPhone dijo que está ampliando el programa Apple Security Bounty para incluir a PCC ofreciendo pagos monetarios que van desde $ 50,000 a $ 1,000,000 por vulnerabilidades de seguridad identificadas en él.

Esto incluye fallas que podrían permitir la ejecución de código malicioso en el servidor y exploits capaces de extraer datos confidenciales de los usuarios o información sobre las solicitudes del usuario.

El VRE tiene como objetivo ofrecer un conjunto de herramientas para ayudar a los investigadores a realizar su análisis de PCC desde Mac. Viene con un procesador de enclave seguro (SEP) virtual y aprovecha el soporte integrado de macOS para gráficos paravirtualizados para permitir la inferencia.

Apple también dijo que está haciendo accesible el código fuente asociado con algunos componentes de PCC a través de GitHub para facilitar un análisis más profundo. Esto incluye CloudAttestation, Thimble, splunkloggingd y srd_tools.

«Diseñamos Private Cloud Compute como parte de Apple Intelligence para dar un paso extraordinario en materia de privacidad en la IA», afirmó la empresa con sede en Cupertino. «Esto incluye ofrecer transparencia verificable, una propiedad única que la distingue de otros enfoques de IA basados ​​en servidores».

Este desarrollo surge a medida que una investigación más amplia sobre inteligencia artificial (IA) generativa continúa descubriendo nuevas formas de desbloquear modelos de lenguaje grandes (LLM) y producir resultados no deseados.

Fuente y redacción: thehackernews.com

Compartir