Google

Google ha anunciado que está ampliando su Programa de recompensas por vulnerabilidad ( VRP ) para compensar a los investigadores por encontrar escenarios de ataque adaptados a sistemas de inteligencia artificial (IA) generativa en un esfuerzo por reforzar la seguridad de la IA .

«La IA generativa plantea preocupaciones nuevas y diferentes a las de la seguridad digital tradicional, como la posibilidad de sesgos injustos, manipulación de modelos o interpretaciones erróneas de los datos (alucinaciones)», dijeron Laurie Richardson y Royal Hansen de Google .

Algunas de las categorías que están dentro del alcance incluyen inyecciones rápidas, fuga de datos confidenciales de conjuntos de datos de entrenamiento, manipulación de modelos, ataques de perturbación adversarios que desencadenan clasificaciones erróneas y robo de modelos.

Vale la pena señalar que Google a principios de julio instituyó un Equipo Rojo de IA para ayudar a abordar las amenazas a los sistemas de IA como parte de su Marco Seguro de IA ( SAIF ).

También se anunciaron como parte de su compromiso con la seguridad de la IA los esfuerzos para fortalecer la cadena de suministro de IA a través de iniciativas de seguridad de código abierto existentes, como Supply Chain Levels for Software Artifacts (SLSA ) y Sigstore.

Amenazas de inteligencia artificial

«Firmas digitales, como las de Sigstore, que permiten a los usuarios verificar que el software no fue manipulado ni reemplazado», dijo Google .

«Metadatos como la procedencia de SLSA que nos dicen qué hay en el software y cómo se creó, lo que permite a los consumidores garantizar la compatibilidad de las licencias, identificar vulnerabilidades conocidas y detectar amenazas más avanzadas».

El desarrollo se produce cuando OpenAI presentó un nuevo equipo interno de preparación para «rastrear, evaluar, pronosticar y proteger» contra riesgos catastróficos para la IA generativa que abarcan amenazas de ciberseguridad, químicas, biológicas, radiológicas y nucleares (QBRN).

Las dos empresas, junto con Anthropic y Microsoft, también han anunciado la creación de un Fondo de Seguridad de la IA de 10 millones de dólares , centrado en promover la investigación en el campo de la seguridad de la IA.

Fuente y redacción: thehackernews.com

Compartir