avances en IA

Si bien ChatGPT y Bard han demostrado ser herramientas valiosas para desarrolladores, especialistas en marketing y consumidores, también conllevan el riesgo de exponer involuntariamente datos sensibles y confidenciales.

Desde el punto de vista de la seguridad, siempre vale la pena pensar un paso por delante y en lo que vendrá después. Uno de los últimos avances en la tecnología de IA es la «IA interactiva».

Si bien las herramientas de IA generativa pueden crear contenido nuevo, escribir código, realizar cálculos y entablar conversaciones similares a las humanas, la IA interactiva se puede utilizar para tareas como geolocalización y navegación o aplicaciones de voz a texto, marcando el comienzo de la siguiente fase de los chatbots y asistentes digitales.

Como profesionales de la ciberseguridad, consideramos los riesgos de seguridad y las implicaciones que presenta para las empresas, y debemos hacer todo lo posible para mantener el control y establecer límites y limitaciones claros sobre lo que la tecnología puede hacer.

Aprendizajes de la fase de IA generativa

Cuando pensamos en las implicaciones de seguridad de la IA interactiva, primero debemos considerar las preocupaciones que se han planteado anteriormente en torno a los modelos de IA generativa y los LLM . Estos van desde preocupaciones éticas hasta prejuicios políticos e ideológicos, modelos sin censura y funcionalidad fuera de línea.

Las preocupaciones éticas se refieren a evitar que los LLM participen en actividades poco éticas o inapropiadas. Al perfeccionar estos modelos, los desarrolladores han podido incorporar políticas y barreras de seguridad que garantizan que los sistemas de inteligencia artificial rechacen solicitudes de contenido dañino o poco ético. A medida que la IA interactiva evoluciona y tiene más autonomía que los modelos de IA generativa, debemos garantizar que estas políticas y barreras de seguridad se mantengan para evitar que la IA interactúe y interactúe con contenido dañino, ofensivo o ilegal.

Además, los chatbots de IA sin censura han presentado un importante desafío de seguridad, ya que operan fuera de las limitaciones de las reglas y controles seguidos por modelos cerrados como ChatGPT. Una característica única de estos modelos es su funcionalidad fuera de línea, lo que dificulta extremadamente el seguimiento del uso.

La falta de supervisión debería hacer sonar la alarma para los equipos de seguridad, ya que los usuarios pueden potencialmente participar en actividades nefastas sin ser detectados.

Mejores prácticas para la seguridad empresarial

Si la IA interactiva es hacia donde nos dirigimos en el futuro, muchas organizaciones sin duda considerarán cómo pueden adoptar la tecnología y si es realmente adecuada para su negocio.

Ese proceso implica pensar en los riesgos de seguridad que presenta, por lo que es imperativo que las empresas trabajen junto con los equipos de seguridad y TI y sus empleados para implementar medidas de seguridad sólidas para mitigar los riesgos asociados.

Esto podría incluir lo siguiente como mejores prácticas:

  • Adoptar una estrategia que dé prioridad a los datos: este enfoque, especialmente dentro de un marco de confianza cero, prioriza la seguridad de los datos dentro de la empresa. Al identificar y comprender cómo se almacenan, utilizan y se mueven los datos en una organización y controlar quién tiene acceso a esos datos, se garantiza que los equipos de seguridad puedan responder rápidamente a amenazas como el acceso no autorizado a datos confidenciales.
  • Controles de acceso estrictos: con fuerzas de trabajo híbridas y distribuidas, esto es crucial para evitar que usuarios no autorizados interactúen con los sistemas de inteligencia artificial y los exploten. Además de la supervisión continua y la recopilación de inteligencia, limitar el acceso ayuda a los equipos de seguridad a identificar y responder a posibles violaciones de seguridad de manera rápida. Este enfoque es más eficaz que las herramientas de bloqueo directo, que pueden provocar riesgos de TI en la sombra y pérdidas de productividad.
  • Colaborar con la IA: en el extremo opuesto de la escala, la IA y el aprendizaje automático también pueden mejorar significativamente la seguridad y la productividad empresarial. Puede ayudar a los equipos de seguridad al simplificar los procesos de seguridad y mejorar su efectividad para que puedan concentrar su tiempo donde más se necesita. Para los empleados, es necesaria una formación adecuada sobre el uso seguro de las herramientas de IA y, al mismo tiempo, reconocer la inevitabilidad del error humano.
  • Establecer directrices éticas claras: las organizaciones deben definir reglas claras para el uso de la IA en sus negocios. Esto incluye abordar los sesgos y garantizar que tengan políticas y barreras de seguridad integradas para evitar que los sistemas de inteligencia artificial produzcan o interactúen con contenido dañino.

Aunque la IA interactiva es un salto significativo en la inteligencia artificial, el territorio inexplorado significa que las empresas deben andar con cuidado, o corren el riesgo de cruzar la delgada línea entre la IA como una herramienta poderosa y un riesgo potencial para su organización.

La realidad es que la IA no va a ninguna parte. Para innovar continuamente y mantenerse a la vanguardia, las empresas deben adoptar un enfoque reflexivo y mesurado para adoptar la IA y al mismo tiempo proteger sus resultados.

Fuente y redacción: Jason Kemmerer / helpnetsecurity.com

Compartir