Las herramientas de chat con IA están invadiendo las oficinas, pero ¿a qué precio para la privacidad? A menudo, las personas se sienten anónimas en las interfaces de chat y pueden compartir datos personales sin ser conscientes de los riesgos. Los ciberdelincuentes ven la misma oportunidad, y es posible que solo sea cuestión de tiempo que la información compartida en una conversación con un chatbot de IA termine en una importante filtración de datos.
Cuando las herramientas de trabajo no se controlan
Los expertos advierten que los usuarios deben estar alerta al usar plataformas como ChatGPT o Gemini, ya que lo que parece un simple intercambio de mensajes puede dejar un rastro de datos permanente. Antes de compartir información personal o confidencial, conviene recordar que estas conversaciones pueden almacenarse y utilizarse para entrenar modelos futuros, a menos que el usuario indique lo contrario.
Estos riesgos ya son visibles dentro de las empresas. Concentric AI descubrió que las herramientas de GenAI, como Microsoft Copilot, expusieron alrededor de tres millones de registros confidenciales por organización durante el primer semestre de 2025. Esto se debió en gran medida a que los empleados utilizaron herramientas de IA fuera de los sistemas autorizados, dejando datos internos expuestos y con una supervisión deficiente.
Algunos informes indican que hasta el 80 % de las herramientas de IA que utilizan los empleados funcionan sin la supervisión de los equipos de TI o seguridad. Según Harmonic Security, las empresas suben aproximadamente 1,3 gigabytes de archivos a las herramientas de GenAI cada trimestre, y cerca del 20 % de esos archivos contienen datos confidenciales.
Como resultado, la mayoría de las organizaciones ahora ven la IA general como una preocupación importante de TI , siendo los principales problemas las fugas de datos y la manipulación de modelos.
De avisos privados a resultados públicos
El problema va más allá de los sistemas internos de las empresas. Las investigaciones demuestran que algunas de las plataformas de IA más utilizadas recopilan datos confidenciales de los usuarios y los comparten con terceros. Los usuarios tienen escasa visibilidad sobre cómo se almacena o reutiliza su información, lo que les deja con un control limitado sobre su ciclo de vida.
Esto nos lleva a una pregunta importante sobre qué sucede con la información que las personas comparten con los chatbots.
En un caso, aparecieron chats compartidos de ChatGPT en los resultados de búsqueda de Google después de que los usuarios compartieran públicamente enlaces que posteriormente fueron indexados. OpenAI eliminó la función que permitía buscar esos enlaces, aunque sigue disponible la opción de compartirlos de forma privada. Este no fue un caso aislado. También se encontraron cientos de miles de conversaciones de Grok en los resultados de búsqueda de Google.
Un estudio reciente se propuso determinar cuánta información recuerdan los chatbots y con qué precisión pueden describir lo que han aprendido sobre un usuario. Los resultados mostraron la facilidad con que surgen datos personales durante las interacciones cotidianas y suscitaron inquietudes sobre cuánto tiempo se conservan estos datos y cómo se reutilizan.
El auge de la IA en la sombra
Una de las tendencias más preocupantes en el mundo empresarial es el creciente uso de la IA en la sombra , donde los empleados recurren a herramientas no autorizadas para completar tareas con mayor rapidez. Estos sistemas suelen operar sin la supervisión de la empresa, lo que permite que datos confidenciales se filtren a plataformas públicas sin ser detectados.
La mayoría de los empleados admiten compartir información a través de estas herramientas sin autorización, a pesar de que los responsables de TI señalan las fugas de datos como el mayor riesgo. Si bien los equipos de seguridad consideran la IA en la sombra un problema grave, los empleados a menudo la perciben como de bajo riesgo o un precio que vale la pena pagar por la comodidad.
“Estamos viendo una forma aún más arriesgada de IA en la sombra”, dice Tim Morris , asesor jefe de seguridad de Tanium, “donde los departamentos, descontentos con las herramientas GenAI existentes, comienzan a construir sus propias soluciones utilizando modelos de código abierto como DeepSeek”.
Poco después de su lanzamiento, DeepSeek se popularizó rápidamente tanto a nivel personal como profesional. Desde el principio, los expertos señalaron los riesgos para la privacidad y la seguridad asociados a su uso, y la Armada de los Estados Unidos, por ejemplo, prohibió a su personal utilizarlo para tareas laborales. Lo más alarmante es que los datos de los usuarios podrían almacenarse en servidores de China, donde se aplican leyes diferentes en materia de acceso y control de datos.
La rendición de cuentas comienza con la conciencia.
Las empresas deben mejorar la capacitación de sus empleados sobre el uso seguro de las herramientas de IA. Esto es fundamental para los equipos que manejan información confidencial, como datos médicos o propiedad intelectual. Cualquier fuga de datos puede causar graves daños, desde perjudicar la reputación de la empresa hasta acarrear costosas multas.
“La gobernanza de la IA solo funciona si es práctica”, afirmó Brooke Johnson , asesora legal principal y vicepresidenta sénior de RR. HH. y seguridad de Ivanti. “Primero, reconozca que es probable que se esté utilizando la IA en toda su organización, ya sea de forma autorizada o no. Realice evaluaciones para comprender qué herramientas se están utilizando y cuáles cumplen con sus estándares”.
Luego, cree políticas pragmáticas sobre cuándo y cómo se puede aplicar la IA. Proporcione a los equipos plataformas verificadas, de fácil acceso y seguras, reduciendo la dependencia de alternativas no autorizadas.
Fuente y redacción: helpnetsecurity.com
 
 
                                 
                                                         
                                                        