NEWSLETTER

La IA se convierte en principal canal de fugas de datos corporativos

image576347439891

La IA se convierte en principal canal de fugas de datos corporativos

En las oficinas de una multinacional tecnológica de San Francisco, un analista de marketing copia un informe confidencial con detalles de campañas publicitarias y lo pega en una ventana de ChatGPT para resumirlo rápidamente. El resultado parece inofensivo: un párrafo conciso que envía por correo a su equipo. Lo que no ve es que ese pegado, realizado desde una cuenta personal de Gmail, ha transferido datos sensibles a servidores externos sin rastro alguno.

Este escenario, lejos de ser aislado, ilustra un patrón alarmante revelado por informes recientes: la inteligencia artificial generativa se ha posicionado como el vector dominante de extracción de datos en entornos empresariales. Según un estudio de LayerX publicado en octubre de 2025, el 77% de los empleados introduce información en herramientas de IA, y el 40% de los archivos subidos a estas plataformas contiene datos personales identificables o información de tarjetas de pago.

Esta tendencia, que ha escalado en los últimos dos años, obliga a las organizaciones a replantear sus estrategias de ciberseguridad ante un flujo invisible de datos que evade controles tradicionales.

La adopción masiva de estas tecnologías, impulsada por promesas de eficiencia, ha superado la capacidad de los sistemas de prevención de pérdida de datos diseñados para transferencias de archivos o correos electrónicos. En solo dos años, herramientas como ChatGPT han alcanzado una penetración del 43% entre usuarios corporativos, superando la velocidad de adopción de plataformas consolidadas como Zoom, que tardó décadas en llegar al 75%.

Hoy, la IA representa el 11% de toda la actividad empresarial, solo por detrás del correo electrónico y las reuniones virtuales. Sin embargo, esta integración rápida ha generado brechas: el 67% del uso de IA ocurre a través de cuentas personales no gestionadas, lo que elimina cualquier visibilidad para los equipos de TI.

El informe de LayerX, basado en el análisis de más de mil millones de interacciones en entornos corporativos, cuantifica esta desconexión: la IA ahora canaliza el 32% de los movimientos de datos desde cuentas empresariales hacia personales, posicionándola por encima de métodos tradicionales como el intercambio de archivos o el correo.

Este fenómeno no surge de la nada. Hace apenas dos años, la IA generativa estaba ausente de los flujos de trabajo corporativos; en 2025, ha transformado la productividad, permitiendo tareas como la generación de informes o el análisis de datos en segundos. Empresas como Microsoft, con su Copilot, y Google, con Gemini, han integrado estas capacidades en suites ofimáticas, fomentando un uso cotidiano que roza el 45% de los empleados.

Pero la euforia por la eficiencia oculta un costo: los sistemas de prevención de fugas de datos, enfocados en adjuntos o descargas, ignoran las operaciones de copiar y pegar en interfaces de chat. Un empleado promedio realiza 46 pegados al día, de los cuales 15 provienen de cuentas no corporativas, y al menos cuatro incluyen información sensible. Estos actos, aparentemente triviales, acumulan un volumen masivo: en una organización de mil empleados, equivalen a miles de transferencias diarias sin auditoría.

Comportamientos cotidianos y el rol de las cuentas no gestionadas

El núcleo de esta vulnerabilidad radica en cómo los trabajadores interactúan con la IA, priorizando la comodidad sobre los protocolos de seguridad. El 82% de los pegados en herramientas de IA se originan en cuentas personales, como versiones gratuitas de ChatGPT o Gemini accesadas vía navegadores privados. Estas cuentas, ajenas a los sistemas de inicio de sesión único (SSO) corporativos, eliminan cualquier rastro de actividad. En el caso de plataformas críticas como sistemas de gestión de relaciones con clientes (CRM), el 71% de los accesos carece de federación SSO, equiparándolos en riesgo a logins personales. Salesforce, por ejemplo, ve el 77% de su uso corporativo a través de canales no gestionados, lo que facilita la extracción inadvertida de perfiles de clientes o historiales de transacciones.

Los patrones de comportamiento revelan una brecha entre percepción y realidad. Mientras los directivos asumen que sus controles perimetrales (redes seguras y endpoints monitoreados) bastan, los empleados optan por atajos. Un caso ilustrativo proviene de un informe de Trend Micro del primer semestre de 2025: en una firma financiera europea, un equipo de ventas pegó datos de tarjetas de crédito en Claude para generar propuestas personalizadas, resultando en una fuga detectada solo meses después por una auditoría externa.

Otro ejemplo, documentado en el Índice de Inteligencia de Amenazas X-Force de IBM para 2025, involucra a un operador de ransomware que usó herramientas de IA para exfiltrar credenciales de millones de usuarios empresariales, explotando la falta de monitoreo en prompts. Estos incidentes no son anomalías; el 62% de los usuarios empresariales introduce datos personales identificables en aplicaciones de chat e IA, con el 87% de la mensajería instantánea ocurriendo en canales no corporativos.

La suba de archivos agrava el panorama. El 25% de los empleados carga documentos a plataformas de IA, y el 40% de esos archivos contiene información financiera o personal sensible. Destinos comunes incluyen no solo ChatGPT, sino también LinkedIn para resúmenes profesionales o WhatsApp para colaboraciones informales. En el reporte de Acuvity sobre el estado de la seguridad de IA en 2025, se estima que el 39% de estas subidas se realizan vía cuentas personales, lo que diluye las fronteras entre entornos laborales y consumidores.

Un testimonio hipotético de un gerente de TI en una consultora mediana captura esta dinámica: «Mis colegas usan Canva con IA para diseños, subiendo logos y datos de clientes sin pensarlo dos veces. Solo lo descubrimos cuando un proveedor externo reportó una coincidencia en una imagen filtrada«. Este tipo de flujos, que representan el 41% de las subidas a almacenamiento en la nube con datos sensibles, subrayan cómo la IA ha convertido el navegador web en el nuevo perímetro de trabajo, uno que los controles legacy (mecanismos de protección heredados u obsoletos que las organizaciones siguen utilizando) no pueden abarcar.

Además, la diversidad de herramientas amplifica el riesgo. Mientras ChatGPT domina con el 92% del tráfico de IA, herramientas emergentes como Claude o Gemini capturan nichos, con el 15% y 5% respectivamente. El 83.5% de los usuarios se limita a una sola plataforma, pero esa concentración facilita ataques dirigidos.

En un análisis de SentinelOne de agosto de 2025, se detalla cómo actores maliciosos inyectan prompts maliciosos en modelos de IA para extraer datos de entrenamiento, un vector que ha crecido un 300% en el último año. Estos comportamientos, arraigados en la búsqueda de agilidad, generan un ecosistema donde la data sensible migra constantemente hacia destinos no autorizados.

Repercusiones en la ciberseguridad y estrategias de mitigación

Las implicaciones para la seguridad empresarial son profundas: el perímetro tradicional ha colapsado, reemplazado por un flujo continuo de datos a través de navegadores y aplicaciones híbridas. Según The Hacker News, que cubrió el informe de LayerX en octubre de 2025, esta invisibilidad ha elevado la IA al primer lugar en fugas de datos, superando el shadow SaaS y el correo electrónico.

Organizaciones que invierten miles de millones en IA para innovación ahora enfrentan riesgos de incumplimiento regulatorio, como el GDPR en Europa o la CCPA en California, donde multas por fugas de PII pueden alcanzar millones. El reporte de Red Hat de octubre de 2025 advierte que sin unificación de prácticas de ciberseguridad con protocolos de IA, las brechas podrían multiplicarse, con un costo promedio de 4.45 millones de dólares por incidente según IBM.

Las recomendaciones de expertos apuntan a una adaptación pragmática. LayerX sugiere extender las auditorías más allá de aplicaciones sancionadas, monitoreando shadow AI y SaaS mediante controles a nivel de navegador que capturen pegados, prompts y subidas sin archivos. Esto implica bloquear accesos personales a herramientas de alto riesgo y forzar SSO en todos los logins corporativos, reduciendo el 67% de uso no gestionado en IA. eSecurity Planet, en su cobertura de octubre, enfatiza la necesidad de DLP agnóstica a métodos: tratar un prompt en ChatGPT como un adjunto de email, con filtros que escaneen contenido en tiempo real.

Otras estrategias incluyen priorizar categorías vulnerables como mensajería instantánea, donde el 87% opera sin controles, y capacitar a empleados en el reconocimiento de riesgos sin restringir la productividad. Un ejemplo práctico surge de un piloto en una firma de servicios financieros reportado por DataConomy: al implementar monitoreo de prompts, redujeron fugas sensibles en un 45% en tres meses.

Welcome.AI destaca la integración de IA en la seguridad misma, usando modelos para detectar anomalías en flujos de datos. Estas medidas no solo mitigan fugas, sino que preservan la ventaja competitiva de la IA, convirtiéndola en un activo fortificado.

En un panorama donde la IA impulsa el 11% de las operaciones diarias, ignorar su rol en la exfiltración equivale a ceder control sobre activos vitales. El informe de LayerX concluye que las empresas deben evolucionar hacia una gobernanza centrada en el navegador, donde la visibilidad total reemplace la confianza ciega en perímetros obsoletos. Este giro no frena la innovación; la asegura, permitiendo que herramientas como Copilot o Gemini enriquezcan workflows sin exponer datos a sombras invisibles.

Publicaciones Recientes

ChatGPT Image 15 oct 2025, 02_50_09

Extinción o despegue: los escenarios de IA según la Fed de Dallas

El artículo del Federal Reserve Bank of Dallas, de junio de 2025, “Advances in AI will boost productivity, living sta
Leer Más
3339bb68-0021-4526-976d-b40765fb726f

Los modelos de IA revelan un sesgo arraigado por la escritura humana

En las profundidades de un laboratorio digital en Princeton, un relato breve sobre un altercado en un autobús se transf
Leer Más

Para estar informado, Ingresá o Creá tu cuenta en MundoIA...

Entrar

Recordá revisar la carpeta de "no deseados", el correo puede llegar allí