NEWSLETTER

Los mayores riesgos de seguridad de IA no están en el código: están en la cultura organizacional

Phoenix_10_Ilustracin_conceptual_de_un_edificio_corporativo_co_0

Los mayores riesgos de seguridad de IA no están en el código: están en la cultura organizacional

Los mayores riesgos de seguridad de IA no están en el código: están en la cultura organizacional
Un sistema de IA resiliente va más allá del rendimiento técnico. Refleja la cultura del equipo detrás de él. Y a medida que la IA se vuelve más integrada con las empresas y es utilizada por empleados y el público, los sistemas en los que confiamos se están volviendo más difíciles de gobernar. Los riesgos que introduce la IA no suelen ser dramáticos ni repentinos. Emergen gradualmente, a través de propiedad poco clara, actualizaciones no gestionadas, falta de capacitación y toma de decisiones fragmentada. La seguridad, en este contexto, depende menos del código en sí y más de los hábitos y la coordinación de los equipos que construyen a su alrededor. Cuando se discute la seguridad de IA, el enfoque tiende a centrarse directamente en la capa técnica, en conjuntos de datos limpios, algoritmos robustos y modelos bien estructurados. Es un instinto comprensible. Estos son componentes visibles y tangibles, y son importantes. Pero en la práctica, la mayoría de los riesgos se acumulan no por fallas en la lógica sino por brechas en la coordinación. Tienden a acumularse lentamente cuando las actualizaciones no se registran, cuando los modelos se mueven entre equipos sin contexto, o cuando nadie está muy seguro de quién hizo el último cambio.

Cuando las organizaciones hablan de seguridad de inteligencia artificial, la conversación casi invariablemente se dirige hacia lo técnico. Hablan de conjuntos de datos robustos, algoritmos verificados, arquitecturas de modelos bien diseñadas. Es lógico. Estos componentes son visibles, medibles, tangibles. Pueden auditarse, probarse, certificarse. Son el tipo de cosas que los equipos de seguridad saben cómo manejar.

Pero hay un problema con este enfoque. La mayoría de los riesgos de seguridad de IA en el mundo real no provienen de fallas técnicas fundamentales. No provienen de algoritmos defectuosos o conjuntos de datos corruptos. Provienen de algo mucho más mundano y mucho más difícil de solucionar: brechas en cómo los equipos trabajan juntos, comunican cambios y mantienen la responsabilidad sobre sistemas que evolucionan constantemente.

Los riesgos se acumulan gradualmente cuando las actualizaciones no se registran, cuando los modelos se mueven entre equipos sin contexto adecuado, cuando nadie está muy seguro de quién hizo el último cambio o por qué. Estas no son fallas de código o arquitectura. Son señales de que la forma en que los equipos construyen, adaptan y transfieren sistemas no ha seguido el ritmo de cuán ampliamente se usan ahora esos sistemas.

Replanteando la seguridad de IA: más allá del código

Un sistema de IA resiliente va más allá del rendimiento técnico. Refleja la cultura del equipo detrás de él. Esta es una verdad incómoda para muchas organizaciones porque es más fácil auditar código que cambiar cultura. Es más fácil contratar ingenieros de seguridad que rediseñar cómo los equipos se comunican entre sí.

Cuando se discute la seguridad de IA, el enfoque tiende a centrarse directamente en la capa técnica, en conjuntos de datos limpios, algoritmos robustos y modelos bien estructurados. Es un instinto comprensible. Estos son componentes visibles y tangibles, y son importantes.

La paradoja de la seguridad técnica

Pero en la práctica, la mayoría de los riesgos se acumulan no por fallas en la lógica sino por brechas en la coordinación. Tienden a acumularse lentamente cuando las actualizaciones no se registran, cuando los modelos se mueven entre equipos sin contexto, o cuando nadie está muy seguro de quién hizo el último cambio.

La Ley de Ciberseguridad y Resiliencia del Reino Unido es un paso adelante en formalizar cómo debe asegurarse la infraestructura digital. Introduce nuevos requisitos para garantía operativa, monitoreo continuo y respuesta a incidentes, especialmente para proveedores de servicios que apoyan sistemas críticos.

Pero mientras la legislación agudiza las expectativas en torno a la infraestructura, aún tiene que capturar cómo se desarrolla y mantiene realmente la IA en la práctica. En sectores como salud y finanzas, los modelos ya están influyendo en decisiones de alto riesgo. Y a menudo se construyen en entornos de rápido movimiento donde los roles cambian, las herramientas evolucionan y la gobernanza no siempre sigue el ritmo.

El desarrollo de IA rara vez permanece dentro de un solo equipo. Los modelos se reentrenan, reutilizan y adaptan a medida que cambian las necesidades. Esa flexibilidad es parte de su valor, pero también agrega capas de complejidad. Los pequeños cambios pueden tener efectos de amplio alcance.

Dónde tiende a acumularse el riesgo

Considera un escenario común en organizaciones que despliegan IA a escala. Un equipo puede actualizar los datos de entrenamiento para reflejar nuevas entradas. Otro equipo puede ajustar un umbral para reducir falsos positivos. Un tercer equipo puede desplegar un modelo sin verificar cómo se configuró antes. Ninguna de estas decisiones es inherentemente incorrecta. Cada una puede ser localmente racional dado el contexto que ese equipo específico tiene.

Pero cuando los equipos no pueden rastrear una decisión hasta su origen, o nadie está seguro de quién aprobó un cambio, la capacidad de responder rápidamente se pierde. Cuando ocurre un problema, y ocurrirá, la organización descubre que no puede desentrañar lo que sucedió porque las pistas de auditoría son incompletas, la documentación es escasa y la propiedad es ambigua.

Los síntomas de la brecha cultural

Estas no son fallas de código o arquitectura. Son señales de que la forma en que los equipos construyen, adaptan y transfieren sistemas no ha seguido el ritmo de cuán ampliamente se usan ahora esos sistemas. Cuando la cultura de trabajo se queda atrás, el riesgo se vuelve más difícil de ver y, por lo tanto, más difícil de contener.

Los riesgos que introduce la IA no suelen ser dramáticos ni repentinos. Emergen gradualmente, a través de propiedad poco clara, actualizaciones no gestionadas, falta de capacitación y toma de decisiones fragmentada. La seguridad, en este contexto, depende menos del código en sí y más de los hábitos y la coordinación de los equipos que construyen a su alrededor.

En sectores como salud y finanzas, donde los modelos ya están influyendo en decisiones de alto riesgo, estas brechas de coordinación no son problemas teóricos. Son vulnerabilidades operativas reales. Un modelo de IA que ayuda a diagnosticar condiciones médicas o aprobar préstamos no es solo una herramienta técnica. Es parte de un proceso de toma de decisiones complejo que involucra a múltiples partes interesadas, múltiples sistemas y múltiples puntos de falla potencial.

Convirtiendo la cultura en una superficie de control

Si el riesgo se acumula en los hábitos del día a día, la resiliencia debe construirse en el mismo lugar. La cultura es más que un habilitador de buenas prácticas. Se convierte en un mecanismo para mantener el control a medida que los sistemas escalan.

Ese principio se refleja en la regulación. La Ley de IA de la Unión Europea establece requisitos para sistemas de alto riesgo, incluidas evaluaciones de conformidad y códigos de práctica voluntarios, pero gran parte de la responsabilidad de integrar la gobernanza en las rutinas cotidianas aún recae en las organizaciones que los despliegan.

En el Reino Unido, el Código de Práctica de Ciberseguridad de IA del Departamento de Ciencia, Innovación y Tecnología sigue un enfoque similar, emparejando principios de alto nivel con orientación práctica que ayuda a las empresas a convertir la política en normas de trabajo.

Investigación y programas de reconocimiento

La investigación y los programas de reconocimiento apuntan en la misma dirección. Los estudios del desarrollo de IA en el mundo real, como la iniciativa LASR del Reino Unido, muestran cómo la comunicación, las transferencias y las suposiciones entre equipos dan forma a la confianza tanto como los modelos mismos.

Iniciativas como los Premios Nacionales de IA luego destacan organizaciones que están poniendo la gobernanza cultural en práctica y estableciendo estándares más claros de madurez. Para las empresas, la tarea ahora es hacer que la claridad cultural sea una parte más integrada del diseño operativo.

Cuanto más puedan los equipos confiar en normas compartidas, propiedad visible y toma de decisiones consistente, más resilientes se volverán sus sistemas de IA con el tiempo.

El desafío de la IA agéntica: insiders digitales

La llegada de la IA agéntica, sistemas autónomos que pueden razonar, planificar, actuar y adaptarse sin supervisión humana, introduce una nueva capa de complejidad a estos desafíos culturales. Autónomos y orientados a objetivos, los sistemas de IA agéntica pueden iniciar acciones, colaborar entre silos y tomar decisiones que afectan los resultados comerciales sin intervención humana.

Un número creciente de organizaciones ahora están explorando o desplegando sistemas de IA agéntica, que se proyecta ayudarán a desbloquear entre 2.6 y 4.4 billones de dólares anuales en valor en más de sesenta casos de uso de IA generativa, incluido servicio al cliente, desarrollo de software, optimización de la cadena de suministro y cumplimiento.

Pero mientras la IA agéntica tiene el potencial de entregar un valor inmenso, la tecnología también presenta una variedad de nuevos riesgos, introduciendo vulnerabilidades que podrían interrumpir operaciones, comprometer datos sensibles o erosionar la confianza del cliente. Los agentes de IA no solo proporcionan nuevos puntos de entrada externos para posibles atacantes, sino que debido a que pueden tomar decisiones sin supervisión humana, también introducen riesgos internos novedosos.

En términos de ciberseguridad, podrías pensar en los agentes de IA como insiders digitales, entidades que operan dentro de sistemas con niveles variables de privilegio y autoridad. Al igual que sus contrapartes humanas, estos insiders digitales pueden causar daño involuntariamente, a través de mala alineación, o deliberadamente si se ven comprometidos. Ya el 80 por ciento de las organizaciones dicen que han encontrado comportamientos riesgosos de agentes de IA, incluida exposición indebida de datos y acceso a sistemas sin autorización.

Para adoptar la IA agéntica de manera segura, las organizaciones pueden tomar un enfoque estructurado y por capas. El viaje comienza con actualizar los marcos de riesgos y gobernanza, se mueve a establecer mecanismos de supervisión y conciencia, y concluye con implementar controles de seguridad.

Los datos sobre supervisión empresarial revelan la brecha

Los datos recientes subrayan cuán grande es la brecha entre la adopción de IA y la madurez de gobernanza. Solo el 12 por ciento de las empresas dicen sentirse muy preparadas para evaluar, gestionar y recuperarse de riesgos de IA y gobernanza de IA, con el 42 por ciento sin políticas para gobernar el uso de IA por parte de los empleados y el 75 por ciento sin planes dedicados para abordar riesgos de IA generativa.

Sin embargo, casi la mitad de las empresas Fortune 100 ahora citan específicamente el riesgo de IA como parte de las responsabilidades de supervisión de la junta, según una nueva investigación del Centro de Asuntos de la Junta de EY, un aumento de tres veces desde el 16 por ciento el año pasado hasta el 48 por ciento en 2025.

El análisis de EY de ochenta presentaciones y declaraciones de empresas Fortune 100 indica que las juntas están expandiendo significativamente sus divulgaciones de gobernanza tecnológica. La experiencia relacionada con IA en biografías de directores y matrices de habilidades saltó al 44 por ciento desde el 26 por ciento en 2024, mientras que el 40 por ciento de las empresas ahora asignan supervisión de IA a al menos un comité a nivel de junta, en comparación con solo el 11 por ciento el año anterior.

Los comités de auditoría siguen siendo el lugar más común para la supervisión de ciberseguridad en el 78 por ciento de las empresas, aproximadamente lo mismo que se informó durante los últimos tres años. Las tecnologías emergentes como la IA generativa están destinadas a cambiar los modelos de negocio e impactar la ciberseguridad. A medida que el phishing y la ingeniería social se vuelven más avanzados, las juntas pueden necesitar abordar problemas más amplios de riesgo cibernético, incluida la cultura de riesgo y el apetito de riesgo.

El imperativo de liderazgo: del departamento del no al habilitador

Para los directores de seguridad de la información, encontrar ese equilibrio entre seguridad y velocidad es crítico en la era de IA. Esta tecnología representa simultáneamente la mayor oportunidad y el mayor riesgo que las empresas han enfrentado desde los albores de internet.

Los directores de seguridad de la información no pueden liderar un departamento del no donde las iniciativas de adopción de IA se ven obstaculizadas por la función de seguridad de la organización. Es crucial en cambio encontrar un camino hacia el sí, mapeando la gobernanza a la tolerancia al riesgo organizacional y las prioridades comerciales para que la función de seguridad sirva como un verdadero habilitador de ingresos.

Cuando ChatGPT llegó por primera vez en noviembre de 2022, la mayoría de los directores de seguridad de la información que conozco se apresuraron a publicar políticas estrictas que les decían a los empleados qué no hacer. Vino de un lugar de intención positiva considerando que la fuga de datos sensibles era una preocupación legítima. Sin embargo, aunque las políticas escritas desde ese enfoque de documento hacia atrás son geniales en teoría, rara vez funcionan en la práctica.

Debido a lo rápido que está evolucionando la IA, la gobernanza de IA debe diseñarse a través de una mentalidad de mundo real hacia adelante que tenga en cuenta lo que realmente está sucediendo en el terreno en las organizaciones. La gobernanza efectiva no funciona de esa manera. Debe ser un sistema vivo que dé forma a cómo se usa la IA todos los días, guiando a las organizaciones a través del cambio transformador seguro sin frenar el ritmo de innovación.

Principio fundamental de gobernanza adaptativa de IA

El enfoque de tres pilares: privacidad, ciberseguridad y legal

Las organizaciones que integran experiencia en privacidad, ciberseguridad y legal en su estrategia de IA obtienen un enfoque holístico para la gestión de riesgos y el desarrollo ético de IA. Están estratégicamente posicionadas para anticipar regulaciones emergentes de IA y marcos de gobernanza, incorporar principios de seguridad por diseño y privacidad por diseño en el desarrollo de IA, y mitigar riesgos de responsabilidad a través de políticas robustas, contratos y diligencia debida en modelos de IA e integraciones de terceros.

Cuando estas disciplinas colaboran, crean una cultura consciente del riesgo que ayuda a las organizaciones a mantenerse por delante de las amenazas mientras mantienen el cumplimiento regulatorio. La gobernanza de IA ya no se trata solo de proteger datos, se trata de crear un marco que impulse la innovación responsable mientras salvaguarda el futuro.

La ciberseguridad ha sido durante mucho tiempo la piedra angular de la protección de datos, proporcionando los controles de seguridad técnicos y organizacionales que respaldan las salvaguardas técnicas mencionadas en el RGPD. Cuando la privacidad y la ciberseguridad trabajan juntas, forman la primera línea de defensa contra los riesgos relacionados con la IA al garantizar que los sistemas de IA manejen datos personales de manera segura, detectar accesos no autorizados o modificaciones a modelos de IA, y proteger contra ataques adversariales que explotan vulnerabilidades de algoritmos.

Construyendo gobernanza de IA por diseño

Es importante facilitar la observabilidad de un sistema de IA habilitando los registros apropiados en cada capa. El sistema de IA debe ser monitoreado continuamente para varios parámetros relacionados con el funcionamiento del algoritmo para poder identificar y detectar cualquier error, seguridad o problemas del sistema. Métricas clave como precisión, exactitud, robustez y deriva del modelo deben rastrearse y los resultados se usan para ajustar y corregir los modelos.

Este monitoreo constante es crucial para identificar cómo se comporta el modelo para varias entradas, derivas de rendimiento del modelo, equidad continua del modelo o cualquier problema subyacente de ciberseguridad. La pieza más importante es integrar estas actividades de gobernanza con los procesos rutinarios de una organización y enfocarse en evaluación periódica de riesgos e implementación de controles clave que aborden los riesgos únicos de la IA.

Evaluación de riesgos en dos niveles

Las evaluaciones de riesgos de IA deben realizarse en dos niveles: organizacional (macroscópico) y sistémico (microscópico). Los riesgos a nivel macro son generalizados, evaluados a nivel de empresa e involucran a la alta dirección. Se evalúa la preparación organizacional para la IA y se consideran factores de riesgo como la relevancia y complejidad de la IA, disponibilidad de recursos (personas, computación y herramientas), capacidad de implementar gobernanza de datos sólida, y riesgos legales y de cumplimiento.

El impacto de los sistemas de IA depende del contexto en el que se implementa: su entorno operativo y cómo pueden interpretarse los resultados. Por lo tanto, los riesgos a nivel micro se evalúan a un nivel granular, típicamente para cada modelo o el caso de uso como tal. Debe considerarse la aplicabilidad de los diversos principios de IA al caso de uso específico y debe evaluarse el impacto del sistema en individuos, grupos de individuos, comunidades u organizaciones.

Es crítico crear una cultura de gobernanza que equilibre la seguridad de IA y la innovación. Una cultura de gobernanza de inteligencia artificial que equilibra seguridad e innovación es importante para tratar efectivamente con los riesgos de IA y mejorar la confiabilidad de los sistemas de IA.

Mirando hacia adelante: claridad como fundamento

A medida que la IA se convierte en parte de la toma de decisiones cotidiana, el enfoque del liderazgo debe cambiar del rendimiento individual del modelo al entorno más amplio en el que operan esos sistemas. Eso significa ir más allá de las correcciones a nivel de proyecto e invertir en el tejido conectivo entre equipos, las rutinas, foros y hábitos que dan al desarrollo de IA la estructura para escalar de manera segura.

Construir esa madurez lleva tiempo, pero comienza con claridad. Claridad de propiedad, de cambio y de contexto. Las organizaciones que progresen serán aquellas que traten la cultura no como una habilidad blanda, sino como un activo de trabajo, algo para ser revisado, dotado de recursos y mejorado continuamente.

Esta estructura cultural es lo que en última instancia dará forma a la seguridad. A través de hábitos integrados que hacen que el riesgo sea más fácil de ver, sacar a la superficie y actuar a medida que la IA se vuelve más fundamental para cómo operan las empresas hoy.

El futuro de la IA en el trabajo no es solo más rápido o más inteligente. Es más autónomo. Los agentes iniciarán cada vez más acciones, colaborarán entre silos y tomarán decisiones que afectan los resultados comerciales. Para que esto funcione de manera segura, las organizaciones necesitan más que controles técnicos robustos. Necesitan culturas organizacionales que conviertan la gobernanza en un reflejo, no en una restricción.

Las auditorías de IA no se tratan de sofocar la innovación sino de garantizar que la innovación sea sostenible, ética y segura. Las organizaciones pueden construir confianza y resiliencia identificando proactivamente riesgos, fortaleciendo la gobernanza e integrando la seguridad en los sistemas de IA. La seguridad no es un ejercicio único sino una batalla continua contra amenazas en evolución. Las organizaciones deben integrar la resiliencia en sus sistemas de IA, asegurando que puedan resistir y recuperarse de ataques.

Las decisiones impulsadas por IA tienen consecuencias de largo alcance, desde determinar solvencia crediticia hasta diagnosticar condiciones médicas. Estas decisiones deben ser explicables para que las partes interesadas comprendan cómo y por qué se toman las decisiones, éticas para que la IA se alinee con valores sociales y estándares legales, y supervisadas porque la supervisión humana es crítica para detectar errores y sesgos.

La transparencia es la moneda de confianza en la era de IA. El panorama regulatorio para la IA está evolucionando rápidamente. Marcos como la Ley de IA de la UE y el RGPD exigen transparencia, responsabilidad y equidad. A medida que la IA se vuelve más integrada en las operaciones comerciales, la pregunta ya no es si implementar gobernanza de IA, sino cuán bien esa gobernanza refleja los valores, hábitos y estructuras de coordinación de la organización que la despliega.

Referencias

Help Net Security (Steve Durbin), "AI security governance converts disorder into deliberate innovation" - sobre marcos de gobernanza organizacional (agosto 14, 2025).

SANS Institute, "Securing AI in 2025: A Risk-Based Approach to AI Controls and Governance" - sobre enfoque por capas de controles (2025).

Harvard Law School Forum on Corporate Governance, "Cyber and AI Oversight Disclosures: What Companies Shared in 2025" - sobre supervisión de juntas directivas (octubre 28, 2025).

ISACA (Yunique Demann), "The New Triad of AI Governance: Privacy, Cybersecurity and Legal" - sobre colaboración interdisciplinaria (marzo 17, 2025).

McKinsey, "Agentic AI security: Risks & governance for enterprises" - sobre IA agéntica como insiders digitales (octubre 2025).

ISACA Now Blog, "Building AI Governance by Design" - sobre evaluación de riesgos en dos niveles (2025).

Corporate Compliance Insights, "Board Oversight of AI Triples Since '24" - sobre aumento de supervisión de juntas (octubre 31, 2025).

The Hacker News, "How CISOs Can Drive Effective AI Governance" - sobre mentalidad de mundo real hacia adelante (septiembre 18, 2025).

ISACA, "Proven Strategies to Uncover AI Risks and Strengthen Audits" - sobre auditorías de IA y marcos regulatorios (2025).

Recent Posts

Generated Image November 15, 2025 - 2_58AM

La “granja de portátiles”: el arma secreta de Corea del Norte

  Cinco ciudadanos estadounidenses se declararon culpables de operar ‘granjas de portátiles’ para blan
Read More
815fb62d-1f9f-41f9-8bb7-e8bbde4e5928

De archivador a investigador: la nueva era de NotebookLM

  NotebookLM deja de ser un simple anotador. Sus nuevas funciones de investigación automatizada y generación mult
Read More

Para estar informado, Ingresá o Creá tu cuenta en MundoIA...

Sign In

Recordá revisar la carpeta de "no deseados", el correo puede llegar allí