NEWSLETTER

«Policy Cards»: La brújula ética de los agentes de IA

Generated Image October 30, 2025 - 6_43PM

«Policy Cards»: La brújula ética de los agentes de IA

El guardián en el código: 'Policy Cards'

Vivimos un momento singular, un punto de inflexión donde la ciencia ficción se está convirtiendo, a una velocidad desconcertante, en infraestructura cotidiana. La inteligencia artificial, que durante décadas fue una promesa susurrada en laboratorios de investigación, ha salido al mundo. Ya no es solo un motor de búsqueda más inteligente o un filtro fotográfico. Estamos en el amanecer de una nueva era: la de los agentes autónomos. Se trata de entidades de software capaces de percibir su entorno digital (o incluso físico), razonar sobre sus percepciones y, crucialmente, tomar acciones para alcanzar objetivos. El trabajo reciente de laboratorios como Google DeepMind, que bajo el liderazgo de figuras como Demis Hassabis ha pasado de conquistar juegos de mesa a descifrar la estructura de las proteínas, nos muestra el potencial de estas herramientas para revolucionar la ciencia y la industria.

Imaginemos un futuro cercano. Un agente de IA gestiona la red eléctrica de una ciudad, optimizando el flujo en milisegundos para evitar apagones. Otro, un analista financiero digital, opera en los mercados bursátiles, ejecutando millones de operaciones antes de que un humano pueda terminar de leer un titular. Un tercero, en un hospital, monitoriza las constantes vitales de mil pacientes simultáneamente, ajustando dosis de medicación a través de dispositivos conectados. La promesa es un mundo más eficiente, personalizado y optimizado. Pero bajo esta promesa late una ansiedad profunda, una pregunta que define nuestro tiempo: ¿quién vigila a los vigilantes digitales?

El problema es uno de escala y, sobre todo, de velocidad. Los sistemas de gobernanza humanos (leyes, regulaciones, auditorías, comités de ética) operan a la velocidad de la deliberación. La IA autónoma opera a la velocidad de la electricidad. Cuando un agente toma una decisión de alto riesgo en microsegundos, ¿cómo podemos asegurarnos de que se alinea con nuestras leyes, con la ética de la organización o simplemente con el sentido común? El método tradicional de "auditoría post-hoc", es decir, revisar lo que salió mal después de que ha ocurrido el desastre, es trágiamente inadecuado. Es como intentar dirigir un bólido de Fórmula 1 enviando cartas por correo postal.

Este es el "vacío de gobernanza" en el corazón de la revolución de la IA. Y es precisamente en este vacío donde se inserta una nueva y elegante propuesta, no desde el ámbito de la filosofía o la ley, sino desde la ingeniería pura. Un reciente artículo titulado "Policy Cards: Machine-Readable Runtime Governance for Autonomous AI Agents" (Tarjetas de Política: Gobernanza en tiempo de ejecución legible por máquina para agentes de IA autónomos), publicado por Juraj Mavračić de Symbiotic Dynamics Ltd., ofrece una de las soluciones más prácticas y profundas hasta la fecha.

La idea central es tan potente como intuitiva. Si el problema es que los agentes actúan demasiado rápido para la supervisión humana, la solución no es ralentizar a los agentes, sino acelerar la supervisión. Debemos construir la gobernanza *dentro* del propio software. El documento propone un nuevo estándar técnico llamado "Policy Cards".

¿Qué es una Policy Card? No es un documento PDF con "principios éticos" que un programador debe leer. Es un artefacto digital, un archivo de configuración estructurado (en formatos como YAML o JSON) que "viaja con" el agente de IA. Es, en esencia, su brújula moral y legal codificada. Este archivo le dice al agente, en un lenguaje que puede entender instantáneamente, lo que *debe* y lo que *no debe* hacer, no como una sugerencia, sino como una restricción operativa.

Para entender su novedad, hay que distinguirlas de sus predecesoras. En la última década, han surgido conceptos como las "Model Cards" (Tarjetas de Modelo) y "Data Cards" (Tarjetas de Datos). Estas herramientas de transparencia son descriptivas: le dicen a un humano cómo se construyó un modelo, qué datos se usaron y qué sesgos podría tener. Son como la etiqueta de ingredientes de un alimento. Pero una Policy Card es diferente. No es descriptiva, es *normativa*. No es una etiqueta de ingredientes; es el manual de recetas y las reglas de seguridad de la cocina en un formato que el propio chef-robot no puede ignorar. Y, lo más importante, no es para ser leída antes de la implementación, sino para ser ejecutada *durante* la implementación, en "tiempo de real" o *runtime*.

Este documento propone que cada agente autónomo lleve consigo este guardián digital. La tarjeta define sus reglas de enfrentamiento: las "líneas rojas" que no puede cruzar (reglas de denegación), las acciones que está *obligado* a realizar (obligaciones, como registrar una transacción o informar al usuario de que es una IA), y los requisitos de "evidencia" o prueba de que ha cumplido con todo. Quizás la parte más brillante es su función como "piedra Rosetta": la tarjeta mapea estas rules técnicas de bajo nivel con las cláusulas específicas de las grandes regulaciones de alto nivel, como la Ley de IA de la UE (EU AI Act), la norma ISO/IEC 42001 o el Marco de Gestión de Riesgos de IA del NIST. Por fin, ofrece un puente tangible entre la sala de juntas del legislador y la terminal del ingeniero.

El creciente abismo de la autonomía

Para apreciar la magnitud de la solución que proponen las Policy Cards, primero debemos sumergirnos por completo en la naturaleza del problema. La paradoja de la IA moderna es que su mayor fortaleza, la autonomía, es también su mayor riesgo. Queremos sistemas que puedan operar sin intervención humana constante, que aprendan, se adapten y tomen decisiones óptimas en entornos complejos y cambiantes. Pero cada grado de autonomía que otorgamos es, por definición, un grado de control directo que cedemos.

Los sistemas de software tradicionales eran deterministas. Seguían un camino predecible. Si ocurría un error, era un "bug", un fallo en la lógica prescrita por el programador. Podíamos rastrearlo y arreglarlo. Los sistemas de IA modernos, especialmente los basados en aprendizaje profundo, son fundamentalmente diferentes. Son probabilísticos. Aprenden de vastas cantidades de datos y desarrollan comportamientos "emergentes" que ni siquiera sus creadores pueden predecir por completo. No podemos simplemente "abrir el capó" y señalar la línea de código responsable de una mala decisión.

Esto crea el "vacío de gobernanza". Las empresas han intentado llenarlo con comités de ética, revisiones de impacto y auditorías de sesgo. Si bien son pasos necesarios, todos sufren del mismo defecto fatal: son lentos y operan fuera del bucle de decisión del sistema. Una auditoría que descubre, seis meses después, de que un agente de IA estuvo discriminando sistemáticamente en las solicitudes de préstamos, llega seis meses tarde. El daño ya está hecho, la confianza se ha roto y las consecuencias legales y de reputación son inmensas.

La propuesta de Mavračić ataca este problema de raíz. Traslada la gobernanza desde el mundo lento y reactivo de los humanos al mundo instantáneo y proactivo de las máquinas. El concepto clave es "gobernanza en tiempo de ejecución". Esto significa que las reglas no se comprueban una vez al año en una auditoría, sino cada vez que el agente intenta realizar una acción. Es un cambio de un modelo de "confiar pero verificar" a uno de "verificar para poder ejecutar".

Este enfoque, a veces llamado "compliance-as-code" (cumplimiento como código), busca tratar el cumplimiento regulatorio y ético con el mismo rigor de ingeniería que se aplica al rendimiento del software. En lugar de ser un documento legal ambiguo, la política se convierte en un conjunto de pruebas automatizadas y barreras de seguridad. El trabajo sobre las Policy Cards proporciona un estándar universal para hacer exactamente esto, creando un lenguaje común para que los equipos de gobernanza, legal e ingeniería colaboren.

Anatomía de una conciencia digital

¿Qué contiene exactamente una de estas "tarjetas de política"? Su poder reside en su estructura. Es un documento legible por humanos (para que los equipos legales y de cumplimiento puedan escribirlo y entenderlo) pero, ante todo, es legible por máquinas (para que el sistema pueda aplicarlo a la velocidad del rayo). La estructura propuesta en el artículo es un modelo de claridad.

Primero, están los metadatos y el alcance (`meta` y `scope`). Esta es la "portada" del documento. ¿Quién escribió esta política? ¿Qué versión es? Y, lo más importante, ¿dónde se aplica? Una política para un agente de IA en un entorno de prueba ("sandbox") será muy diferente de una para un sistema en producción. Una política para un agente que opera en Europa (bajo el GDPR y la Ley de IA) tendrá restricciones diferentes a una que opera en otra jurisdicción.

Luego viene el núcleo del sistema: los controles (`controls`). Aquí es donde la ética se vuelve código. Estos se dividen en dos categorías lógicas. Por un lado, las reglas de "denegación" (`deny`), que son las líneas rojas absolutas. "No accederás a la base de datos de información de identificación personal (PII) sin encriptación". "No ejecutarás una transacción financiera por encima de X cantidad sin aprobación humana". Estas son las barreras de seguridad, el "no" rotundo del sistema.

Pero la parte más sutil, y quizás más innovadora, son las "obligaciones" (`obligations`). La gobernanza no se trata solo de prevenir lo malo; también se trata de asegurar lo bueno. Una obligación es una acción que el agente *debe* realizar. Por ejemplo: "Si un usuario te pregunta si eres un IA, *debes* revelarlo". "Antes de ejecutar una operación que borre datos, *debes* crear un registro de auditoría". "Si manejas datos de salud, *debes* registrar el consentimiento explícito del paciente". Esta capacidad de hacer cumplir deberes positivos, no solo prohibiciones negativas, es un salto cualitativo en la madurez de la gobernanza de la IA.

Finalmente, la tarjeta define cómo se verifica todo esto. Las secciones de monitoreo (`monitoring`) y requisitos probatorios (`evidentiary requirements`) detallan qué debe registrarse (`logging`), qué indicadores clave de rendimiento (KPIs) de cumplimiento se rastrearán y cómo el sistema puede *probar* que siguió las reglas. No basta con decir "No accedí a los datos PII". El sistema debe ser capaz de generar un informe que *demuestre* que, cuando se enfrentó a la oportunidad, la regla de denegación se activó correctamente. Esto crea un rastro de auditoría inmutable y automatizado, convirtiendo la auditoría de un evento de pánico de una vez al año a un proceso de fondo continuo.

La piedra Rosetta de la regulación

La verdadera genialidad del estándar de las Policy Cards reside en una de sus secciones menos llamativas a primera vista: los "crosswalks" o mapeos de correspondencia. Esta es la característica que construye el puente sobre el abismo que separa a los abogados de los ingenieros.

Pensemos en el desafío actual. Un equipo de cumplimiento en un banco lee la nueva Ley de IA de la UE. Identifican una cláusula, digamos el Anexo IV-4, que exige "supervisión humana y control" sobre los sistemas de alto riesgo. El equipo legal traduce esto en un documento de política interna de 50 páginas. Luego, se lo entregan al equipo de ingeniería y les dicen: "Asegúrense de que el nuevo agente de comercio de IA cumpla con esto".

El ingeniero, que piensa en términos de APIs, funciones y latencia, se queda perplejo. ¿Qué significa "supervisión humana" en términos de código? ¿Es una alerta emergente? ¿Un botón de "aprobación"? ¿Ralentizar el sistema? La ambigüedad es total. La "intención" de la ley se pierde en la traducción.

Aquí es donde entra el "crosswalk". Dentro de la Policy Card, el ingeniero define una regla de control muy específica. Este diagrama ilustra el flujo de traducción:

🏛️
1. Regla Legal
"Debe haber supervisión humana..." (Ej. Ley de IA de la UE)
📋
2. Policy Card (Crosswalk)
crosswalk: 'EU-AI-Act-IV-4'
🔧
3. Control Técnico
deny(op > 1M, human_approval == false)

Por ejemplo, el ingeniero define una regla de control muy específica:

control: deny(transaction_amount > 1000000, approval_human == false)

Esta es una regla de ingeniería clara. Pero justo debajo, en la sección crosswalks, el equipo de gobernanza añade una etiqueta:

crosswalk: EUAA-AnnexIV-4

Y de repente, la magia ocurre. El ingeniero ha implementado una regla técnica. El abogado ha vinculado esa regla directamente a la ley. El sistema ahora no solo *cumple* con la política interna; puede *demostrar* criptográficamente qué línea de código específica está satisfaciendo qué línea específica de la regulación. Un auditor ya no tiene que leer 50 páginas de jerga legal y luego 50.000 líneas de código para ver si coinciden. Puede ejecutar un script que verifique automáticamente: "¿Existe un control técnico etiquetado con `EUAA-AnnexIV-4`? Sí. Auditoría superada".

Esto convierte el cumplimiento de algo abstracto y cualitativo en algo concreto y cuantitativo. Permite a las organizaciones gestionar el cumplimiento a escala. Pueden ver instantáneamente su "postura de cumplimiento": qué porcentaje de las regulaciones requeridas están cubiertas por controles de Policy Cards. Si se actualiza la ley, simplemente pueden actualizar las tarjetas y distribuirlas a todos sus agentes en segundos. Es, sin exagerar, una piedra Rosetta que permite a la ley y al código hablar el mismo idioma.

Un ecosistema de control en movimiento

Una tarjeta de política por sí sola es solo un documento. Su poder se materializa en el ecosistema de tiempo de ejecución que la hace cumplir. El artículo describe una arquitectura elegante, inspirada en marcos de seguridad informática bien establecidos, para dar vida a estas reglas. No necesitamos inventar todo desde cero; podemos adaptar la infraestructura de seguridad que ya usamos.

Este diagrama de flujo muestra cómo los componentes interactúan en tiempo real:

Flujo de Gobernanza en Tiempo de Ejecución
👤
Agente de IA
"Quiero ejecutar la Acción X"
🚦
PEP
(Punto de Aplicación)
Intercepta la solicitud
⚖️
PDP
(Punto de Decisión)
Consulta la 📋 Policy Card
"Respuesta: Permitido / Denegado"
📊
PMP
(Punto de Monitoreo)
Registra la decisión
🚫
ACCIÓN DENEGADA
✔️
ACCIÓN PERMITIDA

Visualicemos el proceso en tiempo real. Un agente de IA, un "trabajador" digital, está a punto de realizar una acción, como "llamar a la API de la base de datos de clientes".

Antes de que pueda hacerlo, su solicitud es interceptada por un componente llamado "Policy Enforcement Point" (PEP), o Punto de Aplicación de Políticas. Pensemos en el PEP como un "supervisor" que se sienta en el hombro del agente. El supervisor detiene al agente y le dice: "Espera. Déjame verificar si tienes permiso para hacer eso".

El supervisor (PEP) no toma la decisión por sí mismo. Llama a un componente centralizado, el "Policy Decision Point" (PDP), o Punto de Decisión de Políticas. Este es el "departamento central de cumplimiento" que tiene la versión maestra y más reciente de la Policy Card. El PEP le pregunta al PDP: "El Agente-Financiero-087 quiere `read(database_customer_pii)`. ¿Está permitido?".

El PDP consulta la Policy Card correspondiente. Lee la regla `deny: read(database_customer_pii)` y responde al instante: "No. Denegado". El PEP recibe la respuesta y bloquea la acción del agente. El agente nunca llega a infringir la política.

Ahora, consideremos una solicitud más compleja. El agente quiere "ejecutar una transacción de 500 dólares". El PEP pregunta al PDP. El PDP consulta la tarjeta y encuentra una "obligación": `obligation: must_call(log_transaction)`. El PDP responde: "Sí, permitido, *pero* solo si también se cumple la obligación de registrarlo". El PEP permite que la transacción se realice y luego se asegura de que la llamada de registro también se ejecute. Si el agente intentara hacer la transacción *sin* el registro, el PEP lo bloquearía.

Mientras todo esto sucede, un tercer componente, el "Policy Monitoring Point" (PMP) o Punto de Monitoreo de Políticas, actúa como el auditor silencioso. Está recopilando todos los registros (la "evidencia") de estas decisiones. Está observando: ¿El PEP detuvo con éxito la acción denegada? ¿Se cumplió la obligación de registro? Estos datos fluyen a un panel donde los humanos pueden ver, en tiempo real, que el sistema no solo *tiene* reglas, sino que las *está siguiendo*.

Esta arquitectura de tres partes (PEP, PDP, PMP) es la maquinaria que convierte la Policy Card de un documento estático en un sistema de gobernanza vivo, activo y en tiempo de ejecución. Es robusto, escalable y, lo más importante, verificable.

El horizonte de la confianza distribuida

Las implicaciones de este trabajo van más allá de una sola empresa que gestiona sus propios agentes. El verdadero futuro de la IA reside en los "sistemas multiagente": ecosistemas complejos donde miles de agentes de IA de diferentes empresas, organizaciones e individuos interactúan entre sí. Pensemos en un agente de reservas de viajes que negocia con los agentes de las aerolíneas, los hoteles y las compañías de alquiler de coches para planificar unas vacaciones.

En un mundo así, ¿cómo se establece la confianza? ¿Cómo sabe el agente de la aerolínea que el agente de viajes de terceros no va a hacer un mal uso de los datos del pasaporte del cliente? Aquí es donde las Policy Cards revelan su potencial más profundo: la "garantía distribuida".

El artículo sugiere que los agentes podrían intercambiar y publicar sus Policy Cards como una forma de "apretón de manos" digital. Antes de interactuar, el agente de la aerolínea podría solicitar la Policy Card del agente de viajes. Podría leerla automáticamente y verificar: "¿Esta tarjeta contiene una obligación estricta de `deny(share_pii_externally)`? ¿Contiene un `crosswalk` a la regulación GDPR? Sí. Es seguro interactuar".

Esto crea una red de confianza verificable, una "web of trust" para la IA, donde la colaboración no se basa en la reputación de la marca, sino en reglas codificadas y demostrables. Un pequeño desarrollador podría crear un agente que se demuestre tan fiable como uno de una gran corporación, simplemente adoptando un estándar de Policy Card robusto. Esto podría democratizar el acceso a la economía de la IA y fomentar un ecosistema de innovación más seguro.

El desafío de la autonomía responsable

El trabajo sobre las Policy Cards no es una bala de plata. No resuelve los desafíos fundamentales del sesgo algorítmico en la fase de entrenamiento, ni la pregunta filosófica de qué valores debemos codificar en primer lugar. Pero esa no es su pretensión. Su pretensión es algo mucho más humilde y, por lo tanto, mucho más útil: ofrece un mecanismo práctico, un conjunto de herramientas de ingeniería, para cerrar la brecha entre nuestras intenciones y la ejecución real.

Vivimos en una era de "grandes desafíos". La IA nos ha dado herramientas para afrontarlos, desde el descubrimiento de fármacos hasta la modelización del clima. Pero la propia IA se ha convertido en un gran desafío de gobernanza. ¿Cómo empuñamos esta herramienta de poder sin precedentes de forma responsable?

La propuesta de las Policy Cards es una respuesta crucial. Es la plomería necesaria para una IA ética. Traslada la conversación sobre la "ética de la IA" del abstracto mundo de los principios al concreto mundo de la implementación. Proporciona un lenguaje para que los ingenieros, los abogados y los responsables de la ética construyan juntos, no en silos separados.

Este estándar no es un "interruptor de apagado" para la IA. Es algo mucho más sofisticado: es un "gobernador", en el sentido de la ingeniería de una máquina de vapor. Es un mecanismo que permite al sistema funcionar a gran velocidad, pero que lo frena de forma autónoma antes de que se descontrole y explote. Al proporcionar un marco para la "autonomía responsable", este trabajo no busca limitar el potencial de la IA, sino permitir que ese potencial se desarrolle de forma segura y sostenible. Es la base técnica sobre la cual podemos empezar a construir una confianza real en los sistemas autónomos que definirán el próximo siglo.

Fuentes y referencias

Mavračić, J. (2025). Policy Cards: Machine-Readable Runtime Governance for Autonomous AI Agents. arXiv:2510.24383 [cs.AI]. DOI: 10.5281/zenodo.17464706.

Gebru, T., et al. (2018). Model Cards for Model Reporting. Proceedings of the Conference on Fairness, Accountability, and Transparency (FAT*).

Pushkarna, M., et al. (2022). Data Cards: On the Tensions and Potential of Fine-grained Data Documentation. Proceedings of the ACM Conference on Fairness, Accountability, and Transparency (FAccT).

NIST (2023). Artificial Intelligence Risk Management Framework (AI RMF 1.0). National Institute of Standards and Technology.

Unión Europea (2024). Propuesta de Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de inteligencia artificial (Ley de Inteligencia Artificial).

ISO/IEC (2023). ISO/IEC 42001: Information technology — Artificial intelligence — Management system. Organización Internacional de Normalización.

Publicaciones Recientes

Generated Image October 31, 2025 - 12_03AM

Google NotebookLM multiplica por 8 su capacidad: 1 millón de tokens y memoria extendida

  La herramienta de investigación potenciada por IA de Google implementa la ventana de contexto completa de Gemini
Leer Más
Generated Image October 30, 2025 - 11_52PM

Salud multimodal: La IA que entiende al paciente completo

Estamos en el epicentro de una transformación tecnológica tan profunda que apenas comenzamos a vislumbrar sus contorno
Leer Más

Para estar informado, Ingresá o Creá tu cuenta en MundoIA...

Entrar

Recordá revisar la carpeta de "no deseados", el correo puede llegar allí