Sin embargo, esta luminosa promesa proyecta una sombra igualmente vasta. Por cada avance celebrado, crece una ansiedad colectiva. Las preocupaciones ya no son abstractas; son inmediatas y personales. ¿Qué pasará con nuestros empleos cuando una máquina pueda realizar tareas cognitivas complejas? ¿Cómo protegemos nuestra privacidad en un mundo de vigilancia algorítmica? ¿Cómo nos aseguramos de que los sistemas que toman decisiones sobre hipotecas, diagnósticos médicos o fianzas penales no perpetúen y amplifiquen los peores sesgos de nuestra sociedad? ¿Y qué hay de las armas autónomas o de los riesgos existenciales que algunas de las mentes más brillantes del planeta, incluidos los propios creadores de la tecnología, han comenzado a articular con creciente urgencia?
En el corazón de esta dualidad, en el tenso equilibrio entre la utopía y la distopía, se encuentra la pregunta más importante de nuestro siglo: ¿cómo gobernamos esta fuerza? ¿Cómo nos aseguramos de que la inteligencia artificial sirva a los intereses de la humanidad en su conjunto, y no solo a los de un puñado de corporaciones o estados?
En las democracias liberales, la respuesta, al menos en teoría, es clara: a través de la deliberación pública. El pilar de la gobernanza legítima es el consentimiento y la participación de los gobernados. Se supone que los legisladores y reguladores, antes de trazar el rumbo de algo tan transformador, deben detenerse y escuchar. Deben preguntar a la ciudadanía cuáles son sus miedos, sus esperanzas y sus líneas rojas. Este proceso, conocido formalmente como "consulta pública", es el mecanismo sagrado por el cual la voz del pueblo se traduce en política pública.
Confiamos en que este diálogo está ocurriendo. Los gobiernos de todo el mundo, conscientes de la magnitud del desafío, han iniciado consultas, convocado comités y publicado borradores de políticas. Nos dicen que están buscando activamente la opinión pública. Pero, ¿lo están haciendo realmente? ¿Están escuchando?
Un nuevo y meticuloso informe de investigación, titulado "Lost in Translation: Policymakers are not really listening to Citizen Concerns about AI" (Perdidos en la traducción: los responsables políticos no están escuchando realmente las preocupaciones de los ciudadanos sobre la IA), arroja un jarro de agua fría sobre esta reconfortante suposición. El trabajo, firmado por Susan Ariel Aaronson y Michael Moreno, presenta una conclusión tan sobria como devastadora: el diálogo es, en gran medida, una ficción.
La investigación de Aaronson y Moreno es una autopsia de un proceso fallido. Revela una brecha persistente y profunda entre el gesto de preguntar y el acto de escuchar. Los legisladores están, en efecto, buscando comentarios públicos. Los ciudadanos, por su parte, tienen opiniones contundentes y desean ser escuchados. El problema es que, en el vasto espacio burocrático que media entre ambos, el mensaje se pierde. Se disipa en un éter de mala planificación, herramientas inadecuadas e indiferencia institucional.
Este análisis compara meticulosamente los procesos formales de consulta en tres naciones muy diferentes: Australia, Colombia y Estados Unidos. Tres países con distintos sistemas políticos, niveles de desarrollo tecnológico y culturas cívicas. Y en los tres, el resultado es el mismo. Los gobiernos no se esforzaron por obtener comentarios diversos; la participación ciudadana fue infinitesimal; y, lo más crítico de todo, los funcionarios no parecieron receptivos a lo que oyeron. No lograron, o no quisieron, crear lo que los autores llaman un "bucle de retroalimentación".
El resultado es una oportunidad monumental perdida. En el preciso momento en que la confianza pública es el activo más valioso para navegar la revolución de la IA, las acciones de quienes toman las decisiones la están minando activamente. Estamos construyendo el futuro de la inteligencia artificial sobre una base de silencio e incomprensión.
La anatomía de una invitación fallida
El núcleo del problema que exponen Aaronson y Moreno no es la falta de voluntad del público para hablar, sino un fracaso fundamental en el diseño de la invitación. Los investigadores lo denominan un "problema de marketing del lado de la oferta". En términos sencillos, los gobiernos abrieron un canal de comunicación, pero hicieron un trabajo pésimo para que la gente lo supiera o pudiera usarlo.
Para que una consulta pública sea genuinamente democrática, debe cumplir dos condiciones básicas: accesibilidad y diversidad. No basta con publicar un aviso en un rincón oscuro del sitio web de un ministerio, redactado en una jerga legalista e impenetrable. No basta con invitar a los "sospechosos habituales": grupos de presión de la industria, académicos y organizaciones no gubernamentales que ya tienen un asiento en la mesa. El objetivo debe ser alcanzar al ciudadano común: al maestro, al conductor de camión, a la enfermera, al pequeño empresario.
El informe revela que las tres naciones estudiadas fracasaron estrepitosamente en este aspecto. No hubo campañas proactivas de divulgación pública. No se hicieron esfuerzos para traducir los complejos documentos sobre los riesgos de la IA a un lenguaje que el público general pudiera entender y sobre el que pudiera opinar. No se proporcionó a los ciudadanos la información contextual que necesitaban para formular respuestas significativas.
El resultado de esta negligencia es predecible. En cada uno de los países, menos del uno por ciento de la población respondió a la convocatoria. Esta cifra es un fracaso rotundo. No refleja apatía ciudadana; refleja un fracaso institucional. Demuestra que el proceso no fue diseñado para el público, sino como un ejercicio burocrático para poder marcar una casilla.
El Silencio Enseordecedor: Tasa de Respuesta Pública
El hallazgo más alarmante del estudio es el fracaso casi total de la participación pública. En las tres naciones analizadas, la tasa de respuesta a las convocatorias formales fue infinitesimal, no alcanzando ni el 1% de la población.
Este gráfico ilustra la abrumadora falta de compromiso, un fracaso clave que el informe atribuye a un "problema de marketing del lado de la oferta" por parte de los gobiernos.
Este fracaso en la divulgación tiene una consecuencia perniciosa: sesga la muestra. Quienes sí responden son aquellos con los recursos, el tiempo y la experiencia técnica para navegar el laberinto. Son los lobistas de las grandes tecnológicas, que buscan suavizar la regulación, y los grupos de interés especializados. La voz que se ausenta es precisamente la más necesaria: la de aquellos que serán más afectados por la disrupción de la IA, la de las comunidades marginadas que corren mayor riesgo de sufrir los sesgos algorítmicos, la de los trabajadores cuya subsistencia pende de un hilo.
Al no buscar activamente estas voces, los reguladores no solo obtienen una imagen distorsionada de las preocupaciones públicas, sino que refuerzan las estructuras de poder existentes. El proceso, en lugar de democratizar el debate sobre la IA, lo elitiza aún más, convirtiéndolo en un diálogo exclusivo entre el poder político y el poder corporativo.
Composición de la Participación: Real vs. Ideal
La falta de divulgación sesga la muestra. En lugar de un reflejo diverso de la sociedad, las consultas son dominadas por grupos de interés y la industria, dejando fuera al público general.
El gráfico (con datos ilustrativos) contrasta la composición real de los encuestados, dominada por la industria, con una composición ideal y diversa que reflejaría verdaderamente las preocupaciones del público.
El eco en la caja negra
El segundo gran fracaso identificado por Aaronson y Moreno es quizás aún más corrosivo para la confianza pública: la ausencia total de un "bucle de retroalimentación".
Imaginemos el proceso: un ciudadano se toma el tiempo de leer un denso documento gubernamental, reflexiona sobre sus implicaciones y escribe un comentario detallado, enviándolo con la esperanza de influir en el futuro. ¿Y qué recibe a cambio? En la mayoría de los casos, silencio.
El informe describe la formulación de políticas como una "caja negra". Las opiniones entran, pero lo que sucede con ellas en el interior es un misterio. No hay un mecanismo sistemático por el cual los funcionarios acusen recibo de las preocupaciones, las agrupen temáticamente, expliquen cuáles han sido incorporadas y, lo que es igual de importante, justifiquen por qué otras han sido desestimadas.
Los autores utilizan una frase elocuente al describir a los funcionarios: parecían "poco dispuestos e incapaces" de crear este bucle. "Incapaces" sugiere una falta de recursos o de herramientas tecnológicas adecuadas para procesar miles de comentarios de manera eficiente. "Poco dispuestos" es más grave: apunta a una falta de voluntad política, a una cultura institucional que ve la consulta pública no como una deliberación genuina, sino como un obstáculo burocrático que hay que sortear.
El Proceso de la "Caja Negra"
El informe revela que los funcionarios son "incapaces y no están dispuestos" a crear un "bucle de retroalimentación". Los comentarios del público entran en un sistema opaco y desaparecen, sin dejar rastro de su influencia en la política final.
Comentarios Públicos
Los ciudadanos envían sus preocupaciones
La "Caja Negra"
Sin bucle de retroalimentación
(Proceso opaco e inaccesible)
Política de IA Final
La influencia pública se "pierde en la traducción"
Esta falta de respuesta es fatal para el compromiso cívico. La gente no participará en un sistema que la ignora. Si los ciudadanos sienten que están gritando al vacío, simplemente dejarán de gritar. El resultado es el cinismo. Es la erosión de la fe en que las instituciones democráticas pueden gestionar los desafíos del siglo XXI.
Este silencio crea un vacío peligroso. Cuando los gobiernos no explican cómo las preocupaciones públicas están dando forma a la regulación, el público asume, con razón, que no lo están haciendo. La narrativa que se impone es la de la "captura regulatoria", la idea de que los gigantes tecnológicos, con sus ejércitos de lobistas, están escribiendo sus propias reglas. La confianza no solo se pierde; es reemplazada por la sospecha activa.
Tres países, un mismo déficit democrático
La elección de Australia, Colombia y Estados Unidos como casos de estudio es particularly reveladora. No se trata de un problema aislado de una región o de un tipo de gobierno.
Estados Unidos, el líder indiscutible en el desarrollo de la IA, con gigantes como Google, Microsoft y OpenAI definiendo el ritmo de la innovación, mostró un proceso de consulta fragmentado y, a menudo, opaco. A pesar de las numerosas iniciativas de la Casa Blanca y de agencias como la NTIA (Administración Nacional de Telecomunicaciones e Información), el esfuerzo por sintetizar la opinión pública y demostrar su impacto en la política ha sido, según el informe, insuficiente.
Australia, una potencia tecnológica media con un sólido historial de gobernanza, tampoco logró conectar con su ciudadanía. Sus esfuerzos, aunque bien intencionados, no lograron la escala ni la diversidad necesarias.
Quizás el caso más interesante sea el de Colombia. Como nación en desarrollo, Colombia se enfrenta a un conjunto diferente de desafíos: busca aprovechar la IA para el crecimiento económico y la modernización, al tiempo que es consciente de su vulnerabilidad a las brechas digitales y a las influencias externas. Su fracaso en el proceso de consulta demuestra que el problema no es exclusivo de las naciones ricas, sino un desafío estructural global para la gobernanza moderna.
El hecho de que tres países tan dispares fallen de maneras tan similares sugiere que el problema es profundo. No se trata de un simple error administrativo, sino de que nuestras herramientas de democracia del siglo XX son fundamentalmente inadecuadas para la velocidad y la complejidad de los problemas del siglo XXI. Los ciclos electorales de cuatro años y los procesos de consulta basados en documentos estáticos no pueden seguir el ritmo del desarrollo tecnológico exponencial.
Un Fracaso Global Consistente
El estudio comparó tres naciones muy diferentes (Australia, Colombia y Estados Unidos) y descubrió el mismo patrón de fracaso en todas ellas, demostrando que se trata de un problema estructural y no aislado.
Australia
Estado: Diálogo Fallido
A pesar de los procesos formales, no se logró una participación pública diversa ni un bucle de retroalimentación.
Colombia
Estado: Diálogo Fallido
La nación en desarrollo tampoco pudo salvar la brecha, perdiendo la oportunidad de adaptar la IA a sus necesidades locales.
Estados Unidos
Estado: Diálogo Fallido
El líder mundial en desarrollo de IA no logró involucrar a su propia ciudadanía de manera efectiva en la gobernanza.
Los fantasmas en la máquina: qué es lo que no se escucha
El informe de Aaronson y Moreno se centra brillantemente en el *proceso* fallido. Pero la pregunta que resuena es: ¿qué es exactamente lo que se está "perdiendo en la traducción"? ¿Cuáles son esas preocupaciones ciudadanas que no llegan a los despachos de los reguladores?
Si bien el estudio no detalla el contenido de los comentarios, sí se apoya en otras investigaciones de opinión pública, como las del Stanford HCAI (Instituto de IA Centrada en el Ser Humano de Stanford) o el Schwartz-Reisman Institute, que nos dan una imagen clara de la ansiedad pública.
La gente no está preocupada por las mismas cosas que los gobiernos o las empresas. Mientras que los debates políticos suelen centrarse en la competitividad económica (cómo "ganar la carrera de la IA") o la seguridad nacional, las preocupaciones ciudadanas son mucho más viscerales y sociales.
Los ciudadanos hablan de la desinformación y la erosión de la verdad, de cómo los "deepfakes" pueden destruir la confianza en las instituciones. Hablan del impacto en sus hijos, de la salud mental y de la adicción a los sistemas algorítmicos. Hablan de justicia y equidad, de cómo un algoritmo puede negarles una oportunidad de vida basándose en su código postal o su acento. Hablan del significado del trabajo y de la dignidad humana, de qué sociedad queremos construir si el trabajo cognitivo deja de ser un dominio exclusivamente humano.
Estas no son preocupaciones triviales. Son preguntas fundamentales sobre la cohesión social, la justicia y el futuro de nuestra especie.
Al no tener un sistema robusto para capturar, analizar y responder a estas preocupaciones, los legisladores vuelan a ciegas. Corren el riesgo de crear regulaciones "frágiles": políticas que abordan los problemas técnicos superficiales (como la transparencia del modelo) pero ignoran por completo las ansiedades sociales subyacentes (como el desplazamiento laboral masivo).
Esta desconexión es el verdadero peligro. Si el público siente que la regulación de la IA solo se ocupa de proteger los intereses de las grandes empresas y del Estado, mientras ignora sus miedos existenciales, la reacción será severa. No obtendremos una adopción reflexiva de la tecnología; obtendremos una resistencia feroz, teorías de conspiración y un rechazo generalizado, similar al que hemos visto con otras tecnologías transformadoras que fueron percibidas como impuestas desde arriba.
El alto precio de la sordera
El fracaso documentado por Aaronson y Moreno no es un simple tecnicismo académico. Es una bomba de relojería bajo el edificio de la gobernanza de la IA. Las consecuencias de esta sordera institucional son profundas y multifacéticas.
La primera y más obvia es la erosión de la confianza democrática. La IA exige un nivel de confianza pública sin precedentes. Se nos pide que confiemos en sistemas que no podemos ver ni entender para que tomen decisiones sobre nuestras vidas. Si no podemos confiar ni siquiera en el *proceso* por el cual se gobiernan estos sistemas, ¿cómo podremos confiar en los sistemas mismos?
La segunda consecuencia es la creación de políticas ineficaces. Una regulación diseñada en una cámara de eco, informada solo por expertos y lobistas, está destinada a fracasar en el mundo real. No anticipará las fricciones sociales, no abordará las preocupaciones reales de la gente y será constantemente sorprendida por las consecuencias imprevistas. Será una regulación que siempre irá un paso por detrás de la realidad, reaccionando a las crisis en lugar de prevenirlas.
La tercera consecuencia es la más peligrosa: el "déficit democrático". Si las instituciones democráticas demuestran ser incapaces de gestionar la tecnología más importante de nuestra era, ceden el campo de juego. ¿Y quién ocupa ese vacío? Dos actores: las corporaciones tecnológicas y los estados autoritarios.
En ausencia de una regulación pública robusta e informada, la gobernanza de la IA se privatiza. Son los comités de ética internos de Google, Microsoft o Meta los que, de facto, establecen las reglas. Por bien intencionados que sean, sus incentivos principales son comerciales y su lealtad es para con sus accionistas, no para con el público.
Al mismo tiempo, los regímenes autoritarios, que no se preocupan por la deliberación pública, avanzan sin trabas, utilizando la IA como una herramienta de control social, vigilancia y represión. La incapacidad de las democracias para escucharse a sí mismas se convierte en su mayor vulnerabilidad estratégica.
¿Por qué importa esta desconexión?
1. Erosión de la Confianza
Sin participación, la gobernanza se percibe como ilegítima, socavando la confianza pública en la tecnología y en los reguladores.
2. Políticas Ineficaces
Las regulaciones creadas en el vacío, sin escuchar los riesgos reales, no abordarán los problemas sociales y fracasarán en la práctica.
3. Oportunidad Perdida
Se pierde una oportunidad crucial para alinear el desarrollo de la IA con los valores democráticos y las necesidades de la sociedad.
Conclusión: más allá de la escucha, la necesidad de un nuevo diseño
La investigación de Susan Ariel Aaronson y Michael Moreno es una llamada de atención urgente. Es un espejo que nos muestra la imagen de una democracia que habla sola, ensimismada en sus propios rituales, mientras una revolución tecnológica transforma el mundo exterior.
La ironía es trágica. Tenemos la capacidad de crear máquinas que aprenden, pero parecemos haber perdido la capacidad de aprender como sociedad. Los mismos avances en inteligencia artificial que nos permiten analizar patrones complejos en el genoma o en el clima podrían usarse para revolucionar la deliberación democrática. Podríamos usar el procesamiento del lenguaje natural para analizar y sintetizar millones de comentarios públicos en tiempo real, para identificar patrones de preocupación emergentes y para facilitar debates a una escala nunca antes vista.
Pero la tecnología no es la solución. El problema, como deja claro el informe, es institucional y cultural. Requiere voluntad política.
No necesitamos simplemente "mejores consultas". Necesitamos un rediseño fundamental de la relación entre los ciudadanos y el Estado en la era digital. Necesitamos pasar de la "consulta" pasiva a la "deliberación" activa. Necesitamos instituciones que no solo pidan comentarios, sino que creen espacios informados para el debate, que vean al público no como un grupo de interés más, sino como el soberano legítimo al que deben rendir cuentas.
El trabajo que se está realizando en lugares como DeepMind para descifrar los fundamentos de la vida es una de las grandes aventuras de la ciencia humana. Pero el estudio de Aaronson y Moreno nos recuerda que la tarea paralela, la de construir una sociedad lo suficientemente sabia como para manejar ese poder, es igual de crítica.
Si fracasamos en esto, si permitimos que la gobernanza de la IA se decida en salas cerradas, divorciada de las preocupaciones de la gente, no importará cuán "inteligentes" sean nuestras máquinas. Habremos perdido la oportunidad de dar forma a un futuro que refleje nuestros valores compartidos, y nos encontraremos perdidos en una traducción de la que no habrá retorno.
Fuentes y referencias
- Aaronson, Susan Ariel, and Michael Moreno. 2025. "Lost in Translation: Policymakers are not really listening to Citizen Concerns about AI." *SSRN*. https://arxiv.org/pdf/2510.20568
- OECD. 2004. *Promise and Problems of E-Democracy: Challenges of Online Citizen Engagement*. OECD Publishing, Paris.
- OECD. 2011. *Regulatory consultation in the Palestinian authority: a practitioners' guide for engaging stakeholders in democratic deliberation*. OECD Publishing, Paris.
- OECD. 2022. *OECD Guidelines for Citizen Participation Processes*. OECD Public Governance Reviews, OECD Publishing, Paris.
- Schwartz-Reisman Institute for Technology and Society. 2024. *New SRI/PEARL survey now published, reveals worldwide public opinion about AI*.
- Sheldon, Christine. 2023. "Closing the gap: establishing a 'feedback loop' for effective parliamentary public engagement." *Journal of Legislative Studies*, Vol. 29.
- Stanford HCAI. 2024. *Artificial Intelligence Index Report, Chapter 9*.
- US Department of Commerce, National Telecommunications and Information Agency (NTIA). 2024.



