IA y gobernanza simbólica: la tecnología como nuevo lenguaje del poder

ca2d3db4-e92c-4ccc-bad6-a1fba274e35e

IA y gobernanza simbólica: la tecnología como nuevo lenguaje del poder

El aura de la innovación: tecnología, poder y sentido común digital

En la vida pública contemporánea, pocas nociones han adquirido tanta centralidad simbólica —y tanto poder de seducción— como la de inteligencia artificial. La mera invocación de la IA en discursos políticos, planes estratégicos o proyectos de ley actúa como conjuro legitimante: la tecnología se presenta, no solo como herramienta de gestión, sino como garantía de racionalidad, eficiencia y modernidad. La fascinación por la IA ha desplazado del centro del debate político a los viejos tópicos sobre la justicia, la igualdad o el bien común, instalando una nueva gramática donde el progreso ya no es el resultado de la deliberación colectiva, sino de la actualización permanente de nuestras infraestructuras tecnológicas.

El aura de la innovación se manifiesta en los rituales de la política digital: conferencias de prensa con fondos llenos de logos tecnológicos, inauguraciones de laboratorios de datos, publicaciones de “estrategias nacionales de IA” y “planes de transformación digital” que abren la puerta a inversiones, asesorías y auditorías globales. Los medios de comunicación amplifican el mensaje: quien no innova, queda atrás; quien duda, se aísla; quien resiste, retrasa el destino inevitable de la humanidad conectada. Bajo esta atmósfera, la política del siglo XXI aparece cada vez más como una carrera por la adhesión a la última moda digital, y menos como un espacio de discusión plural sobre los fines de la vida en común.

Esta transformación no es solo semántica: produce efectos materiales en el diseño de políticas públicas, en la forma de entender la legitimidad y en el modo de gestionar el conflicto. El capital simbólico de la IA, más que un accesorio retórico, se convierte en el principal activo político de quienes aspiran a gobernar la incertidumbre contemporánea. Ningún actor relevante puede ignorar el dictado de la modernización digital: la inversión en inteligencia artificial se convierte en sinónimo de liderazgo, la resistencia se transforma en anomalía y la crítica es leída como desinformación o temor irracional.

El fetiche de la eficiencia: cuando la técnica suplanta la deliberación

Nada ha sido más funcional al avance de la inteligencia artificial en la vida pública que el culto a la eficiencia. El discurso político adopta, cada vez más, el vocabulario del rendimiento, la optimización y la automatización. Problemas complejos —el colapso de los sistemas de salud, la congestión urbana, la inseguridad, el déficit educativo— son reformulados como cuellos de botella técnicos, susceptibles de resolución por la vía del algoritmo y la estadística predictiva.

El fetiche de la eficiencia desplaza la pregunta sobre el sentido último de las políticas y convierte la deliberación democrática en un obstáculo metodológico. Los programas de gobierno se legitiman por su nivel de digitalización, su capacidad de captar datos en tiempo real y la rapidez con la que pueden producir diagnósticos automatizados. La consulta pública se reduce a procesos de retroalimentación digital: encuestas, interfaces conversacionales, sistemas de “gobierno abierto” diseñados para recoger preferencias y reclamos como entradas para el entrenamiento de nuevos modelos de predicción social.

Este clima de época genera dos efectos simultáneos: por un lado, eleva las expectativas ciudadanas respecto a la capacidad de los gobiernos para “anticipar” y “resolver” los problemas sociales sin conflicto; por otro, rebaja la calidad de la deliberación pública, subordinando el valor de las propuestas políticas a su viabilidad técnica o a su potencial de reducción de costos. La política se narra como gestión; la gestión, como automatización; la automatización, como objetividad incontestable.

Tecnócratas de lo digital: nuevas élites, viejos privilegios

La expansión de la IA como dispositivo simbólico de poder ha dado lugar a la emergencia de nuevas élites tecnocráticas: equipos multidisciplinarios que combinan expertise en política pública, ciencia de datos, ética aplicada y comunicación estratégica. Estas élites son llamadas a ocupar un espacio intermedio entre la burocracia tradicional y los emprendedores tecnológicos, mediando entre los intereses del capital global, las expectativas de la ciudadanía y las lógicas propias de los sistemas automáticos.

Su autoridad se legitima a través de credenciales académicas, experiencia internacional y dominio de la jerga digital. El acceso privilegiado a la información, el manejo de los “datos duros” y la capacidad de traducir problemas complejos en variables modelizables aseguran un estatus de intermediarios imprescindibles. La transparencia es, muchas veces, solo una fachada: detrás de las plataformas de participación se esconde un trabajo de curaduría, filtrado y optimización que permanece opaco para la mayoría de los ciudadanos.

El resultado es una gobernanza simbólica donde la política parece resolverse en la gestión de flujos de datos y la monitorización de indicadores en dashboards de acceso restringido. La deliberación se sustituye por la interpretación experta; la pluralidad de perspectivas, por el consenso ingenieril. La política deja de ser conflicto entre visiones del mundo y se transforma en ajuste fino de parámetros. El lenguaje del algoritmo desplaza al de la retórica pública; el escenario es ocupado por quienes hablan con fluidez el idioma del futuro.

Objetividad y mito: el simulacro de la neutralidad

Un rasgo fundamental de la gobernanza simbólica basada en IA es la construcción de un mito de la neutralidad. Los algoritmos se presentan como instrumentos objetivos, inmunes a la contaminación ideológica que se asocia a la política tradicional. El debate se traslada del terreno de los fines al de los medios: la pregunta ya no es “¿qué queremos como sociedad?”, sino “¿cómo optimizamos el resultado?”.

Este simulacro de neutralidad opera en varios niveles. En primer lugar, la selección de datos, variables y modelos es un acto político en sí mismo: priorizar ciertos indicadores, filtrar información, establecer umbrales de tolerancia al error o definir los parámetros de éxito son decisiones cargadas de valor. En segundo lugar, la invisibilidad de los procesos de entrenamiento y ajuste de los modelos impide una supervisión democrática real: la caja negra se vuelve argumento de autoridad. Finalmente, la opacidad técnica se utiliza como escudo frente a la crítica: solo los expertos están en condiciones de discutir los resultados, mientras el resto debe confiar o resignarse.

La objetividad algorítmica, lejos de erradicar el conflicto político, lo desplaza y lo disfraza. Las luchas por la definición de lo justo, lo prioritario o lo deseable se reconfiguran como discusiones sobre arquitectura de sistemas, métricas de precisión y garantías de privacidad. La política se enmascara como ingeniería.

Modernidad y atraso: la disciplina de la innovación

Uno de los efectos más profundos del capital simbólico de la inteligencia artificial es la instalación de un régimen de disciplina basado en el temor al atraso. Ningún gobernante quiere pasar a la historia como el responsable de frenar el progreso tecnológico, de privar a su país de los beneficios de la modernización o de dejarlo fuera de la “cuarta revolución industrial”. Las políticas públicas se diseñan para competir en el ranking de ciudades inteligentes, países más digitalizados o administraciones con mayor despliegue de IA en áreas sensibles.

Este clima competitivo refuerza la tendencia a justificar cualquier reforma, privatización o reconfiguración institucional en nombre de la innovación. Quienes se oponen, objetan o simplemente proponen una evaluación más lenta del impacto social de la tecnología son inmediatamente asociados con el conservadurismo, el miedo al cambio o la ignorancia. El consenso se impone por la vía simbólica: nadie quiere ser señalado como el enemigo del progreso.

El capital simbólico de la IA se convierte, así, en un recurso disciplinario de primer orden. La tecnopolítica desplaza a la política democrática; la aceleración se convierte en valor supremo; la experimentación, en virtud incuestionable. Bajo este régimen, la voz de los críticos es acallada por la maquinaria retórica de la modernidad.

De la retórica de la innovación al diseño de agendas públicas

El prestigio cultural de la inteligencia artificial no se agota en los discursos ni en la circulación de eslóganes futuristas; penetra en el corazón mismo de la política pública, colonizando las agendas y desplazando prioridades clásicas. Las comisiones parlamentarias, los gabinetes ministeriales y los laboratorios de políticas estatales comienzan a estructurar su trabajo a partir de conceptos y promesas traídos del campo tecnológico: automatización del empleo, educación personalizada por IA, salud predictiva, justicia algorítmica.

En este proceso, lo “tecnológico” opera como filtro: solo los problemas susceptibles de traducirse en variables medibles y susceptibles de intervención digital logran visibilidad y financiación. El resto queda relegado a la sombra de lo “no innovador”, es decir, de lo políticamente irrelevante bajo el nuevo paradigma. Las demandas sociales que no pueden ser “resueltas” por un algoritmo pierden fuerza simbólica y se desvanecen en la periferia de la discusión pública.

Este sesgo tecnocéntrico refuerza la desigualdad en la representación de intereses y necesidades. Los grupos mejor posicionados para traducir sus agendas en términos legibles por la máquina —corporaciones, think tanks, lobbies digitales— logran incidir de manera desproporcionada en el diseño de las prioridades estatales. Las luchas sociales más complejas o refractarias a la lógica de la optimización estadística son etiquetadas como “problemas crónicos”, “históricos” o “estructurales”, categorías que funcionan como dispositivos de exclusión simbólica.

El valor performativo de los “planes nacionales de IA”

La puesta en escena de la inteligencia artificial como estrategia de gobernanza simbólica se encarna con particular claridad en la proliferación de planes nacionales, agendas estratégicas y hojas de ruta para la adopción de IA en el sector público. Estos documentos, largamente publicitados y celebrados en foros internacionales, cumplen una función más performativa que ejecutiva: su sola existencia envía el mensaje de que el país está alineado con el espíritu de la época, dispuesto a participar del concierto global de la innovación.

Sin embargo, la distancia entre el discurso y la implementación efectiva suele ser abismal. La retórica de los planes de IA —“Estado predictivo”, “sociedad del dato”, “transformación digital inclusiva”— opera como un dispositivo de tranquilización social y de atracción de inversiones, más que como un compromiso real con la resolución de los problemas públicos. El ciudadano común, inundado por anuncios de digitalización, puede percibir un clima de cambio perpetuo aunque su experiencia cotidiana esté marcada por la persistencia de viejas ineficiencias.

Este gap entre el capital simbólico y el impacto material de la IA produce una inflación de expectativas y, a la vez, una desmovilización de la crítica: ante la promesa de un futuro inminente y transformador, los reclamos pierden urgencia y las demandas de accountability se disuelven en la niebla de la complejidad técnica. El debate democrático es desplazado por la esperanza delegada en los expertos y la resignación ante la lentitud del cambio real.

Inteligencia artificial como solución mágica: la tentación del solucionismo tecnológico

Una de las formas más sofisticadas de la gobernanza simbólica contemporánea es el llamado “solucionismo tecnológico”: la creencia en que los problemas sociales, políticos y económicos pueden y deben ser resueltos por la vía de la ingeniería algorítmica. Este paradigma promueve una confianza casi religiosa en la capacidad de la tecnología para superar las limitaciones de la acción humana: sesgos cognitivos, lentitud deliberativa, corrupción, inercia institucional.

El solucionismo desplaza el foco de la política de la discusión sobre fines —qué tipo de sociedad queremos, qué valores defendemos, qué intereses priorizamos— hacia la obsesión por los medios: ¿qué plataforma es más eficiente, qué modelo es más preciso, qué sistema predice mejor? Las preguntas de justicia y equidad se subsumen en la optimización de resultados; el pluralismo, en la agregación de preferencias; la participación, en la interacción monitorizada.

La inteligencia artificial, bajo esta lógica, se convierte en la varita mágica de la gobernanza. Cualquier duda es respondida con la promesa de un próximo avance, cualquier crítica es relativizada por la inexorabilidad del progreso técnico. Las reformas legales y los cambios institucionales se ralentizan, pero los dashboards y las métricas proliferan. La política se tecnifica y, con ello, se despolitiza.

Autoridad algorítmica y el desplazamiento de la soberanía

Quizá el rasgo más inquietante de la gobernanza simbólica basada en IA es la consolidación de lo que podríamos llamar “autoridad algorítmica”. Los sistemas de decisión automatizada, entrenados con datos masivos y ajustados por ingenieros expertos, adquieren un estatus de árbitros objetivos, encargados de mediar —y, a menudo, de resolver— conflictos que antaño eran competencia exclusiva de la deliberación colectiva.

La autoridad política migra así desde los procedimientos institucionalizados de la democracia hacia las infraestructuras invisibles del cálculo automático. La ciudadanía delega, a menudo sin saberlo, parcelas crecientes de su autonomía en sistemas cuya lógica le es ajena. La legitimidad del poder deja de basarse en el consentimiento informado y pasa a fundamentarse en la confianza en la capacidad técnica del Estado y sus proveedores.

Este desplazamiento tiene efectos profundos sobre la concepción misma de la soberanía popular. La decisión política se desmaterializa: ya no requiere el ritual de la asamblea ni el debate público; se reduce a la implementación de un modelo, la actualización de un parámetro, la gestión de excepciones por parte de un supervisor digital. La participación ciudadana se transforma en feedback puntual, la deliberación en ajuste retroactivo. La soberanía, despojada de su densidad simbólica, se diluye en la “experiencia de usuario”.

Gobernar desde el futuro: la performatividad de la predicción

Uno de los recursos más eficaces de la gobernanza simbólica contemporánea es la performatividad de la predicción. Los modelos de IA, al prometer la anticipación de crisis, riesgos y tendencias, dotan al Estado y a los actores privados de una legitimidad basada en la prevención. Gobernar deja de ser un ejercicio de administración reactiva y se convierte en la gestión de futuros posibles: la política se narra como una batalla contra la incertidumbre, donde quien predice mejor gobierna mejor.

Este horizonte de previsibilidad reconfigura las temporalidades de la acción pública. La urgencia del presente es desplazada por la ansiedad ante el futuro. Las decisiones políticas se justifican por su potencial de evitar catástrofes venideras, corregir tendencias negativas o capitalizar oportunidades detectadas por los algoritmos. Los ciudadanos, convertidos en datos, participan de la gobernanza a través de sus huellas digitales: su conducta alimenta el oráculo digital que define las prioridades colectivas.

La promesa de la predicción es, al mismo tiempo, una tecnología de poder y un instrumento de disciplina social. La población aprende a interiorizar el mandato de la prevención: prevenir el delito, prevenir la enfermedad, prevenir el fracaso escolar, prevenir la radicalización política. El ideal de una sociedad transparente, gobernada por la anticipación técnica, se convierte en principio organizador de la vida pública, desplazando viejos equilibrios entre libertad, responsabilidad y autonomía.

El mito de la objetividad y la función legitimadora de la IA

Toda tecnología que conquista el centro de la escena pública necesita, para estabilizar su dominio simbólico, invocar la idea de objetividad. En el caso de la inteligencia artificial, la promesa es aún más audaz: no solo ser objetiva, sino superadora de las limitaciones humanas. Los modelos de IA se ofrecen como garantía de imparcialidad, transparencia y rigor frente a la percepción de que los sistemas tradicionales de toma de decisiones están contaminados por intereses particulares, ideologías o incompetencias burocráticas.

Este mito no surge por accidente: es producto de un diseño institucional y comunicacional que naturaliza el lenguaje del cálculo y la estadística como forma suprema de verdad. Los portavoces del nuevo régimen —ingenieros de datos, consultores, gurús de la innovación— presentan cada avance técnico como una conquista ética, cada mejora de precisión como una victoria moral. El algoritmo deviene, así, en árbitro silencioso de disputas, mediador invisible que depura la vida social de sus imperfecciones humanas.

Sin embargo, la legitimidad algorítmica descansa en un doble movimiento: por un lado, enmascara las decisiones políticas previas (qué datos se consideran relevantes, qué sesgos se toleran, qué efectos secundarios se aceptan); por el otro, desplaza la crítica hacia un plano técnico, inaccesible para la mayoría de los ciudadanos. El debate público es, entonces, filtrado por un filtro de “neutralidad” que solo los expertos pueden manipular. La política pierde densidad y se convierte en administración de flujos probabilísticos.

Efectos colaterales: exclusión, disciplinamiento y nuevas desigualdades

La gobernanza simbólica de la inteligencia artificial no es inocua. Si la legitimidad política depende cada vez más de la capacidad de modelizar y anticipar, también crecen las consecuencias negativas para quienes quedan fuera de la lógica del dato. El Estado digital prioriza a los ciudadanos y colectivos cuyas trayectorias pueden ser cuantificadas, cuyos comportamientos son fácilmente capturables por los sistemas de vigilancia inteligente.

Surge así una nueva cartografía de la exclusión: quienes no dejan huella digital, quienes resisten el rastreo, quienes se expresan en lenguajes o prácticas no codificables, quedan marginados de la distribución de beneficios, derechos o recursos. El capital simbólico de la innovación tecnológica se convierte en barrera de acceso, y la brecha digital se consolida como brecha cívica.

A la par, la lógica predictiva y la gestión automatizada producen nuevos dispositivos de disciplinamiento. Si los sistemas de IA pueden anticipar “comportamientos de riesgo” o “potenciales desviaciones”, la tentación de intervenir antes de que ocurran los hechos se convierte en principio rector de las políticas públicas. La prevención, lejos de ser solo una promesa de bienestar, puede devenir en control preventivo, monitoreo exhaustivo, restricción de libertades bajo el amparo de la seguridad y la eficiencia.

En este escenario, la desigualdad ya no es únicamente material o económica: es, ante todo, epistemológica y política. Quien domina el lenguaje técnico, quien diseña los modelos, quien accede a los datos y a las infraestructuras de procesamiento, dispone de un poder inédito para definir qué cuenta como problema público, qué se visibiliza y qué queda en la sombra. La cultura política se reconfigura en torno a la centralidad de los intermediarios digitales y a la marginalidad de los no expertos.

Disidencia, desacuerdo y la dificultad de impugnar la innovación

El dominio simbólico de la inteligencia artificial produce, como efecto lateral, una deslegitimación de la disidencia. En la medida en que la IA es presentada como el umbral de la modernidad, oponerse a sus despliegues equivale, en el imaginario público, a declararse enemigo del futuro. La crítica es asociada con la nostalgia, la ignorancia o, peor aún, con la mala fe.

Esta lógica opera tanto en el debate público como en la elaboración de políticas: la innovación se convierte en argumento en sí mismo, y la exigencia de evaluar riesgos, de problematizar sesgos o de exigir transparencia es descalificada como obstáculo anticuado. El discurso político hegemónico oscila entre la euforia prospectiva (“la IA resolverá lo que la política no puede”) y la resignación tecnocrática (“no hay alternativa, solo adaptación”).

En este clima, la impugnación democrática de la tecnología se torna cada vez más difícil. Las preguntas sobre el sentido, los valores, los fines de la acción pública son desplazadas por discusiones técnicas: métricas de precisión, garantías de privacidad, auditorías de sesgo. La participación ciudadana queda limitada al consumo pasivo de innovaciones o a la protesta marginalizada, privada de legitimidad simbólica.

La autoridad de lo incuestionable: expertos, consultoras y la industria de la verdad algorítmica

En la era de la gobernanza simbólica por IA, los expertos técnicos se constituyen en nuevos oráculos del poder. No solo por su capacidad de diseñar y mantener los sistemas, sino por su dominio del relato legitimador que los acompaña. Las consultoras internacionales, los organismos multilaterales, las agencias de rating digital y los think tanks tecnológicos dictan estándares, marcan tendencias, recomiendan “buenas prácticas” y sancionan desvíos.

La autoridad de estos actores descansa en la performatividad de la verdad algorítmica: la convicción de que los datos “hablan por sí mismos”, que los modelos predicen el porvenir y que la optimización es el único horizonte deseable. En la práctica, esta industria de la verdad produce rankings, mapas de riesgo, índices de innovación y otros dispositivos de monitoreo que orientan (y muchas veces condicionan) las agendas nacionales y locales.

El resultado es una consolidación del “gobierno a distancia”: los parámetros fijados en centros de decisión globales, los paquetes tecnológicos estandarizados y los sistemas de supervisión remota sustituyen los viejos procedimientos deliberativos. Las élites tecnocráticas y los proveedores de IA se vuelven, así, co-gobernantes invisibles, actores estructurantes de la vida pública.

Entre la fascinación y la fatiga: la gestión de la expectativa tecnológica

En el centro de la gobernanza simbólica a través de la inteligencia artificial, late un mecanismo permanente de gestión de expectativas. El discurso de la innovación impone un ciclo incesante de anticipación y promesa: cada anuncio, cada actualización, cada “salto de generación” es presentado como umbral de una transformación radical inminente. El Estado y las grandes empresas de tecnología cultivan esta fascinación pública, cultivando un deseo permanente de novedad.

Esta administración del entusiasmo es, sin embargo, ambivalente. Por un lado, renueva la legitimidad política de los actores que encarnan el progreso, presentándolos como imprescindibles para la competitividad, la eficiencia y la modernización nacional. Por otro, induce una fatiga social: la sensación de que el futuro es siempre inminente, pero nunca plenamente realizado. Los ciudadanos oscilan entre la ilusión y la desilusión, entre la espera activa y la resignación ante un horizonte que se posterga sin cesar.

El saldo de esta dinámica es un cuerpo social atrapado en el presente continuo de la innovación, donde la memoria de lo que no cambia, de lo que resiste o de lo que fracasa, es cuidadosamente desestimada. Las urgencias cotidianas quedan subordinadas a la lógica de los grandes relatos tecnodigitales, y los problemas estructurales son desplazados por la promesa de una disrupción siempre por venir.

Los riesgos de la tecnopolítica: captura de agenda y restricción del disenso

A medida que el capital simbólico de la inteligencia artificial se consolida, los gobiernos y partidos políticos reconfiguran sus agendas en torno a la promesa digital. Las políticas públicas, lejos de orientarse por el debate democrático o por la deliberación plural, se alinean con las expectativas de los actores que ostentan el monopolio del saber técnico. Así, el rumbo de la innovación deja de ser objeto de discusión colectiva y se convierte en vector inercial: el sentido de la política es “modernizarse”, “digitalizarse”, “automatizarse”.

Esta captura tecnopolítica restringe el espacio para el disenso. Los movimientos sociales, los sindicatos, los colectivos ciudadanos oponerse a proyectos de digitalización masiva, vigilancia algorítmica o automatización de servicios públicos, deben luchar contra el estigma de ser “enemigos del progreso” o “resistentes al futuro”. El costo simbólico de la crítica es elevado: desafiar la narrativa de la innovación es desafiar el sentido común mismo de la época.

La paradoja resultante es que la tecnopolítica, que se presenta como instrumento de apertura y democratización, puede funcionar en la práctica como dispositivo de cierre del debate, de expulsión de las voces críticas, de marginación de los desacuerdos legítimos. La inteligencia artificial, en este esquema, deja de ser una herramienta y se convierte en fetiche: algo ante lo que solo cabe adaptarse, celebrar o temer.

Ambivalencia simbólica: IA, promesa de inclusión y vector de exclusión

La retórica dominante presenta a la inteligencia artificial como factor de inclusión y ampliación de derechos: el acceso al conocimiento, la personalización de los servicios, la superación de barreras geográficas, la mejora en la eficiencia de los sistemas públicos. Sin embargo, la experiencia social revela la existencia de una ambivalencia radical: las mismas infraestructuras digitales que prometen reducir desigualdades pueden consolidarlas o agravarlas.

El acceso a los beneficios de la innovación depende de múltiples variables: capacidad educativa, disponibilidad de recursos, conectividad, competencias digitales, visibilidad mediática. Las políticas públicas que se apoyan ciegamente en la IA corren el riesgo de profundizar las brechas ya existentes, transfiriendo recursos y oportunidades a quienes ya partían en ventaja. La promesa de inclusión puede convertirse en vector de exclusión cuando la tecnología se convierte en único mediador legítimo entre ciudadanos y derechos.

A la vez, la ilusión de igualdad puede funcionar como manto que oculta nuevas formas de vulnerabilidad: la sobreexposición a la vigilancia, la precarización laboral por automatización, la dependencia de sistemas opacos y de proveedores transnacionales. El capital simbólico de la IA se traduce, aquí, en poder asimétrico: quienes controlan los códigos, las infraestructuras y los datos dictan las reglas del juego democrático.

Cultura política y alfabetización algorítmica: los desafíos de una ciudadanía informada

La consolidación de la IA como lenguaje del poder interpela a la cultura política de las sociedades contemporáneas. La ciudadanía enfrenta el reto de desenvolverse en un entorno donde la comprensión de los sistemas algorítmicos, de los procesos de toma de decisiones automáticos, de las lógicas de extracción y uso de datos, se vuelve condición de posibilidad para la participación política efectiva.

Sin embargo, la brecha entre quienes poseen competencias técnicas avanzadas y quienes solo acceden a las superficies de la tecnología es creciente. La alfabetización algorítmica —no solo como destreza técnica, sino como capacidad crítica para interrogar, desafiar y disputar los modelos que median la vida colectiva— emerge como tarea urgente para cualquier proyecto democrático contemporáneo.

En este contexto, la educación deja de ser un asunto sectorial para transformarse en campo de disputa política central. ¿Quién decide qué deben saber los ciudadanos sobre IA? ¿Cómo se garantiza la pluralidad de enfoques, la inclusión de perspectivas críticas, la integración de saberes técnicos y éticos? Sin respuestas estructurales, la gobernanza simbólica de la tecnología tenderá a reproducir asimetrías y a profundizar la delegación de poder en manos de nuevas oligarquías cognitivas.

Innovación performativa y políticas del asombro

La inteligencia artificial no solo transforma procedimientos y estructuras, sino que también moldea el imaginario de lo posible. En la escena pública, la innovación es escenificada como espectáculo permanente: lanzamientos, hackatones, anuncios disruptivos y demostraciones de capacidades sorprendentes alimentan una política del asombro, en la que la legitimidad gubernamental se vincula al impacto emocional de la promesa tecnológica.

Esta performatividad crea un efecto de anticipación y urgencia. La administración política se presenta no solo como gestora de recursos o mediadora de intereses, sino como vanguardia del futuro. El líder carismático muta en impulsor de la “cuarta revolución industrial”, multiplicando promesas de transformación radical. Así, el gobierno y las instituciones públicas buscan asociarse al aura de lo inminente, cultivando la expectativa de que lo imposible pronto será cotidiano.

Sin embargo, la innovación performativa, si no va acompañada de mecanismos de verificación y control democrático, corre el riesgo de cristalizar en un simulacro: grandes anuncios sin correlato efectivo, agendas públicas saturadas de novedades, pero pobres en transformaciones reales. El capital simbólico de la tecnología puede entonces servir para enmascarar la continuidad de viejas desigualdades, desplazando la responsabilidad política hacia un horizonte siempre pospuesto.

Racionalidades cruzadas: eficiencia, justicia y legitimidad en disputa

La gobernanza simbólica de la IA se asienta en una tensión entre distintas racionalidades políticas. Por un lado, la lógica de la eficiencia: maximizar resultados, reducir costes, acelerar procesos. Por otro, la demanda de justicia: equidad en el acceso, protección de derechos, reconocimiento de diversidades. La tercera racionalidad es la de la legitimidad: la necesidad de que los procesos de innovación tecnológica sean vistos como justos, inclusivos y respetuosos del marco normativo y ético vigente.

En la práctica, estas racionalidades rara vez convergen. Un sistema de asignación de recursos basado en IA puede optimizar la eficiencia presupuestaria a costa de invisibilizar necesidades no codificadas. Un algoritmo de predicción de riesgo social puede favorecer la prevención, pero incrementar el estigma o la discriminación sobre poblaciones vulnerables. La búsqueda de legitimidad institucional, en este contexto, requiere equilibrar el relato de la innovación con la sensibilidad a los efectos no intencionados y las injusticias emergentes.

Este equilibrio es frágil. La presión por mostrar resultados rápidos y medibles puede llevar a la opacidad de los procesos, al blindaje tecnocrático de las decisiones y a la postergación de los debates públicos sobre el sentido y los límites del uso de la IA. La gobernanza simbólica tiende, entonces, a blindar las políticas en el aura de lo técnico, reduciendo la deliberación democrática a la gestión de impactos.

El “tecnonacionalismo” y la construcción de identidades digitales

La competición global por el liderazgo en IA ha dado lugar a la emergencia de nuevos discursos tecnonacionalistas. Países y bloques regionales despliegan narrativas de “soberanía digital”, “autonomía tecnológica” y “seguridad algorítmica” para justificar inversiones masivas, regulaciones diferenciales y el fortalecimiento de campeones nacionales en la industria del software y los datos.

Estos discursos no solo responden a intereses económicos o geopolíticos; cumplen una función simbólica en la construcción de identidades colectivas. La IA deviene símbolo de poder nacional, de orgullo colectivo y de promesa de emancipación frente a la dependencia de plataformas extranjeras. El Estado moderno, al abrazar la retórica de la innovación, se reinventa como arquitecto de una nueva “comunidad digital” cohesionada por proyectos emblemáticos: desde sistemas públicos de identidad digital hasta plataformas de servicios basados en IA nacional.

Sin embargo, este giro tecnonacionalista puede desembocar en nuevas formas de exclusión, vigilancia y homogeneización cultural. La promesa de soberanía tecnológica puede traducirse en centralización del control estatal, restricción de libertades digitales o subordinación de la pluralidad social a proyectos uniformizantes de modernización. El capital simbólico de la innovación se convierte, así, en recurso de poder que puede ser utilizado tanto para democratizar como para disciplinar a la sociedad.

El dilema del control social algorítmico

A medida que la inteligencia artificial se integra en la infraestructura del Estado y en la vida cotidiana, la frontera entre gobernanza simbólica y control social se difumina. El uso de IA en la gestión de la seguridad, la administración de justicia, la evaluación educativa, la salud pública o la regulación de contenidos en redes sociales plantea dilemas inéditos: ¿qué criterios orientan el diseño de estos sistemas? ¿Quién define las métricas de éxito? ¿Cómo se resguardan los derechos frente a la automatización de procesos tradicionalmente deliberativos o garantistas?

El despliegue de tecnologías de reconocimiento facial, de predicción de comportamientos o de evaluación automatizada de méritos ilustra la tensión entre la promesa de mayor orden y la amenaza de nuevas formas de vigilancia y exclusión. El capital simbólico de la IA, en este sentido, puede legitimar dispositivos de control que serían rechazados en ausencia del aura tecnológica.

Frente a esta deriva, la sociedad se ve interpelada a construir contrapesos efectivos: auditorías públicas, mecanismos de rendición de cuentas, espacios de participación y deliberación sobre el sentido, los límites y los riesgos de la gobernanza algorítmica. La cultura política contemporánea enfrenta el reto de reinventar los dispositivos de control democrático en un contexto donde el poder se ejerce tanto en los códigos como en las leyes.

La resistencia de lo social: prácticas de impugnación y apropiación crítica

Frente al despliegue hegemónico del discurso tecnopolítico, emergen diversas prácticas sociales que impugnan o resignifican el capital simbólico de la inteligencia artificial. Estas resistencias no se manifiestan solo como rechazo frontal a la innovación, sino como apropiaciones críticas, experimentaciones alternativas y construcción de contra-narrativas. Movimientos por la justicia algorítmica, organizaciones de defensa de derechos digitales y colectivos académicos interpelan la naturalización de la tecnología, reclamando marcos de transparencia, equidad y control ciudadano.

La resistencia de lo social adquiere múltiples formas: desde campañas por la desactivación de sistemas de reconocimiento facial en espacios públicos, hasta el impulso de plataformas abiertas y auditables, pasando por la promoción de alfabetización digital crítica en escuelas y comunidades. Estas iniciativas tensionan el monopolio de la legitimidad técnica, restableciendo el derecho a la duda, a la impugnación y a la deliberación sobre los fines y medios de la innovación.

No se trata solo de defender derechos amenazados, sino de disputar el sentido mismo de la inteligencia artificial. Las prácticas de apropiación crítica muestran que la IA no es solo un objeto técnico, sino un campo de batalla político, donde se confrontan visiones de futuro, modelos de ciudadanía y formas de convivencia. En esta disputa, la dimensión simbólica resulta crucial: el capital de legitimidad de la tecnología puede ser erosionado, desafiado o reorientado por la acción colectiva.

Horizontes de democratización: transparencia, co-gobierno y pluralismo tecnológico

Frente a la concentración del poder técnico y simbólico, diversos actores sociales y políticos exploran horizontes de democratización de la IA. La demanda de transparencia en los sistemas de decisión automatizada se multiplica, junto con la exigencia de auditorías independientes y de accesibilidad a los códigos fuente y los criterios de entrenamiento algorítmico. La co-gobernanza —es decir, la participación ciudadana y multi-actoral en el diseño, despliegue y evaluación de tecnologías— se vislumbra como posible antídoto a la opacidad y la asimetría de poder.

El pluralismo tecnológico, por su parte, se erige en bandera contra la homogeneización de soluciones y la dependencia de proveedores globales únicos. Se exploran modelos federados de datos, infraestructuras descentralizadas, sistemas adaptados a contextos locales y plataformas interoperables. Estas estrategias no solo responden a necesidades técnicas o de seguridad, sino que buscan expandir el repertorio democrático, permitiendo que distintas comunidades diseñen sus propios sistemas según valores, prioridades y riesgos deliberados colectivamente.

En este horizonte, la gobernanza simbólica de la IA se redefine: deja de ser monopolio de expertos y empresas para convertirse en objeto de disputa y experimentación democrática. El capital simbólico de la innovación ya no reside solo en la promesa de eficiencia o modernidad, sino en la capacidad de ampliar el espacio público, fortalecer el control social y multiplicar las voces en el debate sobre el porvenir tecnológico.

La urgencia de nuevos pactos éticos y políticos

El auge de la inteligencia artificial como lenguaje del poder impone la urgencia de pactos éticos y políticos de nuevo cuño. No basta con protocolos de buenas prácticas ni con regulaciones formales: se requiere una deliberación profunda sobre los fines, límites y responsabilidades de la innovación. ¿Qué significa justicia en un sistema automatizado? ¿Qué valor damos a la privacidad, a la diversidad, a la autonomía? ¿Cómo articulamos los derechos colectivos con las exigencias de la seguridad y el bienestar común?

El diseño de estos pactos exige imaginación institucional y coraje político. Implica habilitar espacios de diálogo plural, integrar saberes heterogéneos, y reconocer la dimensión conflictiva de toda política tecnológica. Los marcos normativos deben poder adaptarse a la evolución vertiginosa de la IA, sin abdicar del control social ni de la capacidad de corrección frente a errores, abusos o efectos no deseados.

Al mismo tiempo, la discusión ética debe superar la mera declaración de intenciones. Solo adquiere sentido en la medida en que se traduce en mecanismos efectivos de gobernanza, en dispositivos de participación y en garantías de rendición de cuentas. La legitimidad de la IA, en este sentido, será siempre provisional: deberá ser renovada permanentemente mediante el escrutinio crítico y la deliberación democrática.

Paradojas de legitimidad: confianza pública y el espejismo de la objetividad

En el corazón de la gobernanza simbólica de la inteligencia artificial, la cuestión de la legitimidad se presenta como una paradoja recurrente. Las políticas públicas que se fundamentan en la IA aspiran a gozar de una legitimidad ampliada, al asociar sus decisiones a la objetividad técnica y a la supuesta neutralidad de los sistemas automáticos. Sin embargo, este capital simbólico es inherentemente frágil: cuanto más se invoca la objetividad, mayor es la sospecha de que se está encubriendo una toma de partido, un interés o un modelo político específico.

El recurso a la inteligencia artificial para legitimar acciones estatales puede generar un ciclo de confianza y desconfianza, donde la ciudadanía oscila entre la admiración por la potencia tecnológica y el recelo ante la opacidad o la arbitrariedad de los algoritmos. Si bien el “sello” digital otorga credibilidad y prestigio, también puede alimentar el escepticismo democrático: los ciudadanos perciben que los sistemas automáticos, lejos de estar al margen del conflicto político, lo reproducen o lo intensifican, desplazando las discusiones a terrenos menos accesibles y menos controlables.

Esta paradoja se expresa con fuerza en ámbitos sensibles como la seguridad, la salud, la justicia o la administración pública. La legitimidad derivada de la IA es contingente, volátil, expuesta al escándalo cuando emergen casos de discriminación algorítmica, de sesgos inaceptables, de errores masivos en la provisión de servicios o en la administración de recursos. La crisis de confianza es, así, el reverso inevitable de la delegación masiva de autoridad en infraestructuras opacas y dinámicas.

Nuevos lenguajes políticos ante la hegemonía digital

La proliferación de la IA como eje discursivo del poder político fuerza a los actores sociales, partidos y movimientos a reinventar sus lenguajes y estrategias de intervención. Los repertorios clásicos del conflicto social —huelga, manifestación, boicot, negociación institucional— deben adaptarse para disputar en un terreno marcado por la opacidad algorítmica, la intermediación de plataformas y la volatilidad informativa.

Surgen así nuevos lenguajes y prácticas: auditorías ciudadanas de sistemas automatizados, mapeo de impactos sociales de la innovación, campañas por la desprivatización de datos, litigios por derechos digitales, asambleas abiertas para la discusión de regulaciones algorítmicas, creación de laboratorios ciudadanos para experimentación tecnológica. Estas formas de acción política intentan “traducir” el poder abstracto de la IA al espacio público concreto, restaurando la inteligibilidad, la deliberación y la posibilidad de impugnación.

El desafío reside en hacer de la tecnología un objeto de política, no solo de administración. Esto implica politizar el debate sobre la IA: tematizar los supuestos ideológicos, las consecuencias sociales y las prioridades éticas del desarrollo tecnológico. La política contemporánea, bajo la hegemonía digital, no puede limitarse a elegir entre modelos de eficiencia; debe disputar los imaginarios, las arquitecturas y los lenguajes en que se juega la definición del bien común.

Hacia una poética de la tecnología en el espacio público

Frente al predominio de discursos tecnocráticos, emerge la necesidad de imaginar una poética de la tecnología: un modo de habitar el espacio público que no renuncie a la reflexión crítica, a la creatividad y a la pluralidad de miradas sobre la innovación. La poética, en este contexto, no es una evasión estética, sino una estrategia política: la creación de relatos alternativos, de símbolos compartidos, de prácticas colectivas que restituyan el sentido y la agencia frente a la maquinaria abstracta de la IA.

El arte, la literatura, el periodismo de investigación, la producción audiovisual y las pedagogías críticas cumplen un papel fundamental en esta reapropiación simbólica. Traducen lo abstracto en lo concreto, lo técnico en lo vital, abren fisuras en la retórica de la inevitabilidad digital y cultivan el derecho a imaginar futuros diversos. La poética de la tecnología se convierte, así, en campo de resistencia, de experimentación y de creación de nuevos sentidos para la vida colectiva.

Esta apertura simbólica es condición indispensable para una democracia genuinamente plural en la era de la IA. Solo allí donde la tecnología deja de ser fetiche y recupera su lugar como herramienta sujeta al juicio y la imaginación colectivas, puede florecer una política capaz de enfrentar los desafíos y peligros de la gobernanza algorítmica sin abdicar de la dignidad y la creatividad humanas.

Geopolítica de la gobernanza simbólica: IA, poder y soberanía en disputa

La gobernanza simbólica de la inteligencia artificial ya no es un fenómeno circunscripto a los Estados nacionales. La propia naturaleza distribuida de la tecnología, la concentración de capacidades en corporaciones globales y la emergencia de infraestructuras transnacionales han trasladado la escena de disputa a una dimensión geopolítica. La competencia por el liderazgo en IA —hoy dominada por conglomerados estadounidenses, chinos y, en menor medida, europeos— redefine el mapa del poder y la soberanía en el siglo XXI.

El capital simbólico de la IA adquiere aquí una doble función. Hacia adentro, legitima estrategias de desarrollo y control estatal bajo la bandera de la soberanía tecnológica. Hacia afuera, opera como instrumento de soft power: los países compiten por exportar sus estándares, modelos regulatorios y plataformas tecnológicas, aspirando a que su visión de la IA se convierta en referente global. Las “rutas de la inteligencia artificial” compiten con las viejas rutas de la seda o del petróleo, desplazando el eje del poder desde los recursos materiales hacia la infraestructura informacional.

La geopolítica de la IA, sin embargo, no es solo disputa entre gigantes. Numerosos países del Sur Global, redes regionales y organismos multilaterales exploran alternativas de cooperación, regulación y apropiación tecnológica que desafían la dependencia asimétrica de los centros de innovación. Surgen propuestas de “no alineación digital”, alianzas para la soberanía de datos, estrategias de código abierto y políticas de pluralismo tecnológico. En todos los casos, la gobernanza simbólica es recurso y campo de batalla: la promesa de modernidad, progreso y desarrollo sustentable se convierte en activo estratégico para conquistar legitimidad y alianzas.

Los “laboratorios” de innovación pública: utopía, piloto y excepción

En la expansión de la IA en el sector público, proliferan los llamados laboratorios de innovación: espacios experimentales donde se diseñan, testean y despliegan prototipos tecnológicos antes de su escalamiento a gran escala. Estos laboratorios cumplen una doble función simbólica. Por un lado, materializan la imagen de un Estado ágil, creativo y abierto a la experimentación. Por otro, operan como zonas de excepción regulatoria, donde las reglas habituales de evaluación, consulta y control pueden suspenderse en nombre de la innovación.

La lógica del “piloto” y la “prueba” produce una gobernanza del intersticio: ni completamente pública ni privada, ni plenamente regulada ni absolutamente desregulada. El laboratorio se convierte en vitrina de la modernidad, pero también en terreno de ambigüedad normativa. El riesgo es que la excepción experimental se vuelva permanente, desplazando los espacios deliberativos a una periferia simbólica mientras el núcleo de la decisión tecnológica permanece cerrado, blindado por la promesa de eficiencia y progreso.

Frente a ello, emergen demandas de transparencia, consulta pública y evaluación participativa de las innovaciones en IA. Los laboratorios pueden, de hecho, ser espacios de democratización si abren sus puertas a la sociedad civil, a la academia, a las comunidades afectadas por los experimentos. La disputa por el significado y las reglas del “piloto” es también una disputa por el horizonte político de la gobernanza simbólica.

Prospectivas críticas: entre el mito y la regulación democrática

El futuro de la gobernanza simbólica de la IA está aún abierto, surcado por tensiones entre mito, expectativa y normatividad. La aceleración del discurso sobre la IA —alimentada por anuncios espectaculares, profecías de disrupción y catástrofes inminentes— tiende a desplazar los tiempos de la deliberación colectiva. Políticos, empresarios y tecnólogos operan en un horizonte de urgencia, presentando cada innovación como punto de inflexión, cada crisis como oportunidad para avanzar más allá de los controles convencionales.

En este clima, la prospectiva crítica se vuelve indispensable. Es necesario cultivar una cultura política capaz de interrogar las promesas, de identificar los silencios y las omisiones, de anticipar efectos y externalidades no deseadas. El mito tecnológico, si no es desafiado por la razón pública, puede solidificarse en dogma, inhibiendo la creatividad política y bloqueando el surgimiento de alternativas.

La regulación democrática de la IA no puede ser, en consecuencia, una respuesta reactiva ni meramente restrictiva. Debe ser proactiva, anticipatoria, plural y flexible, capaz de acompañar el ritmo de la innovación sin perder de vista la defensa de los valores fundamentales. La gobernanza simbólica, para ser legítima, debe estar sujeta al control social, a la apertura institucional y a la posibilidad permanente de revisión.

Imaginarios y futuros: el derecho a lo posible

En última instancia, la disputa por la gobernanza simbólica de la inteligencia artificial es una disputa por los imaginarios sociales, por el derecho a imaginar futuros distintos y a orientar la innovación en función de proyectos colectivos deliberados. No hay futuro tecnológico neutral: todo avance, toda aplicación, todo sistema automatizado encarna una visión del mundo, un conjunto de prioridades, exclusiones y apuestas.

La politización de la IA como lenguaje del poder impone entonces una tarea radical: abrir el juego del porvenir, democratizar la imaginación institucional, cultivar el escepticismo creativo frente a la inevitabilidad de lo dado. La gobernanza simbólica solo será un recurso emancipador si es capaz de habilitar la pluralidad de voces, la deliberación conflictiva y la construcción colectiva de horizontes alternativos.

Sólo así la tecnología podrá dejar de ser un argumento de autoridad indiscutible y convertirse, en cambio, en materia viva de la política, susceptible de debate, de transformación y de apropiación democrática.

Educación, alfabetización digital y el desafío de la ciudadanía crítica

El despliegue de la inteligencia artificial como nuevo lenguaje del poder exige repensar la educación en todos sus niveles y formatos. La alfabetización digital —en sentido estricto— ya no basta: comprender el uso funcional de herramientas tecnológicas resulta apenas un umbral inicial en una época en que las decisiones de mayor impacto colectivo se ocultan tras la fachada técnica de los sistemas automáticos.

Se impone la necesidad de una educación política sobre tecnología, que enseñe a los ciudadanos a reconocer sesgos, a leer arquitecturas algorítmicas y a identificar las lógicas de exclusión, jerarquización y priorización que configuran el espacio público digital. No basta con enseñar a “usar” la tecnología; es imprescindible aprender a cuestionarla, a impugnar sus promesas y a demandar su democratización.

Esta pedagogía debe ser integral, atravesar las aulas formales y los espacios de socialización informal, abarcar desde la infancia hasta la formación continua de adultos. De lo contrario, la brecha entre quienes pueden entender, disputar y transformar la infraestructura simbólica de la IA y quienes solo la padecen se convertirá en una nueva frontera de desigualdad cívica.

El derecho a la comprensión tecnológica —a entender cómo y por qué se decide mediante IA en los asuntos públicos— se vuelve pilar de la ciudadanía democrática contemporánea. Una ciudadanía sin alfabetización algorítmica es, en la práctica, una ciudadanía disminuida: desprovista de herramientas para ejercer control, emitir juicio informado o impugnar la legitimidad de los nuevos lenguajes del poder.

Cultura democrática y reconstrucción del espacio público

En paralelo, la gobernanza simbólica de la IA interpela el sentido mismo de la cultura democrática. Si la legitimidad política migra hacia discursos de innovación, eficiencia y objetividad, el espacio público corre el riesgo de volverse inhóspito para el conflicto, la diferencia y la deliberación crítica. La democracia, sin embargo, solo florece allí donde las decisiones pueden ser discutidas, las autoridades cuestionadas y los relatos oficiales sometidos a contraste con experiencias alternativas.

Reconstruir el espacio público bajo el imperio de la IA exige revitalizar las prácticas de escucha, argumentación, exposición al desacuerdo y construcción de acuerdos frágiles pero sostenibles. Las tecnologías digitales, en vez de clausurar el debate, deben ser rediseñadas para potenciar la deliberación colectiva, la diversidad de perspectivas y el protagonismo ciudadano. Ello implica reformar no solo los sistemas técnicos, sino también los marcos normativos, las lógicas institucionales y los imaginarios sociales sobre qué significa participar y decidir en común.

La cultura democrática, en la era de la inteligencia artificial, no será un mero decorado retórico. Deberá funcionar como contrapeso frente a las tendencias tecnocráticas, recordando que el progreso y la objetividad, por sí solos, no garantizan la justicia ni la dignidad. Sólo una ciudadanía crítica, informada y activa podrá sostener la legitimidad de las políticas públicas en tiempos de gobernanza simbólica.

El reto de la participación: más allá del “consentimiento informado”

La narrativa dominante en torno a la IA insiste en la importancia del “consentimiento informado” como salvaguarda de derechos y legitimidad. Sin embargo, la complejidad y opacidad de los sistemas automatizados vuelven esa promesa, muchas veces, puramente formal. La participación genuina no se agota en la aceptación pasiva de términos y condiciones, ni en la consulta simbólica sobre políticas ya decididas.

Participar, en el contexto de la gobernanza simbólica, implica involucrarse en el diseño, seguimiento y evaluación de los sistemas tecnológicos. Implica debatir sobre los fines de la innovación, los riesgos aceptables, los criterios de equidad y los mecanismos de corrección ante errores o abusos. Implica, en suma, construir nuevas formas de soberanía colectiva, donde la voz ciudadana tenga peso real en la definición y orientación de los lenguajes del poder.

El desafío es monumental, pero ineludible. Sin participación sustantiva, la legitimidad de la IA como herramienta de gobernanza seguirá estando en entredicho, vulnerable a crisis de confianza, estallidos de protesta y demandas de control cada vez más drásticas. La política democrática del futuro se jugará, en buena medida, en la capacidad de transformar la participación en un proceso real, no solo en una retórica tranquilizadora.

Laboratorios internacionales y el horizonte de la disputa democrática

En los últimos años, el escenario global se ha convertido en un verdadero laboratorio donde distintos países y bloques regionales exploran modelos alternativos para regular la relación entre IA, poder público y legitimidad social. La Unión Europea, por ejemplo, ensaya marcos regulatorios avanzados que buscan combinar protección de derechos fundamentales con incentivos a la innovación, insistiendo en la transparencia, la no discriminación y la explicabilidad como pilares de la gobernanza algorítmica. Esta apuesta por la “IA confiable” no solo es un proyecto normativo: es, sobre todo, una estrategia simbólica para posicionarse como referente ético frente al avance de modelos más pragmáticos y flexibles —como el estadounidense— o más autoritarios —como el chino.

En América Latina, mientras tanto, el despliegue de la IA se produce en contextos de desigualdad estructural, capacidades tecnológicas desiguales y Estados con recursos limitados. Aquí, la legitimación simbólica de la innovación se entrelaza con la urgencia por mostrar eficiencia en la gestión pública, aunque el riesgo de dependencia tecnológica y de cesión de soberanía digital sea cada vez más visible. La disputa simbólica no es solo sobre los discursos del progreso, sino sobre quién define y controla la arquitectura de lo posible en cada sociedad.

En Asia y África, la gobernanza simbólica de la IA se cruza con agendas de desarrollo nacional, industrialización tardía y luchas por la autonomía frente a plataformas globales. El capital simbólico de la “modernización tecnológica” es movilizado tanto por regímenes autoritarios como por democracias en expansión, aunque la materialidad de las infraestructuras —el acceso real a tecnología, talento, inversión y regulación— limite el alcance efectivo de las promesas discursivas.

Ejemplos de apropiación social y resistencia crítica

No todos los relatos sobre IA y legitimidad pública se escriben desde arriba. La apropiación crítica de la inteligencia artificial por parte de movimientos sociales, ONGs, universidades y colectivos ciudadanos introduce matices, resistencias y alternativas al lenguaje dominante del poder. Desde la creación de observatorios de vigilancia algorítmica, pasando por litigios estratégicos en tribunales nacionales e internacionales, hasta experimentos de gobernanza participativa en municipios y comunidades, proliferan ejemplos de cómo la tecnología puede ser resignificada, democratizada o, incluso, desmantelada si entra en conflicto con valores y derechos fundamentales.

Estas experiencias demuestran que la gobernanza simbólica nunca es un hecho consumado, sino una arena de disputa incesante. Las narrativas de eficiencia, progreso y objetividad son permanentemente contestadas, reinterpretadas o reapropiadas. La legitimidad tecnológica —al igual que cualquier otra legitimidad política— nunca está asegurada de una vez y para siempre; debe ser reconstruida, negociada y vigilada en el devenir de cada coyuntura.

Horizontes abiertos: imaginación política y democratización del porvenir

El reto más grande que plantea la inteligencia artificial como nuevo lenguaje del poder no es únicamente técnico ni normativo, sino profundamente político y cultural. Se trata de evitar la clausura anticipada de horizontes colectivos en nombre de la inevitabilidad tecnológica. Insistir en el derecho a imaginar futuros distintos, a deliberar públicamente sobre los fines y los límites de la innovación, a disputar el sentido y la materialidad de las infraestructuras que configuran la vida común.

Cultivar una imaginación política robusta —capaz de atravesar mitos de neutralidad, relatos de eficiencia, promesas de progreso— es hoy una condición para cualquier democracia que no quiera disolverse en la administración técnica de lo dado. Frente al brillo de la retórica tecnocrática, la capacidad de hacer preguntas, de experimentar con instituciones, de construir alianzas plurales y de sostener la incomodidad de la diferencia sigue siendo la fuente última de toda legitimidad pública.

La gobernanza simbólica de la inteligencia artificial no será nunca solo un asunto de técnicos o expertos, ni se resolverá en la opacidad de laboratorios y oficinas estatales. Permanecerá, mientras haya vida democrática, como un campo abierto, en disputa, donde el derecho a decir “no”, a pedir explicaciones y a exigir alternativas seguirá siendo el signo más vital de una ciudadanía activa frente a las promesas —y las amenazas— del nuevo lenguaje del poder.

 

Referencias bibliográficas

  • Ananny, M., & Crawford, K. (2018). Seeing without knowing: Limitations of the transparency ideal and its application to algorithmic accountability. New Media & Society, 20(3), 973-989.
  • Barocas, S., Hardt, M., & Narayanan, A. (2019). Fairness and Machine Learning. fairmlbook.org.
  • Benjamin, R. (2019). Race After Technology: Abolitionist Tools for the New Jim Code. Polity Press.
  • Burrell, J. (2016). How the machine ‘thinks’: Understanding opacity in machine learning algorithms. Big Data & Society, 3(1).
  • Eubanks, V. (2018). Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor. St. Martin’s Press.
  • Gillespie, T. (2014). The relevance of algorithms. In T. Gillespie, P. Boczkowski, & K. Foot (Eds.), Media Technologies: Essays on Communication, Materiality, and Society (pp. 167–194). MIT Press.
  • Latour, B. (2005). Reassembling the Social: An Introduction to Actor-Network-Theory. Oxford University Press.
  • Morozov, E. (2013). To Save Everything, Click Here: The Folly of Technological Solutionism. PublicAffairs.
  • Pasquale, F. (2015). The Black Box Society: The Secret Algorithms That Control Money and Information. Harvard University Press.
  • Yeung, K. (2018). Algorithmic regulation: A critical interrogation. Regulation & Governance, 12(4), 505-523.

 

Glosario de términos clave

 

  • Algoritmo
    Secuencia finita de instrucciones o reglas definidas para resolver un problema o realizar una tarea, frecuentemente implementada en sistemas informáticos para tomar decisiones o procesar información.
  • Gobernanza simbólica
    Prácticas y estrategias mediante las cuales actores políticos, empresariales o sociales construyen legitimidad, autoridad y sentido colectivo a través de discursos, símbolos e imaginarios ligados a la innovación tecnológica.
  • IA confiable
    Concepto promovido especialmente por la Unión Europea que aboga por sistemas de inteligencia artificial que sean transparentes, justos, explicables, seguros y sujetos a control humano efectivo.
  • Legitimidad tecnológica
    Reconocimiento social y político de la autoridad de sistemas técnicos, fundamentada tanto en su desempeño objetivo como en la narrativa simbólica que los envuelve.
  • Soft power tecnológico
    Capacidad de un país, empresa o actor global para influir en otros a través de la exportación de modelos, normas y valores ligados al desarrollo y uso de tecnologías, más allá de la coacción material directa.
  • Transparencia algorítmica
    Principio según el cual los procesos de decisión automatizados deben ser comprensibles y auditables por la sociedad, permitiendo conocer cómo y por qué se toman decisiones que afectan la vida colectiva.
  • Soberanía digital
    Derecho y capacidad de los Estados, comunidades o individuos para controlar y decidir sobre la infraestructura, los datos y los sistemas informáticos que estructuran su vida social, económica y política.

 

Para estar informado, Ingresá o Creá tu cuenta en MundoIA...

Entrar

Recordá revisar la carpeta de "no deseados", el correo puede llegar allí