Quién decide el futuro de la inteligencia artificial: el pulso entre Washington y los estados

ChatGPT Image 5 jul 2025, 20_26_54

Quién decide el futuro de la inteligencia artificial: el pulso entre Washington y los estados

Cuando regular la IA se convierte en una lucha de poder

La noticia parece técnica. El Senado de Estados Unidos bloqueó una medida, incluida en el proyecto presupuestario presentado por el presidente Donald Trump, que buscaba impedir que los estados pudieran aprobar durante diez años sus propias leyes sobre inteligencia artificial. Pero lo que está en juego es mucho más que un detalle legislativo. Este episodio abre una ventana al modo en que la política, la tecnología y el poder se entrelazan en uno de los debates más delicados del presente: quién decide las reglas de una tecnología que avanza más rápido que nuestra capacidad de entenderla.

En Estados Unidos, las leyes presupuestarias son una herramienta poderosa. No solo porque definen cómo se financia el gobierno, sino porque a menudo se convierten en vehículos para intentar colar normas que, de otro modo, generarían polémica. Eso fue lo que ocurrió en este caso. La propuesta no se presentó como una ley independiente sobre inteligencia artificial. Se deslizó dentro de un texto extenso y complejo que fija el presupuesto nacional, con la expectativa de que pasara desapercibida. Pero no lo hizo. Y el Senado, al identificarla, decidió eliminarla antes de aprobar el proyecto.

Lo que se buscaba era claro: unificar el marco normativo de la IA durante diez años. Durante ese tiempo, los estados no podrían actuar. Todo quedaría en manos del gobierno federal. Un solo juego de reglas para todos. Nada de experimentos locales. Ningún estado adelantándose con normas propias.

La idea de un solo marco frente al mosaico regulatorio

Quienes apoyaban la medida tenían un argumento poderoso. Decían que permitir que cada estado regule la inteligencia artificial por su cuenta crearía un caos. Cincuenta estados, cincuenta marcos distintos. ¿Cómo podría una empresa tecnológica innovar, escalar sus soluciones, desplegar productos a nivel nacional si tiene que cumplir con requisitos diferentes en cada territorio?

El temor era perder competitividad. En un mundo donde China avanza rápido en el desarrollo y aplicación de la IA, Estados Unidos no puede permitirse obstáculos burocráticos. La carrera tecnológica es también una carrera por el poder global. Y los marcos normativos fragmentados son, para muchos, un lastre que el país no puede cargar.

Pero el precio de esa uniformidad es alto. Altísimo. Implica renunciar, durante diez años, a la posibilidad de que los estados protejan a sus ciudadanos frente a los riesgos de una tecnología que aún no terminamos de comprender. Implica apostar a que el gobierno federal actuará con la rapidez, el cuidado y la sensibilidad que se requiere. Y eso no es algo que todos estén dispuestos a dar por hecho.

El valor de la autonomía local

Estados Unidos es una federación. Esa palabra no es un tecnicismo. Es el núcleo del sistema político. Significa que los estados no son meras subdivisiones administrativas. Tienen poder, historia y derecho a decidir. Han sido, durante dos siglos y medio, laboratorios de ideas, de experimentos, de avances que luego se proyectaron al conjunto del país.

Las leyes contra la segregación racial. Las primeras normas ambientales. Las regulaciones pioneras en privacidad de datos. Todo eso nació en los estados. No en Washington. No en el Congreso federal. Fue el resultado de comunidades que decidieron no esperar.

Impedir que los estados legislen sobre inteligencia artificial durante diez años es mucho más que evitar un “mosaico regulatorio”. Es callar esas voces. Es cerrar el camino a posibles respuestas creativas, adaptadas a las realidades locales, frente a un desafío que apenas empezamos a vislumbrar.

Y hay algo más. Si el gobierno federal no actúa, si el Congreso no avanza, ¿quién protegerá a la gente? Sin la posibilidad de leyes estatales, la respuesta sería: nadie.

Una jugada legislativa que revela las tensiones del sistema

La manera en que se intentó imponer esta prohibición es tan reveladora como la medida misma. Incluirla en el presupuesto no fue un descuido. Fue una estrategia. Los proyectos presupuestarios deben ser aprobados. Sin presupuesto, el gobierno se paraliza. Las agencias cierran. Los empleados no cobran. Las funciones básicas del Estado se detienen.

Eso hace que estos proyectos sean el vehículo perfecto para colar disposiciones que no resistirían un debate abierto. Porque la urgencia de aprobar el presupuesto puede llevar a los legisladores a aceptar condiciones que de otro modo rechazarían.

Pero esta vez no funcionó. La medida fue detectada. Y fue eliminada. El Senado, al hacerlo, no solo rechazó la prohibición sino el intento de evitar el debate sobre un tema que merece ser discutido a fondo.

El trasfondo: poder, tecnología y mercado

Se trata de algo mas que un conflicto institucional. Lo que hay detrás es un juego de intereses donde el poder económico y el poder político se cruzan. Las grandes empresas tecnológicas prefieren un marco regulatorio unificado. Les da previsibilidad, ahorra costos y les facilita operar a gran escala.

Un solo marco significa un solo interlocutor. Y eso es más fácil de gestionar, de influir, de moldear según sus intereses. Cincuenta marcos distintos son un problema, uno muy caro, que introduce riesgos, demoras, restricciones inesperadas.

Por eso, aunque no siempre de manera explícita, los gigantes tecnológicos empujan la idea de una regulación federal que limite la capacidad de los estados de imponer sus propias normas. No porque rechacen la regulación en sí. Sino porque prefieren una regulación que puedan entender, anticipar, controlar.

Pero el riesgo de una centralización excesiva es evidente. Concentrar el poder de decidir sobre la inteligencia artificial en un solo nivel de gobierno significa reducir los contrapesos. Implica apostar todo a que ese nivel actuará con responsabilidad, con rapidez, con visión de futuro. Y la experiencia dice que eso no siempre ocurre.

La tensión entre innovación y protección

El debate sobre esta medida sintetiza una tensión que atraviesa todas las discusiones sobre tecnología. ¿Cómo se equilibra el impulso a la innovación con la necesidad de proteger derechos? ¿Cómo se fomenta el desarrollo sin abrir la puerta a abusos, a desigualdades, a daños que no podremos reparar?

Los defensores de la prohibición estatal hablaban de la necesidad de no poner trabas. De dejar que la inteligencia artificial florezca, sin los corsés de regulaciones locales que dificulten su despliegue. Los críticos alertaban sobre el costo de un desarrollo sin control. Sobre el riesgo de un entorno donde los algoritmos decidan sin transparencia, sin rendición de cuentas, sin garantías.

No hay respuesta fácil. Porque ambos planteos tienen su parte de razón. Lo que este episodio deja claro es que las decisiones sobre el marco regulatorio de la IA no son neutras. No son meramente técnicas. Son políticas. Son éticas. Y tienen consecuencias que afectan a todos.

Lo que muestra la decisión del Senado

El rechazo del Senado a la medida es un mensaje de que, al menos por ahora, el sistema federal resiste. De que los estados seguirán teniendo margen para actuar, para experimentar, para proteger a sus ciudadanos frente a los desafíos de la inteligencia artificial.

Pero también es un aviso. La batalla por el poder de regular la tecnología está en pleno desarrollo. Lo que se intentó esta vez volverá a intentarse, de otras maneras, con otros instrumentos, en otros contextos. Porque lo que está en juego es demasiado importante como para que los actores implicados renuncien al intento.

Y porque la inteligencia artificial no es un tema del futuro sino del presente. Un tema que define cómo vivimos, cómo trabajamos, cómo nos relacionamos. Y que define, sobre todo, quién tiene el poder de decidir sobre todo eso.

La inteligencia artificial como campo de disputa política

Hablar de inteligencia artificial no es solo hablar de tecnología. Es hablar de poder. Poder para decidir qué se puede hacer y qué no, y para establecer las reglas de un juego que ya no es de laboratorio, sino de la vida cotidiana. Pero sobre todo, poder para definir quién controla ese proceso. El episodio del intento de prohibición estatal en Estados Unidos lo dejó en claro como pocas veces antes. Lo que estaba en discusión no era un tecnicismo legal. Era la arquitectura misma del poder en la era de la inteligencia artificial.

Esto no es nuevo en la historia de Estados Unidos. Cada vez que una tecnología disruptiva aparece, el país se enfrenta al dilema de cómo gobernarla. Ocurrió con el ferrocarril. Con la energía eléctrica. Con el automóvil. Con Internet. Pero la inteligencia artificial presenta una novedad. Su capacidad para intervenir en procesos decisionales antes reservados a los seres humanos. Su posibilidad de transformar no solo lo que hacemos, sino cómo lo decidimos. Y eso convierte el debate en algo aún más profundo.

Que un gobierno, sea el federal o el estatal, decida cómo regular la IA no es un acto neutro. Es una declaración sobre cómo entendemos el futuro. Sobre qué valoramos más: la libertad de innovar sin restricciones o la necesidad de garantizar que esa innovación no nos dañe como sociedad. Por eso, la medida propuesta por la administración de Donald Trump despertó tanta resistencia. Porque pretendía resolver esa tensión cerrando la puerta al debate local durante diez años. Una eternidad en términos tecnológicos. Y una apuesta arriesgada en términos democráticos.

La estrategia de centralización: ventajas y riesgos

Hay algo que los defensores de la centralización señalan, y no sin razón. La fragmentación normativa puede ser un problema. Si cada estado fija sus propias reglas sobre cómo deben diseñarse, aplicarse o controlarse los sistemas de inteligencia artificial, las empresas enfrentan un desafío formidable. Lo que es legal en un estado puede no serlo en el vecino. Lo que se exige en uno puede contradecir lo que se permite en otro. Para las compañías que desarrollan y despliegan estas tecnologías, eso significa costos adicionales, incertidumbre, complejidad operativa. Y en un mercado global, donde los competidores no enfrentan esos obstáculos, puede traducirse en desventaja.

Pero el remedio puede ser peor que la enfermedad. Porque un marco único no garantiza un marco bueno. Centralizar las decisiones puede simplificar las cosas para las empresas. Pero también puede dejar a la ciudadanía con menos recursos para exigir controles, para impulsar normas más estrictas, para reaccionar ante abusos. Y el episodio reciente lo puso de manifiesto. El intento no fue crear un marco federal sólido que sustituyera los marcos locales. Fue, simplemente, cerrar la posibilidad de que los estados actúen, sin ofrecer a cambio un plan claro, un conjunto de normas federales detalladas, un compromiso con la protección de derechos.

Eso explica, en parte, por qué la propuesta fracasó. Porque no ofrecía un camino. Solo imponía un bloqueo. Y porque lo hacía en un terreno (el de las leyes presupuestarias) que no es el lugar donde se debaten estas cuestiones de fondo.

La historia como espejo del presente

Para quienes conocen la historia política de Estados Unidos, este tipo de tensiones resulta familiar. El país se construyó sobre la base de un equilibrio inestable entre el poder federal y el poder estatal. Ese equilibrio ha sido fuente de conflictos, de avances, de retrocesos. Y ha sido también un motor de innovación. Los estados han sido, en innumerables ocasiones, los primeros en actuar frente a desafíos nuevos. Y esas acciones locales han servido luego como modelo para el conjunto del país.

La regulación ambiental es un ejemplo claro. Durante décadas, los estados más conscientes de los riesgos ambientales aprobaron leyes que luego inspiraron las normas federales. Lo mismo ocurrió con los derechos civiles. Y más cerca en el tiempo, con la privacidad de los datos. California, con su ley de protección de datos, marcó un camino que otras jurisdicciones siguieron.

La inteligencia artificial no parece destinada a ser la excepción. Los estados estaban empezando a explorar sus propias respuestas. A debatir cómo garantizar la transparencia de los algoritmos en el sistema judicial. Cómo proteger a los trabajadores frente a la automatización. Cómo evitar que la policía use sistemas de IA sin controles adecuados. La medida bloqueada por el Senado habría puesto un freno a todo eso. Durante diez años, ninguna de esas iniciativas podría haberse transformado en ley.

La presión de los intereses privados

No se puede analizar este episodio sin mirar el papel de los actores económicos. Las grandes empresas tecnológicas tienen un interés directo en el marco regulatorio que se establezca. Un interés legítimo, desde su punto de vista. Un entorno normativo previsible, estable, uniforme, es clave para su planificación, su inversión, su crecimiento. Pero ese interés no siempre coincide con el interés público. No porque las empresas sean necesariamente malignas. Sino porque sus objetivos (maximizar beneficios, expandirse, innovar) no siempre van de la mano con la protección de derechos, la equidad y el bien común.

Eso explica por qué estas empresas suelen preferir un marco federal. Porque les resulta más sencillo lidiar con un solo conjunto de reglas. Porque es más fácil concentrar los esfuerzos de lobby en el Congreso que multiplicarlos por cincuenta, uno por cada estado. Y porque, en muchos casos, el gobierno federal es más receptivo a sus planteos que los gobiernos locales, más expuestos a las presiones de la ciudadanía.

El intento de imponer una prohibición estatal durante diez años refleja esa lógica. Y el rechazo del Senado muestra que, al menos en esta ocasión, el equilibrio entre intereses privados y públicos se inclinó a favor de la preservación del espacio democrático local.

El desafío de legislar en tiempos de cambio acelerado

Uno de los mayores desafíos que plantea la inteligencia artificial es el desfasaje entre el ritmo del cambio tecnológico y el ritmo del cambio legal. Las leyes, por su propia naturaleza, avanzan más despacio. Requieren debate, consenso, tiempo para su implementación. La tecnología, en cambio, se desarrolla en ciclos cada vez más cortos. Lo que hoy es una innovación de vanguardia mañana es un estándar. Lo que hoy parece ciencia ficción mañana es parte de lo cotidiano.

Ese desfasaje alimenta la tentación de soluciones drásticas. Como la de cerrar el paso a la regulación local durante una década. Como la de concentrar el poder normativo en un solo nivel de gobierno. Como la de confiar en que el mercado se autorregulará o en que el gobierno federal encontrará, sin presiones, el equilibrio adecuado entre innovación y control.

Pero la experiencia demuestra que esas soluciones rara vez funcionan. Porque los problemas de la tecnología no esperan. Porque los daños que una IA mal regulada puede causar no se detienen hasta que las leyes se actualicen. Y porque el costo de la inacción suele ser pagado por los más vulnerables.

El valor del debate abierto

Lo ocurrido en el Senado tiene un mérito que va más allá del resultado concreto. El intento de prohibición estatal obligó a poner sobre la mesa un debate que, en muchos casos, se da de manera fragmentada, dispersa, superficial. Obligó a los legisladores, a la prensa, a la sociedad civil, a mirar de frente el dilema de cómo regular la inteligencia artificial. A reconocer que no se trata solo de una cuestión técnica. Que es, sobre todo, una cuestión de valores. De prioridades. De cómo imaginamos la relación entre tecnología, democracia y derechos.

Ese debate está lejos de haber concluido. Lo que ocurrió fue apenas un episodio de una discusión que seguirá abierta durante años. Pero fue un episodio que mostró la importancia de la vigilancia democrática. La importancia de no dejar que decisiones fundamentales se tomen en la oscuridad de un anexo presupuestario. La importancia de defender los espacios de decisión local como parte esencial del equilibrio de poderes.

Para estar informado, Ingresá o Creá tu cuenta en MundoIA...

Entrar

Recordá revisar la carpeta de "no deseados", el correo puede llegar allí