NEWSLETTER

La transparencia ausente en la era de la IA periodística

Generated Image October 27, 2025 - 7_49PM

La transparencia ausente en la era de la IA periodística

El Periodismo en la Era de la IA: Una Auditoría de la Adopción, la Transparencia y las Implicaciones Éticas

La inteligencia artificial ha traspasado el umbral de la especulación para convertirse en una herramienta operativa en el corazón del periodismo estadounidense. Un estudio exhaustivo que auditó más de 186,000 artículos publicados en 1,500 periódicos entre junio y septiembre de 2025 reveló que aproximadamente el 9% de estos contenidos son parcial o totalmente generados por sistemas de inteligencia artificial. Esta cifra, aunque ya alarmante, se desglosa en dos modalidades distintas: el contenido completamente generado por IA, que representa el 5,2%, y el contenido mixto, donde la tecnología asiste o colabora con un autor humano, que alcanza el 3,9%. Este hallazgo no es una proyección futurista, sino un estado actual de la industria, un testimonio de cómo la tecnología transformadora está siendo integrada en los flujos de producción de noticias de manera masiva y, en gran medida, invisible al lector.

El uso de la inteligencia artificial no es uniforme; se distribuye de forma desigual, revelando patrones complejos que reflejan tanto las necesidades editoriales como las estructuras de propiedad mediática. Los análisis detallados demuestran una correlación directa entre el tamaño del medio y su adopción de IA. En periódicos locales con una circulación inferior a 100,000 ejemplares, la presencia de contenido de IA es casi cinco veces mayor que en sus contrapartes nacionales de mayor tirada. El 9,3% de los artículos en estos medios pequeños contiene rastros de IA, una cifra que contrasta drásticamente con el mero 1,7% encontrado en los grandes diarios. Esta disparidad sugiere que la adopción de la IA en los medios locales no es solo una estrategia de innovación, sino a menudo una respuesta pragmática a la escasez crónica de recursos humanos y presupuestarios.

Geográfica y propietariamente, el mapa de la adopción de la IA también muestra concentraciones significativas. El estudio identificó una mayor incidencia de contenido generado por IA en ciertos estados del sur y del Atlántico medio de Estados Unidos. De manera particular, el estado de Maryland registra una de las tasas más altas, con un 16,5% de sus artículos detectados como de IA. Esta alta concentración geográfica parece estar vinculada a la ausencia de grandes periódicos locales, lo que crea "desiertos informativos" donde los medios más pequeños pueden ser más propensos a adoptar tecnologías automatizadas para llenar el vacío.

A nivel corporativo, el informe destaca una correlación clara entre la propiedad y la intensidad del uso de la IA. Grupos editoriales con múltiples medios son los principales impulsores de esta tendencia. Boone Newsmedia emerge como el líder absoluto, con un 20,9% de su volumen total de artículos detectado como de IA. Le sigue de cerca Advance Publications con un 13,4%. Estos datos indican que la adopción de la IA está lejos de ser un fenómeno espontáneo y local; es parte de estrategias de negocio a gran escala, a menudo impulsadas por objetivos de eficiencia y reducción de costos en grupos empresariales que poseen vastas redes de medios de comunicación.

El contenido mismo refleja estas dinámicas. El uso de la IA es más prevalente en temas específicos y formatos. Los artículos sobre clima, ciencia/tecnología y salud presentan las tasas de adopción más altas, superando el 11% en cada caso. Esto puede deberse a la naturaleza de estos temas, que a menudo implican el procesamiento de grandes volúmenes de datos numéricos o científicos, una tarea ideal para la automatización. De manera similar, los boletines informativos y las traducciones automáticas son usos comunes que liberan tiempo para otras tareas.

Quizás uno de los hallazgos más sorprendentes es el alto porcentaje de contenido de IA en idiomas distintos del inglés. Mientras que en artículos en inglés la cifra es del 8%, en otros idiomas, principalmente en español, este porcentaje salta al 31%. Esta brecha lingüística subraya tanto el potencial de la IA para ampliar la cobertura multilingüe como las limitaciones persistentes de los recursos humanos especializados en estos idiomas dentro de la industria periodística. El impacto de la IA no se limita a los artículos de texto; las transcripciones de reuniones públicas y las alertas meteorológicas automatizadas son ejemplos más discretos pero igualmente importantes de su integración en el día a día del periodismo.

Métrica de Adopción de IA Valor Detectado
Porcentaje Total de Contenido de IA9.1%
Contenido Completamente Generado por IA5.2%
Contenido Mixto (Asistencia Humano-IA)3.9%
Circulación > 100,0001.7%
Circulación < 100,0009.3%
Grupo Propietario: Boone Newsmedia20.9%
Grupo Propietario: Advance Publications13.4%
Tema: Clima27.7%
Tema: Tecnología16.1%
Tema: Salud11.7%
Idioma: Otros (principalmente Español)31.0%
Idioma: Inglés8.0%

En última instancia, este panorama revela una industria en plena transformación, donde la línea entre el trabajo humano y el automatizado se vuelve cada vez más difusa. La adopción de la IA es un hecho irreversible, pero su implementación está lejos de ser homogénea. Es un proceso impulsado por una combinación de necesidades económicas, oportunidades tecnológicas y estrategias corporativas, cuyas consecuencias se extienden desde la calidad del producto final hasta la relación fundamental entre el medio y su audiencia.

La Brecha de la Transparencia: Por Qué Revelar el Uso de IA es Fundamental y por Qué No Se Hace

A pesar de la penetración tan profunda de la inteligencia artificial en la producción periodística, existe una barrera casi tan grande como la ignorancia pública sobre su existencia: la falta de divulgación. El mismo estudio que cuantificó el 9,1% de contenido de IA encontró que la práctica de informar al lector sobre este origen tecnológico es excepcionalmente rara. Un análisis manual realizado sobre una muestra de 100 artículos detectados como de IA reveló que solo cinco de ellos incluían alguna forma de divulgación explícita de su naturaleza. Esta cifra del 5% encapsula la magnitud del problema: la tecnología más avanzada del siglo XXI opera en la oscuridad, entregando información y narrativas al público sin ninguna señal visible de su procedencia algorítmica.

La razón principal detrás de esta reticencia a la transparencia radica en el temor a las consecuencias. Las organizaciones mediáticas, especialmente las más grandes, parecen dudar de la reacción del público. Existe un miedo generalizado a que la revelación del uso de la IA pueda erosionar la credibilidad de la marca y disuadir a los lectores. Sin embargo, esta preocupación parece estar mal dirigida, ya que la evidencia sugiere que el público está listo y dispuesto a aceptar la transparencia. Un estudio de Trusting News, realizado con más de 6,000 miembros de audiencias de diversas organizaciones, concluyó que el 94% de los encuestados desea que los medios revelen cuando utilizan inteligencia artificial en su trabajo. Otra encuesta del Reuters Institute mostró que casi la mitad de los estadounidenses considera esencial saber si un texto fue generado por una IA.

La resistencia a la divulgación también está alimentada por el temor a la "paradoja de la divulgación", un concepto que advierte sobre los efectos adversos del etiquetado. Estudios han demostrado que simplemente etiquetar un artículo como "generado por IA" puede reducir la percepción de precisión y la intención de compartirlo, incluso cuando se ha sometido a una rigurosa supervisión humana. Además, una investigación experimental realizada por Alyssa Appelman y Steve Bien-Aimé mostró que la simple presencia de un crédito que menciona la participación de la IA, sin especificar el grado de colaboración, puede llevar a los lectores a inferir un rol mucho menor del humano de lo que realmente existe, lo que a su vez disminuye la credibilidad percibida del contenido. Este análisis es crucial: la transparencia es insuficiente si es vaga o imprecisa.

Ante este dilema, diversos actores de la industria y la academia han propuesto marcos y soluciones más sofisticados. La Partnership on AI y la Knight Foundation desarrollaron una guía de 10 pasos para la adopción ética de la IA en los medios, que subraya la importancia de la transparencia y la rendición de cuentas. La guía recomienda acciones concretas, como etiquetar el contenido generado por IA, publicar documentación técnica accesible y explicar el proceso en blogs o secciones dedicadas. Joy Mayer, fundadora de Trusting News, argumenta que las divulgaciones deben integrarse orgánicamente en la narrativa del artículo, no aparecer como un elemento periférico o un aviso legal. Sugiere modelos de "transparencia procesal" con varios niveles, desde un etiquetado directo hasta metadatos legibles por máquina, pasando por la explicación de los principios editoriales detrás del uso de la IA.

Además de las recomendaciones técnicas, surgieron iniciativas para estandarizar la práctica. La Asociación de Medios Auditados ha desarrollado los "Ocho Pilares de IA Ética", un marco integral que aborda no solo la transparencia, sino también la responsabilidad, el sesgo, la privacidad y la capacitación. Gannett, a través de su vicepresidenta de automatización, Jessica Davis, ha implementado resúmenes de artículos generados por IA con un descargo claro que explica el proceso y garantiza la revisión humana previa, además de ofrecer un formulario para la retroalimentación del usuario. Estas prácticas, aunque positivas, son la excepción que confirma la regla. La mayoría de los medios continúan operando en silencio, perpetuando una cultura de opacidad que socava la base misma del periodismo democrático: la confianza de la audiencia.

La Paradoja de la Calidad: IA en Opiniones y Noticias, Entre la Productividad y el Sesgo

La adopción de la inteligencia artificial en el periodismo no solo es desigual en su alcance, sino que también exhibe una paradoja fascinante en cuanto a su aplicación. Lejos de ser una herramienta indiscriminada, la IA se ha integrado de forma selectiva en diferentes formatos y géneros periodísticos, mostrando una preferencia por la sección de opinión en lugar de la noticia, y una tendencia a optimizar la productividad en temas de baja complejidad en lugar de fomentar la profundidad en los de alta relevancia.

Los datos son contundentes: la IA es hasta 6,4 veces más probable que aparezca en los artículos de opinión de los grandes diarios que en sus secciones de noticias. En el New York Times, el Washington Post y el Wall Street Journal, el 4,56% de los artículos de opinión contenían IA, frente a un ínfimo 0,71% en sus noticias. Este desequilibrio es aún más pronunciado si se considera el aumento exponencial en los últimos años: entre 2022 y 2025, el uso de la IA en las páginas de opinión de estos tres medios aumentó 25 veces, pasando de un 0,1% a un 4,5%. La razón de esta preferencia es multifactorial. Primero, los artículos de opinión, especialmente los escritos por colaboradores externos o figuras públicas, a menudo tienen menos requisitos estrictos de verificación de hechos y neutralidad, lo que reduce el riesgo asociado a la posible "alucinación" de la IA —su tendencia a generar información falsa o fabricada.

Sin embargo, esta paradoja de la productividad viene acompañada de graves riesgos de sesgo y pérdida de calidad. La IA carece de la creatividad auténtica y de la capacidad contextual que caracterizan al periodismo de calidad. Su "pensamiento" es una simulación basada en patrones estadísticos extraídos de vastos corpus de texto, lo que la hace vulnerable a reforzar narrativas existentes y perpetuar prejuicios. Por ejemplo, un sistema de IA entrenado en datos históricos podría aprender a asociar ciertos delitos predominantemente con determinados grupos raciales, reproduciendo así estereotipos discriminatorios.

El impacto de esta paradoja se manifiesta en fracasos notorios y errores graves. Gannett tuvo que retirar en 2023 su cobertura de deportes generada por IA tras recibir severas críticas por su baja calidad y falta de conexión con el tema. CNET corrigió en 2023 artículos financieros escritos por IA, mientras que Sports Illustrated fue criticado por usar perfiles falsos de periodistas para promocionar contenido generado por la misma tecnología. Casos como el de Politico, donde una herramienta de resumen cometió errores flagrantes como atribuir políticas de Biden a Trump, demuestran la fragilidad de estas herramientas.

Por otro lado, existen ejemplos de uso más ético y responsable que demuestran que la IA no siempre tiene que ser un vehículo de baja calidad. Chalkbeat, un medio enfocado en la educación, utiliza IA para transcribir y resumir reuniones públicas a las que no puede enviar a un reportero, lo que les permite cubrir eventos importantes y descubrir historias relevantes que de otro modo se perderían. LocalLens, una herramienta lanzada en 2023, tiene un propósito similar: transcribir y resumir reuniones gubernamentales para que los medios locales puedan informar mejor sobre la gobernanza local. En el ámbito de la investigación, periodistas ganadores del Pulitzer han utilizado técnicas de machine learning para analizar imágenes satelitales y detectar objetos, un trabajo que sería imposible de realizar manualmente.

El Impacto Corporativo: Cómo la Propiedad Mediática y la Presión Económica Empujan la IA

El auge de la inteligencia artificial en el periodismo estadounidense no puede entenderse fuera del contexto de una industria profundamente afectada por la crisis económica y la consolidación corporativa. La adopción de la IA, especialmente en los medios locales, está intrínsecamente ligada a dos fuerzas poderosas: la estructura de la propiedad mediática y la aguda presión financiera que lleva a muchas organizaciones a buscar soluciones de eficiencia radical.

La influencia de los grupos editoriales multimediáticos es palpable en los datos. Los estudios identifican una correlación directa entre la propiedad corporativa y la tasa de adopción de la IA. Empresas como Boone Newsmedia (con un 20,9% de contenido de IA) y Advance Publications (13,4%) destacan como los mayores adoptantes. Esto sugiere que la implementación de la IA no es un esfuerzo aislado de un solo periódico, sino una estrategia coordinada y tal vez incluso un requisito de la matriz corporativa. Para estos conglomerados, la IA es una herramienta de gestión de costos. En un mercado donde la rentabilidad es un constante desafío, automatizar tareas repetitivas como la generación de informes meteorológicos, resúmenes de noticias corporativas o alertas de mercados financieros puede resultar en una reducción significativa del gasto en personal.

Esta presión económica se ve exacerbada por la crisis estructural del periodismo local. Desde 2005, Estados Unidos ha perdido un tercio de sus periódicos y casi dos tercios de sus periodistas. La pérdida de empleos en las redacciones ha sido devastadora, con una caída neta de más de 7,000 puestos en un solo año. En este entorno, la IA se presenta como una salvación tecnológica. Permite a los medios locales con equipos reducidos cubrir un espectro más amplio de comunidades y temas. Por ejemplo, herramientas como LocalLede de la Associated Press monitorean regulaciones federales relevantes para jurisdicciones locales, proporcionando un servicio valioso que un pequeño equipo editorial no podría gestionar por sí mismo.

Sin embargo, esta eficiencia a corto plazo conlleva riesgos a largo plazo. La presión para adoptar la IA a menudo proviene de la dirección y se ejecuta sin un debate amplio dentro de la redacción. Mike Ananny y Jake Karr señalan que a menudo los periodistas se enteran de nuevas iniciativas de IA a través de informes externos, antes incluso de que sus propios editores las hayan presentado oficialmente. Esto genera un ambiente de tensión y desconfianza. El conflicto en Politico es un ejemplo paradigmático. La gestión lanzó herramientas de resumen y generación de informes sin consultar a los sindicatos, violando cláusulas contractuales que exigen un período de aviso y garantías sobre los estándares editoriales.

Este dinamismo también está influido por las alianzas estratégicas entre los medios y las empresas de tecnología. El acuerdo de Axel Springer con OpenAI en 2023, por ejemplo, aumentó la presión interna para utilizar activamente las herramientas de IA en todas sus filiales, incluidos los medios estadounidenses. De manera similar, la Alianza de Medios Auditados ha lanzado un programa de Certificación de IA Ética, que, aunque promueve la responsabilidad, también puede verse como una forma de legitimar y normalizar la adopción de la tecnología, posiblemente facilitando su integración en los flujos de trabajo bajo el amparo de un marco de certificación.

Riesgos y Repercusiones: Desinformación, Confianza y la Sostenibilidad del Periodismo Democrático

El rápido y a menudo opaco despliegue de la inteligencia artificial en el periodismo abre un abanico de riesgos significativos que van desde la precisión factual hasta la integridad del propio modelo de negocio democrático. La confianza, el pilar sobre el cual se asienta cualquier sistema de información, está siendo puesto a prueba por la proliferación de contenido generado por IA, que introduce una nueva dimensión de complejidad y ambigüedad.

Uno de los riesgos más inmediatos y tangibles es la desinformación y los errores factuales. La IA generativa, conocida por su tendencia a "alucinar" o inventar información plausible pero incorrecta, presenta un peligro considerable en un campo donde la exactitud es primordial. El informe de Muckrack de 2025 reveló que casi la mitad de los periodistas (42%) admitieron haber usado ChatGPT, y la recolección de información era una de sus aplicaciones más comunes. Este uso puede tener consecuencias graves. Un ejemplo citado es el de una herramienta de recomendación de libros falsos generada por IA en el Chicago Sun-Times, que ilustra cómo la IA puede comprometer directamente la veracidad de la información.

Más allá de los errores individuales, existe una amenaza más sutil pero igualmente corrosiva para la confianza pública: la percepción de manipulación y falta de transparencia. Como se ha explorado, la revelación del uso de la IA es mínima, pero cuando los lectores sospechan o descubren que una IA ha participado en la creación de un contenido, su confianza en la credibilidad del material disminuye. Un estudio mostró que incluso un crédito vago que menciona la "colaboración" o la "asistencia" de una IA puede llevar a los consumidores a inferir un menor rol del periodista humano, lo que erosiona la percepción de cuidado editorial y verificación.

Estos riesgos se intensifican en el contexto de la crisis económica del periodismo. La adopción de la IA como herramienta de reducción de costos a menudo va acompañada de despidos, lo que agrava la precariedad laboral y la desconfianza entre periodistas y administración. Empresas como Axios y Business Insider, que han sido observadas usando IA, también sufrieron despidos significativos (10% y 20% respectivamente) en 2024 y 2025, lo que sugiere una correlación entre la inversión en IA y la reducción del personal.

Finalmente, la proliferación de contenido generado por IA amenaza la sostenibilidad misma del periodismo democrático. Una industria que produce una mayor cantidad de contenido de baja calidad, superficie y fácilmente replicable no puede cumplir con su rol de proporcionar a la ciudadanía la información profunda y contextualizada necesaria para participar en la vida pública. La IA tiende a favorecer la producción de historias genéricas y predictibles, lo que puede llevar a una homogeneización del discurso mediático y a la supresión de voces alternativas. En un momento en que la desinformación ya es un problema global, la introducción deliberada de contenido generado por máquinas, a menudo sin supervisión humana adecuada, puede acelerar la saturación del espacio público con narrativas sesgadas y engañosas.

Futuro Etico: Caminos hacia una Implementación Responsable de la IA en el Periodismo

Frente a un panorama plagado de riesgos y desafíos, la comunidad periodística y tecnológica está explorando activamente caminos hacia una implementación más responsable y ética de la inteligencia artificial. El objetivo no es frenar la innovación, sino canalizarla de una manera que preserve los valores fundamentales del periodismo —veracidad, equidad, independencia y rendición de cuentas— mientras aprovecha el potencial de la tecnología para mejorar la eficiencia y la cobertura.

Una de las piedras angulares de este futuro es la institucionalización de políticas claras y públicas. Reconociendo que la mayoría de los medios aún carecen de directrices, varias organizaciones han comenzado a desarrollar marcos guía. La Partnership on AI y la Knight Foundation, con la colaboración de expertos del sector, crearon una guía de 10 pasos para la adopción ética de la IA en las redacciones, que aborda desde la definición de objetivos hasta la supervisión continua del personal. Esta guía, junto con otros recursos como los Ocho Pilares de IA Ética de la Asociación de Medios Auditados, ofrece un conjunto de principios prácticos.

La transparencia, en particular, es un tema recurrente. La estrategia más prometedora va más allá de una simple etiqueta. El modelo de "transparencia procesal" propone un espectro de divulgación. En un extremo, una etiqueta simple ("Este artículo fue generado con IA") puede ser útil pero también potencialmente engañosa. En el otro, se encuentra la transparencia específica, donde el medio explica en detalle cómo se utilizó la IA en ese artículo específico. El New York Times ha dado un paso en esta dirección al explicar cómo su IA se usó para analizar imágenes satelitales de bombardeos en Gaza, detallando que el modelo había detectado más de 1,600 cráteres, todos verificados manualmente por periodistas. Este enfoque no solo informa al lector, sino que también demuestra el proceso editorial y restaura el rol del periodista humano como curador y verificador.

Para que estos marcos sean efectivos, es crucial que se formalicen a través de acuerdos contractuales y sindicales. Los sindicatos de periodistas han demostrado ser un contrapeso vital contra la implementación unilateral de la IA. Exigen cláusulas contractuales que exijan un periodo de aviso previo, garantías de supervisión humana y la prohibición de usar la IA para reemplazar periodistas. La exigencia de que un humano esté "en el bucle" es fundamental para mitigar el riesgo de errores graves y para mantener el control editorial en manos de los profesionales.

Finalmente, el futuro de una IA ética depende de la educación y la capacitación continua. Muchos periodistas, especialmente los veteranos, no recibieron formación en ciencia de la computación y pueden sentirse desvalidos ante estas nuevas herramientas. Programas como NewsU del Poynter Institute, la Knight Center para el Periodismo en las Américas y la Google News Initiative están trabajando para cerrar esta brecha, ofreciendo cursos sobre cómo usar la IA de manera segura y efectiva. La experiencia de Amy Merrick, quien inició una maestría en ciencias de la computación para comprender mejor la IA desde dentro, destaca la importancia de que los periodistas no sean meros usuarios pasivos, sino pensadores críticos que comprendan tanto las capacidades como las limitaciones de la tecnología.

Al fomentar una cultura de experimentación de bajo riesgo y autoevaluación crítica, los medios pueden aprender a aprovechar el potencial de la IA para liberar a los periodistas de tareas rutinarias y devolverlos a lo que hacen mejor: investigar, contar historias y construir confianza con su audiencia. En última instancia, el éxito de la IA en el periodismo no se medirá por la velocidad de producción, sino por su capacidad para fortalecer, no para debilitar, el núcleo de la práctica periodística.

Referencias

Russell, J., Karpinska, M., Akinode, D., Thai, K., Emi, B., Spero, M., & Iyyer, M. (2025). AI use in American newspapers is widespread, uneven, and rarely disclosed. arXiv preprint arXiv:2510.18774.

Emi, B., & Spero, M. (2024). Technical Report on the Pangram AI-Generated Text Classifier. arXiv preprint arXiv:2402.14873.

Kennedy, B., Yam, E., Kikuchi, E., Pula, I., & Fuentes, J. (2025). How Americans view AI and its impact on people and society. Pew Research Center.

Medill Local News Initiative. (2024). AI and local news: Report 2024. Northwestern University.

Trusting News. (2025). How audiences feel about AI in journalism. Trusting News Project.

Partnership on AI & Knight Foundation. (2025). A Guide to Ethical AI Adoption in Newsrooms.

Asociación de Medios Auditados. (2025). Ocho Pilares de IA Ética para Medios de Comunicación.

Publicaciones Recientes

3c6437bd-8bc1-48bc-8152-b015c3f14d59

Claude invade Excel con IA especializada en análisis financiero

  Complemento para Excel, conectores de datos en tiempo real con Bloomberg y Moody’s, y flujos de trabajo aut
Leer Más
8064e9c5-d777-4d77-9d85-d9d8066555f8

MiniMax M2: China desafía Silicon Valley con modelo abierto que cuesta 8% del precio de Claude

  Startup china respaldada por Alibaba lanza modelo de 230 mil millones de parámetros que activa solo 10 mil millo
Leer Más

Para estar informado, Ingresá o Creá tu cuenta en MundoIA...

Entrar

Recordá revisar la carpeta de "no deseados", el correo puede llegar allí