NEWSLETTER

Cuando la IA copia a Van Gogh: el debate sobre propiedad artística en la era digital

Generated Image November 06, 2025 - 12_51AM

Cuando la IA copia a Van Gogh: el debate sobre propiedad artística en la era digital

Cuando la IA aprende de Van Gogh y Da Vinci: una investigadora cuestiona los límites de la propiedad artística y la originalidad
Vincent van Gogh, Leonardo da Vinci y Pablo Picasso crearon algunas de las obras de arte más reconocibles de la historia. Sus obras maestras han sido exhibidas en todo el mundo, admiradas por millones e inspirado generaciones de artistas. Pero si la inteligencia artificial generara una imagen imitando sus estilos y técnicas distintivas, ¿seguiría destacándose su obra original? Y si la IA se basa en sus creaciones para producir algo nuevo, ¿deberían esos artistas recibir crédito por la inspiración que proporciona su trabajo? Ananya Singh, profesora asistente de diseño de comunicación visual en la Universidad de Texas en Arlington, explora en su nueva investigación publicada en el Journal of Information, Communication and Ethics in Society cómo la IA está redefiniendo los límites de la creatividad y la autoría en las artes. Ella encontró una aceptación creciente del arte generado por IA pero argumenta que cuando el arte creado por humanos se usa como fuente para las creaciones de IA, los artistas originales deben ser acreditados. Su solución: usar la IA para crear archivos de datos dentro del arte generado por IA que identifiquen y acrediten la obra de arte original y al artista, asegurando que el crédito viva con la obra original mientras se modifica, replica y distorsiona.

Vincent van Gogh, Leonardo da Vinci y Pablo Picasso crearon algunas de las obras de arte más reconocibles de la historia. Sus obras maestras han sido exhibidas en todo el mundo, admiradas por millones e inspirado generaciones de artistas. Las pinceladas distintivas de Van Gogh, la técnica del esfumato de Da Vinci, el cubismo revolucionario de Picasso, cada uno estableció un lenguaje visual tan característico que sus obras son instantáneamente identificables incluso para espectadores casuales.

Pero si la inteligencia artificial generara una imagen imitando sus estilos y técnicas distintivas, ¿seguiría destacándose su obra original? Y si la IA se basa en sus creaciones para producir algo nuevo, ¿deberían esos artistas recibir crédito por la inspiración que proporciona su trabajo? Estas preguntas no son hipotéticas. Los modelos de generación de imágenes como Stable Diffusion, Midjourney y DALL-E han sido entrenados en millones de obras de arte, incluyendo las de maestros históricos y artistas contemporáneos vivos, frecuentemente sin permiso o compensación explícitos.

Como en muchos otros campos, las artes han visto que la IA se vuelve cada vez más popular, con la tecnología redefiniendo la manera en que los creadores producen y generan arte. Naturalmente, las preguntas sobre la autenticidad creativa y la originalidad han provocado un debate sobre si el arte creado, o co-creado, usando IA merece el mismo valor que el trabajo hecho únicamente por humanos. Este debate no es meramente académico; tiene implicaciones legales, económicas y culturales profundas para los artistas cuyo sustento depende de su capacidad de reclamar la propiedad de sus creaciones distintivas.

La investigación: redefiniendo la creatividad y la autoría

En una nueva investigación publicada en el Journal of Information, Communication and Ethics in Society, Ananya Singh, profesora asistente de diseño de comunicación visual en la Universidad de Texas en Arlington, explora cómo la IA está redefiniendo los límites de la creatividad y la autoría en las artes. Ella aboga por un sistema que fomente la innovación y proteja los derechos de los artistas y creadores, reconociendo que estas no son necesariamente metas contradictorias sino que requieren un equilibrio cuidadoso.

La pregunta central de Singh es engañosamente simple pero profundamente compleja: si alguien tomara la Mona Lisa, que fue originalmente creada por Leonardo, y la modificara o la usara para crear algo nuevo usando IA, ¿quién recibe crédito por lo que ha sido generado? En la mayoría de los casos, la IA está recibiendo el crédito, y los artistas reales no están siendo apreciados o reconocidos por el uso de sus obras originales.

Esta dinámica representa una inversión fundamental de cómo tradicionalmente ha funcionado la influencia artística. Cuando Picasso estudiaba las máscaras africanas o cuando los impresionistas se inspiraban en los grabados japoneses, la influencia era reconocida pero la creación resultante era incuestionablemente la del artista individual. El artista procesaba la inspiración a través de su propia visión, técnica y creatividad, produciendo algo que llevaba su sello distintivo. Con la IA, la relación es diferente: el sistema aprende directamente de millones de obras existentes y puede reproducir elementos estilísticos con una fidelidad que borra la distinción entre inspiración y copia.

Si alguien tomara la Mona Lisa, que fue originalmente creada por Leonardo, y la modificara o la usara para crear algo nuevo usando IA, ¿quién recibe crédito por lo que ha sido generado? En la mayoría de los casos, la IA está recibiendo el crédito, y los artistas reales no están siendo apreciados o reconocidos por el uso de sus obras originales. Visité un par de museos de arte en Nueva York y Washington recientemente. Me destrozó cuando vi obras de arte que claramente habían sido creadas con IA, pero no había nada que pudiera referenciar o leer sobre la obra de arte original. Dra. Ananya Singh, profesora asistente de diseño de comunicación visual en la Universidad de Texas en Arlington, sobre el arte generado por IA en museos

La aceptación creciente del arte generado por IA

En su investigación, Singh encontró una aceptación creciente del arte generado por IA. Esta aceptación refleja tanto el entusiasmo por las nuevas herramientas como una posible falta de comprensión sobre cómo funcionan estos sistemas y qué están tomando prestado. Ella reconoce que los artistas deben tener espacio para experimentar con nuevo software y aplicaciones al crear; la innovación tecnológica siempre ha sido parte de la evolución del arte, desde la invención de la pintura al óleo hasta la fotografía y el arte digital.

Sin embargo, Singh argumenta que cuando el arte creado por humanos se usa como fuente para las creaciones de IA, los artistas originales deben ser acreditados y reconocidos por su trabajo. Esta posición no rechaza la IA como herramienta artística sino que insiste en la transparencia sobre sus fuentes. La distinción es crucial: no se trata de si la IA puede o debe usarse para crear arte, sino sobre cómo se puede usar responsablemente de manera que respete los derechos y contribuciones de los artistas cuyo trabajo alimenta estos sistemas.

La experiencia personal de Singh subraya la urgencia del problema. Visité un par de museos de arte en Nueva York y Washington recientemente, dijo Singh. Me destrozó cuando vi obras de arte que claramente habían sido creadas con IA, pero no había nada que pudiera referenciar o leer sobre la obra de arte original. Cada vez más, los creadores también están pasando arte a través de estos programas sin ningún conocimiento de las obras originales o de los artistas, es devastador.

El problema de la invisibilidad de la atribución

Arte generado por IA en galerías: Las obras de arte creadas usando herramientas de IA se están exhibiendo cada vez más en galerías y museos sin documentación clara sobre qué obras originales o estilos de artistas fueron usados como fuentes de entrenamiento. Los visitantes ven el producto final pero no tienen forma de rastrear las contribuciones de los artistas originales cuyo trabajo influyó en el output de la IA.

Creadores no artistas: Conforme las herramientas de generación de imágenes se vuelven más accesibles, personas sin formación artística formal las están usando para crear trabajos visualmente impresionantes. Aunque esto democratiza la creación de arte en un sentido, también significa que muchos creadores carecen de la conciencia tradicional de los artistas sobre la atribución, la influencia y las normas de dar crédito.

El problema del prompt: Cuando alguien ingresa el prompt "pintura al estilo de Van Gogh de un paisaje urbano moderno", el sistema de IA aprovecha su entrenamiento en obras reales de Van Gogh para producir la imagen. El usuario puede considerar que el prompt es su contribución creativa, pero la ejecución estilística proviene directamente del análisis que la IA hizo de las pinturas de Van Gogh. ¿Quién merece el crédito? ¿El usuario que proporcionó el concepto? ¿La IA que ejecutó el estilo? ¿Van Gogh, cuyas obras hicieron posible la ejecución estilística?

La modificación y la distorsión: El problema se complica conforme las imágenes generadas por IA se modifican, remezclan y usan como entradas para generación adicional. Una imagen que comenzó como una síntesis del estilo de múltiples artistas se modifica, se combina con otros elementos y se comparte ampliamente, con cada iteración alejándose más de las fuentes originales pero aún dependiendo fundamentalmente de ellas.

Consecuencias para los artistas vivos: Mientras que artistas históricos como Van Gogh no pueden ser perjudicados económicamente por el uso no acreditado, los artistas contemporáneos vivos enfrentan amenazas directas a su sustento. Cuando la IA puede generar trabajos al estilo de un artista vivo sin compensación o atribución, potencialmente socava su capacidad de ganar dinero con su estilo distintivo.

La solución propuesta: archivos de datos embebidos

La solución de Singh es usar la IA para crear archivos de datos dentro del arte generado por IA que identifiquen y acrediten la obra de arte original y al artista. Esta propuesta es técnicamente factible y conceptualmente elegante: aprovechar la misma tecnología que crea el problema de atribución para resolverlo.

Los metadatos embebidos no son nuevos en el arte digital. Las fotografías contienen datos EXIF que registran la cámara, la configuración y la fecha de captura. Los archivos de audio contienen etiquetas ID3 con información del artista y el álbum. La propuesta de Singh extendería este principio al arte generado por IA, embebiendo información sobre las fuentes de entrenamiento, los estilos de artistas influenciados y los trabajos originales que contribuyeron al output.

Conforme más y más personas usan la IA para crear, especialmente no artistas, hay una falta de conciencia sobre cómo dar crédito apropiadamente a los artistas, dijo Singh. Con el arte a nuestro alrededor, debe haber una manera de dar crédito y que este viva con la obra original conforme se modifica, replica y distorsiona.

La implementación requeriría múltiples componentes técnicos. Primero, los modelos de generación de imágenes necesitarían rastrear qué obras de arte específicas o estilos de artistas influyeron más fuertemente en una imagen generada particular. Esto es computacionalmente desafiante pero no imposible; las técnicas de interpretabilidad del aprendizaje automático pueden identificar qué ejemplos de entrenamiento fueron más influyentes en producir un output dado.

Segundo, esta información de atribución necesitaría ser embebida en el archivo de imagen mismo de una manera que persista a través de modificaciones. Las marcas de agua digitales y los sistemas de gestión de derechos digitales proporcionan precedentes, aunque han enfrentado desafíos con la remoción y la evasión. Un sistema robusto necesitaría hacer que la información de atribución sea difícil de eliminar sin dañar la imagen.

Tercero, debe haber estándares y plataformas para leer y mostrar esta información de atribución. De nada sirve embeber metadatos si los espectadores no tienen forma de acceder a ellos. Los museos, las galerías, las plataformas en línea y las aplicaciones de visualización necesitarían soportar el estándar, mostrando automáticamente la información de atribución junto con la imagen.

Arquitectura técnica para la atribución embebida

Análisis de influencia del modelo: Usar técnicas como los valores de Shapley o el análisis de influencia de datos para cuantificar qué ejemplos de entrenamiento específicos contribuyeron más a un output generado. Esto permite al sistema identificar no solo que se usó el estilo de Van Gogh, sino potencialmente qué pinturas específicas de Van Gogh fueron más influyentes.

Formato de metadatos estructurados: Desarrollar un formato estándar para embeber información de atribución, potencialmente extendiendo estándares existentes como IPTC o XMP. Los metadatos incluirían artistas, obras de arte, porcentajes de influencia y enlaces a las fuentes originales cuando estén disponibles.

Protección criptográfica: Usar técnicas criptográficas para hacer que los metadatos de atribución sean difíciles de eliminar o falsificar sin detección. Esto podría involucrar firmas digitales, marcas de agua esteganográficas que sobreviven a la compresión, o sistemas basados en blockchain para verificación de procedencia.

Atribución en capas: Rastrear no solo las fuentes originales sino también las modificaciones posteriores. Si se genera una imagen, luego se edita, luego se usa como entrada para generar otra imagen, la cadena completa de atribución debería ser preservada, creando un linaje completo de contribuciones creativas.

Estándares de visualización: Establecer convenciones para cómo se muestra la información de atribución en diferentes contextos. En un museo, esto podría ser una etiqueta expandida junto a la obra de arte. En línea, podría ser un enlace de metadatos en el que se puede hacer clic. En las aplicaciones, podría ser un gesto de deslizamiento que revela las fuentes.

Mecanismos de compensación: Potencialmente integrar sistemas de pago para que cuando se muestre o venda arte generado por IA, los artistas originales cuyos trabajos contribuyeron puedan recibir compensación proporcional a su influencia. Esto requeriría infraestructura legal y financiera más allá de los sistemas técnicos.

Los desafíos de la implementación

Aunque la propuesta de Singh es conceptualmente atractiva, la implementación enfrenta desafíos técnicos, legales y prácticos sustanciales. Técnicamente, determinar qué obras de arte de entrenamiento específicas influyeron en un output particular es computacionalmente intensivo y puede no ser determinístico. Los modelos de difusión y otros sistemas generativos crean outputs mediante procesos estocásticos complejos donde la contribución de cualquier ejemplo de entrenamiento individual es difusa y difícil de cuantificar precisamente.

Legalmente, no está claro cuánta influencia de un trabajo original es suficiente para requerir atribución. Si un modelo de IA fue entrenado en 10 millones de imágenes y una imagen generada tiene 0.01% de influencia de cada una de 100 obras de arte diferentes, ¿deberían las 100 ser acreditadas? ¿Hay un umbral debajo del cual la influencia es demasiado pequeña para requerir reconocimiento? Los precedentes legales sobre la obra derivada y el uso justo no se traducen claramente a la síntesis generativa de múltiples fuentes.

Prácticamente, hacer cumplir tales estándares requeriría cooperación de las compañías de IA, que pueden resistirse debido a los costos de implementación, las preocupaciones de transparencia sobre los datos de entrenamiento, o el temor de aumentar el escrutinio legal. Algunas compañías ya enfrentan demandas de artistas alegando violación de derechos de autor por el uso de sus obras en el entrenamiento. Los requisitos de atribución embebida podrían intensificar estos desafíos legales al hacer explícito qué obras fueron usadas.

Distribución de las actitudes hacia la atribución del arte generado por IA entre artistas, usuarios de IA y el público general, mostrando una brecha significativa en las percepciones sobre la necesidad de acreditar las fuentes originales.

El debate más amplio sobre la creatividad de la IA

La investigación de Singh se sitúa dentro de un debate más amplio sobre si el arte generado por IA es genuinamente creativo o simplemente un pastiche sofisticado de obras existentes. Los defensores argumentan que la IA representa una nueva forma de creatividad, donde el proceso generativo mismo es innovador y el hecho de que aprenda de arte existente no es diferente de cómo los artistas humanos aprenden estudiando maestros pasados.

Los escépticos responden que hay una diferencia cualitativa entre la inspiración humana y la síntesis algorítmica. Cuando un humano estudia Van Gogh, internaliza principios sobre el color, la composición y la expresión emocional, luego los aplica de maneras novedosas filtradas a través de su propia visión y experiencia únicas. Cuando la IA aprende de Van Gogh, descompone sus pinturas en patrones estadísticos y correlaciones que puede recombinar pero sin comprensión de lo que significan o por qué son expresivamente poderosos.

Esta distinción filosófica tiene consecuencias prácticas para la atribución. Si la IA simplemente está recombinando elementos existentes, entonces las fuentes merecen crédito sustancial porque el output es fundamentalmente derivativo. Si la IA está creando genuinamente algo nuevo, entonces quizás la atribución es menos crítica porque la transformación es lo suficientemente completa como para constituir originalidad. Singh parece favorecer la primera visión, aunque reconoce el espacio para la experimentación y la innovación.

La paradoja de la originalidad: El arte generado por IA plantea preguntas fundamentales sobre lo que constituye la originalidad. ¿Es original un trabajo si ningún humano concibió sus detalles específicos pero fue creado por un sistema entrenado en obras existentes? ¿La originalidad reside en la novedad del artefacto, el proceso de creación, la intención detrás de él, o alguna combinación? Estas preguntas no tienen respuestas fáciles, pero ignorarlas permite que los artistas originales sean desposeídos de reconocimiento por sus contribuciones al arte generado algorítmicamente.

Los precedentes legales y las batallas emergentes

El problema de la atribución del arte generado por IA está siendo litigado actualmente en los tribunales. Múltiples demandas colectivas han sido presentadas contra compañías de IA por artistas alegando que el uso de sus obras en el entrenamiento constituye violación de derechos de autor. Los resultados de estos casos darán forma fundamentalmente al paisaje legal para el arte de IA.

Los demandantes argumentan que el entrenamiento en obras protegidas por derechos de autor sin permiso es infracción, independientemente de cómo se usen los trabajos resultantes del modelo. Los demandados responden que el entrenamiento es uso justo: un uso transformativo que no compite con los trabajos originales y que proporciona beneficio social al avanzar la tecnología. También argumentan que los modelos no almacenan copias de los trabajos de entrenamiento sino que aprenden patrones estadísticos abstractos.

Los tribunales no han resuelto estas preguntas de manera consistente. Algunos han permitido que las demandas procedan, encontrando alegatos plausibles de infracción. Otros las han desestimado, sosteniendo que el entrenamiento en datos disponibles públicamente es legalmente permisible. El panorama regulatorio también está evolucionando, con jurisdicciones como la Unión Europea considerando requisitos específicos de transparencia sobre los datos de entrenamiento.

Casos legales emblemáticos sobre el arte de IA

Andersen v. Stability AI: Una demanda colectiva presentada por artistas contra Stability AI, creadores de Stable Diffusion, alegando que el entrenamiento en millones de obras de arte protegidas por derechos de autor sin permiso constituye infracción masiva. El caso plantea preguntas fundamentales sobre si el entrenamiento del modelo es uso justo y si los outputs del modelo violan los derechos de los artistas originales.

Getty Images v. Stability AI: Getty Images demandó a Stability AI por supuestamente copiar y procesar millones de imágenes de su base de datos protegida, incluyendo metadatos y marcas de agua. Este caso enfatiza los aspectos comerciales del problema: Getty argumenta que Stability está comercializando un producto que compite directamente con su negocio de licencias de imágenes usando sus propias imágenes sin compensación.

Karla Ortiz et al. v. Midjourney: Los artistas demandaron a Midjourney alegando que el servicio permite a los usuarios generar deliberadamente imágenes al estilo de artistas vivos específicos sin compensación o permiso. El caso destaca el problema particular de los artistas contemporáneos cuyo sustento está amenazado cuando los sistemas de IA pueden replicar sus estilos distintivos.

Argumentos legales emergentes: Los casos están desarrollando varios argumentos legales: que el entrenamiento constituye infracción incluso si los outputs no reproducen directamente las obras de entrenamiento; que el uso justo no debería aplicarse cuando el propósito es comercial y compite con los trabajos originales; que los artistas tienen derechos de publicidad sobre sus estilos distintivos; y que la falta de transparencia sobre los datos de entrenamiento perjudica injustamente a los artistas.

Implicaciones potenciales: Si los demandantes prevalecen, las compañías de IA podrían ser requeridas a obtener licencias para los datos de entrenamiento, proporcionar compensación a los artistas cuyas obras fueron usadas, implementar sistemas de exclusión voluntaria permitiendo a los artistas excluir su trabajo del entrenamiento, o revelar completamente qué obras fueron usadas en el entrenamiento. Tales requisitos cambiarían fundamentalmente la economía del desarrollo de modelos de IA.

La perspectiva de los artistas

Para comprender completamente las apuestas del debate sobre la atribución, es esencial considerar las perspectivas de los artistas cuyas obras están siendo usadas. Muchos artistas expresan sentimientos que van desde la frustración hasta la traición al descubrir que su trabajo ha sido usado para entrenar sistemas de IA sin su conocimiento o consentimiento.

Los artistas digitales han sido particularmente afectados porque sus obras, ya disponibles en línea, fueron fácilmente extraídas para los conjuntos de datos de entrenamiento. Algunos descubrieron que podían ingresar sus propios nombres en sistemas de generación de imágenes y producir trabajos que imitaban de cerca sus estilos distintivos, estilos que habían tardado años en desarrollar. Ver que tu estilo único se mercantiliza instantáneamente como una opción de menú desplegable es comprensiblemente devastador.

Las reacciones varían. Algunos artistas han abrazado las herramientas de IA como parte de su práctica, usándolas para experimentar con nuevas direcciones mientras mantienen su visión creativa. Otros han rechazado completamente las herramientas de IA, viéndolas como fundamentalmente explotadoras y contrarias al espíritu del arte. Muchos caen en algún punto intermedio, reconociendo el potencial de la IA mientras exigen que se use responsablemente con atribución y compensación apropiadas.

Con el arte a nuestro alrededor, debe haber una manera de dar crédito y que este viva con la obra original conforme se modifica, replica y distorsiona. Conforme más y más personas usan la IA para crear, especialmente no artistas, hay una falta de conciencia sobre cómo dar crédito apropiadamente a los artistas. Los creadores también están pasando arte a través de estos programas sin ningún conocimiento de las obras originales o de los artistas, es devastador. Dra. Ananya Singh sobre la necesidad urgente de sistemas de atribución embebida en el arte generado por IA

Las implicaciones culturales más amplias

Más allá de las preocupaciones legales y económicas, la cuestión del arte de IA toca temas culturales profundos sobre el valor del arte, el rol de los artistas y cómo la sociedad reconoce las contribuciones creativas. El arte ha sido tradicionalmente valorado en parte por su conexión con la expresión humana individual, el arte como ventana a la experiencia, la visión y la emoción de un artista específico.

El arte generado por IA desafía esta concepción. Si el valor está en la expresión del artista, ¿qué hacemos con el arte generado algorítmicamente donde no hay un creador humano único expresando una visión? ¿El valor se traslada al usuario que ingresó el prompt? ¿Al modelo de IA que ejecutó el estilo? ¿A los artistas originales cuyas obras informaron al modelo? ¿O el concepto mismo de autoría individual se vuelve obsoleto, reemplazado por la creación distribuida colaborativa que involucra a humanos, máquinas y vastas bases de datos de cultura existente?

Diferentes culturas pueden responder estas preguntas de manera diferente. Las tradiciones artísticas occidentales han enfatizado el genio individual y la obra maestra única. Otras tradiciones enfatizan la artesanía colectiva, la continuidad de las formas tradicionales y el arte como práctica comunitaria en lugar de expresión individual. La forma en que las sociedades navegan el arte de IA puede reflejar y potencialmente remodelar estos valores culturales más profundos.

Soluciones técnicas alternativas

Aunque la propuesta de Singh de metadatos embebidos es prometedora, los investigadores y desarrolladores están explorando otros enfoques técnicos para abordar la atribución del arte de IA. Algunos se enfocan en la prevención en lugar de la atribución, diseñando herramientas que protegen el arte de ser usado en el entrenamiento en primer lugar.

Las herramientas de envenamiento de datos como Glaze y Nightshade permiten a los artistas aplicar perturbaciones imperceptibles a sus imágenes que interrumpen el entrenamiento del modelo. Una imagen tratada con Glaze se ve normal para los humanos pero confunde a los algoritmos de IA, haciendo que el modelo aprenda correlaciones incorrectas. Nightshade va más allá, envenenando activamente el modelo para que produzca outputs defectuosos cuando los usuarios intentan generar imágenes en el estilo del artista protegido.

Estas herramientas cambian la dinámica de poder, permitiendo a los artistas defenderse contra la extracción no autorizada de sus estilos. Pero no resuelven el problema para el arte que ya ha sido usado en el entrenamiento o para los artistas que no pueden o no saben usar tales protecciones. También plantean sus propias preguntas éticas sobre la escalada técnica y el impacto potencial en el uso legítimo.

Otro enfoque es el entrenamiento de modelos basado en el consentimiento, donde solo se usan obras de arte cuyos creadores han dado permiso explícito. Proyectos como Spawning AI han creado registros de exclusión voluntaria donde los artistas pueden señalar que su trabajo no debe ser usado en el entrenamiento. Algunas compañías de IA han comprometido a respetar estas exclusiones, aunque la aplicación es voluntaria y muchos modelos grandes ya fueron entrenados en datos extraídos antes de que tales registros existieran.

Enfoques técnicos para proteger y atribuir el arte

Metadatos embebidos (propuesta de Singh): Embeber información de atribución directamente en los archivos de arte generados por IA, identificando qué obras originales o estilos de artistas influyeron en el output. Ventaja: viaja con la obra de arte. Desafío: requiere estándares de la industria y aplicación.

Envenamiento de datos (Glaze, Nightshade): Los artistas aplican perturbaciones imperceptibles que interrumpen el entrenamiento del modelo. Ventaja: empodera a los artistas individuales. Desafío: escalada de armas entre técnicas de protección y contramedidas, no ayuda al arte ya usado.

Registros de exclusión voluntaria (Spawning, Have I Been Trained): Bases de datos donde los artistas pueden señalar que su trabajo no debe ser usado en el entrenamiento. Ventaja: da a los artistas control. Desafío: cumplimiento voluntario, no aborda modelos existentes.

Modelos basados en el consentimiento: Entrenar modelos de IA solo en obras cuyos creadores han dado permiso explícito, potencialmente con acuerdos de licencia y reparto de ingresos. Ventaja: ético y legalmente limpio. Desafío: conjunto de datos más pequeño, complejidad de licencias.

Marcas de agua de procedencia: Embeber marcas de agua imperceptibles en las imágenes generadas que identifican el modelo que las creó y potencialmente los datos de entrenamiento. Ventaja: trazabilidad. Desafío: puede ser eliminada, no aborda la atribución de artistas originales.

Sistemas basados en blockchain: Usar tecnología blockchain para crear registros inmutables de procedencia del arte que rastrean la creación, la modificación y la influencia a través del tiempo. Ventaja: verificación descentralizada. Desafío: complejidad técnica, adopción limitada, preocupaciones ambientales de blockchain.

El camino hacia adelante

Singh aboga por un sistema que fomente la innovación y proteja los derechos de los artistas y creadores, reconociendo que estos objetivos no son mutuamente exclusivos. La innovación no requiere la desposesión de los artistas, y la protección de los derechos de los artistas no requiere prohibir la IA. Lo que se necesita es un marco que equilibre intereses: permitiendo la experimentación tecnológica mientras asegurando que los artistas que proporcionan los cimientos creativos sean reconocidos y, idealmente, compensados.

La implementación de tal marco requeriría acción coordinada a través de múltiples dominios. Técnicamente, los estándares de la industria para la atribución embebida y las interfaces para mostrar información de procedencia. Legalmente, la claridad sobre cuándo el entrenamiento de modelos requiere permiso y cómo se deben acreditar las influencias. Culturalmente, la conciencia entre los creadores y los consumidores sobre la importancia de la atribución y la disposición a valorar el arte que respeta apropiadamente sus fuentes.

Algunos países se están moviendo hacia la regulación. La Ley de IA de la Unión Europea incluye disposiciones que requieren transparencia sobre los datos de entrenamiento. El Reino Unido ha considerado un esquema de licencias que requeriría el pago a los titulares de derechos de autor cuando su trabajo se usa en el entrenamiento. Los Estados Unidos han visto múltiples proyectos de ley propuestos, aunque el progreso ha sido lento debido a los intereses competidores y la complejidad técnica.

Interrogante sin respuesta cercana

La investigación de Singh sobre el arte generado por IA y la atribución llega en un momento crucial. Los sistemas de IA han alcanzado capacidades que permiten la generación de imágenes visualmente impresionantes al estilo de prácticamente cualquier artista, pero los marcos legales, éticos y culturales para manejar esta capacidad están rezagados. El resultado es una situación donde los artistas se sienten explotados, los usuarios de IA están confundidos sobre sus obligaciones, y las compañías de IA navegan aguas regulatorias inciertas.

La propuesta de metadatos embebidos proporciona un camino técnicamente factible hacia adelante. No resuelve todas las preguntas sobre la propiedad y la creatividad, pero proporciona transparencia. Si cada pieza de arte generado por IA llevara información verificable sobre sus influencias y fuentes, los artistas originales serían visibles en lugar de invisibles. Los espectadores podrían rastrear el linaje de una imagen generada. Los creadores se verían obligados a confrontar las contribuciones de aquellos cuyo trabajo informó sus creaciones.

La transparencia por sí sola no garantiza la equidad. La atribución sin compensación reconoce la contribución pero no aborda el daño económico. Idealmente, un sistema completo incluiría tanto el reconocimiento como el reparto de ingresos, permitiendo a los artistas cuyos trabajos contribuyen al arte generado por IA recibir compensación proporcional a su influencia. Pero incluso sin compensación inmediata, la atribución es valiosa. Hace visible el trabajo de los artistas, permite la crítica informada sobre las fuentes y establece la expectativa de que las contribuciones creativas deberían ser reconocidas.

Para los artistas como Singh que visitan museos y ven obras de arte claramente generadas por IA sin atribución, la sensación de devastación es comprensible. Representa no solo la pérdida de reconocimiento para los artistas individuales sino una ruptura más amplia en cómo la cultura valora las contribuciones creativas. Si permitimos que los sistemas algorítmicos sinteticen arte de las obras de miles de artistas sin reconocimiento, estamos erosionando los cimientos sociales que hacen posible el arte, la idea de que las personas que dedican sus vidas a la expresión creativa merecen crédito por sus innovaciones.

El arte generado por IA no desaparecerá. La tecnología es demasiado poderosa y demasiado ampliamente accesible. Pero cómo la integramos en la cultura puede y debe ser moldeada por consideraciones éticas. Los artistas cuyas obras entrenaron estos sistemas no pidieron que su trabajo fuera usado así. El mínimo que la sociedad les debe es el reconocimiento. El sistema de Singh de metadatos embebidos proporciona un mecanismo para entregar ese reconocimiento, asegurando que conforme el arte se modifica, replica y distorsiona, las contribuciones de los artistas originales permanezcan visibles.

La pregunta final no es si la IA puede crear arte. Claramente puede, al menos en el sentido de generar imágenes estéticamente agradables. La pregunta es qué tipo de cultura artística queremos. Una donde la creación algorítmica borra las huellas de sus fuentes humanas, o una donde la tecnología y la tradición coexisten con reconocimiento mutuo. La respuesta determinará no solo el futuro de la IA en el arte sino también el futuro del arte mismo.

Referencias

Singh, A. (2025). Creativity reimagined: ethical authorship, ownership and social impact of AI-generated art. Journal of Information, Communication and Ethics in Society, DOI: 10.1108/jices-06-2025-0137.

TechXplore. (2025). As algorithms learn from famous artists, researcher questions boundaries of artistic ownership and originality. Reporte sobre la investigación de Ananya Singh, 5 de noviembre de 2025.

Universidad de Texas en Arlington. (2025). Investigación sobre la ética del arte generado por IA. Comunicado de prensa sobre el trabajo de la Dra. Ananya Singh.

Andersen et al. v. Stability AI. (2023). Demanda colectiva alegando violación de derechos de autor en el entrenamiento de modelos de IA. Tribunal de Distrito de EE.UU. para el Distrito Norte de California.

Getty Images v. Stability AI. (2023). Demanda por infracción de derechos de autor e infracción de marca. Tribunal Superior de Londres.

Ortiz et al. v. Midjourney, Inc. (2023). Demanda colectiva de artistas contra generadores de imágenes de IA. Tribunal de Distrito de EE.UU. para el Distrito Norte de California.

Shan, S. et al. (2023). Glaze: Protecting Artists from Style Mimicry by Text-to-Image Models. Universidad de Chicago, SAND Lab.

Shan, S. et al. (2024). Nightshade: Prompt-Specific Poisoning Attacks on Text-to-Image Generative Models. Universidad de Chicago, SAND Lab.

Spawning AI. (2024). Have I Been Trained: Artist registry and opt-out system for AI training datasets. Documentación del sistema.

Unión Europea. (2024). AI Act: Provisions on transparency and training data disclosure. Marco regulatorio oficial.

Recent Posts

Generated Image November 15, 2025 - 2_58AM

La “granja de portátiles”: el arma secreta de Corea del Norte

  Cinco ciudadanos estadounidenses se declararon culpables de operar ‘granjas de portátiles’ para blan
Read More
815fb62d-1f9f-41f9-8bb7-e8bbde4e5928

De archivador a investigador: la nueva era de NotebookLM

  NotebookLM deja de ser un simple anotador. Sus nuevas funciones de investigación automatizada y generación mult
Read More

Para estar informado, Ingresá o Creá tu cuenta en MundoIA...

Sign In

Recordá revisar la carpeta de "no deseados", el correo puede llegar allí