El juez Sidney Stein rechazó la petición de OpenAI para cerrar anticipadamente una demanda por violación de derechos de autor que involucra los resúmenes y esquemas generados por ChatGPT. La decisión, publicada el lunes en Nueva York, mantiene viva la acusación central: que el sistema de inteligencia artificial no solo estudió libros protegidos durante su entrenamiento, sino que ahora reproduce elementos sustanciales de esas obras cuando los usuarios le piden contenido derivado. La negación de desestimar el caso significa que OpenAI enfrentará descubrimiento de evidencia, deposiciones de ejecutivos y empleados, y eventualmente un juicio donde un jurado podría determinar si existe infracción. Si doce ciudadanos concluyen que los textos generados se asemejan demasiado a las novelas originales, la compañía podría enfrentar daños monetarios significativos y verse obligada a modificar cómo sus modelos producen narrativas.
La controversia gira alrededor de un concepto legal antiguo aplicado a tecnología futurista: similitud sustancial. Stein aplicó lo que los tribunales llaman prueba del observador más perspicaz, un estándar que filtra ideas generales y compara expresión protegida como trama, personajes y ambientación. Examinando los ejemplos presentados por demandantes que incluyen a George R.R. Martin, creador de Juego de Tronos, el magistrado concluyó que un jurado razonable podría encontrar los resúmenes generados por ChatGPT problemáticamente cercanos a las obras originales. El tribunal caracterizó estas salidas como posibles compendios, término legal para versiones condensadas que pueden infringir incluso sin copiar oraciones idénticas.
OpenAI argumentó que la demanda nunca citó ni adjuntó ejemplos reales de supuestas infracciones en sus salidas. Sostuvo que sin textos específicos para analizar, la corte carecía de base para evaluar similitud. Stein desestimó esta defensa señalando que los demandantes sí presentaron outputs concretos junto con su moción. Esos documentos incluían resúmenes detallados de novelas y, más provocadoramente, esquemas para secuelas no autorizadas que utilizaban los mismos personajes y universos narrativos construidos por años de trabajo creativo. El juez consideró suficiente este material para permitir que el caso avance hacia fases más profundas de litigio.
El laberinto judicial que concentra poder
Esta disputa forma parte de un litigio multidistrital que consolida múltiples acciones legales. Combina dos casos previamente fusionados en el Distrito Sur de Nueva York con cuatro transferidos desde California, más dos adicionales radicados en Nueva York. El Gremio de Autores presentó la demanda fundacional en septiembre de 2023 con diecisiete escritores nombrados, incluyendo figuras como John Grisham, Elin Hilderbrand, Jonathan Franzen y Jodi Picoult. Cuatro meses después, The New York Times se sumó con su propia acción judicial buscando frenar el uso de artículos periodísticos para entrenar chatbots que ahora compiten como fuentes de noticias.
La consolidación convierte a Stein en el árbitro único de docenas de reclamos relacionados, una concentración de autoridad judicial con implicaciones enormes para toda la industria. Su perspectiva sobre qué constituye uso legítimo frente a apropiación ilegal establecerá precedentes que afectarán no solo a OpenAI sino a competidores como Anthropic, Google y Meta. Cada uno de estos actores ha construido sistemas similares entrenados sobre corpus masivos de textos extraídos de internet sin licencias explícitas de titulares de derechos.
La jueza magistrada Ona Wang, asignada para supervisar aspectos procesales del litigio multidistrital, extendió recientemente los plazos de descubrimiento de evidencia hasta abril de 2025. Esta decisión refleja la complejidad del caso y las disputas continuas sobre qué documentos internos debe revelar OpenAI. La compañía ha resistido entregar ciertos materiales relacionados con su defensa de uso legítimo, argumentando que forzar divulgación prematura comprometería estrategias legales. Wang rechazó varios de estos argumentos, ordenando producción más amplia de registros sobre cómo se diseñaron, entrenaron y ajustaron los modelos de lenguaje.
Compendios digitales y el fantasma de Martin
Durante audiencias orales celebradas en octubre, Stein cuestionó a los abogados de OpenAI sobre los resúmenes generados por ChatGPT de las novelas de Martin. Los demandantes mostraron que el sistema podía producir esquemas para precuelas no autorizadas de Canción de Hielo y Fuego, usando exactamente los mismos personajes de la serie existente. El abogado de OpenAI, respondiendo al escrutinio judicial, sugirió que incluso en el universo expansivo de Martin el análisis de similitud debería filtrar personajes arquetípicos no protegibles de expresión original protegida.
Stein no compró el argumento completamente. Su opinión escrita señala que aunque los resúmenes generados no reproducen cada giro intrincado de trama o matiz de desarrollo de personajes, ciertamente intentan condensar elementos centrales protegibles como ambientación, narrativa y figuras distintivas. Estos compendios, advierte el tribunal, pueden infringir derechos incluso sin duplicar frases textuales. La doctrina legal reconoce que versiones abreviadas que capturan esencia narrativa sustituyen valor económico del original, perjudicando mercados potenciales para adaptaciones legítimas, ediciones resumidas o guías autorizadas.
La cuestión de qué hace a un personaje protegible versus arquetípico permanece compleja. Magos jóvenes que asisten a escuelas de magia podrían considerarse tropos genéricos. Pero Harry Potter con su cicatriz de rayo, historia personal específica y relaciones únicas trasciende lo genérico hacia territorio protegido. Similarmente, el mundo de Martin no consiste simplemente en caballeros medievales y dragones, arquetipos disponibles para cualquiera. Sus casas nobles con historias entrelazadas específicas, geografía detallada y mitología construida meticulosamente constituyen expresión original susceptible de protección.
Uso legítimo pendiente, batalla apenas comenzando
Stein enfatizó explícitamente que su decisión de permitir avanzar el caso no prejuzga la defensa de uso legítimo que OpenAI inevitablemente presentará. El uso legítimo bajo ley estadounidense permite utilizar material protegido sin permiso cuando cumple ciertos criterios: propósito y carácter del uso, naturaleza de la obra original, cantidad utilizada respecto al total, y efecto sobre mercado potencial. Esta doctrina ha protegido parodias, críticas, reportajes noticiosos y usos transformativos que añaden nuevo significado o mensaje.
OpenAI argumentará que entrenar modelos de lenguaje constituye uso transformativo porque el objetivo no es reproducir obras sino crear sistemas capaces de entender y generar lenguaje humano sobre infinitos temas. Dirá que GPT no memoriza libros completos sino aprende patrones estadísticos de cómo palabras se relacionan contextualmente. Esta defensa encontrará analogías con casos previos donde cortes permitieron copiar masivo para propósitos no expresivos, como cuando Google digitalizó millones de libros para búsqueda textual sin mostrar contenido completo.
Pero los demandantes contraargumentarán que permitir entrenamiento sin licencia destruye mercados emergentes donde autores podrían licenciar obras específicamente para desarrollo de sistemas generativos. Señalarán que OpenAI opera modelo comercial lucrativo cobrando suscripciones y acceso empresarial a tecnología construida sobre apropiación gratuita de creatividad ajena. Además, mostrarán evidencia de que ChatGPT puede producir resúmenes detallados o continuaciones narrativas que sustituyen valor de las obras originales, desplazando ventas potenciales o reduciendo incentivos para consumir contenido auténtico.
Precedentes fragmentados y futuro incierto
Los tribunales estadounidenses han emitido señales mixtas sobre inteligencia artificial generativa. En agosto de 2023, el Distrito Norte de California permitió que Stability AI, Midjourney y DeviantArt enfrentaran reclamos de artistas visuales alegando que modelos de difusión infringen obras al entrenar sobre imágenes sin licencia. Ese juez aplicó razonamiento similar al de Stein: sin resolver la defensa de uso legítimo prematuramente, permitió que demandantes probaran similitud sustancial entre outputs generados e imágenes originales utilizadas durante entrenamiento.
Contrariamente, en febrero de 2024, un juez diferente en el mismo distrito desestimó parcialmente una demanda contra GitHub Copilot, concluyendo que los demandantes no demostraron suficientemente que el sistema generaba código substancialmente similar a repositorios específicos protegidos. Esta decisión sugiere que no todos los tribunales adoptarán perspectiva amplia sobre similitud cuando se trata de outputs generativos. La distinción podría radicar en naturaleza del contenido: narrativas literarias podrían invitar análisis más estricto sobre parecido expresivo comparado con fragmentos de código donde conceptos funcionales dominan sobre expresión creativa.
La Oficina de Derechos de Autor estadounidense ha intervenido mediante documentos de política rechazando protección para obras generadas enteramente por sistemas sin autoría humana. Pero esta postura no resuelve si entrenar modelos sobre material protegido constituye infracción subyacente. La oficina ha solicitado comentarios públicos sobre cómo equilibrar protección de titulares de derechos con innovación tecnológica, reconociendo que legislación actual antecede completamente modelos generativos capaces de producir novelas enteras, partituras musicales complejas o diseños arquitectónicos detallados a partir de simples prompts textuales.
Modelos económicos colisionando
OpenAI reportó ingresos anualizados superando dos mil millones de dólares principalmente mediante suscripciones ChatGPT Plus y contratos empresariales. Estos números reflejan valor comercial enorme capturado al ofrecer acceso conveniente a sistema entrenado sobre prácticamente toda la literatura, periodismo, código abierto y contenido web disponible públicamente. Los demandantes argumentan que esta apropiación masiva sin compensación constituye subsidio invisible que OpenAI nunca pagó pero del cual se beneficia astronómicamente.
La industria editorial ha respondido estableciendo acuerdos de licenciamiento con competidores de OpenAI. Anthropic firmó pacto con varios editores importantes permitiendo entrenar modelos Claude sobre contenido periodístico a cambio de compensación monetaria y atribución. The Atlantic, Axel Springer y Financial Times negociaron términos similares. Estos acuerdos crean precedente comercial mostrando que existe mercado funcional para licencias de entrenamiento, precisamente el tipo de mercado que doctrina de uso legítimo busca preservar al evaluar cuarto factor: efecto sobre valor potencial de obra original.
Si Stein eventualmente concluye que OpenAI debe obtener licencias retrospectivamente o enfrentar daños masivos, cada creador de contenido protegido usado durante entrenamiento podría reclamar compensación. Multiplicado por millones de obras potencialmente incluidas en datasets, la exposición financiera resultante podría alcanzar cifras astronómicas. Alternativamente, el tribunal podría ordenar injunción permanente prohibiendo distribución de modelos entrenados ilegalmente, forzando reconstrucción desde cero usando únicamente contenido licenciado o dominio público, retraso que entregaría ventaja competitiva masiva a rivales más cautelosos legalmente.
Implicaciones globales de decisión estadounidense
Aunque este litigio se desarrolla bajo jurisdicción estadounidense, sus ondas se extenderán globalmente. La Unión Europea adoptó Directiva sobre Derechos de Autor en Mercado Digital Único que incluye excepciones explícitas permitiendo minería textual con fines investigación, pero reserva derecho de titulares para optar por excluirse. Reino Unido consideró introducir excepción similar antes de revertir curso bajo presión de industrias creativas. Japón permite más ampliamente minería textual sin restricciones fuertes, posicionándose como jurisdicción amigable para desarrollo de inteligencia artificial.
Esta fragmentación legal crea arbitraje jurisdiccional donde compañías podrían establecer operaciones entrenamiento en países permisivos mientras venden servicios globalmente. Pero tal estrategia enfrenta límites prácticos: consumidores estadounidenses y europeos representan mayoría del poder adquisitivo global, y tribunales pueden bloquear acceso a servicios determinados infractores independientemente de dónde ocurrió entrenamiento original. OpenAI no puede simplemente reubicar servidores a Tokio para evitar consecuencias legales de decisiones en Manhattan.
Organizaciones internacionales como la Organización Mundial de Propiedad Intelectual han comenzado diálogos sobre armonizar tratamiento legal de inteligencia artificial generativa, pero consenso parece lejano. Países con industrias tecnológicas fuertes favorecen regulación ligera maximizando innovación, mientras naciones con sectores creativos robustos prefieren protecciones estrictas preservando incentivos para producción cultural. Esta tensión refleja debates más amplios sobre si tecnología disruptiva merece acomodación legal especial o debe conformarse a principios existentes de propiedad intelectual desarrollados durante siglos.
Qué viene después para OpenAI
Los próximos seis meses verán descubrimiento intensivo donde demandantes solicitarán documentos internos de OpenAI revelando exactamente cómo se construyeron datasets de entrenamiento, qué medidas implementó la compañía para evitar reproducción, y qué sabían ejecutivos sobre riesgos legales antes de lanzar productos comerciales. Correos electrónicos entre ingenieros, memorandos legales internos y presentaciones a inversionistas podrían surgir mostrando consciencia corporativa de que modelos memorizan contenido protegido.
Deposiciones capturarán testimonio bajo juramento de CEO Sam Altman, presidente Greg Brockman, y científicos principales involucrados en diseño arquitectónico. Los abogados de demandantes presionarán sobre decisiones técnicas específicas: por qué no implementaron filtros más agresivos contra memorización, si realizaron auditorías determinando cuánto contenido protegido permanece recuperable mediante prompts ingeniosos, y si consideraron obtener licencias antes de entrenar sobre corpus masivos de literatura contemporánea.
Paralelamente, ambas partes prepararán reportes de expertos. Científicos computacionales testificarán sobre cómo funcionan transformers y mecanismos de atención, buscando educar al tribunal sobre diferencia entre aprender patrones estadísticos versus memorizar texto. Expertos en derechos de autor analizarán similitudes entre outputs generados y obras originales usando metodologías establecidas en casos previos de música, cine y literatura. Economistas modelarán daños potenciales calculando cuántos ingresos por licencias perdieron autores debido a entrenamiento no compensado.
Más allá del caso individual
Independientemente del resultado, este litigio ya transformó conversación sobre inteligencia artificial generativa. Desarrolladores ahora reconocen que construcción despreocupada sobre todo contenido disponible en internet invita riesgo legal significativo. Startups emergentes diseñan arquitecturas con filtros de memorización más sofisticados, implementan watermarking para rastrear genealogía de outputs, y negocian proactivamente licencias con titulares de derechos principales.
Académicos proponen marcos regulatorios alternativos. Algunos abogan por licencias obligatorias donde creadores no pueden bloquear entrenamiento pero reciben compensación tarifada mediante colectivos tipo sociedades de gestión musical. Otros sugieren impuestos especiales sobre ingresos de sistemas generativos que financien fondos distribuyendo pagos a creadores proporcionalmente según cuánto contribuyó su trabajo a datasets. Propuestas más radicales plantean redefinir derechos de autor completamente, argumentando que modelos entrenados sobre corpus cultural completo deberían considerarse bienes comunes no apropiables individualmente.
El Congreso estadounidense ha celebrado audiencias sobre inteligencia artificial pero no ha logrado aprobar legislación sustantiva. Parálisis legislativa significa que tribunales federales establecerán reglas por defecto mediante decisiones caso por caso, enfoque que produce incertidumbre prolongada pero permite evolución gradual adaptándose a tecnología cambiante. Europa ha avanzado más rápidamente con su Ley de Inteligencia Artificial, aunque regulaciones se centran más en aplicaciones de alto riesgo que en cuestiones fundamentales de propiedad intelectual durante entrenamiento.
La apuesta existencial
Para OpenAI, este caso representa apuesta existencial. Una decisión desfavorable no solo implicaría daños monetarios sino cuestionaría legitimidad de todo modelo de negocio. Si entrenar sobre obras protegidas sin licencia constituye infracción masiva, la compañía enfrentaría prohibición de distribuir ChatGPT en su forma actual, obligando reconstrucción completa usando únicamente material legalmente adquirido. Tal reconstrucción tomaría años y requeriría capital enorme para licenciar contenido retrospectivamente o desarrollar datasets alternativos suficientemente comprehensivos.
Pero victoria tampoco garantiza paz duradera. Incluso si Stein eventualmente acepta defensa de uso legítimo, legislaturas podrían intervenir creando estatutos específicos limitando entrenamiento de inteligencia artificial. Presión política de industrias creativas organizadas y sindicatos artísticos podría superar influencia de sector tecnológico, especialmente si percepción pública gira hacia narrativa de corporaciones multimillonarias robando trabajo de creadores individuales. OpenAI necesita no solo ganar batallas legales sino también batalla de relaciones públicas convenciendo a sociedad que beneficios de inteligencia artificial accesible justifican disrupciones inevitables.
La decisión de Stein de permitir avanzar el caso transforma discusión abstracta sobre ética de inteligencia artificial en confrontación legal concreta con estándares probatorios, cargas de prueba y remedios ejecutables. Durante próximos meses, descubrimiento de evidencia iluminará precisamente cómo OpenAI construyó sistemas que ahora valen miles de millones. Esa transparencia forzada, independientemente del fallo final, alterará permanentemente cómo industria tecnológica piensa sobre propiedad intelectual en era de modelos entrenados sobre conocimiento humano acumulado.
Referencias
Authors Guild v. OpenAI, Inc., No. 1:23-cv-08292 (S.D.N.Y. Oct. 21, 2024) (Order Denying Motion to Dismiss).
The New York Times Co. v. Microsoft Corp., No. 1:23-cv-11195 (S.D.N.Y. Dec. 27, 2023) (Complaint).
Andersen v. Stability AI Ltd., No. 3:23-cv-00201 (N.D. Cal. Oct. 30, 2023) (Order Denying Motion to Dismiss in Part).
Doe v. GitHub, Inc., No. 3:22-cv-06823 (N.D. Cal. Feb. 2, 2024) (Order Granting in Part Motion to Dismiss).
U.S. Copyright Office, Copyright Registration Guidance: Works Containing Material Generated by Artificial Intelligence, 88 Fed. Reg. 16190 (Mar. 16, 2023).
Authors Guild, Fair Contract Initiative for AI Training Licenses (June 2024), disponible en authorguild.org.
Anthropic PBC, Responsible Scaling Policy v1.5 (Sept. 2024), disponible en anthropic.com/responsible-scaling-policy.



