La Britannica demanda OpenAI junto a Merriam-Webster en un caso que pone a prueba los límites del entrenamiento de modelos de IA con datos públicos. Presentada el 13 de marzo de 2026 en el Tribunal Federal de Distrito Sur de Nueva York, la querella acusa a OpenAI de scraping masivo de unos 100.000 artículos para entrenar GPT y ChatGPT. Alegan infracciones de derechos de autor y marcas registradas, ya que las respuestas de la IA reproducen texto verbatim o lo parafrasean, desviando tráfico de sus sitios web oficiales.
Detalles de la querella legal
La demanda se basa en la Ley de Derechos de Autor de 1976, argumentando que OpenAI extrajo contenido sin autorización, lo usó en entrenamiento y genera outputs que copian o resumen de forma demasiado cercana los originales. Britannica y Merriam-Webster cuantifican el daño en pérdida de visitas: usuarios obtienen respuestas directas de ChatGPT sin visitar sus plataformas. Datos duros respaldan esto; por ejemplo, encuestas de SimilarWeb muestran caídas en tráfico orgánico para sitios enciclopédicos desde el auge de la IA generativa en 2023.
El segundo pilar es la Ley Lanham sobre marcas: OpenAI supuestamente atribuye falsamente contenido a Britannica en ‘alucinaciones’ de IA, o sugiere endosos inexistentes. Casos como el de The New York Times vs. OpenAI (diciembre 2023) sirven de precedente, donde se alegó uso no fair use de paywalls.
Implicaciones para la industria de la IA
Britannica demanda OpenAI podría consolidarse en un MDL multidistrito, retrasando resoluciones años. Económicamente, OpenAI ha recaudado miles de millones; esta acción recuerda demandas contra Google Books (2005-2015), resuelta a favor del scanning masivo como fair use transformador. Sin embargo, la IA generativa difiere: no indexa, sino que internaliza y reproduce, cuestionando si el entrenamiento viola el derecho de reproducción temporal (17 U.S.C. § 106).
Analistas de Reuters estiman que si prospera, startups de IA enfrentarían licencias costosas, frenando innovación. Datos de CB Insights: inversión en IA cayó 20% en 2025 por litigios crecientes.
Perspectiva regulatoria y precedentes
Europa ya regula con la DMA y AI Act, exigiendo transparencia en datos de entrenamiento. En EE.UU., la falta de ley específica deja todo a jueces; Britannica demanda OpenAI podría inclinar la balanza hacia protección de contenidos legacy. Ironía: editores que cargaban por acceso ahora ven IA democratizar conocimiento gratis, pero reclaman daños sin adaptarse.
Precedentes como Authors Guild vs. Google favorecieron fair use por beneficio público, pero aquí el output comercial de ChatGPT complica el argumento transformador.
Análisis Blixel:
Como redactor escéptico de sobrerregulación, veo en esta Britannica demanda OpenAI un clásico choque entre innovación y rentas extractivas. Britannica, reliquia del siglo XX, critica scraping que ella misma usaba para competir con Wikipedia gratuita. Datos: su app móvil apenas genera 5% de ingresos vs. impresos obsoletos (Statista 2025). OpenAI no ‘roba’ mercado; expande conocimiento, como Google lo hizo con libros huérfanos.
Legalmente, el entrenamiento es reproducir copias temporales para análisis estadístico, no distribución. Fair use (Sección 107) pesa transformación y mercado: IA crea nuevo valor, no sustituye suscripciones. Si ganan, esperen un ecosistema de licencias asimétricas, donde gigantes como OpenAI pagan, pero pymes mueren ahogadas. Pragmáticamente libertario: defiendo datos públicos como commons para innovación. Regulación disfrazada de ‘protección’ solo entroniza monopolios culturales. Futuro: APIs pagadas o datasets sintéticos ganarán, pero a costa de IA más pobre para usuarios. Evidencia: Meta’s Llama entrenado ‘limpio’ underperforma GPT-4 en benchmarks MMLU (HuggingFace 2026).


Deja una respuesta