OpenAI mejora controles de derechos de autor en Sora

Escrito por

en

·

La noticia de que OpenAI mejora controles de derechos de autor en Sora llega en un momento clave para la IA generativa. Tras el lanzamiento de Sora 2, el generador de video ha producido contenidos con figuras protegidas por copyright, desatando quejas de agencias de talentos y estudios. Inicialmente, la respuesta de OpenAI fue tibia: recomendar a los reclamantes ‘no hacerlo’, según el Wall Street Journal. Ahora, con mejoras anunciadas, se prometen filtros más granulares para evitar infracciones masivas.

Contexto del lanzamiento y primeras controversias

El debut de Sora 2 generó expectación, pero también problemas inmediatos. Usuarios crearon videos realistas de celebridades y personajes icónicos, lo que activó alarmas en Hollywood y agencias. Varun Shetty, director de asociaciones de medios en OpenAI, ha prometido bloquear personajes específicos a petición de titulares de derechos y agilizar eliminaciones. Sam Altman, CEO, confirmó en su blog recibir feedback de usuarios, dueños de IP y grupos, impulsando ‘controles más granulares’ similares a los de DALL-E, pero adaptados a video con moderación post-generación.

Técnicamente, esto implica fine-tuning del modelo con listas negras de entidades protegidas y detección de similitudes visuales. Es un paso reactivo ante el riesgo de demandas, recordando casos como el de Getty Images contra Stability AI.

Implicaciones técnicas y legales

OpenAI mejora controles de derechos de autor en Sora mediante filtros de seguridad mejorados, posiblemente usando hashing perceptual o embeddings para identificar likeness. Sin embargo, estos sistemas no son infalibles: falsos positivos podrían limitar creaciones legítimas, mientras que falsos negativos exponen a litigios. En EE.UU., la doctrina fair use ofrece defensa, pero en Europa, la DMA y AI Act exigen transparencia en datos de entrenamiento, complicando el panorama.

Precedentes como el fallo de GitHub Copilot muestran que tribunales evalúan acceso a datos protegidos. OpenAI argumenta entrenamiento con datos públicos, pero críticos cuestionan si Sora ingirió contenido con copyright sin licencias.

Perspectiva de la industria y reacciones

Agencias de talentos presionan por protecciones proactivas, mientras creadores independientes ven amenaza a la accesibilidad. Altman enfatiza equilibrio: innovación sin frenos totales. Datos de mercado: el sector IA generativa moverá 100.000 millones en 2025 (McKinsey), pero disputas IP podrían frenarlo un 20% si escalan.

OpenAI mejora controles de derechos de autor en Sora, pero ¿a qué costo? Usuarios reportan ya restricciones en prompts sensibles.

Análisis Blixel:

Como redactor escéptico de sobrerregulación, veo en estas mejoras un mal necesario, pero con ironía: OpenAI pasa de ‘no lo hagas’ a guardián de IP, ¿por altruismo o miedo a juicios millonarios? Datos duros: el 70% de demandas IA involucran copyright (Stanford HAI, 2025). Bienvenidos los filtros granulares, pero cuidado con la deriva censoría. Bloquear a petición abre puerta a abusos: ¿quién decide qué es ‘protegido’? En un mundo post-IA, la IP debe evolucionar hacia licencias dinámicas, no listas negras que asfixian innovación. Europa ya patina con AI Act, multando por ‘opacidad’; EE.UU. es más pragmático. OpenAI lidera, pero reguladores acechan. Futuro: modelos abiertos como Llama evadirán esto, democratizando video IA sin burocracia. Pro-innovación sí, pero con lógica: IP obsoleta frena progreso, no lo protege.

Comentarios

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *