Fracaso de OpenAI Sora cierra red social IA

Escrito por

en

·

El fracaso de OpenAI Sora marca un capítulo inesperado en la carrera por la IA generativa de vídeo. Lanzada en noviembre de 2025 como una red social al estilo TikTok con todos los contenidos generados por IA, la app cerrará apenas seis meses después debido a abusos masivos con deepfakes. La función ‘cameos’, que permitía escanear rostros para crear vídeos sin consentimiento, desató una oleada de contenidos machistas, racistas y sexualizados de figuras públicas y deportistas. A pesar de medidas de seguridad, la moderación falló, destacando los límites de la gobernanza en entornos abiertos.

Contexto del lanzamiento y rápido declive

Sora, basada en modelos de difusión con control temporal, prometía videos hiperrealistas en segundos. Alcanzó 3,3 millones de descargas y 2,1 millones de dólares en ingresos por créditos, pero el éxito numérico no compensó los problemas. Fuentes internas citadas por WSJ y Reuters revelan que Sam Altman priorizó proyectos clave como ChatGPT, desviando recursos computacionales masivos –probablemente miles de GPUs H100– de inferencia en escala. El cierre termina también el acuerdo con Disney, que invertía 1.000 millones de dólares para integrar personajes de Marvel, Pixar y Star Wars en Disney+.

Disney ha expresado respeto por la decisión, pero el fiasco expone tensiones: innovación rápida versus responsabilidad. El modelo Sora 2 quedará restringido a usuarios pagos de ChatGPT, limitando su alcance masivo.

Riesgos éticos y técnicos del fracaso de OpenAI Sora

El núcleo del fracaso de OpenAI Sora radica en los deepfakes sin frenos. Vídeos de mujeres atletas en tareas domésticas o bailes tribales racistas proliferaron, evidenciando fallos en controles automatizados y humanos. La moderación IA, irónicamente generativa, no distingue abuso de creatividad, un dilema clásico en plataformas sociales. Costes computacionales exorbitantes agravaron el problema: generar millones de vídeos diarios requiere infraestructuras que eclipsan otros desarrollos.

Precedentes como DALL-E o Midjourney muestran que límites éticos voluntarios no bastan en escala social. Aquí, la apertura invitó al caos, cuestionando si la IA difusiva está lista para redes públicas sin regulación asfixiante.

Implicaciones para la industria y regulación

Este cierre resalta contradicciones: OpenAI promueve IA ‘segura’, pero Sora demostró lo contrario. El pacto con Disney, anunciado en diciembre 2025, se evaporó, afectando ambiciones multimedia. Altman opta por adopciones prácticas, un giro pragmático ante presiones éticas y regulatorias crecientes en UE y EE.UU.

Para startups y pymes, la lección es clara: innovar sin ignorar abusos. Datos duros muestran que deepfakes representan solo el 0,5% de contenidos IA totales, pero su impacto viral amplifica daños. ¿Sobrerregulación o mejores herramientas?

Análisis Blixel:

Como escéptico de narrativas alarmistas, veo el fracaso de OpenAI Sora no como fin de la IA generativa, sino como recordatorio pragmático: la innovación florece en libertad, pero el abuso invita a censores. OpenAI erró al lanzar una red social sin robustos filtros de consentimiento y watermarking visible, pero culpar solo a la tecnología ignora la condición humana –siempre hay quien tuerce herramientas. Ironía: mientras reguladores exigen ‘ética’ vía leyes como la AI Act, experimentos como Sora prueban que el mercado autocorrige más rápido que burócratas. Costes de GPUs (estimados en 100M$ anuales para Sora) justifican el pivot a ChatGPT, priorizando ROI sobre experimentos. Lección para la industria: integra gobernanza desde diseño, como verificaciones biométricas voluntarias. Disney sale indemne, pero pierde vanguardia. Futuro: Sora 2 en entornos controlados acelerará vídeo IA práctica, sin frenar el libre mercado. Sobrerregulación mataría esto; mejor innovación responsable.

Fuentes: WSJ, Reuters.

Comentarios

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *