Skip to main content
releases ByteDance

Seedance 2.0: El generador de video AI de ByteDance sacude Hollywood

ByteDance lanza Seedance 2.0, un modelo de video AI multimodal con audio nativo que Hollywood califica como una amenaza para la industria.

Publicado el 22 de febrero de 2026
seedance bytedance ai-video video-generation hollywood

ByteDance entra en la carrera del video AI

La división de investigación Seed de ByteDance lanzó Seedance 2.0 el 12 de febrero de 2026, y la respuesta ha sido inmediata — tanto de creadores que elogian sus capacidades como de estudios de Hollywood que lo consideran una amenaza.

Seedance 2.0 es un modelo multimodal de generación de video AI que acepta texto, imágenes, audio y video como entradas simultáneas. Produce clips de hasta 20 segundos de duración con resoluciones de hasta 4K, e incluye generación de audio integrada que sincroniza el sonido con la acción visual.

Qué lo hace diferente

La mayoría de los generadores de video AI funcionan con flujos de texto a video o de imagen a video. Seedance 2.0 procesa los cuatro tipos de entrada a la vez mediante una arquitectura unificada. Se le puede proporcionar una foto de referencia, una pista de audio, un clip de movimiento y una descripción de texto — el modelo los sintetiza en un único video coherente.

La generación de audio nativo es su característica más destacada. Los efectos de sonido coinciden automáticamente con la acción en pantalla: pasos, impactos, sonido ambiental y música se generan junto con el video. Un modo de sincronización rítmica alinea el movimiento visual con el tempo de la música, produciendo contenido de baile y musical sin necesidad de keyframing manual.

ByteDance también invirtió considerablemente en simulación física. El modelo penaliza el movimiento físicamente inverosímil durante el entrenamiento, lo que resulta en gravedad, caída de telas e interacciones de objetos creíbles.

Reacción negativa de Hollywood

El lanzamiento provocó una reacción negativa inmediata por parte de las principales organizaciones de Hollywood. Los grupos de la industria han criticado Seedance 2.0 por carecer de mecanismos de control sobre la generación de contenido que utiliza la imagen de personas reales y la recreación de propiedad intelectual protegida por derechos de autor.

CNN informó que el modelo se ha convertido en una herramienta para lo que los estudios describen como una infracción de derechos de autor “flagrante”. TechCrunch cubrió la controversia, destacando las preocupaciones de que el bajo coste y la alta calidad del video generado por AI amenazan los flujos de producción tradicionales.

ByteDance no ha abordado públicamente las preocupaciones sobre derechos de autor en detalle.

Disponibilidad y precios

Seedance 2.0 está actualmente accesible a través de las plataformas chinas de ByteDance: Jimeng (Dreamina), Xiaoyunque y Doubao. Los usuarios internacionales pueden acceder a través de estas plataformas, pero deben navegar interfaces en chino.

Una API pública se lanzará el 24 de febrero de 2026 a través de Volcengine y BytePlus, con precios estimados entre $0,10 y $0,80 por minuto de video generado.

El acceso premium a través de Jimeng comienza en aproximadamente $9,60 al mes (69 RMB). Un nivel gratuito limitado ofrece 3 generaciones en la aplicación móvil.

Las versiones globales de Dreamina y Pippit aún no han integrado el modelo 2.0. Se espera un despliegue internacional completo en las próximas semanas.

Dónde se queda corto

A 720p, las escenas con multitudes y los sujetos distantes pierden detalle significativamente. Las microexpresiones y la actuación facial sutil siguen sin resultar convincentes. Las simulaciones de fluidos — agua, humo y fuego — requieren múltiples intentos de regeneración para verse naturales.

El modelo también carece de un producto independiente. Los usuarios deben acceder a él a través de las aplicaciones existentes de ByteDance, lo que puede resultar fragmentado en comparación con plataformas dedicadas como Runway.

Conclusión

Seedance 2.0 eleva el listón de la generación de video AI. Su sistema de entrada multimodal, el audio nativo y el movimiento con conciencia física establecen nuevos estándares para lo que estos modelos pueden producir. La pregunta ya no es si la AI puede generar video convincente — sino cómo responderá la industria a las implicaciones de derechos de autor y creatividad.