Skip to main content
releases ByteDance

Seedance 2.0: ByteDances AI-Videogenerator erschuettert Hollywood

ByteDance veroeffentlicht Seedance 2.0, ein multimodales AI-Videomodell mit nativem Audio, das Hollywood als Bedrohung fuer die Branche bezeichnet.

Veröffentlicht am 22. Februar 2026
seedance bytedance ai-video video-generation hollywood

ByteDance steigt in das AI-Video-Rennen ein

Die Forschungsabteilung Seed von ByteDance hat Seedance 2.0 am 12. Februar 2026 veroeffentlicht, und die Reaktionen liessen nicht lange auf sich warten — sowohl von Kreativen, die die Faehigkeiten loben, als auch von Hollywood-Studios, die es als Bedrohung bezeichnen.

Seedance 2.0 ist ein multimodales AI-Videogenerierungsmodell, das Text, Bilder, Audio und Video gleichzeitig als Eingaben akzeptiert. Es erzeugt Clips von bis zu 20 Sekunden Laenge mit Aufloesungen bis zu 4K und verfuegt ueber eine integrierte Audiogenerierung, die den Ton mit der visuellen Handlung synchronisiert.

Was es von anderen unterscheidet

Die meisten AI-Videogeneratoren arbeiten mit Text-zu-Video- oder Bild-zu-Video-Pipelines. Seedance 2.0 verarbeitet alle vier Eingabetypen gleichzeitig ueber eine einheitliche Architektur. Geben Sie ein Referenzfoto, eine Audiospur, einen Bewegungsclip und eine Textbeschreibung ein — das Modell synthetisiert daraus ein einzelnes kohaerentes Video.

Die native Audiogenerierung ist ein herausragendes Merkmal. Soundeffekte werden automatisch an die Bildschirmhandlung angepasst: Schritte, Aufprallgeraeusche, Umgebungsgeraeusche und Musik werden parallel zum Video erzeugt. Ein Beat-Sync-Modus gleicht visuelle Bewegungen an das Musiktempo an und produziert Tanz- und Musikinhalte ohne manuelles Keyframing.

ByteDance hat ausserdem stark in die Physiksimulation investiert. Das Modell bestraft physikalisch unplausible Bewegungen waehrend des Trainings, was zu glaubwuerdiger Gravitation, Stoffdrapierung und Objektinteraktionen fuehrt.

Widerstand aus Hollywood

Die Veroeffentlichung loeste sofortigen Widerstand von grossen Hollywood-Organisationen aus. Branchenverbaende haben Seedance 2.0 dafuer kritisiert, dass es keine Schutzmechanismen gegen die Generierung von Inhalten gibt, die das Abbild realer Personen verwenden oder urheberrechtlich geschuetztes geistiges Eigentum nachbilden.

CNN berichtete, dass das Modell zu einem Werkzeug fuer das geworden ist, was Studios als “offenkundige” Urheberrechtsverletzung bezeichnen. TechCrunch berichtete ueber die Kontroverse und hob die Bedenken hervor, dass die niedrigen Kosten und die hohe Qualitaet von AI-generiertem Video traditionelle Produktionsablaeufe bedrohen.

ByteDance hat sich zu den Urheberrechtsbedenken bisher nicht oeffentlich im Detail geaeussert.

Verfuegbarkeit und Preise

Seedance 2.0 ist derzeit ueber die chinesischen Plattformen von ByteDance zugaenglich: Jimeng (Dreamina), Xiaoyunque und Doubao. Internationale Nutzer koennen ueber diese Plattformen darauf zugreifen, muessen jedoch chinesischsprachige Oberflaechen navigieren.

Eine oeffentliche API startet am 24. Februar 2026 ueber Volcengine und BytePlus, mit geschaetzten Preisen zwischen 0,10 und 0,80 US-Dollar pro Minute generiertem Video.

Der Premium-Zugang ueber Jimeng beginnt bei etwa 9,60 US-Dollar pro Monat (69 RMB). Eine eingeschraenkte kostenlose Stufe bietet 3 Generierungen in der mobilen App.

Die globalen Versionen von Dreamina und Pippit haben das 2.0-Modell noch nicht integriert. Die vollstaendige internationale Einfuehrung wird in den kommenden Wochen erwartet.

Wo es noch Schwaechen zeigt

Bei 720p verlieren Massenszenen und entfernte Motive deutlich an Detailschaerfe. Mikroexpressionen und subtiles Schauspiel im Gesichtsbereich bleiben wenig ueberzeugend. Fluidsimulationen — Wasser, Rauch und Feuer — erfordern mehrere Regenerierungsversuche, um natuerlich auszusehen.

Dem Modell fehlt ausserdem ein eigenstaendiges Produkt. Nutzer muessen ueber die bestehenden Apps von ByteDance darauf zugreifen, was sich im Vergleich zu spezialisierten Plattformen wie Runway fragmentiert anfuehlen kann.

Das Fazit

Seedance 2.0 setzt neue Massstaebe fuer die AI-Videogenerierung. Das multimodale Eingabesystem, das native Audio und die physikbewusste Bewegung definieren neue Standards fuer das, was diese Modelle leisten koennen. Die Frage ist nicht mehr, ob AI ueberzeugendes Video erzeugen kann — sondern wie die Branche auf die urheberrechtlichen und kreativen Auswirkungen reagieren wird.