Seedance 2.0: AI-видеогенератор от ByteDance бросает вызов Hollywood
ByteDance выпускает Seedance 2.0 — мультимодальную AI-модель для генерации видео со встроенным звуком, которую в Hollywood называют угрозой для индустрии.
ByteDance вступает в гонку AI-видео
Исследовательское подразделение ByteDance — Seed — выпустило Seedance 2.0 двенадцатого февраля 2026 года, и реакция последовала незамедлительно: создатели контента хвалят возможности модели, а студии Hollywood называют её угрозой.
Seedance 2.0 — это мультимодальная AI-модель для генерации видео, которая одновременно принимает текст, изображения, аудио и видео на вход. Она создаёт клипы длительностью до 20 секунд с разрешением до 4K и встроенной генерацией звука, синхронизированного с визуальным рядом.
Чем она отличается
Большинство AI-видеогенераторов работают по принципу «текст в видео» или «изображение в видео». Seedance 2.0 обрабатывает все четыре типа входных данных одновременно через единую архитектуру. Загрузите референсное фото, аудиодорожку, клип с движением и текстовое описание — модель синтезирует их в единое целостное видео.
Встроенная генерация звука — главная отличительная черта. Звуковые эффекты автоматически соответствуют происходящему на экране: шаги, удары, фоновый шум и музыка генерируются параллельно с видео. Режим синхронизации с ритмом выравнивает визуальное движение по темпу музыки, создавая танцевальный и музыкальный контент без ручной покадровой настройки.
ByteDance также серьёзно вложилась в физическую симуляцию. Модель штрафует физически неправдоподобные движения в процессе обучения, что обеспечивает реалистичную гравитацию, драпировку ткани и взаимодействие объектов.
Сопротивление Hollywood
Релиз вызвал немедленное сопротивление со стороны крупных организаций Hollywood. Отраслевые группы раскритиковали Seedance 2.0 за отсутствие ограничений на генерацию контента с использованием внешности реальных людей и воспроизведение защищённой авторским правом интеллектуальной собственности.
CNN сообщила, что модель стала инструментом того, что студии называют «откровенным» нарушением авторских прав. TechCrunch осветил полемику, подчеркнув опасения относительно того, что низкая стоимость и высокое качество AI-генерируемого видео угрожают традиционным производственным процессам.
ByteDance публично не прокомментировала претензии по авторским правам в деталях.
Доступность и цены
Seedance 2.0 в настоящее время доступна через китайские платформы ByteDance: Jimeng (Dreamina), Xiaoyunque и Doubao. Международные пользователи могут получить доступ через эти платформы, но им придётся работать с интерфейсом на китайском языке.
Публичный API запускается 24 февраля 2026 года через Volcengine и BytePlus с ориентировочной стоимостью от $0,10 до $0,80 за минуту сгенерированного видео.
Премиум-доступ через Jimeng начинается примерно от $9,60 в месяц (69 RMB). Ограниченный бесплатный тариф предлагает 3 генерации в мобильном приложении.
Глобальные версии Dreamina и Pippit пока не интегрировали модель 2.0. Полноценный международный запуск ожидается в ближайшие недели.
Где модель уступает
При разрешении 720p сцены с толпами и удалёнными объектами значительно теряют в детализации. Микровыражения и тонкая мимика остаются неубедительными. Симуляция жидкостей — вода, дым и огонь — требует нескольких попыток перегенерации для достижения естественного результата.
У модели также нет отдельного продукта. Пользователям приходится обращаться к ней через существующие приложения ByteDance, что может казаться разрозненным по сравнению со специализированными платформами вроде Runway.
Итог
Seedance 2.0 поднимает планку в области AI-генерации видео. Мультимодальная система ввода, встроенный звук и физически корректное движение устанавливают новые стандарты того, что способны создавать подобные модели. Вопрос уже не в том, может ли AI генерировать убедительное видео, а в том, как индустрия отреагирует на последствия в области авторского права и творчества.