Конец эпохи: Голливуд в панике из-за Seedance 2.0

Завирусившийся в сети ролик с дракой Тома Круза ("Том Кукуруз", как его окрестили в народе) и Брэда Питта мгновенно стал символом новой угрозы для киноиндустрии. Видео опубликовал ирландский режиссёр Руари Робинсон, но настоящий резонанс вызвала реакция сценариста Ретта Риза ("Дэдпул", "Добро пожаловать в Zомбилэнд").

"Мне неприятно это говорить, но, скорее всего, для нас всё кончено, - написал Риз. - Очень скоро один человек сможет сесть за компьютер и создать фильм, неотличимый от голливудского. Если этот человек бездарен - получится ерунда. Но если появится талант уровня Кристофера Нолана - результат будет потрясающим".

Seedance 2.0, позиционируемый как значительный шаг вперед по сравнению с ранними text-to-video моделями, позволяет создавать сложные сцены с реалистичной физикой, динамикой камеры и монтажом. Пользователи уже демонстрируют чудеса: один из авторов создал эпичную битву драконов всего за 30 минут, используя лишь пять референсов, тогда как раньше на подобную CGI-сцену потребовались бы миллионы долларов и работа целой VFX-студии.

Однако именно лёгкость генерации узнаваемых актёров и сцен в стиле известных фильмов вызвала гнев Голливуда. Ассоциация кинокомпаний (MPA) и профсоюз актёров SAG-AFTRA выступили с резкой критикой, обвинив ByteDance в «несанкционированном использовании защищённых авторским правом произведений в массовом масштабе». Глава MPA Чарльз Ривкин потребовал от компании прекратить нарушения и внедрить механизмы защиты интеллектуальной собственности.

Британский режиссёр и член Палаты лордов Бибан Кидрон призвала ИИ-сектор к переговорам, предупредив, что в противном случае отрасль ждёт "десятилетие судебных тяжб". В ByteDance пока никак не комментируют ситуацию.

Стоит отметить, что, несмотря на впечатляющую картинку, у нейросетей остаются проблемы с сохранением образа персонажей в длинных сценах и реализацией диалогов. Однако с экшеном и физикой Seedance 2.0, судя по всему, справляется блестяще. Социальные сети уже начали наполняться подобным "слопом" (ролики, сгенерированные нейросетью), и хотя до полноценного кинематографа пока далеко, индустрия понимает: точка невозврата пройдена.

624 0 850 7
83
2026-02-17
Но если появится талант уровня Кристофера Нолана - результат будет потрясающим
Откуда бы ему появится, если "джуны" больше не нужны и всех заменяют нейронками. Постепенно остальные состарятся и останутся те, кто двух абзацев не в состоянии написать без нейронок.
2026-02-17
Напоминаю:

1. "Никода не будет нормально рисовать пальцы и зубы, ха-ха"
2. "Никогда не будет делать нормальную физику, ха-ха"
3. "Никода не будет делать одинаковых персонажей, ха-ха-ха"
4. "Никогда не будет делать ролики больше 5 секунд с хрошим качеством, ха-ха"

Что следующее придумаете? Теперь про "неуникальный сюжет" и "бездуховность" новые байки пойдут, да?
2026-02-17
Да потому что фильмы перестали цеплять. 2% кинолент в году только могут как-то запасть в душу и в голову, оставить след, а остальные 98% голимый проходняк, и для чего были брошены многомиллионные средства не понятно. Так к чему я это всё, а к тому, чтобы киноделы не расслаблялись и делали качественно а не посредственно свою работу.
2026-02-17
Забавно все они так говорят) вот только нейросеть генерирует не из пустого места) нового классного актера она не создаст, нового Джима Керри она не сгенерирует, нейронка может лишь создавать что то на основе того что уже придумали.
2026-02-17
Дмитрий Волоснихин4. "Никогда не будет делать ролики больше 5 секунд с хрошим качеством, ха-ха"

Кстати, спрашивал у Клода, чем вызваны такие ограничения по хрону. Причина оказалась в ограничениях текущей архитектуры диффузионных моделей. Высокое разрешение в латентном 3Д пространстве и длительность экспоненциально увеличивают потребляемую память. В качестве решения предлагает смену архитектуры на базовом уровне, адаптивную BVH-иерархию, динамичный монтаж, улучшение алгоритмов апскейла.
Остальные пункты решаются улучшением ML и вспомогательной LLM для диффузионной модели.
2026-02-17
Дмитрий Волоснихин4. "Никогда не будет делать ролики больше 5 секунд с хрошим качеством, ха-ха"

Ну вот подобный комментарий видел сравнительно недавно, когда была здесь статься про Sora 2. Ответил примерно так, что это вопрос времени.
Нет никаких сомнений, что и полный метр скоро смогут генерировать.
2026-02-17
Михаил, в инсте сейчас полно ИИ «онлифанс» моделей как мужчин так и женщин с несколькими сотнями тысяч подписчиков. Не могу конечно говорить что это все живая подписота, но фанаты у подобного есть, а некоторые даже не понимают что это ИИ.
2026-02-17
Вахтанг, Я не уверен что такие поделки умеют в актерскую игру)
2026-02-17
Получается, что уже сейчас можно "перешагнуть" этап изучения houdini, например, и получить готовый виз.эффект. Софт и интерфейс останется только для технарей и спецпроектов, а для 90% задач будут генерить через ИИ.
2026-02-17
Михаил, пока не умеют, пока
2026-02-17
никто в голивуде не знает какой фильм выстрелит завтра
2026-02-17
Александр, для этого нужна нейронка умеющая в человеческий мозг)
2026-02-17
Михаил, есть предпосылки - https://vk.ru/wall1352709_23460
2026-02-17
Глорфиндейл БоромиевичНет никаких сомнений, что и полный метр скоро смогут генерировать

Маск даже обещал к концу этого-началу следующего года. Но слова Маска мы принимаем с настороженностью. Но самый очевидный тут выход - генерировать фильм как "раскадровку" по сценам + набор обобщенных данных (внешний вид предметов и персонажей) некое формальное описание (как сценарий, но чуть более подробно, включая описание эмоций, углов камеры, параметров освещения, какая одежда на персонаже в данной сцене, какого цвета у него авто и т.п. - тоже генерируется моделью). А затем на всем этом запускаем параллельно скажем 1000 копий модели, каждая из которых работает строго со своим фрагментом, беря заранее сгенерированный кадр и описание. Если это все дело запусать параллельно, и есть достаточно ресурсов для этого, то можно весь фильм за несколько минут сгенерировать, от и до. Никаких принципиальных проблем нет. Есть некоторое недопонимание в том, какие данные и в каком формате передавать между сценами (а еще хорошо бы эти наборы иметь возможность для каждой сцены вручную редачить - свет там поправить, атмосферу, прическу у ГГ). Вот в этом сейчас основной затык. Ну и ресурсы, конечно. Один фиг много потребуется. Тут ждем другие архитектуры или использование нейроморфных чипов (энергоэффективность выше в 100-1000 раз при сравнимом качестве). Вот тогда да, тогда станет даже не то что реально, станет просто выгодно, и тут людям предложить нечего, вряд-ли кто сможет клонироваться на 1000 копий, чтобы в конкурентные с ИИ строки делать фильмы.

Технология, честно говоря, поражает. Ну и немного пугает. Точнее пугает не технология, а люди ее использующие. Технология сама не имеет ни мотивации ни сверхцели.
2026-02-17
Kirill noneКстати, спрашивал у Клода, чем вызваны такие ограничения по хрону. Причина оказалась в ограничениях текущей архитектуры диффузионных моделей. Высокое разрешение в латентном 3Д пространстве и длительность экспоненциально увеличивают потребляемую память. В качестве решения предлагает смену архитектуры на базовом уровне, адаптивную BVH-иерархию, динамичный монтаж, улучшение алгоритмов апскейла.

Все правильно.

Тут та-же проблема что и с LLM. Оседлали не те варианты у которых больше возможностей, а те, которые смогли запустить в ограниченные сроки. Но даже текущие алгоритмы довольно неплохо модифицируются и улучшаются, причем даже так, как их создатели изначально не предполагали. Диффузионные модели в принципе неплохи на своем фронте задач, и, при некоторых условиях, неплохо тайлятся (паралеллятся), что частично проблему решает. Они же могут выступать своеобразными "рендерами" отдельных чанков по данным, предварительно подготовленным другими моделями. Там единственное что, нужны дополнительные "каналы" хранящие не просто пиксели, но и фильмо-специфичные данные как в обычных проходах рендера (глубина, освещенность, принадлежность к объекту по ID и прочие). Но это нужно сначала датасеты подготовить для обучения. Больше проблема в этом пока. Подготовка данных под новую задачу для ИИ занимает чаще больше времени чем сам цикл обучения.

Но решений, даже приблизительных, целый вагон вырисовывается. Т.е кто пишет что "скоро будет зима ИИ" не разбираясь в теме вызывают недоумение, в лучшем случае. Я когда такого человека встречаю, который до сих пор про 6 пальцев хихикает, понимаю что у него что-то там поломано в голове и лучше с такими вообще дела не иметь.

"Зима ИИ" может и будет, но не в ближайшие лет 10. Но за это время мы можем и до сингулярности дойти или вымереть
2026-02-17
Голливуд и был нейронкой, перезапуская десятилетиями одни и те же фильмы вместо новых, снимая во множестве фильмов одних и тех же актёров, а в последнее время из всего в кадре живым мог быть актёр, а то и вовсе лишь его мимика и движения.
2026-02-17
Взял ролики прямо с официального сайта Seedance 2.0, которые в примерах и на них очень много ошибок. Там где девушка танцует у нее кисти рук выворачиваются в неестественных положениях, потом локти с кучей непонятных лишних суставов, отсутствие пальцев на руке, артефакты на кистях и т.п. Потом сцена с морем, где девушка идет, следы от подошв, хотя идет босиком. Потом тени непонятные от волн и девушки, у самого моря волны неправдоподобные с точки зрения физики. Так в целом картинка вроде бы кажется нормальной, но физику процесса текущие нейросети не преодолевают, у них нет картины нашего мира. А далеко на статистике не уедешь. Не хочется получить посредственный продукт, мол в общей массе не заметят. А при этой ситуации все это будет еще больше усугубляться.
2026-02-17
Константин ДПолучается, что уже сейчас можно "перешагнуть" этап изучения houdini, например, и получить готовый виз.эффект. Софт и интерфейс останется только для технарей и спецпроектов, а для 90% задач будут генерить через ИИ.
Если 90% задач будет однотипный мусор которым и так всё заполнено без нейронок, то просто сменится парадигма производства мусора на более дешёшвый вариант. Специальные задачи останутся за софтом или сильно специализированными нейронками.
2026-02-17
Александр, 👍
2026-02-17
Дмитрий Волоснихингенерировать фильм как "раскадровку" по сценам + набор обобщенных данных (внешний вид предметов и персонажей) некое формальное описание (как сценарий, но чуть более подробно, включая описание эмоций, углов камеры, параметров освещения, какая одежда на персонаже в данной сцене, какого цвета у него авто и т.п. - тоже генерируется моделью). А затем на всем этом запускаем параллельно скажем 1000 копий модели, каждая из которых работает строго со своим фрагментом, беря заранее сгенерированный кадр и описание.
Какой-то страшный монстр, вместо адаптации к существующим пайплайнам производства. Я давно предлагал делать анимированные болванки, ориентируясь на которые нейронка будет корректно обрисовывать персонажей и окружение, всё гораздо проще с точки зрения контроля и затратности получения финальной картинки. Все зачем-то сразу хотят получить готовый результат, тратя огромное количество ресурсов на неудачные варианты.
2026-02-17
Andrew Ф (Cake)Какой-то страшный монстр, вместо адаптации к существующим пайплайнам производства. Я давно предлагал делать анимированные болванки, ориентируясь на которые нейронка будет корректно обрисовывать персонажей и окружение, всё гораздо проще с точки зрения контроля и затратности получения финальной картинки. Все зачем-то сразу хотят получить готовый результат, тратя огромное количество ресурсов на неудачные варианты.

В вашем варианте мы просто заменяем болванку ее формальным описанием. Представьте себе два мира. В одном вы ставите человечка-манекена в нужную позу и делаете его снимок. Это "болванка" в вашем понимании. В другом мы берем, и для каждого сустава этого человечка описываем на сколько градусов каждый сустав повернут. Это "болванка" в моем понимании. Чисто по результату в них нет разницы. Но с первой намного сложнее оперировать, так как для этого нужен полноценный CV, а во втором случае у нас несколько сотен чисел. Чуете разницу в объеме обрабатываемых данных при эквивалентном одинаковом внешнем результате? Если что-то нужно исправить (подвинуть руку), в первом случае нужно картинку перерисовать и опять распознать, а во втором - поменять несколько чисел. Первый вариант мы вообще не можем варьировать в смысле семантики, нам нужны опять пиксели, а во втором эти значения поворотов суставов можно даже перебирать через рандомизатор, при этом маленькая, совсем крошечная нейросетка может быть добавлена в систему чтобы сигнализировать о невозможных поворотах суставов. В первом случае это невозможно. При этом, повторю, результат будет одинаковый, а объем данных - на несколько порядков меньше. Первый вариант не имеет в себе метаданных, второй - имеет, любые какие захотите,вплоть до описания характера персонажа закодированного таким образом и что у него лежит в правом заднем кармане брюк. Как быть в первом случае? А это важно, если вы хотите консистентность. И к тому-же тут модель оперирует смыслом, а не пикселями. А мы же не хотим просто набор красивых пикселей, мы же хотим смысл, вот это вот все, правильно? И впервом случае нейронка вам не поможет, и уж тем более ничего не сделает самостоятельно, ей надо будет постоянно тыкать что где. а во втором - вполне сделает всю работу от и до.
2026-02-17
все на завод
2026-02-17
Скажем ли мы спасибо разработчикам ИИ технологий?.....
2026-02-17
Приезжайте к нам
2026-02-17
Артём ВласенкоВзял ролики прямо с официального сайта Seedance 2.0, которые в примерах и на них очень много ошибок.
Главное, что есть вполне годная основа, которую можно поправить. В Seedance 2.0 есть видеоинпейнт. Берем генерацию, как исходник, и прописываем правки, - "убери лишние суставы и артефакты, сделай следы от босых ног, поправь тени" и т.д. Живые съемки тоже долго правятся на посте. В данном случае уже без композеров. Основная проблема всё еще в низком качестве уровня SD. Для телефонов уже пойдет, но пока недостаточно для стриминга и кинотеатров.
2026-02-17
Кончено потому что нынешнее хручево в плане интересности и прочего хуже ИИ слопа, либо берут бездарнотей, а если не бездарность то студия с верхов тупо душит всех кто делает хоть что-то итереснее одноразовой жеванины под попкорн
2026-02-17
Александр, чтоб чето убедительное выдавать начали нужно будут очень много времени, это и тралалале тралаоа генерировать, не каждый реальный человек может правильно эмоции и игру подать нейросеть без понимания что она творит тем более
2026-02-17
Se, потому что там работают как в южном парке с помощью ламантинов выбирающих шарик и падающей на клетку с текстом курици без головы
2026-02-17
Все будет кончено когда нейронка сделает шедевр на уровне лучших фильмов голливуда. Пока что это слоп.
2026-02-17
О господи, неужели придётся начать писать качественные сценарии и снимать качественные фильмы, да не, бред какой-то.
2026-02-17
Ролик кайф!🤩🤩🤩
2026-02-17
Михаилъ, вот фильм, полностью сделанный ИИ. https://youtu.be/RvitKWmWOtE?si=xxox0_H4pilLyE4h Да, пока эмоции пластиковые, но это быстро исправят. Я слежу за этим и обучаюсь - год назад сделать нейрофотосессию, с постоянным сохранением внешности персонажа - тот ещё гемор. Сейчас, ЛЮБОй
2026-02-17
Александръ, школьник сделает после просмотра 10-ти минутного ролика в ютубе. Всё будет, и эмоции и актёрская игра. Я, теперь, уверен.
2026-02-17
Ну не все же в Кремле паника должна быть)
2026-02-18
Я думал нейросеть уже последние лет 15 делает почти все кино, а оказалось это новшевство 🤔
2026-02-18
я бы оценил качество этих видео, но vk плеер портит всё тем, что выдвигает свою панель и тем самым перекрывает пол экрана, поэтому не впечатлен.
2026-02-18
Константин ДПолучается, что уже сейчас можно "перешагнуть" этап изучения houdini, например, и получить готовый виз.эффект. Софт и интерфейс останется только для технарей и спецпроектов, а для 90% задач будут генерить через ИИ.

Можно, если не интересует, например, полный контроль - нейронка не выдаст гудини файл со слоями и накрученными плагинами. В нормальную топологию и UV развёртку 3D моделей ии тоже пока не может. Помнится, все говорили - 3D убьёт кинематограф. Лет 20 прошло - а модели как были "анимированными мертвецами", так и остались. Ну научат ии делать пять пальцев, будет она продвигаться и развиваться, а также всё будет узнаваться по едва уловимым признакам. Но тем ценнее, как мне кажется, станет работа человека.
2026-02-18
Никита, за сценарии так и думал, ну не мог так живой человек писать😁
2026-02-18
Артур, нет мы все украдем и будем пользоваться бесплатно.
2026-02-18
Возможно, настало это время, как произошло в XIX-XX веке в мире художественных картин с изобретением фотоаппарата.
• Заказчик уже не ждал свой авторский портрет, а просто делал снимок и получал быстрый результат.
• Одна часть художников переквалифицировались в другие направления или вообще меняли род деятельности;
• Другая часть отсеялась, которая изначально искала финансовой выгоды;
• Ну, и в сухом остатке остались те самые Художники с большой буквы, которые приняли новое веяние прогресса, не стали бороться за место под солнцем, а взяли, пересмотрели искусство и создали нечто новое (пример, Дали, Пикассо, Шагал и т.д.)
Так что, уважаемые, желаю вам не бороться с ветряными мельницами, а принять для себя, что есть такая технология, как ИИ, и создавайте искусство! С Богом! И будьте здоровы!
2026-02-18
Зорикто АрдуевВозможно, настало это время, как произошло в XIX-XX веке в мире художественных картин с изобретением фотоаппарата.
Изобразительное искусство всегда было дорогим удовольствием и заказчиками были состоятельные люди. Не понятно как фотоаппарат мог повлиять на роспись потолков храмов, скорее малоимущим позволил иметь фото пейзажа или портрета который они раньше не могли себе позволить. Не знаю как там у современной аристократии, принято ли заказывать портреты, скорее всё это просто вышло из моды.
2026-02-18
门丹山丹, в 2025 году вышло около 2500 фильмов за год. 2% от этого количества это 50 фильмов. 50 хороших фильмов за год, это по одному хорошему фильму в неделю. Это прекрасный результат
2026-02-18
https://lumalabs.ai/blog/news/ray3-modify

вот что реально было бы полезно в кинопроизводстве, а не вот эта чушь.
это захват движения с реального исполнителя (или с другого реального видео, заготовки, болванки) с последующей подменой его движений на генеративный ИИ.
но конечно при условии что результат подконтролен творцу.
таким образом режиссура эпизода, монтаж и нюансы вроде ракурса камеры и операторской работы остаются за человеком. по факту - при таком сценарии развития событий всем нашлось бы место. и актерам, и режиссеру, и оператору, и разработчикам нейросетей.
и новые технологии развиваем, и человеческая актерская игра на месте, и все остальные при делах.

человек создает намётку, в каком направлении двигаться, а нейронка делает так называемую рутинную работу (в случае со спецэффектами).
если бы оно двигалось хотя бы в этом направлении, было бы очень хорошо.
а если бы еще послойную генерацию делали...
может утопия, но тем не менее...
2026-02-18
это круто - потом каждый сможет снять кино за копейки.
2026-02-18
evgeny seredaя бы оценил качество этих видео, но vk плеер портит всё тем, что выдвигает свою панель и тем самым перекрывает пол экрана, поэтому не впечатлен.

С компа посмотрите и впечатлитесь.
2026-02-18
Я персонально всеми руками за прогресс и новые технологии. Держу, так сказать, руку на пульсе с 2022 года. И все эти годы не вижу существенных подвижек в главном для продакшена аспекте - контроль результата. Все эти ролики и генерации выглядят впечатляюще, когда получившееся выдают за желаемое, но ровно в тот момент, когда тебе нужно получить *конкретный* результат, всё это начинает сыпаться. В серьезном продакшене не существует понятия "достаточно хорошо" или "достаточно близко" к тому, что мы хотим - ты либо на 100% процентов получаешь предсказуемый и редактируемый результат, либо это брак. И пока, несмотря на повышающееся качество генераций в плане детализации и реалистичности, с контролем и постоянством результата всё как было не очень, так и остается не очень. Может ещё лет через 5 и эта проблема уйдет в прошлое, но сейчас говорить о том, что классический пайплайн "всё" по-моему рановато 🤷
2026-02-18
Сергей, 1 в 1 с моими мыслями, но в моем ремесле. Нет предсказуемости и редактируемости.
2026-02-18
для справки "Последняя фантазия: Духи внутри" 2001 год тоже самое говорили .просто доп инструмент п.с надеюсь что я прав ахаха
2026-02-18
サーシャ, собирать ram для серверов нейронок
2026-02-18
门丹山丹, так а кто сказал, что будут делать качественно? Будут делать так же дегенеративно, только будет выглядеть ещё вот так вот всрато, потому что "пипл схавает"
2026-02-18
Елизавета, зачем писать? Сценарии тоже гпт будет... Да кого я обманываю, оно уже который год пишет сценарии.
2026-02-19
В чем грусть... необразованным людям дают инструмент для творчества, а они начинают этим зарабатывать. Так произошло в музыке, дизайне, фотографии... и теперь в кинопроизводстве. Когда же быть глупым станет стыдно?))
2026-02-19
Голливуд ещё до нейросеток на дно грохнулся. Там давно смотреть почти нечего - любители порой интереснее снимают чем профи голливудские. Сдохнет максим - да и хрен бы с ним.
2026-02-19
это всего лишь программа ) режиссер все равно нужен
2026-02-19
Alex, скорее объявят права на генеративный ИИ
2026-02-19
Михаил, а люди из воздуха создают контент? Нигде не учатся, не живут в социуме, не подвержены влиянию окружения, не потребляют информацию?
2026-02-19
Александр, чтобы была актёрская игра, машину надо научить чувствовать. А этому ее научить невозможно. См. "Китайскую комнату"
2026-02-19
Что за пиздеж, реклама очередного ИИ
2026-02-19
Иван, а ей не надо. Она изучит абсолютно ВЕСЬ кинематограф, игру ВСЕХ актёров, все отзывы критиков и зрителей... Понимаете, всех вообще, которые есть в сети. Никто в мире не обладает такой насмотренностью. И, уверяю Вас, она поймёт, какие эмоции как выражаются, мимикой, жестами, какие ракурсы съёмки и какая закадровая музыка их усиливает. Мы это увидим, это уже вот завтра будет
2026-02-19
Mikhail, я не думаю что люди не из профессий, связанных с музыкой, кино, артом и т.д. начали реально зарабатывать с помощью нейронок. ИИ-бро плакались, что им гейткипинг устраивают, до этого они были не в силах карандашик или муз. инструмент в руки взять. Ну вот, "взяли". Инет заполнен большим кол-вом мусорного контента, бесплатно. Отдельные единицы, кто подсуетился и кому повезло да, на нейрохрючеве наверняка что то заработали (для этого, правда, надо все же обучиться и иметь хоть какой то вкус и понимание что делаешь, что отсеивает большую часть зарабатывателей).
2026-02-19
Александр, эх, не быть вам актером. К счастью, видимо. Как и нейросети. Повторюсь - прочитайте про "Китайскую комнату".
2026-02-19
Михаил ТрапезниковКогда же быть глупым станет стыдно?

Это не глупость - это хитрожопость, умение использовать чужой труд для достижения собственных целей. А ИИ - это просто замечательный объект эксплуатации, гораздо более удобный, чем человек.

Ещё большое значение в этом вопросе имеет целеполагание: "создать что-то" и "получить что-то" - это две огромные разницы. Увы, но получать профит более лёгким путём едва-ли когда-нибудь станет стыдным.

Кроме того, вся история человека разумного - это история компенсации собственных слабостей и недостатков с помощью всевозможного переферийного оборудования и окружающих.
2026-02-19
Иван, не быть, поздновато уже, да)))
2026-02-19
Александр, в принципе не быть. Вы не понимаете, что отличает актера (хорошего) от другого человека и что такое построение роли. Это не набор механизмов и алгоритмов, иначе его бы уже вывели и заставили бы всех играть идеально.
2026-02-19
Иван, ааа, я читал про эту китайскую комнату, вспомнил. Китайская комната доказывает, что я прав. Вы, видимо, неправильно меня поняли. ИИ не станет человеком, это и не надо. Но на выходе будет выдавать то, что нужно людям. Именно, как в китайской комнате. Актёры, хорошие, конечно останутся. Да и театры существует, и будут существовать. ИИ забирает ремесленную часть, если в кино - сначала уберут живую массовку, потом простые роли, и т.д. Вы знаете, кто сейчас, уже, страдает больше всего? В области фотографии, например. Не фотографы, а модели. Для простых фотосессий для показа одежды, ии модели дешевле
2026-02-19
Александр, господи, я даже не буду пытаться спорить с этим бредом
2026-02-19
Всё происходит очень быстро, давайте через год поговорим
2026-02-19
Да. Зацените. Я трихуе https://youtu.be/V5AFQaEbHQU?si=RLsdZxXM6oziFfLk
2026-02-19
Александр, напишите через год и поговорим
2026-02-20
Список вечных тупых комментариев в теме о победах ИИ:

  1. На завод! - есть
  2. Останутся только лучшие, а посредственностей заменят - есть
  3. Пока плохо, но посмотрим что будет через год\10\лет и тд - есть
  4. Луддиты - нет
  5. Лошадь заменил автомобиль - нет
  6. Нейронки воруют? А разве люди не учатся на чужих... - есть
  7. Сравнение нейронки с фотоаппаратом - есть
2026-02-20
Прочитал про китайскую комнату. На мой взгляд, очень и очень спорно.

Во-первых, там делается вывод касательно только части модели. Вот, предположим, человек понимает, что написано на листе бумаги, и даёт осмысленный ответ. А его зрительная кора понимает и другая часть мозга, которая отвечает, предположим, за моторику при написании ответа? Или же они просто "механически" передают некие сигналы и выполняют инструкции от другой части мозга?

Во вторых, надо ещё доказать хотя бы теоретическую возможность существования такой "инструкции", которая способна покрыть "любые осмысленные вопросы", при этом не давая исполнитель возможности для обучения. Конечный справочник, типа разговорника для туриста - легко. А вот "любой" - это уже весьма сильное заявление. (Если только это не китаец, спрятанный в секретере.)

А ещё неплохо бы посадить в соседнюю комнату настоящего китайца, безо всяких инструкций, и тоже позадавать ему "любые осмысленные вопросы".

Человеческий разум как-то уж слишком сильно сакрализируется, особенно если речь заходит о творчестве и эмоциях. Но так-ли уж принципиально неповторима эта система? Человек, без определённого массива обучающих данных, - это просто набор примитивных животных инстинктов. Чтобы понимать, мы сохраняем взвешенные взаимосвязи между различными входными данными. Чтобы общаться, мы сначала запоминаем, а затем комбинируем и трансформируем речевые паттерны. Творчество, как уже говорилось ранее, - это поиск хороших комбинаций ранее запомненных входных данных. А для пущего разнообразия, у нас есть как-попало сформировавшаяся аппаратная архитектура, которая ещё и каждый раз воспроизводится с рандомными настройками.

btw, А может-ли человек, не испытывающий эмоций, но достаточно наблюдательный и отлично владеющий мимикой, имея достаточно хорошую "инструкцию по применению", научиться имитировать эмоции достаточно хорошо и уместно, чтобы у большинства окружающих создавалось впечатление, что он действительно "чувствует"?..
Может-ли человек, не испытывающий эмоций, но достаточно наблюдательный, имея достаточно хорошую "инструкцию", научиться логически, исходя из контекста ситуации, мимики, "языка тела", понимать что чувствуют окружающие с достаточно хорошей точностью?
2026-02-20
Дмитрий ВолоснихинНапоминаю:

1. "Никода не будет нормально рисовать пальцы и зубы, ха-ха"
...
Ещё, справедливости ради, стоит вспомнить раннее человеческое творчество, начиная с наскальных рисунков и где-то до средневековья.
Инопланетяне, раз в 1К лет залетающие на Землю:
- "Они никогда не нарисуют правдоподобную фигуру кого-либо"
- "Не, они быстрее вымрут, чем смогут в реализм"
2026-02-20
maniacalipsisНе, они быстрее вымрут, чем смогут в реализм
Мы тут реализм то несколько сотен лет как-бы научились, а тут вопрос вымирания уже как-бы актуален (не из-за ИИ).А по галактическим меркам это вообще ничто. Так что когда они залетят сюда в следующий раз, возможно тут уже не будет никого, кто умеет в реализм и они окажутся в чем-то правы ))
2026-02-22
Max, вот-вот. Некоторые истории прогоняют через "фабрику грез" в 10 раз
2026-02-22
Елизавета, некогда им мыслить, чтобы писать и создавать. Хайповать и лайки собирать - это тема
2026-02-22
Сергей, главное отличие нейронок от людей в том, что это контроль в своей основе. Если вспомнить культовые фильмы прошлого, то там нередко удачные дубли получались случайно или даже по ошибке актеров
2026-02-22
Leria, "нередко" и "всегда" это две большие разницы. Исключение подтверждает правило.
2026-02-22
Сергей, я имею ввиду, что люди, контактируя друг с другом, получают результат, не сравнимый с машинным. Мы живые органические существа. Нашим опытом нейронки не обладают. А если чем-то и обладают, так только нашими воспоминаниями, которые, к слову, они вряд ли "понимают", ввиду отсутствия исходных данных. Максимум, что они могут достичь - разработать собственный опыт. А это уже отдельная большая тема
2026-02-23
Дмитрий ВолоснихинНапоминаю:

1. "Никода не будет нормально рисовать пальцы и зубы, ха-ха"
2. "Никогда не будет делать нормальную физику, ха-ха"
3. "Никода не будет делать одинаковых персонажей, ха-ха-ха"
4. "Никогда не будет делать ролики больше 5 секунд с хрошим качеством, ха-ха"

Что следующее придумаете? Теперь про "неуникальный сюжет" и "бездуховность" новые байки пойдут, да?
Аххх... Мне больше понравилась реакция оборзевших голливудских бочек с деньгами, которые почувствовали, что больше не нужны))) Т.е., когда ИИ драли книги, журналы, фото, рендеры, то было все нормально. Как только ИИ стал снимать полноценные фильмы, то тут уж конечно да... Нельзя такое делать))) Этак еще 5 лет и Эпштейны с Вайнштейнами не смогут гоев эксплуатировать за копейки.
2026-02-23
Слоп это не ролики, сгенерированные нейросетью. Это не качественный контент, сгенерированный нейросетью. Это очень важное различие.
2026-02-23
Сергей ТумановМне больше понравилась реакция оборзевших голливудских бочек с деньгами, которые почувствовали, что больше не нужны
Да все эти штуки из-за бабок, или из-за жажды самоутверждения. Все. Нет никаких рациональных причин запрещать ИИ. Они то говорят что они уникальные все такие, креативные, что они-то лучше нейросетей. И прям рядом запрещают их. Спросить бы их - если ты такой замечательный и хороший, чтож ты так нейростей боишься, спрашивается? "Я в нейросети не верю, но я их боюсь"... Пипец логика...
2026-02-24
Это очень интересная и показательная дискуссия, которая разворачивается вокруг выхода новой модели генерации видео (предположительно, на основе упоминаний Seedance 2.0). В ней собраны, пожалуй, все основные аргументы, страхи и надежды, которые сейчас циркулируют в креативных индустриях.
Вот мой подробный разбор того, что здесь происходит, по ключевым темам:
### 1. Главный спор: "Замена против Инструмента"
Это центральная линия конфликта в комментариях.
* **Сторонники "Замены" (или "Революции"):**
* **Дмитрий Волоснихин** и **Kirill none** — самые яркие представители этого лагеря. Они приводят исторические примеры (пальцы, зубы, физика), которые ИИ уже "победил". Они смотрят на проблему технически: ограничения текущих архитектур (диффузионные модели, память) — это временные трудности, которые будут решены сменой парадигм (нейроморфные чипы, BVH-иерархии).
* **Александр Родионов** верит, что ИИ сможет имитировать актерскую игру, проанализировав весь мировой кинематограф. Для него "китайская комната" не аргумент, важен результат на выходе.
* Их главный тезис: **ИИ сделает производство контента мгновенным и дешевым, изменив экономику индустрии до неузнаваемости.**
* **Сторонники "Инструмента" (или "Эволюции"):**
* **Михаил Круглов**, **Артём Власенко**, **Сергей Метельский** и **Иван Афанасьев** представляют эту точку зрения.
* **Михаил Круглов** и **Артём Власенко** указывают на фундаментальные проблемы: отсутствие понимания физики мира ("картины мира"), неконтролируемые артефакты и невозможность создать принципиально новое (актера уровня Джима Керри) на основе только старого.
* **Сергей Метельский** бьет в самую больную точку продакшена — **отсутствие контроля и предсказуемости**. В профессии нужно получить *конкретный* результат, а не просто "красивую картинку".
* **Иван Афанасьев** апеллирует к философии ("Китайская комната"), утверждая, что машина не способна на подлинное чувство и понимание.
* Их главный тезис: **ИИ — это мощный инструмент для рутины и генерации идей, но финальный контроль и "душа" останутся за человеком.**
### 2. Ключевые идеи и "болевые точки"
* **Проблема консистентности и контроля:** Самый сильный аргумент "скептиков". **Andrew Ф (Cake)** и **Сергей Метельский** справедливо замечают, что генерация "с нуля" — это тупиковый путь для серьезного производства. Нужна интеграция в существующие пайплайны. Andrew предлагает "анимированные болванки", а Дмитрий Волоснихин развивает эту мысль до формального описания сцены числами (метаданные), что дает гораздо больше возможностей для контроля и редактирования, чем работа с пикселями. **Это, пожалуй, самый конструктивный технический спор в ветке.**
* **Кризис контента:**
* **Пашка Танков**, **Max Ili** и **Dina Felis** поднимают важную тему: Голливуд и так давно болен. Он переполнен сиквелами, римейками и "проходняком". Получается, ИИ приходит не в цветущий сад, а на выжженную землю. С этой точки зрения, ИИ — просто более эффективный производитель того самого "мусора", который индустрия штамповала и раньше.
* **Социальный и экономический аспект:**
* Первый комментарий ("Откуда бы ему появится, если "джуны" больше не нужны") — это крик души о разрыве поколений в профессии. Если рутинные задачи, на которых учатся новички, будет делать ИИ, то откуда возьмутся новые мастера?
* **Михаил Трапезников** и ответ **maniacalipsis** затрагивают тему "хитрожопости" и демократизации творчества. ИИ позволяет "необразованным" людям создавать контент, что приводит к затоплению рынка мусором, но также дает шанс тем, у кого есть идеи, но не хватает технических навыков.
* **Философский вопрос: "Может ли машина чувствовать?"**
* Спор **Александра Родионова** и **Ивана Афанасьева** об актерской игре — это классический спор о сильном и слабом ИИ. Родионов придерживается утилитарного подхода: "если выглядит как утка и крякает как утка, то какая разница?". Афанасьев настаивает на принципиальной разнице между имитацией и переживанием. Развернутый комментарий **maniacalipsis** про китайскую комнату — отличная иллюстрация того, что этот вопрос далеко не так однозначен.
### Итог и мое мнение
Эта дискуссия — отличный срез текущего момента. Ни одна из сторон не является полностью неправой.
1. **Правы "оптимисты" (вроде Дмитрия и Kirill none)** в том, что технические ограничения — это вопрос времени. Качество генерации будет расти, артефакты уйдут, длинные ролики станут реальностью. ИИ действительно изменит производственный процесс до неузнаваемости.
2. **Правы "скептики" (вроде Сергея Метельского и Артёма Власенко)** в том, что фундаментальные проблемы контроля, консистентности и "понимания мира" пока далеки от решения. Текущий подход "статистического попугая" (пусть и очень продвинутого) не гарантирует появления настоящего *автора*.
3. **Правы "критики индустрии" (вроде Пашки Танкова)** в том, что ИИ приходит в уже больную систему. Он не убьет "великое кино", потому что его и так почти нет. Он убьет "ремесленный конвейер", который производил 98% "проходняка".
**Что будет дальше?**
Скорее всего, нас ждет расслоение. Появится огромный пласт ultra-fast, ultra-cheap контента, сгенерированного ИИ (для соцсетей, рекламы, простых сериалов). Классическое кино, скорее всего, никуда не денется, но станет еще более нишевым и дорогим удовольствием (как театр или hand-made искусство), где ценность будет определяться именно человеческим участием, контролем и "душой". **Зорикто Ардуев** очень точно провел аналогию с появлением фотографии — художники не вымерли, а переосмыслили свое место.
А проблема "джунов", о которой сказано в самом первом комментарии, — это, пожалуй, самый тревожный и пока не имеющий ответа вопрос.
2026-02-26
А потом запустят Квантовый компуктер, и он , и он сгенерирует постнейронкой внутреннюю вселенную, где сразу же прогрузятся люди и начнут свой эволюционный этап развития, а потом спустя 300 эфимерных лет они будут писать на сайте , что изобрели нейронку !!!! ОЙ где-то мы это уже проходили.
RENDER.RU