Хотите разобраться, что такое нейросети и зачем они нужны визуализатору?
В этом видео мы покажем, как из простой игрушки они превратились в мощные инструменты вроде MidJourney, Stable Diffusion и Veo. Вы узнаете, чем отличаются разные нейросети, как они помогают в 2D, 3D и даже в создании видео, а также где они действительно экономят время и силы. Мы разберём плюсы, минусы и реальные примеры их применения. Отнимут ли нашу работу нейросети или станут вашим главным конкурентным преимуществом? Давайте разбираться!
53408506
13
2025-09-10
До 2027-ого как минимум точно никакой "замены" нейросетями ждать не стоит. Пока это вспомогательный больше инструмент. Но вот начиная с 2026-ого уже будут появлятся более зрелые решения, можно будет закрывать бОльшую часть потребностей, но рулить все-равно будет пока дизайнер.В 2027-ом ожидаем что-то более менее production quality, но не полностью автономную.
Это если говорить не о генерации достовено выглядящих коротких видео, которые Veo3 уже неполхо делает, а инструмент с полным контролем, где вы можете работать с ИИ "в паре", тыкать, говорить что где исправить, где как оптимизировать, какую текстуру улучшить, как ракурс поменять и т.п. Т.е по сути такой 3д пакет "без интерфейса" или Nano Banana на максималках, который если нужно, любой ваш уникальный стиль по вашим наброскам поймет и обучится ему.
Полноценную генерацию "без участия человека" или "толко по запросу" с приемлимым для тв уже качеством - не раньше 2028-2029 года.
2025-09-10
короче время на адаптацию есть)
2025-09-11
С помощью нейросетей клиент хоть научится грамотно составлять запрос - что ему нужно)
2025-09-12
Михаил, не научится. Даже утвержденная клиентом сгенеренная по его референсу хайполи модель им потом будет проигнорирована и дополнена- личный опыт.
Мол, за вас же нейросеть референсный хайпольки генерит-шо вам трудно отретопленную модель исправить?
Все как всегда короче.Если зак дегенерат который сам не знает че ему надо-это не исправить ничем и никак.
2025-09-12
Ну информация не очень свежая, много слов про Stable Diffusion, но его уже год как успешно заменил Flux, может не везде, но все же. Automatic вроде тоже уже устарел, сейчас его заменяет Forge, с подобным интерфейсом.
2025-09-12
Глорфиндейл БоромиевичНу информация не очень свежая, много слов про Stable Diffusion, но его уже год как успешно заменил Flux, может не везде, но все же. Automatic вроде тоже уже устарел, сейчас его заменяет Forge, с подобным интерфейсом.
Flux (который 1d) тоже неидеален конечно далеко. Конечно тут можно говорить об эволюции. Из реально нового - это именно Flux Kontext или Krea. Тут конечно другой инструмент в принципе. И конечно самое интересное именно здесь будет происходить, а не в тупом повышении качества генерации. Т.е. именно та полнота, с которой он понимает вашу задачу. Сейчас генеративные графические модели сильно от чат-ботов в этом формте отстают, если SD понимали задачу вообще обощенно, Flux и новые модели из топовых чат-ботов начали понимать реально уже структуру, выцеплять смысл, так как в основе их одна и та-же мультимодальная модель, но какие-то деликатные момент они еще не понимают, соотвественно не способны полностью выдать вам на 100% то что нужно. Тут еще ехать и ехать.
А картинка с обычынм SD через апсейлер уже красивая. SD иногда даже что-то интересное может выдать и в нужном стиле, потому-что под него лоров мешок и тележка.
2025-09-14
Че че просто модель заказал если над подкориктировал и все... А 3д моделирование станет как проги якобы фотошопа на телефон вот и все...
2025-09-14
Забавно слышать про то, что можно получить классную картинку в пару кликов...)Да нейронку надо пинать десятками, а то то сотнями генераций в нужную сторону и то потом обрабатывать в фотошопе).
2025-09-15
Подсадят всё CG на нейронки и цены поднимут на использование ИИ пока спрос не упадет, все по маркетинговой классике.
2025-09-16
Андрей БакулинЗабавно слышать про то, что можно получить классную картинку в пару кликов...)Да нейронку надо пинать десятками, а то то сотнями генераций в нужную сторону
Сильно зависит от потребностей. Тут есть два мира. Первый мир - вы точно знаете как что должно выглядеть. Хотя это реализуемо технологиями типа Nano Banana:
Второй мир - вы сами точно не знаете что делать, но нужен результат. Тут почти любая нейронка, достаточно точно понимающая что вам нужно уже хороший инструмент. Пример - вы приходите к дизайнеру, и просите ему сделать концепт персонажа. Вы не знаете точно как он должен выглядить, вам нужен просто вариант, поэтому вы к художнику и пришли, чтобы он дал вам свое "видение". Десять разных художников дадут вам 10 принципиально разных вариантов одного и того-же персонажа, если у них есть только общее задание. Вот вам и "случайная генерация". А как только вы начнете художника задалбывать типа "тут поправь, я не так хочу" и "нос больше хотел", "перекрась костюм в зеленый" он пошлет вас и все. Но там же живой художник, мы не будем ему чрезмерные требования выдвигать. А к нейронке - можно...
2025-09-16
Увы, но нанобанана всего лишь редактор и не закрывает моих потребностей в генерации.)
2025-09-16
Андрей БакулинУвы, но нанобанана всего лишь редактор и не закрывает моих потребностей в генерации.)
Так я и пишу что есть генерация и есть редактирование. Совершенно разные типы задач. Можно легко генерить в одной сетке, а редактировать в банане. Тем более там еще только первая версия, допилят.
2025-09-16
Андрей БакулинУвы, но нанобанана всего лишь редактор и не закрывает моих потребностей в генерации.)