Нейронные сети в быту игродела

Как раньше, в эпоху до нейронных сетей, строился рабочий процесс в игрострое, а конкретно — в производстве контента?Отдел геймдизайна писал 10-страничный документ, в котором прорабатывалось ядро будущего проекта. Документ отдавался на вычитку всем причастным, идея одобрялась — и начиналась детальная проработка. Арт-директор получал описание мира, персонажей и т. д., разбивал всё на части, PM заводил таски — и процесс запускался.2D-художники прорабатывали концепты, 3D-моделлеры (если игра 3D) делали окружение, пропсы, персонажей. На проработку одного концепта персонажа уходила неделя и больше, производство 3D-модели занимало от нескольких недель до нескольких месяцев — и неважно, был ли это персонаж для финальной игры или для прототипов и фейк-шотов.

Что же изменилось с приходом нейронных сетей? Если кратко — время и отношение к качеству. Фейк-шоты сегодня практически полностью уходят на откуп нейронкам вроде Sora.
С играми и прототипами история немного другая. Уже начиная с 10-страничного геймдока и далее, нейронные сети плотно внедрились в рабочий процесс. Проработка базового документа, разбивка на задачи, описание мира и окружения — всё это сейчас во многом работа LLM-моделей. Но так как меня больше интересует визуальная сторона проекта, дальше речь пойдёт о тех нейронках, с которыми работают художники и 3D-моделлеры. Я пройдусь, так сказать, по верхам и попробую выстроить рабочий процесс на примере одной модели.
Есть в закромах концепт игры — пошаговая тактика в киберпанковском мире девочек и боевых роботов-мехов. Всё действие происходит на улицах некоего мегасити, где разборки между группировками идут с использованием больших управляемых мехов. Идея не новая, поэтому заострять на ней внимание не будем. В первую очередь нас интересует главный герой, а в нашем случае — это те самые роботы. Их нужно сделать в достаточно большом количестве, желательно быстро и недорого, так как речь идёт о прототипе, и бюджета на него пока нет.
Первым делом идём на ArtStation или вооружаемся «булавочками» и собираем для себя базу референсов: роботы, киберпанк, девочки и т. д. Закидываем всё это добро в условный Midjourney — и на выходе получаем некий концепт, удобоваримый и дающий общее понимание того, с чем будем работать дальше. За пару часов можно получить такое количество вариаций, что смотреть — не пересмотреть. Здесь нас интересует именно количество и набор идей. Выбираем более-менее удачный вариант, возможно, слегка допиливаем его, но без фанатизма.

концепт

Далее в работу вступает Nano Banana или Qwen — на ваш вкус. Задача — получить удобоваримый шаблон для 3D-генераций. Мы переводим изображение в сермат и разбиваем его на составные части: руки, тело, ноги — всё отдельно, чтобы нейронки лучше понимали форму и выдавали более высокую детализацию.В идеале для следующего шага понадобится 3–4 вида каждого элемента с разных сторон: спереди, сзади, сбоку.

1766748111811.png

Звучит всё это, конечно, неплохо и на первый взгляд даже выглядит хорошо, но есть здесь ложка дёгтя. За скорость, доступность и простоту вы расплачиваетесь потерей контекста. Каждое последующее изображение или генерация 3D-модели будет либо менять, либо терять что-то из первоначальной задумки. Форма меняется постепенно, не критично, но к концу работы количество изменений становится существенным. Здесь нужно быть готовым либо пойти на сделку с совестью и оставить как есть, либо начинать править каждый этап вручную.
А мы продолжаем.
Для 3D-генераций сейчас существует множество сервисов. В данном случае я использовал сервис от Hunyuan — он хорошо справляется с твёрдотельными поверхностями. На их официальной странице есть студия, которая позволяет пройти весь путь от концепта до low-poly-модели. Я загружаю туда полученные изображения, получаю high-poly-модели, выгружаю их локально, правлю пропорции в 3D-редакторе, отрезаю и удаляю лишнее, после чего снова отправляю модель в студию Hunyuan. Там разбиваю её на части и генерирую low-poly-версию.

1766751524925.jpg

С low-poly-моделью, на самом деле, всё не так гладко. Модель можно и нужно дорабатывать, оптимизировать сетку, но этот шаг я практически пропустил. Ниже станет понятно, о чём идёт речь: сетка получается неравномерной, местами она «уезжает» мимо исходной формы.Ретопологию нейронки пока делают очень плохо. То же самое касается и UV-развёртки. Это именно тот этап, где вам придётся засучить рукава и погрузиться в ручную работу.

1766751837709.jpg

И на этом, к сожалению, магия нейронных сетей пока заканчивается. Да, можно пройти весь путь от концепта до low-poly, используя только нейронки, но на выходе вы, скорее всего, получите разочаровывающий результат: потянутые текстуры, непонятный PBR, белые пятна, текстуры мимо сетки и прочие радости. Поэтому открываем RizomUV, разворачиваем модель, закидываем её в Substance 3D Painter и начинаем красить вручную.
В итоге, несмотря на то что технология всё ещё очень сырая, для производства прототипов — и не только — её можно и нужно применять. Да, вы, скорее всего, потеряете в качестве и получите результат, отличающийся в деталях от первоначальной задумки, но взамен получите больше контента за меньшее время и, как следствие, сэкономите деньги.


Результат проделанной работы прилагается.


681 0 850 9
17
2026-01-23
Это правильный подход к использованию нейронок. Их нужно использовать как вспомогательный инструмент, а не как основной.
2026-01-23
Все логично, как генератору концептов нейронкам цены нет. Все остальное все равно придется делать самому.
2026-01-23
концепт генерится из чужих нагенеренных моделей?
2026-01-23
Я уже вовсю пользуюсь нейронками для прототипирования по фотографиям. По многим интересным деталям добрые продавцы или старьёвщики выкладывают хорошие, годные сеты фотографий каждой гайки - грех не воспользоваться.
2026-01-23
Примерно так же работают альбом для рисования и канардаш
2026-01-24
Автор забыл упомянуть, что использование ИИ не совсем бесплатное, есть ограничения серьезные. Чтобы получить приемлемый результат, придется хорошенько раскошелиться, так что не о какой экономии средств речи не идет.
2026-01-24
Владимир Козлов (VladimirKP)Автор забыл упомянуть, что использование ИИ не совсем бесплатное, есть ограничения серьезные. Чтобы получить приемлемый результат, придется хорошенько раскошелиться, так что не о какой экономии средств речи не идет.

Владимир, вы не совсем правы. Я просто приведу пример основанный на своём опыте. Наша компания использует видео рекламму на TV, Fаcebook, Inctagram. Знаете сколько человек задействанно в производстве короткого клипа. Фотограф, фотомодель, Специалист который всё сведёт в After Effects. Часто компания использует фрилансе. Все на почасовой оплате. Как минимум 60 долларов в час.
Уходит день-два а может и больше. Как вы думаете сколько в итоге получается?
Как альтернатива я делаю рекламный ролик за вечер на это тратится кредитов на 15-20 долларов. При этом я сотрудник компании я работаю на ставке. Как вы думаете это экономия средств для компании?
2026-01-25
Владимир Козлов (VladimirKP)Автор забыл упомянуть, что использование ИИ не совсем бесплатное, есть ограничения серьезные. Чтобы получить приемлемый результат, придется хорошенько раскошелиться, так что не о какой экономии средств речи не идет.

не согласен с вами. Из платного, тут только миджорни (у меня тариф на 30 баксов, на месяц для всего хватает), который можно заменить на флакс или ZIT скажем под InvokeAI, первая картинка частично в нем и делалась + лоры. Нано банана тут использовалась бесплатная через гугл студию (тоже в день крутить не перекрутить), 3д генерация тоже бесплатная (там в сутки 30 кредитов дается, на 3-4 модели нормальных хватает, если что, можно завести новый ак и дальше продолжить). Больше скажу, можно локально все это приемлемого качества развернуть, я многие вещи делаю не пользуясь онлайн сервисами вовсе. ComfyUI в помощь. Я недавно делал прототип игры, использовал курсор аи, он платный (20 баксов в месяц), вчера заморочился и собрал то же самое практически, на визуал студио коде с континуе и моделью от али бабы, понятно, что меньше контекста и не с первого раза отдупляет бывает, но совершенно бесплатно.
2026-01-25
Алексей Копаевконцепт генерится из чужих нагенеренных моделей?

Во многом да, модели на чем то обучались, да и рефы все равно собираешь на всяких арт станциях да пинах. Из плюсов, можно комбинировать стили и лоры, тогда от части что то относительно новое получается. Надеюсь правильно вопрос понял.
2026-01-25
ValdicИз плюсов, можно комбинировать стили и лоры, тогда от части что то относительно новое получается.

ЛоРы сами тренеруете или пользуетесь готовыми?
2026-01-25
Valdic
совершенно бесплатно.

Какие волшебные слова. Бесплатно но есть нюанс, если глубоко копнуть. Во первых некоторые сервисы не доступны для пользователей из РФ, это проблема так как ограничения становятся жестче. Проблема 2 гораздо серьезнее так как пользователь переводит деньги зарубеж, а в нынешней ситуации некоторые транзакции могут быть с риском для бизнеса и для конкретного пользователя. Вряд ли инвесторы вкладывающие миллиарды в развитие ИИ, делают это из альтруистских побуждений.
2026-01-25
Александр Платонычев
Как альтернатива я делаю рекламный ролик за вечер на это тратится кредитов на 15-20 долларов. При этом я сотрудник компании я работаю на ставке. Как вы думаете это экономия средств для компании?
Вы молодец экономите деньги компании. Пока это не станет стандартом время-результат. С другой стороны это понимают и будут поднимать стоимость генерации, инвестору ИИ тоже нужен результат :) Это как коммуналка будет расти постоянно и бесконечно.
2026-01-25
Владимир Козлов (VladimirKP) Вы молодец экономите деньги компании. Пока это не станет стандартом время-результат. С другой стороны это понимают и будут поднимать стоимость генерации, инвестору ИИ тоже нужен результат :) Это как коммуналка будет расти постоянно и бесконечно.

Я писал об этом несколько раз, мне видится два пути развития ситуации. Крупные компании начнут поглощать ИИ start up's обложат их судебными процессами. Им придётся идти на это. Через какоето время всё наши любимае программы которыми мы сейчас пользуемся станут генератоми ИИ контента, как сейчас становиться Photoshop.

Второй путь который мне кажется мало вероятным, но мозможным, первенство перейдёт к генеративным платформам.


С оплатой генерации, сейчас просто неразбериха из за взрывоподобного появления и непредсказуемого развития.
Надеюсь что всё стабилизируется.
2026-01-26
Алексей Копаевконцепт генерится из чужих нагенеренных моделей?
Есть один нюанс) Человек также абсолютно никогда не создаёт что-либо с нуля) такой вот казус правды жизни)
2026-01-26
Владимир Козлов (VladimirKP)
Какие волшебные слова. Бесплатно но есть нюанс, если глубоко копнуть. Во первых некоторые сервисы не доступны для пользователей из РФ, это проблема так как ограничения становятся жестче. Проблема 2 гораздо серьезнее так как пользователь переводит деньги зарубеж, а в нынешней ситуации некоторые транзакции могут быть с риском для бизнеса и для конкретного пользователя. Вряд ли инвесторы вкладывающие миллиарды в развитие ИИ, делают это из альтруистских побуждений.
Я вас немного не понимаю. Сервисы в статье доступны с территории России кроме гугл студии, ее можно заменить на qwen сделает тоже самое. И о каких переводах денег вы говорите, когда это бесплатно? Разверните ComfyUI, соберите нужные вам рабочие процессы, и вам даже сеть не нужна будет. Мне кажется вы не ищите решений, просто сопротивляетесь тому, что происходит.
2026-01-26
От себя еще добавлю, процесс идет, ИИ никуда уже не денутся, для нас как для людей, которые в этом варятся выбора по сути нет, пользоваться или не пользоваться, уже нет этого выбора. Все понимают, к чему это ведет, джунов не станет рано или поздно, соответственно специалистам не из кого произрастать, спецы вымрут, останутся только нейронки, и те компании которые владеют нейронками, займут весь рынок и навяжут свою ценовую политику. Для нас выход только один, изучать этот инструмент и использовать, в надежде продержаться на плаву еще несколько лет.
Но как в свое время было с 3д софтом, макс, мая и тд, платный софт, лицензии и пр., и тут же появился блендер который открыт и бесплатен, то есть надежда на то, что и модели с открытым исходным кодом будут развиваться, и мы сможем благодаря этому остаться в строю. Я это для себя понял, осознал, и ушел в изучение данных инструментов, опять таки в надежде хоть как то влиять на то, что происходит сейчас. Либо вы в струе, либо за бортом в ближайшем будущем.
2026-01-26
ValdicОт себя еще добавлю, процесс идет, ИИ никуда уже не денутся, для нас как для людей, которые в этом варятся выбора по сути нет, пользоваться или не пользоваться, уже нет этого выбора. Все понимают, к чему это ведет, джунов не станет рано или поздно, соответственно специалистам не из кого произрастать, спецы вымрут, останутся только нейронки, и те компании которые владеют нейронками, займут весь рынок и навяжут свою ценовую политику. Для нас выход только один, изучать этот инструмент и использовать, в надежде продержаться на плаву еще несколько лет.
Но как в свое время было с 3д софтом, макс, мая и тд, платный софт, лицензии и пр., и тут же появился блендер который открыт и бесплатен, то есть надежда на то, что и модели с открытым исходным кодом будут развиваться, и мы сможем благодаря этому остаться в строю. Я это для себя понял, осознал, и ушел в изучение данных инструментов, опять таки в надежде хоть как то влиять на то, что происходит сейчас. Либо вы в струе, либо за бортом в ближайшем будущем.

динозавры точно так же думали когда метеорит размером с луну на голову летел. стояли терпели думали что приспособятся
RENDER.RU