Нейронные сети в быту игродела
Как раньше, в эпоху до нейронных сетей, строился рабочий процесс в игрострое, а конкретно — в производстве контента?Отдел геймдизайна писал 10-страничный документ, в котором прорабатывалось ядро будущего проекта. Документ отдавался на вычитку всем причастным, идея одобрялась — и начиналась детальная проработка. Арт-директор получал описание мира, персонажей и т. д., разбивал всё на части, PM заводил таски — и процесс запускался.2D-художники прорабатывали концепты, 3D-моделлеры (если игра 3D) делали окружение, пропсы, персонажей. На проработку одного концепта персонажа уходила неделя и больше, производство 3D-модели занимало от нескольких недель до нескольких месяцев — и неважно, был ли это персонаж для финальной игры или для прототипов и фейк-шотов.
Что же изменилось с приходом нейронных сетей? Если кратко — время и отношение к качеству. Фейк-шоты сегодня практически полностью уходят на откуп нейронкам вроде Sora.
С играми и прототипами история немного другая. Уже начиная с 10-страничного геймдока и далее, нейронные сети плотно внедрились в рабочий процесс. Проработка базового документа, разбивка на задачи, описание мира и окружения — всё это сейчас во многом работа LLM-моделей. Но так как меня больше интересует визуальная сторона проекта, дальше речь пойдёт о тех нейронках, с которыми работают художники и 3D-моделлеры. Я пройдусь, так сказать, по верхам и попробую выстроить рабочий процесс на примере одной модели.
Есть в закромах концепт игры — пошаговая тактика в киберпанковском мире девочек и боевых роботов-мехов. Всё действие происходит на улицах некоего мегасити, где разборки между группировками идут с использованием больших управляемых мехов. Идея не новая, поэтому заострять на ней внимание не будем. В первую очередь нас интересует главный герой, а в нашем случае — это те самые роботы. Их нужно сделать в достаточно большом количестве, желательно быстро и недорого, так как речь идёт о прототипе, и бюджета на него пока нет.
Первым делом идём на ArtStation или вооружаемся «булавочками» и собираем для себя базу референсов: роботы, киберпанк, девочки и т. д. Закидываем всё это добро в условный Midjourney — и на выходе получаем некий концепт, удобоваримый и дающий общее понимание того, с чем будем работать дальше. За пару часов можно получить такое количество вариаций, что смотреть — не пересмотреть. Здесь нас интересует именно количество и набор идей. Выбираем более-менее удачный вариант, возможно, слегка допиливаем его, но без фанатизма.
Далее в работу вступает Nano Banana или Qwen — на ваш вкус. Задача — получить удобоваримый шаблон для 3D-генераций. Мы переводим изображение в сермат и разбиваем его на составные части: руки, тело, ноги — всё отдельно, чтобы нейронки лучше понимали форму и выдавали более высокую детализацию.В идеале для следующего шага понадобится 3–4 вида каждого элемента с разных сторон: спереди, сзади, сбоку.
Звучит всё это, конечно, неплохо и на первый взгляд даже выглядит хорошо, но есть здесь ложка дёгтя. За скорость, доступность и простоту вы расплачиваетесь потерей контекста. Каждое последующее изображение или генерация 3D-модели будет либо менять, либо терять что-то из первоначальной задумки. Форма меняется постепенно, не критично, но к концу работы количество изменений становится существенным. Здесь нужно быть готовым либо пойти на сделку с совестью и оставить как есть, либо начинать править каждый этап вручную.
А мы продолжаем.
Для 3D-генераций сейчас существует множество сервисов. В данном случае я использовал сервис от Hunyuan — он хорошо справляется с твёрдотельными поверхностями. На их официальной странице есть студия, которая позволяет пройти весь путь от концепта до low-poly-модели. Я загружаю туда полученные изображения, получаю high-poly-модели, выгружаю их локально, правлю пропорции в 3D-редакторе, отрезаю и удаляю лишнее, после чего снова отправляю модель в студию Hunyuan. Там разбиваю её на части и генерирую low-poly-версию.
С low-poly-моделью, на самом деле, всё не так гладко. Модель можно и нужно дорабатывать, оптимизировать сетку, но этот шаг я практически пропустил. Ниже станет понятно, о чём идёт речь: сетка получается неравномерной, местами она «уезжает» мимо исходной формы.Ретопологию нейронки пока делают очень плохо. То же самое касается и UV-развёртки. Это именно тот этап, где вам придётся засучить рукава и погрузиться в ручную работу.
И на этом, к сожалению, магия нейронных сетей пока заканчивается. Да, можно пройти весь путь от концепта до low-poly, используя только нейронки, но на выходе вы, скорее всего, получите разочаровывающий результат: потянутые текстуры, непонятный PBR, белые пятна, текстуры мимо сетки и прочие радости. Поэтому открываем RizomUV, разворачиваем модель, закидываем её в Substance 3D Painter и начинаем красить вручную.
В итоге, несмотря на то что технология всё ещё очень сырая, для производства прототипов — и не только — её можно и нужно применять. Да, вы, скорее всего, потеряете в качестве и получите результат, отличающийся в деталях от первоначальной задумки, но взамен получите больше контента за меньшее время и, как следствие, сэкономите деньги.
Результат проделанной работы прилагается.