Making Of "Шах и Мат"

Добрый день.

Меня зовут Владимир Таукчи. Я работаю в сфере 3D-графики, специализируюсь на производстве анимационных фильмов и рекламных роликов. В последние годы всё больше занимаюсь игровыми проектами и аутсорсингом в геймдеве.

Недавно я стал отцом, и чтобы занять себя «на дежурстве», решил глубже изучить возможности нейросетей в создании изображений, видео и 3D-моделей. Серьёзный интерес к этой теме появился после того, как я увидел работу Ксении Галушкиной, в которой она использовала связку ChatGPT + Hunyuan 2.5 + Unreal Engine 5 + Photoshop.

1.jpg

.
Конкретной идеи не было — хотелось создать более-менее массовую сцену, где все объекты полностью сгенерированы ИИ. Я планировал доработать материалы, свет и анимацию в Unreal Engine, чтобы посмотреть, как нейросети могут вписаться в полноценный 3D-пайплайн.

В качестве концепта выбрал шахматную доску — подумал, что геометрия фигур достаточно понятная для генерации, но при этом оставляет место для визуального разнообразия и креатива.

2.jpg

Второстепенной задачей было собрать всю 3D-композицию на маломощном ноутбуке, «на коленках», и принципиально не использовать привычные инструменты вроде Maya, Substance Painter или Photoshop — только бесплатный софт.

До этапа сборки в Unreal всё шло гладко, но сам Unreal Engine, особенно при работе со сценой и рендерингом, оказался более требовательным к ресурсам. На этом этапе пришлось пересесть на ПК.

3.jpg

Выбор инструментов и генераторов

Из всех протестированных ИИ-сервисов важным критерием для меня была возможность бесплатного использования, пусть и с ограничениями. В результате я остановился на трёх инструментах:
  • ChatGPT — использовался для формулировки идей и генерации точных промтов.
  • Gemini — оказался оптимальным генератором изображений: удобный, даёт хорошие результаты и щедрый лимит на бесплатную генерацию.
  • Hunyuan 2.5 — основной инструмент для создания 3D-моделей. До знакомства с ним я не использовал генерацию 3D через ИИ вообще. Но Hunyuan 2.5 стал настоящим открытием — невероятно простой и эффективный инструмент для получения базовых high-poly моделей.

Создание промтов и генерация 2D-концептов

Для генерации изображений я использовал связку ChatGPT + Gemini. Просто описывал желаемый результат GPT как можно подробнее, указывая ключевые элементы — от формы до настроения.

4.jpg

GPT формировал детальный промт, который я вставлял в Gemini и генерировал по 3–4 варианта. Если результат не устраивал — возвращался в GPT, уточнял промт: «убери меч», «добавь корону», «замени материал» и т.п.

5.jpg

Когда удавалось добиться нужного результата, я масштабировал процесс: использовал один базовый промт и просто просил GPT заменить, например, «короля» на «ферзя», «ладью», «слона» и т.д. Чаще всего это работало корректно, иногда приходилось дорабатывать промт более точно. Gemini хорошо справлялся с правками и выдавал понятные, выразительные концепты.

Генерация 3D-моделей в Hunyuan 2.5

С генерацией 3D всё оказалось просто: без дополнительных настроек я загружал финальную картинку, нажимал Generate — и получал готовую high-poly модель с автоматически развернутыми UV и базовыми текстурами. Да, качество было ниже, чем у оригинального 2D-концепта, но этого вполне хватало для моего эксперимента. Таким образом, я собрал порядка 30 уникальных 2D-эскизов шахматных фигур, слегка обработал их в GIMP (выровнял тональность), а потом получил из них полноценные 3D-модели.

6.jpg

Сборка сцены в Unreal Engine

Unreal Engine я изучаю по мере возможности, поэтому на этом этапе всё шло методом проб и ошибок. Я импортировал модели, кое-как настроил шейдеры, освещение, добавил несколько эффектов и сделал анимацию камеры. Ничего сложного, но это дало полное представление о том, как быстро можно перейти от генерации в ИИ к живому 3D-прототипу в игровом движке.

7.jpg

Заключение

Работа с ИИ — это, как мне кажется, уже не инструмент будущего, а буквально инструмент сегодняшнего дня. Да, сгенерированные модели, UV и текстуры пока далеки от идеала и требуют доработки вручную. Но скорость, с которой можно пройти путь от идеи до собранной сцены, впечатляет.
Важно понимать: уже завтра ИИ сможет делать это ещё лучше и быстрее. Спасибо за внимание.

P.S.
Небольшой лайфхак для более детального «отпечатка» в Hunyuan 2.5: Концепт в Photoshop можно разделить на части и увеличить каждую из них до полного размера файла. У меня это был размер 2048×2048. Да и Hunyuan умеет в лоу-поли ;)

8.jpg

653 0 850 2
1
2026-01-20
Хорошая, интересная и полезная, информация!
Спасибо!
RENDER.RU