Dinamixyz представили ИИ-систему безмаркерной лицевой анимации

Разработчики из Dynamixyz в сотрудничестве с Pixelgun Studios успешно протестировали алгоритм на основе машинного обучения Performer, предназначенный для создания безмаркерной лицевой анимации из предварительно отсканированных снимков. Алгоритм также опробован в Maya.

1050665-dynamixyz-and-pixelgun-studios-introduce-scan-based-facial-animation.jpg

В демо-ролике представлено "доказательство технологического новшества", позволяющего создать цифрового дублера актера с высокой степенью точности проработки благодаря объединению технологии захвата движений (motion + capture = mocap или мокап) и машинных алгоритмов их запоминания и распознавания. В процессе работы приложения автоматически извлекаются ключевые кадры из сканов, которые затем накладываются на риг в соответствии с заложенной логикой.

Внутри безмаркерной мокап-технологии Performer'а заложена логика машинного обучения для эффективной работы которой, требуется соблюдение двух важных этапов:
  • построение модели отслеживания (Tracking Profile) — заключается в том, чтобы вручную отметить ключевые положения актера (в видеоисточнике), которые будут использоваться в качестве исходной выборки на входе софта. По времени занимает 2—3 часа.
  • построение модели наложения (Retargeting Profile) — на данном этапе аниматор подстраивает элементы управления в редакторе так, чтобы выбранные ключевые позы накладывались на нужный риг персонажа. Выполняется также вручную, но занимает меньше времени. В дальнейшем благодаря машинному обучению процесс автоматизируется, позволяя переносить мокап на любой риг любого персонажа.

Чтобы сэкономить художникам часы драгоценного времени, разработчики Dynamixyz решили натренировать систему на основе громадной коллекции образов лицевой анимации, охватывающих 80 различных выражений и полученных методов фотограмметрии студией Pixelgun Studio. Также учтена вся геометрия и текстуры, такие как морщины и индивидуальные черты лица.

Полностью исключить вмешательство человека не удалось, так как помимо количества технических средств (использовались 63 камеры для захвата лицевой и 145 камер для телесной анимации), важно освещение. Необходимо было вручную отметить 2—3 кадра из съемочной серии для получения шаблона освещения. Итого, входная выборка, использовавшаяся командой Dynamixyz для тренировки машинного алгоритма, позволила синтезировать цифрового двойника с корректным освещением и извлечением ключевых поз, как если бы это были кадры мокапа, записанные с применением экзокостюма и специального шлема.

1050665-image1.jpg

“Результат процедурной анимации практически идентичен мокап-анимации, что позволило нам построить модель отслеживания (tracking profile) для Performer, как если бы для этого мы вручную размечали исходное видео,” — пояснил разработчик ИИ-алгоритма Винсент Барриэль (Vincent Barrielle). — “Алгоритм позволяет добиться высокой точности, так как он натренирован на высококачественных сканах. Также в нем заложена возможность синтеза большого разнообразия выражений и эмоций.”

Полученная технология безмаркерного распознавания 3D-сканов устраняет необходимость ручного труда, зачастую подверженного ошибкам, а синтезируемые на ее основе выражения лица отличаются высокой точностью благодаря дополнительным данным об уникальных чертах лица актера.

1050665-image2.jpg

Применение ИИ-системы в риггинге Maya


Dynamixyz решили на практике применить наработки и натренировать алгоритм не только на распознавание образов, но и системы ригов. Для этого разработчики сделали систему, которая экспортирует и воспроизводит вычислительный граф логики ригов и дублирует все типы нодов в системе Dynamixyz для создания модели.

“Мы можем извлекать данные ригов из сцены Maya и на основе этой выборки натренировать кастомную модель, распознающую риги”, — добавил Барриэль. “На практике уже сейчас можно создавать цифровых клонов в точности копирующих движения актеров. В будущем можно полностью перенести этот процесс на распознавание ригов различных персонажей, не важно антропоморфных или нет, поскольку алгоритм теперь знает все степени свободы рига и может задавать корректные настройки для синтеза заданного выражения."

1050665-image3.jpg

Демонстрация извлечения логики работы рига

А для удобства работы с ригами в Maya предусмотрены специальные пикеры, реализованные в виде бесплатных плагинов.

720 0 850 6
17
2019-08-16
осталось настроить трекинг языка на определенные звуки букв, и будет супер
2019-08-16
когда уже ИИ просто начнёт генерить готовый контент. Зачем эти переходы?

приходишь вечером домой, телевизор включается и ИИ начинает генерить фильм в реальном времени основанный на твоих предпочтениях на сегодня... хотя зачем приходить домой, ты из него и не выходил... и кино смотришь без перерыва... и кажется тебе что это и есть твоя жизнь... где-то это уже было...
2019-08-17
пройдет лет 10 и наконец добавят кнопку "сделать красиво"))
2019-08-17
Ну вот, аниматорам и ригерам скоро придется искать новую работу.
2019-08-17
Константин, да так говорили тоже самое когда мода пошла на мокап анимацию, ан нет, аниматоры до сих пор очень нужны
2019-08-17
в каких то узких кругах будет использоваться это, скорее всего из за цены...
2019-08-17
Семен, кстати у даза есть подобная фича
2019-08-17
И она не работает
2019-08-18
Константин, анимация не ограничивается лицами и телом. аниматор вообще может проанимировать что угодно...
2019-08-18
Я это к тому, что количество рабочих мест в индустрии будет стремительно уменьшаться.
2019-08-18
Константин, навряд ли... все эти лицевые риги по большей части нахрен никому не вперлись, очень узкоспециализированная вещь. ну кроме мультяшек может быть... а народу грамотного реально не хватает, с чего бы им уменьшатся? но в целом я согласен, такие фишки реально облегчают жизнь парням...
2019-08-18
Константин ВершаловичНу вот, аниматорам и ригерам скоро придется искать новую работу.

Что поделаешь - научно-технический прогресс неостановим (ну разве что в случае глобального катаклизма, но это маловероятно), и поэтому нужно постоянно развиваться, поддерживать свои навыки в актуальном состоянии. Даже то, чему учили лет 5-10-15 назад в сфере CG, постепенно теряет актуальность, и уроки того периода можно смело удалять, так как там устаревшие малоэффективные техники, старые инструменты, и такие же старые стандарты.

Так что, проблемы по-сути и нет, разве что только для очень ленивых и "консервативных" людей.
2019-08-19
MrLexxoRучили лет 5-10-15 назад в сфере CG, постепенно теряет актуальность

Да всё тоже самое осталось. Все базовые принципы те же самые. Полигоны, кости, кривые, графики и т.д.. Только вот грамотных сотрудников найти - проблема. Хотя бы с навыками актуальными 10 лет назад. И опытом.
2019-08-19
Похвально, что ведут разработки - молодцы! Для некоторых сфер к крупных игровых компаниях будет полезно. Но...
Актер + mocap + машинные алгоритмы запоминания...
Потом: ключевые кадры + риг в соответствии с заложенной логикой.
Tracking Profile + ручная доводка, Retargeting Profile + и тоже ручная доводка.
Не проще нанять опытного аниматора?) В сотни раз больше вариативности и уникальности анимации. Ну и сотни раз дешевле. И не факт что дольше по итогу).
2019-08-19
Константин, навряд ли...

Согласен, ближайшие недели переживать не стоит.
Хочется напомнить о том что заявления "Это невозможно никогда" держаться примерно 5-7 лет в сфере ИИ.

Где эти люди который давали клятвы что компьютер никогда не выиграет у человека в шахматы? Я хочу призвать их к покаянию! На колени!

Дмитрий Сказка, вы тоже далеко не отходите, оставайтесь в поле зрения. Нам понадобятся точки концентрации нашей ненависти когда мы начнём терять работу.
2019-08-21
никакие роботы никого не заменят, это просто новый инструмент для аниматоров, олбегчающий им жизнь. ну а если человеку лень учиться, приспосабливаться и использовать новые инструменты, то это уже его проблемы
2019-08-22
Danila Masalovникакие роботы никого не заменят, это просто новый инструмент для аниматоров, олбегчающий им жизнь. ну а если человеку лень учиться, приспосабливаться и использовать новые инструменты, то это уже его проблемы

Вы сами прочитайте, что пишите, облегчат жизнь, облегчая они сократят количество мест, специалистов нужно будет меньше. Какие учиться и приспосабливаться? Заводы полностью автоматизируют, роботы собирают машины, там вместо 10 000 рабочих, нужны 50 человек на обслуживание и 40 на остальные нужны, вот и все. Куда им приспосабливаться было? В них просто отпала нужда, потому, что автоматизировали процесс где нужны были люди. Да аниматоры всегда будут нужны, но уже не 50 000 аниматоров, а 1000, чувствуете разницу? Все это уже было с заводами.
RENDER.RU