1. Пользоваться форумом на планшетах и телефонах стало удобнее благодаря Tapatalk

полная сборка персонажа для motion capture

Тема в разделе "Анимация", создана пользователем Маргадон, 21 авг 2008.

Модераторы: Артер
  1. Маргадон

    Маргадон Пользователь сайта

    С нами с:
    21.04.2006
    Сообщения:
    25
    Симпатии:
    0
    Баллы:
    2
    Уважаемые форумчане, доброго времени суток!
    Есть вопрос по сборке и оснащению персонажа. Каким образом делается подготовка для motion-capture? Я имею в виду следующее:
    есть персонаж, движения которого, а также лицевая анимация закапчурены. Создаем кости и риг для тела и для головы. Полученные файлы движений накладываются одновременно на всю сетку или требуется отделение головы, а потом приаттачивание обратно уже с лицевой анимацией, как в случае с морфингом?
     
  2. alех

    alех Знаток

    С нами с:
    22.07.2005
    Сообщения:
    370
    Симпатии:
    1
    Баллы:
    69
    ни дыры не знаю про капчур но интересно. как я понимаю у тебя куча так скажем пустышек которые повторяют траекторию меток на реальном челе. Тогда по идее есть пустышки лицевых мышц которые приатачены к пустышке башки. соотвесно пустышка башки атачится к пустышкам тела. В свою очередь к пустышкам атачатся кости. Эт я так себе это предсавляю если чё. )
     
  3. Максим Поклонов

    Максим Поклонов Мастер

    С нами с:
    07.07.2006
    Сообщения:
    305
    Симпатии:
    0
    Баллы:
    459
    Да, тема довольно обширная, даже и не представляю, кто может отважиться описать ее в форуме. Ну а по анимации головы могу предложить как минимум два варианта. Деттачим голову от меша, назначаем этой голове модификатор Morpher, затем Edit Poly в нем приаттачиваем голову обратно и Weld-ом склеиваем все точки назад. Таким образом, для морфинга нужно будет скопировать не весь меш, а только голову. Второй способ мне кажется наиболее рабочим, я пользуюсь им довольно давно. Заключается он в следующем. Делаем копию головы, причем желательно, чтобы копия была низко полигональной. Смещать копию относительно оригинала нежелательно. Должна получиться голова, точно размещенная внутри цельного меша. А дальше все просто. Оригинальный меш мы можем сглаживать сколь нашей душе угодно, но копию головы не трогаем, это у нас будет "драйвер" для анимации мимики. К мешу применяем модификатор Skin Wrap и в качестве деформера указываем драйвер. Драйвер скинится на тот же скелет, плюс имеет систему лицевых костей. По мимике работаем только с драйвером, а драйвер, через скинрэп передаёт деформацию уже на меш.
    Плюсов у этого способа довольно много, один из них в том, что скинить лоу поли намного проще и соответственно работать по анимации тоже. Еще один плюс, в том, что я могу отнести управление мимикой, вообще в другой файл макса, (на самом деле это довольно удобно, нужно лишь немного практики открываем два макса и вперед в одном делаем мимику в другом все остальное). А реализовывается это так. На драйвере в сцене у меня вместо системы лицевых костей, на верху стека, модификатор Point Cache. В него я загружаю анимацию сделанную в другом файле. А в другом файле у меня копия этого дрвайвера, оснащенная полностью всем арсеналом лицевых костей, вплоть до мокапа. В нем я делаю анимацию, мимики, глядя на файл сцены в другом открытом максе. Потом сохраняю мимику в поинт кэш и отправляю ее в файл сцены. Немного поупражнявшись, я даже научился монтировать разные поинт кеш файлы на драйвер сцены и плавно монтировать их в разные последовательности. Здесь в подробности вдаваться не буду, одно скажу, для каждого поинт кэш файла надо добавлять новый поинт кэш модификатор и анимировать параметры, следующего модификатора так чтобы он перекрывал предыдущий и поигрывал свою часть анимации.
    Надеюсь не сильно запарил мозги, на практике это не сильно сложно.
     
  4. alех

    alех Знаток

    С нами с:
    22.07.2005
    Сообщения:
    370
    Симпатии:
    1
    Баллы:
    69
    ну почему всё вроде панятно, хотя я не в максе сижу а в ксях там в общемто есть интрументы для микса анимации.
     
  5. Владимир Абрамов 43592

    Владимир Абрамов 43592 Активный участник

    С нами с:
    19.05.2007
    Сообщения:
    289
    Симпатии:
    0
    Баллы:
    14
  6. Максим Поклонов

    Максим Поклонов Мастер

    С нами с:
    07.07.2006
    Сообщения:
    305
    Симпатии:
    0
    Баллы:
    459
    Ахилес, этот урок не объясняет как оснащать персонажа для такой анимации. Более того сам автор пишет, что работа в 3D пакете это уже не совсем его компетенция. Конечно есть способ передать информацию с облака точек, которое получается в результете этого урока, на скелет, но это уже тема для большго и не очень простого урока. Будет время, может напишу как нибудь... Но я не очень уверен, что такой способ будет проще чем анимация в ручную. Натройка кучи джоинтов, на поинт клоуд займет много времени, так что надо иметь весткую причину делать кэпчур таким способом.
     
  7. Remark

    Remark Пользователь сайта

    С нами с:
    11.01.2006
    Сообщения:
    9
    Симпатии:
    0
    Баллы:
    2
    Максим такая веская причина есть:
    Допустим мы имеем технологию, которая позволяет получать это самое облако точек, таким образом "Настроив кучу джоинтов, на поинт клоуд" один раз, проверив как это работает и утвердив положение каждой точки (маркера) мы получаем сносную технологию анимации персонажа, которую можно использовать сколь угодно много количество раз.
    Уж так нам россиянам не повезло, что мы не имеем доступа к "железному" Мокапу, у которого на выходе стандартные файлы bvh, fbx которые подключай хоть куда и используй. Ну, а если кто возьмётся написать программу, скрипт, плагин, который бы обеспечивал трансфер между облаком точек и стандартным файлом движения... Тому вообще можно при жизни памятник поставить. Ну кстати попытки есть: тот же самый Visualmarker, который на входе имеет видео с несколькоих камер, а на выходе сохраняет файл bvh (ну правда между входом и выходом часы ручной работы) и из лицевой анимации Zign_Track, который тречит только в 2D и сохраняет bvh и этого достаточно чтобы получать сносные лицевые анимации. Ну и конечно как не похвалить парней из Натуральной точки: http://www.naturalpoint.com/optitrack/ которые сделали Mocap что называется из подручных средств: скоростные камеры+софт на выходе которого также получаются стандартные файлы движения.
    Так что Максим, если владеете информацией - потратьте неделю и передайте эстафету другим людям, которые возьмут это знание, поратят может быть полгода, но разовьют его во что нибудь путёвое...
     
  8. Максим Поклонов

    Максим Поклонов Мастер

    С нами с:
    07.07.2006
    Сообщения:
    305
    Симпатии:
    0
    Баллы:
    459
    Да как сделаешь транфер, да никак. Это надо или сразу при мокапе делать или без транфера, аналоговым, так сказать путем. Суть способа проста, на поинт клоуд налепляется скелет из стандартных костей, собранный на Position Constraint и Look At конроллерах, потом делается обычный Bone Mapping в CAT. Я в САТ работаю. То есть движение костей копируется на скелет. Короче у меня мало свободного времени... я постараюсь выбрать время, напишу что-то типа урока.
     
  9. Remark

    Remark Пользователь сайта

    С нами с:
    11.01.2006
    Сообщения:
    9
    Симпатии:
    0
    Баллы:
    2
    Заранее тебе спасибо, добрый человек!
    Будем ждать урока, мне кажется он очень актуален.
    Большинство тем по 3D раскрыты, везде лежат уроки, а в этой теме я наблюдаю какой то вакуум.
    Ну а раз есть вакуум, рано или поздно его кто нибудь заполнит.
    Кстати я отписал Бондаренкам - может подключатся к этой теме.
    Напиши плииз в личку когда что нибудь получится.
     
  10. Максим Поклонов

    Максим Поклонов Мастер

    С нами с:
    07.07.2006
    Сообщения:
    305
    Симпатии:
    0
    Баллы:
    459
    Да я сам лбом пробивал тему скелетного и лицевого мокапа. Главно дело никто не хочет делиться опытом, во всем бескрайнем море информации изредка попадаются статьи отдельных доморощенных кулибиных с весьма ограниченными и в основном бесполезными приемами анимации.
    Однако настоящие профессионалы тихонько сидят в своих уютных норках и иногда продают свои технологии, устаревшие как минимум поколения на два.
    Скелетный мокап мне ни разу не пригодился. Честно говоря в ручную делать анимацию не на много сложнее. Если есть необходимость в точном движении я делаю съемку на камеру, запихиваю в комп и потом если надо, то буквально покадрово делаю анимацию, глядя на динамику движения на видео. А вот лицевой юзаю на полном ходу, правда, технологию открывать не буду пока. А причина простая, моя разработка позволяет делать мокап вообще без каких либо посторонних программ и плагинов. Чисто макс, причем любой версии. Используется по хитрому построенная система головных и лицевых костей и макс скрипт для управления доводкой анимации. Способ хорош тем, что используется всего одна фронтальная камера, но при этом можно легко хватать не очень активные повороты и наклоны головы.
    Технология позволяет делать мокап не особо играя перед камерой, а потом доводить мимику и выражения лица до нужного результата уже после мокапа. Такую технологию которая не требует вообще ни каких затрат ни на доп софт, ни на железо, сразу схавают небольшие игровые студии, а если немного доработать трансфер анимации то можно использовать более продвинутые и быстрые кэпчуры типа бужу или мэчмувер, тогда значительно убавится ручной труд и технологию запросто возьмут на вооружение более серьезные студии, и будут колбасить на этом деньги, Ну а поскольку разработка моя, то я придержу ее пока.
    А на тему скелетного мокапа постараюсь выбрать время, там ничего придуманного мной нету, так что чего нибудь начертаю.
     
  11. Максим Поклонов

    Максим Поклонов Мастер

    С нами с:
    07.07.2006
    Сообщения:
    305
    Симпатии:
    0
    Баллы:
    459
  12. Маргадон

    Маргадон Пользователь сайта

    С нами с:
    21.04.2006
    Сообщения:
    25
    Симпатии:
    0
    Баллы:
    2
    Вот спасибо большое! Теперь я счастлив, что мне так подробно и доходчиво все объяснили :)
     
Модераторы: Артер

Поделиться этой страницей