SIGGRAPH 2018 или CG на берегу океана

12-16 августа в Ванкувере проходил очередной SIGGRAPH (Special Interest Group on Computer GRAPHics and Interactive Techniques). После пятилетнего перерыва мне снова посчастливилось на нем побывать. Тем более, что проходил он в этом году в Ванкувере – городе потрясающей красоты, стоящем на берегу океана. Сама конференция также расположилась прямо на берегу, в двух корпусах Vancouver Conventional Center. Так что в перерывах между забегами по стендам и лекциям можно было пообедать с видом на море под крики чаек. После жаркого бетонного Лос-Анжелеса это был потрясающе красивый и уютный Сигграф.

В целом можно описать его двумя фразами: «Все в облако!» и «Все на GPU!». Тема искусственного интеллекта также была широко представлена везде, но без особой истерики по поводу того, что мы все останемся без работы. Рассматривались удивительные применения нейросетей в разных областях, скорее стимулирующие появление новых возможностей для создания контента и новых рабочих мест.

Больше всего шороху наделал компания NVIDIA. И повод для этого надо сказать был отличный. За день до открытия выставки (конференционная программа начинается на два дня раньше) NVIDIA представила первый в мире рейтрейсинг-GPU под названием Quadro RTX. Хочется отметить, что это был гениальный пиар-ход – сделать презентацию продукта до открытия выставки. Во-первых, на эту презентацию пришли похоже все посетители Сигграфа – очередь на вход в зал вытянулась на много сотен метров еще за час до начала. А после презентации, любой запрос в Гугле типа «Siggraph news» или «Siggraph new products and releases» выдавал ссылку строго на эту презентацию.

Полтора часа Дженсен Хуанг лично представлял новую архитектуру, а в конце вывел на экран несколько изображений с большим количеством рейтрейсинг эффектов – преломлениями, отражениями, глобальным освещением и пр. А потом эффектным движением повернул их в пространстве. И выяснилось, модель Порше и сложный интерьер считаются в реальном времени 30 кадров в секунду(!) на одной карте Quadro RTX непосредственно на сцене. Еще раз – рейтресинг в реальном времени! Народ визжал и плакал, отказываясь верить увиденному.

Была представлена новая архитектура с гениальным назавнием Тьюринг (TURING), которая в дополнение к традиционным возможностям видеокарт теперь имеет специальный блок для расчета рейтрейсинга целиком на GPU (а не только ускорения денойзера или отдельных операций). И отдельный блок для просчета операций для работы с искусственным интеллектом Инженеры NVIDIA также научились сглаживать изображения и устранять мерцание пикселей в статике и динамике при помощи нейронных сетей (DLAA).

Пока на такой трехблочной архитектуре Тьюринг сделаны три модели Quadro RTX с разным количеством памяти и ядер.

GPU

Memory

Memory NVLink

Ray Tracing

CUDA Cores

Tensor Cores

Quadro RTX 8000

48GB

96GB

10 GigaRays/sec

4,608

576

Quadro RTX 6000

24GB

48GB

10 GigaRays/sec

4,608

576

Quadro RTX 5000

16GB

32GB

6 GigaRays/sec

3,072

384

Если учесть скорость просчета увеличившуюся в разы и тот факт, что младшая модель стоит как не самая дорогая рабочая станция, что инвестиции в такое железо могут быть очень оправданы. Надо сказать, что карта умеет, например, считать физическую симуляцию и визуализировать ее одновременно (на разных внутренних блоках).

В общем NVIDIA смогла не просто всех удивить, она просто шокировала всех присутствующих, и все разговоры на выставке, сводились, как правило, в вопросу к производителям программного обеспечения типа: «А когда вы будете поддерживать новую архитектуру?»

Я мог бы еще долго писать про Тьюринг и Квадро, OptiX, NGX, DXR, MDL - там есть еще масса любопытных деталей, но чтобы это не выглядело рекламой NVIDIA, отошлю всех в гугл, где можно найти и само видео презентации и множество подробностей. Скажу лишь, что после того как я запостил видео, где жирный и блестящий Спайдермен рендерился в FullHD за пару секунд в Арнольде, народ забросал меня скептическим коментариями, что это трюки с денойзером, и что реальное ГПУ-ускорение там только в конце. Мне пришлось сходить на стенд и узнать, что там стоит уже новая альфа-версия Арнольда с поддержкой Quadro RTX, которая целиком и полностью считает сцену исключительно на GPU. Шаблоны были разорваны в клочья.

Карты будут готовы в конце октября, а все основных вендоры (Автодеск, Хаос, Синема, Эпик) срочно пишут новые версии рендер-движков с поддержкой новой ахитектуры. Как это будет работать в реальных условиях узнаем к новому году. Думаю, что многие архвизеры лишатся рассудка, а моушен дизайнеры испытают катарсис. А полный список софта с поддержкой КЕЧ есть тут.

Другим трендом стала работа в облаке. Начнем с рендеринга. Мой прогноз состоит в том, что рендерфермы умрут в течение нескольких лет, как ненужный посредних между пользователем и, собственно, рендерингом, поставщиком которого, является, тот, кто его написал, например, Хаос Груп.

Владо Койлязов представил уже публичную бету V-Ray Cloud. Вы скачиваете продукт и регистрируетесь на зайте Хаоса (сразу получаете некоторое количество минут для рендера). Далее нажимаете знакомую кнопку Render в знакомом окне, но ваша сцена моментально уезжает в сеть, где происходит невидимый для вас процесс аллокирования в Google Cloud стапитсоц машин для рендера, которые тут же перемалывают вашу сцену, а вы в шоке наблюдаете, как окно вашего рендера обновляется с какой-то космической скоростью. С вас списывается некоторое количество секунд или минут и все. Никакой загрузки файлов на ферму, никакой возни с текстурами и отслеживанием связей, никакой выгрузки картинок по фтп. Никакой возни с сервером лицензий, версиями софта, совместимостью сцен и пр. Все что вам надо - это перед нажатием кнопки Render выбрать количество и тип машин. Нажать кнопку и получить результат, как будто под столом у вас своя рендерферма. Кстати, пока минуты для V-Ray Cloud Beta бесплатные, истратите – дадут еще.

Надо сказать, что этот подход похоже сейчас пойдет в массы для всех рендер-движков. На стенде MAXON я наблюдал презентацию Zync – был такой рендер, купленный Google. Теперь стало понятно, зачем его купили. Из него выкусили рендер-менеджер, который занимается тем, что добавляет кнопку «Отренедрить в сети» к ЛЮБОМУ рендеру. И точно также лезет в сеть, букирует нужное количество машин, запускает там рендер и гонит результат обратно.

Ну и в кулуарах я видел подобную систему от 3delight, которая выводит уровень интеграции с Амазоном на принципиально новый уровень. Все настолько быстро, что поверить в это сложно. Плюс нас ждет смена парадигмы в общении между сценой и рендер-движком, но об этом еще рано говорить.

А облачный подход, похоже, пойдет еще дальше. На стенде Амазона и на стенде Microsoft-а стояли тонкие клиенты (Teradici практически монополизировал этот рынок для M&E) – маленькие коробочки, кудa втыкаются монитор, клавиатура и интернет. Вы можете выбрать тип рабочей станции, операционку и получить на мониторе доступ к рабочему столу какой-нибудь монстр-станции в облаке. Задержка не чувствуется, работаете как у себя дома, только железо получше. Тарификация поминутная, просто платите за рабочее время. Именно для этого был когда-то куплен Deadline от Thinkbox. Теперь он рулит удаленными рабочими станциями.

На мой коварный вопрос, а что с лицензиями на софт, облачные амазоновцы, гугловцы и майкрософтовцы дружно замахали руками и сказали, что это вопрос не к ним. Пока производители ПО не готовы поддерживать модель с поминутной тарификацией использования софта и зашивать эту ничтожную цену в прокат удаленного железа. Но все к тому идет, и скоро можно будет арендовать станцию в облаке с нужным софтом на нужное время. А пока – пляски с серверами лицензий.

И вот что я подумал, глядя как вычисления стремительно утекают в сеть. Скоро Maya, Фотошоп или Гудини, будут представлять собой маленькое окошко на рабочем столе тонкого клиента, которое спрашивает вас, на каком железе и софте вы сегодня хотите работать, и после выбора показывать нам на экране рабочий стол удаленной станции, где уже открыт нужный вам софт. Вы просто работаете, арендуя софт и железо в сети. Вы ничего не знаете про лицензии, про то, где физически находится ваша станция и ваши файлы, также как вы не знаете сейчас, где ваша почта или гугль-драйв. Может быть будет биржа ресурсов, у кого-то дешевле, у кого-то дороже. Кто-то сможет сдавать свои рабочие станции в аренду пулам, сдающим в свою очередь железо и софт пользователям. А майнить можно будет минуты для работы в сети (хотя вряд ли это будет выгодно).

Судя по росту GPU-рендерферм, расчет на ГПУ тоже может уйти в сеть. Та же NVIDIA показывала RTX Server – модульную коробку, которая по их расчетам будет выгоднее и по электричеству и по вычислениям, чем традиционные рендерфермы. Все уйдет в CG-Матрицу, которая будет выдавать нам только красивые картинки, возможно прямо в мозг.

И тут самое время перейти к любимому ИИ. Дима Королев из MPC Vancouver собрал отличную секцию по ИИ в программе Сигграфа. Там показывали последние наработки в области ИИ для графики. Digital Domain показывал Digital Doug – систему, которая считывает лицевую анимацию из видео и переносит ее на высокополигональный меш вместе текстурой и другими данными. Без всяких маркеров, с отличным качеством. Нейросетка научена распознавать мимику на тренировочных съемках. (Забегая вперед, скажу что ребята из CGF сделали аналогичную систему при несравнимо меньших затратах и вполне сравнимом качестве – это отличный повод для гордости за наш RnD).

NVIDIA показывала взаимодействие двух нейросетей, одна из готорых научена (по фото) генерить изображения человеческого лица, а втора научена распознавать (по фото знаментиостей), похоже ли это лицо на известную модель или актера. В результате взаимодействия двух сетей рождаются несуществующие красивые лица модельной внешности. Интересно будет перенести это в концепт-арт и генерить новых персонажей.

MPC рассказали о своем видении ИИ, из которого следует, что пока мы будем в основном применять это в 2Д и, возможно, в анимации, а до 3Д нейросети доберутся лет через пять.

А еще одно из применений ИИ – оптимизация рендер-ресурсов, включая электричество. Рендер-логи содержат какое-то чудовищное количество информации, которое можно скормить нейросетям, для последующей оптимизации рендера.

Был замечен Фотошоп с плагинами NVIDIA NGX – нейросетки увеличивают разрешение и ретшируют изображение, задействуя ИИ-блок новой Квадры.

Что поразило меня больше всего - NVIDIA научилась денойзить картинку, не сравнивая между собой «чистое» и «шумное» изображение (ибо рендерить честное «чистое» очень долго), а на основе двух и более «шумных» изображений. Демонстрация просто поражает скоростью и тем, что из посчитанного шума вдруг выскакивает чистая картинка. Думаю, в области денойза будет еще много новостей.

Хитом также стали ИИ-волки, бег которых нейросеть анимирует вдоль любой поверхности. И если еще в прошлом году двуногие персонаж, под руководством ИИ уже бодро бегали по неплоской поверхности, то сейчас в этот процесс замешивают симуляцию физики, мокап и другие модели. Для анимации толп и игровых персонажей это выглядит уже более, чем приемлемо.

На этом закончу с трендами, и пробегусь по горячим новостям и просто любопытным деталям. Кстати, интересная деталь состояла в том, что стенд Autodesk был более, чем скромен, стенд SideFX являл собой просто маленький столик для сбора визиток, а у Chaos Group стенда и вовсе не было. За то все они были мощно представлены сериями выступлений в конференц-залах. Autodesk проводил Vision Series, SideFX аншлаговал с мастерклассами Houdini Hive, а Хаос два дня делал V-Ray Days, где кроме V-Ray Next и V-Ray Cloud представил V-Ray Lavina. Это реалтаймовый рендер больших сцен. Этакий игровой движок от Chaos Group! С учетом того, что был также показан V-Ray for Unreal, то привычные шаблон просто рассыпаются в труху. Игровой движок в виде рендера и рендер для игрового движка. Мир сходит с ума.

Огромный стенд Epic блистал моделями Порше и другими рейтрейсными сценами, которые бодро крутились на новых Quadro RTX, а сам Unreal Engine похоже намерен потеснить CAD-ы – он читает модели в любых кадовских форматах и рендерит их с такой скоростью и качеством, что все рендер-движки нервно антиалиасят.

У Unity стенд был не меньше. Оба движка активно двигаются из игровой зоны комфорта в безумный мир анимации и кино. Вытаскивая последних в реалтайм, что существенно меняет пайплайны традиционного офлайнового производства. Unity показывала массу анимационных кейсов, Toon Shader, синематики, интеграцию с Октаном и разбирала производство короткометражки «Адам». Ирония состоит с том, что Maya или Гудини были представлены на выставочной площади очень скромно (уйдя в лекции), а движки рубились в полную мощь. При том, что Сигграф это совсем не игровая конференция.

Зато MAXON зажигал в середине экспозиции с новой Cinema4D R20. И там было что показать. По моим ощущениям пользователи еще не до конца раскопали мощь и красоту новых Influences, а сам новый релиз выглядит не как допиливание имеющихся фич, а хороший свежий релиз. И количество рендеров для Синьки тоже продолжает удивлять. А в связи сгрядущей поддержкой Quadro RTX и пикантной ситуацией с ProRender (который вряд ли может рассчитывать на такую поддержку) следует ожидать и еще большего количества возможных решений.

Одним из которых является Octane, который, наверное, устроил наибольший хайп после NVIDIA. Otoy показывал новые версии вплоть до 2020 года, демонстрировал поддержку Unity, бомбанул пресс-релиз о поддержке Unreal, шокировал всех своим Blockchain-проектом, обещал быстрее всех поддержать полный гпу-рейтрейсинг на Тьюринге, толковал про голографию. И все это в лице одного человека демонической внешности. В общем, не давал скучать.

А вот калифорнийские ребята из Redshift скромно стояли стильным стендом и спокойно общались с пользователями. Их небольшой команде явно не хватает агрессивного маркетинга при таком хорошем продукте.

Foundry делала упор на KATANA, а по соседству Isotropix (тоже с огромным стендом) продвигала Clarisse – софт, мало известный в России и прямой конкурент Катане. Также Isotropix показывал Builder – абсолютно новое решение для сборки сцен на основе нодовой архитектуры, рассчитанное на большие студии.

Также меня удивило, что Intel и AMD отгрохали друг напротив друга огромные стенды. Это второе пришествие процессорных олигархов на наш скромный рынок – это интригует и радует, очевидно стоит ожидать новых интеллектуальных инвестиций в область графики и абсолютно новых технологий. AMD показывал ProRender, 32-core Ryzen Threadripperи новые карты WX 8200 / WX 9100. Intel демонстрировал рендер Embree и решения для развертки текстур(!), рассказывал про ИИ и игры. Думаю скоро мы услышим новости в области рендеринга и ИИ от этих монстров.

Также на выставке впервые в истории были централизованно представлены российские проекты в области графики. А случилось это благодаря фонду Сколково, который привез и разместил на своем стенде три российских проекта.

Первый это Nimble от студии CGF – Дима Шуров представлял решение для безмаркерного захвата мимики лица. Решение, практически не уступающее в тысячу раз более дорогому сетапу от Digital Domain. Я был в шоке, когда узнал, что ребята прошли практически тот же самый путь, использовали нейросети для распознавания мимики и переноса анимации, сделали собственные железки и довели это до работающего решения. Браво, CGF RND!

Второй проект – Antilatency – супербыстрый трекинг положения виар-шлема, не использующий при этом дорогих камер, сложных конструкций или долгой калибровки. Независимый от модели шлема и требующий простейшего сетапа в виде маркеров на полу, которые раскидываются за 10 минут. Спецы из StarVR проторчали на стенде Сколково полдня изучая Antilatency и обескураженные ушли осмысливать увиденное.

Третий проект - ВГТ - платформа для разработки web-приложений с интерактивной 3D-графикой, основанные на собственных технологиях оптимизации 3D-моделей и их интерактивной визуализации в среде web-браузеров.

Но самая, наверное, красивая и жизненная история происходила на маленьком, но гордом стенде Keen Tools. Рома Белов, автор знаменитого Geo Tracker( а так;е FaceTracker и Face Builder), бесстрашно купил на Siggraph-e стенд и собрал команду для поездки за три моря. После чего им всем отказали в канадской визе. Рома в состоянии аффекта написал в посольство письмо в духе «а не .. ли вы?». И ему дали визу! Одному! Рома прилетел, героически собрал стенд и три дня отстоял как молодой Илон Маск, отвечая на вопросы посетителей, сраженных возможностями ГеоТрекера. Один. Лично. Браво, Рома. Горжусь тем, что у нас есть такие проекты!

Это был мой десятый Siggraph начиная с 1997 года. И это был определенно лучший SIGGRAPH!

Во много благодаря помощи Влада Ахтырского, который помог мне и многим других «ванкуверцам» в адаптации, социализации и «локализации». А уж вечеринки с Владом Ванкувер запомнит надолго! На долгих четыре года до следующего Ванкуверского Сигграфа.

772 0 850 13
8
2018-08-20
Сколково, это название давно стало мемом, однако вон оно как
2018-08-21
"Далее нажимаете знакомую кнопку Render в знакомом окне, но ваша сцена моментально уезжает в сеть" - сцена полностью выгружается, или совсем частично?
2018-08-21
По поводу облачных технологий - я давно использую что-то подобное. Дома стоит мощная машина, я беру ноут и еду с ним в парк. Там захожу на домашнюю машину через удаленный доступ и занимаюсь рендерами. Но конечно, если они будут давать машины еще мощнее и с софтом в аренду, то я бы пользовался с удовольствием. Будем ждать когда заработает)
2018-08-21
[quote=Анатолий Самойленко] Далее нажимаете знакомую кнопку Render в знакомом окне, но ваша сцена моментально уезжает в сеть" - сцена полностью выгружается, или совсем частично [/quote]сцена выгружается в виде v-ray сцены, в которой уже зашиты текстуры и все модели, включая скаттеры форестпака, например. Этот процесс можно делать сейчас из без облака, vray сцены добавили, если не ошибаюсь, в 3.4 версии. Как раз таки для правильной передачи на рендер на другой машине. Один существенный минус vray cloud на данный момент — это рендер только на CPU. И если в процессе настройки сцены / света / эффектов используешь GPU, то при отправке на рендер результат может отличаться. Но если держать это в уме или работать на CPU изначально, то проблем не будет. 
2018-08-22
ну что? когда уже нас соберут духовные лидеры? Когда пойдем бунтовать против того, что облачные нейросети оставили нас без работы? Раз они говорят, через 5 лет ИИ возьмутся за моделинг, вангую еще лет пять после этого - всем хана! =D
2018-08-22
[quote=Бабуин] ну что? когда уже нас соберут духовные лидеры? Когда пойдем бунтовать против того, что облачные нейросети оставили нас без работы? Раз они говорят, через 5 лет ИИ возьмутся за моделинг, вангую еще лет пять после этого - всем хана! =D [/quote] нейросеть которая будет писать сама программы, создавать другие нейросети и уволит всех программистов
2018-08-23
еще один повод не брать эту видюху а докупить 3-ую 1080ti
2018-09-06
Про Blender ни слова не нашел. Подумал, что на SIGGRAPH2018 их представителей не было. Оказывается, были.
RENDER.RU