Старт публичного бета тестирования нового рендерера Dali Renderer для 3DS MAX

Компания Convergence объявляет начало публичного бета тестирования нового рендерера Dali Renderer для 3DS MAX версий 2018-2022.

Dali Renderer работает в двух режимах: RGB и спектральном, для которого использует AVX-оптимизированное HERO Wavelength расширение для непрерывного спектра. Уникальный, ранее не описанный в литературе REDS алгоритм позволяет рендерить физически корректные поверхностные и объемные каустики без каких-либо упрощений.

Интегрированный механизм Path Guiding позволяет работать со сценами без локальных источников излучения, используя лишь многократно отраженный свет. Адаптация источников освещения позволяет иметь их неограниченное количество.

Для поддержки Motion Blur экспортируется полное сплайновое описание траектории в том виде, как оно хранится в 3DS MAX. Это полностью исключает артефакты рендеринга быстро движущихся и вращающихся объектов.

Dali Renderer поддерживает прямую отрисовку сферических частиц, включая пену из PhoenixFD и прямую отрисовку сплайновых волос без интерполяции, технологию вложенных диэлектриков, анимированные фокусные поверхности, эллиптический сэмплинг текстур.

Для работы с Volumetric Medium используются процедурные карты, импорт из OpenVDB и PhoenixFD. Dali Renderer умеет рисовать настоящую, физически корректную радугу в дождевом облаке.

Полный список поддерживаемых технологий и возможностей можно узнать на официальном сайте.


Разработчики крайне заинтересованы в обратной связи, в комментариях, предложениях и замечаниях. Как и любой новый продукт, Dali Renderer не совершенен, он содержит ошибки и недоработки. Бета тестирование позволит улучшить продукт и скорректировать его функциональность для удовлетворения действительных потребностей CG сообщества.


Некоторые инженерные сэмплы, использующиеся для внутреннего тестирования:

WaterStream.jpg

Tortue.jpg

Rainbow in clouds.jpg

794 0 850 4
23
2021-06-02
Да сколько же можно рендеры придумывать? 🤣🤣🤣Их уже куча
2021-06-02
Наши что ли?. на сайт залез, а там все сразу по русски.
2021-06-02
отличненько. жаль что я уже отошел от дел😅
2021-06-03
GeorgemanНаши что ли?. на сайт залез, а там все сразу по русски.

Угу, походу дела наши.
2021-06-03
Блин, рендеров сейчас очень много, раньше люди кидались на новый рендер изучать, смотреть какие он даст возможности, а сейчас с этим уже значительно сложнее. Сделали бы вы более привлекательным этот пост, обзор может быть какой-то, что-то, что заинтересует настолько, чтобы включить в процесс тестирования. А то сейчас нужно переходить и изучать на сайт.
2021-06-03
Мятный ЛакейБлин, рендеров сейчас очень много, раньше люди кидались на новый рендер изучать, смотреть какие он даст возможности, а сейчас с этим уже значительно сложнее. Сделали бы вы более привлекательным этот пост, обзор может быть какой-то, что-то, что заинтересует настолько, чтобы включить в процесс тестирования. А то сейчас нужно переходить и изучать на сайт.
Обзор, конечно хорошая идея. Постараемся его сделать. Проблема только в замкнутом круге: есть инженерные сэмплы, которые профессионалу расскажут о возможностях, но их художественная ценность нулевая. Чтобы сделать что-то красивое, нужно привлечь внимание талантливого артиста, а чтобы его привлечь, нужно пройти бета тестирование. На энтузиазме далеко не уедешь. Поэтому через некоторое время мы предложим заинтересовавшимся талантливым артистам сделать портфолио для рендерера.

Сейчас можем вкратце обрисовать отличия от других рендеров, плюсы и минусы.

1. Спектральный рендеринг. Используется то самое знаменитое расширение HERO, которое было придумано студией Weta для своих Хоббитов, Аватаров и т.п. Все о нем говорят в специальной литературе, но никто по факту не сделал. Кроме Weta. Мы сделали и даже улучшили идею.

2. Каустики. Мы разработали новый алгоритм REDS сначала как безумную идею, но которая сработала. Он НЕ использует фотоны, VCM, BIDIR, Метрополис. Это нечто новое, со своими плюсами и минусами. Сейчас все пытаются рисовать каустики с помощью трэйсинга фотонов от эмиттеров. Это приводит к грубой картинке и отсутствию тонких деталей. Корона использует симбиоз фотонов и метрополиса, но идет на упрощения и фейки (это описано в их публикации). Наш алгоритм выдает чистую физически корректную картину и по скорости сравним с короновским. Дополнительно мы умеем рисовать каустики в толще воды и тумане. Каустики на поверхностях теперь вообще не проблема, хотя есть нюансы конечно.
Недавно вышел фильм Алита Боевой Ангел. Там у девушки глаза большие и много сцен с крупными планами этих глаз, есть подводная сцена с каустиками. Создатели смогли их сделать после внедрения новой технологии расчета каустик. Наш рендер содержит другую технологию, но способен отрендерить эти сцены.

3. Система вложенных диэлектриков. Ее Пиксар придумал для Рыбки Дори (второй мультик из серии). Мы ее включили и расширили также на туманы

4. Для рендеринга туманов и облаков используем Spectral Decomposition Tracking - это продукт симбиоза ILM, Pixar и других. И сильно его улучшили. Облака умеем накладывать друг на друга, что многие не умеют. Умеем конвертировать излучающий объем в эмиттер - полезно для пламени свечи, например. Это опять же Пиксар придумал. Ну а мы творчески переработали и улучшили.

5. Специальная фазовая функция Mie - адаптировали и ускорили коды NASA для симуляции спектрального рассеяния на крупных частицах в атмосфере. Теперь радуга в облаках получается сама собой, не нужны всякие фейки. Но это долго, готовьтесь к нескольким часам рендеринга для вида из самолета. Это радуга, белесая радуга в тумане, гало и т.п. эффекты.

6. Path Guiding - тоже передовая технология, активно обсуждаемая сообществом. Позволяет рендерить сцены без прямого освещения. Представьте комнату, в которую пробивается свет из другой комнаты, а в ту - из маленького окошка, да еще и солнце светит не в него, а в противоположную стену, где и окна то нет. Арнольд в таких условиях лишь несколько точек смог нарисовать, корона - нечто очень шумное. Мы - картинку со средним шумом после 256 пассов. Очень крутая технология. С ней и REDSом можно осветить лицо персонажа, который ныряет в воде. Свет ведь преломляется на границе воды и воздуха, а значит обычные способы не пройдут. Наш рендерер может.

7. Для motion blur используется описание траекторий как они хранятся в максе. Представьте колесо, которое вращается 500 раз за кадр. Как его размыть, технически? При интерполяции углов мы 500 раз перейдем через начало координат. В интернете куча вопросов по артефактам для таких колес. Наш рендерер делает это автоматически, так как не интерполирует вообще. А заново создает трансформ из исходных данных. У нас есь сцена с гиперзвуковым светлячком, который летает по траектории с 12 ключами внутри одного кадра. Арнольд делает его траекторию ломаной даже на максимальных настройках. А мы храним изначальный сплайн и ничего не ломаем.

8. Эллиптический сэмплинг для текстур, качественное размытие для OpenSubdiv (мы заново переписали часть этой библиотеки), быстрый трейсинг (по тестам, наше решение на 30-70% быстрее, чем Intel Embree) и куча еще всего.

Много описания возможностей с примерами и картинками раскидано в разделе помощи на сайте.

По совокупности все это однажды может стать хитом.

Минусы:
1. нужно тестирование на разных конфигурациях. По факту, это 4+ года разработки, поэтому по поводу багов никто не обольщается.
2. нужны хорошие сцены (много ли вы видели сцен с радугой или с подводным миром без фейков?) И кто имеет опыт создания таких сцен?
3. GPU не поддерживаются в настоящий момент. Это запланировано, но не очень понятно, как перенести все эти сложные алгоритмы на ограниченное железо.
4. Не понятно, достаточно ли функциональности. В рендере куча всяких вкусностей, но вполне может быть, что какой-то ерунды не хватает. Это очень важно, чтобы не было ограничений для привычного pipeline.
2021-06-03
Dali Renderer Обзор, конечно хорошая идея. Постараемся его сделать. Проблема только в замкнутом круге: есть инженерные сэмплы, которые профессионалу расскажут о возможностях, но их художественная ценность нулевая. Чтобы сделать что-то красивое, нужно привлечь внимание талантливого артиста, а чтобы его привлечь, нужно пройти бета тестирование. На энтузиазме далеко не уедешь. Поэтому через некоторое время мы предложим заинтересовавшимся талантливым артистам сделать портфолио для рендерера.

Сейчас можем вкратце обрисовать отличия от других рендеров, плюсы и минусы.

1. Спектральный рендеринг. Используется то самое знаменитое расширение HERO, которое было придумано студией Weta для своих Хоббитов, Аватаров и т.п. Все о нем говорят в специальной литературе, но никто по факту не сделал. Кроме Weta. Мы сделали и даже улучшили идею.

2. Каустики. Мы разработали новый алгоритм REDS сначала как безумную идею, но которая сработала. Он НЕ использует фотоны, VCM, BIDIR, Метрополис. Это нечто новое, со своими плюсами и минусами. Сейчас все пытаются рисовать каустики с помощью трэйсинга фотонов от эмиттеров. Это приводит к грубой картинке и отсутствию тонких деталей. Корона использует симбиоз фотонов и метрополиса, но идет на упрощения и фейки (это описано в их публикации). Наш алгоритм выдает чистую физически корректную картину и по скорости сравним с короновским. Дополнительно мы умеем рисовать каустики в толще воды и тумане. Каустики на поверхностях теперь вообще не проблема, хотя есть нюансы конечно.
Недавно вышел фильм Алита Боевой Ангел. Там у девушки глаза большие и много сцен с крупными планами этих глаз, есть подводная сцена с каустиками. Создатели смогли их сделать после внедрения новой технологии расчета каустик. Наш рендер содержит другую технологию, но способен отрендерить эти сцены.

3. Система вложенных диэлектриков. Ее Пиксар придумал для Рыбки Дори (второй мультик из серии). Мы ее включили и расширили также на туманы

4. Для рендеринга туманов и облаков используем Spectral Decomposition Tracking - это продукт симбиоза ILM, Pixar и других. И сильно его улучшили. Облака умеем накладывать друг на друга, что многие не умеют. Умеем конвертировать излучающий объем в эмиттер - полезно для пламени свечи, например. Это опять же Пиксар придумал. Ну а мы творчески переработали и улучшили.

5. Специальная фазовая функция Mie - адаптировали и ускорили коды NASA для симуляции спектрального рассеяния на крупных частицах в атмосфере. Теперь радуга в облаках получается сама собой, не нужны всякие фейки. Но это долго, готовьтесь к нескольким часам рендеринга для вида из самолета. Это радуга, белесая радуга в тумане, гало и т.п. эффекты.

6. Path Guiding - тоже передовая технология, активно обсуждаемая сообществом. Позволяет рендерить сцены без прямого освещения. Представьте комнату, в которую пробивается свет из другой комнаты, а в ту - из маленького окошка, да еще и солнце светит не в него, а в противоположную стену, где и окна то нет. Арнольд в таких условиях лишь несколько точек смог нарисовать, корона - нечто очень шумное. Мы - картинку со средним шумом после 256 пассов. Очень крутая технология. С ней и REDSом можно осветить лицо персонажа, который ныряет в воде. Свет ведь преломляется на границе воды и воздуха, а значит обычные способы не пройдут. Наш рендерер может.

7. Для motion blur используется описание траекторий как они хранятся в максе. Представьте колесо, которое вращается 500 раз за кадр. Как его размыть, технически? При интерполяции углов мы 500 раз перейдем через начало координат. В интернете куча вопросов по артефактам для таких колес. Наш рендерер делает это автоматически, так как не интерполирует вообще. А заново создает трансформ из исходных данных. У нас есь сцена с гиперзвуковым светлячком, который летает по траектории с 12 ключами внутри одного кадра. Арнольд делает его траекторию ломаной даже на максимальных настройках. А мы храним изначальный сплайн и ничего не ломаем.

8. Эллиптический сэмплинг для текстур, качественное размытие для OpenSubdiv (мы заново переписали часть этой библиотеки), быстрый трейсинг (по тестам, наше решение на 30-70% быстрее, чем Intel Embree) и куча еще всего.

Много описания возможностей с примерами и картинками раскидано в разделе помощи на сайте.

По совокупности все это однажды может стать хитом.

Минусы:
1. нужно тестирование на разных конфигурациях. По факту, это 4+ года разработки, поэтому по поводу багов никто не обольщается.
2. нужны хорошие сцены (много ли вы видели сцен с радугой или с подводным миром без фейков?) И кто имеет опыт создания таких сцен?
3. GPU не поддерживаются в настоящий момент. Это запланировано, но не очень понятно, как перенести все эти сложные алгоритмы на ограниченное железо.
4. Не понятно, достаточно ли функциональности. В рендере куча всяких вкусностей, но вполне может быть, что какой-то ерунды не хватает. Это очень важно, чтобы не было ограничений для привычного pipeline.

Я в данный момент копаюсь в LuxCoreRender интересно конечно было бы сравнить, но на это время нужно, в LuxCore разработчики тоже добились правильно корректного рендера, и каустика шикарная но надо теперь ваш затестить
2021-06-03
Почему при открытии материал эдитора то вылетает макс ?
2021-06-03
мердан ревереПочему при открытии материал эдитора то вылетает макс ?

Вы могли бы описать, что именно происходит и где: версия windows, версия макса, процессор. Лучше на feedback@dalirenderer.com

Ничего вылетать не должно. Если вылетает, то это повод разобраться, но для этого хоть какая-то информация должна быть.
2021-06-06
Dali Renderer3. GPU не поддерживаются в настоящий момент. Это запланировано, но не очень понятно, как перенести все эти сложные алгоритмы на ограниченное железо.

Ой, вот это перечёркивает все достоинства для меня... Т.к. с 2017 года перешёл исключительно на ГПУ рендеринг с соответствующим парком железа.
2021-06-06
MrLexxoR
Ой, вот это перечёркивает все достоинства для меня... Т.к. с 2017 года перешёл исключительно на ГПУ рендеринг с соответствующим парком железа.

Ну в текущих реалиях, 32-ядерный Threadripper будет даже подешевле нормальной видеокарты
2021-06-06
Глорфиндейл Боромиевич
Ну в текущих реалиях, 32-ядерный Threadripper будет даже подешевле нормальной видеокарты

Боюсь, никакие тредрипперы никогда не сравнятся с производительностью видеокарт в рендеринге, а цены рано или поздно упадут, как было несколько лет назад. Да и сейчас, имея на руках суммарно 11 видеокарт, мне нет вообще никакого смысла возвращаться обратно на CPU.
2021-06-06
MrLexxoR
Боюсь, никакие тредрипперы никогда не сравнятся с производительностью видеокарт в рендеринге, а цены рано или поздно упадут, как было несколько лет назад. Да и сейчас, имея на руках суммарно 11 видеокарт, мне нет вообще никакого смысла возвращаться обратно на CPU.

Ну когда так много и все уже заточено под GPU, то наверное да. Просто уж очень медленно прогресс идёт. Все-таки GPU рендеры до сих пор уступают по качеству. С другой стороны, видел интерьерку под Unreal Engine 5, так там реалтайм и качество освещения, достаточное для абсолютного большинства. И это игрушечный рендер, специально не заточенный под рабочие задачи
2021-06-06
Глорфиндейл БоромиевичВсе-таки GPU рендеры до сих пор уступают по качеству.

Это в каком месте они уступают по качеству?)
2021-06-06
MrLexxoR
Это в каком месте они уступают по качеству?)

Абсолютно субъективно, без претензии на истину :) Octane кажется мыльным каким-то, в сравнении с CPU Unbiased. Redshift вроде неплох, но Corona больше нравится по результату.
2021-06-06
Глорфиндейл Боромиевич
Абсолютно субъективно, без претензии на истину :) Octane кажется мыльным каким-то, в сравнении с CPU Unbiased. Redshift вроде неплох, но Corona больше нравится по результату.

Просто я заметил забавную тенденцию, что как только речь заходит про GPU оффлайн рендереры, сразу появляется человек, который начинает рассказывать что "на них можно только коробочки рендерить" и прочие несуразные вещи. И вот мне просто интересно, откуда вообще это всё берётся?) Такое ощущение, что все эти люди прочитали какую-то статью или посмотрели видео десятилетней давности, и до сих пор считают, что вот так дела и обстоят.
2021-06-07
MrLexxoR
Просто я заметил забавную тенденцию, что как только речь заходит про GPU оффлайн рендереры, сразу появляется человек, который начинает рассказывать что "на них можно только коробочки рендерить" и прочие несуразные вещи. И вот мне просто интересно, откуда вообще это всё берётся?) Такое ощущение, что все эти люди прочитали какую-то статью или посмотрели видео десятилетней давности, и до сих пор считают, что вот так дела и обстоят.

Ну не так давно все так и было. Например Iray вышел невнятным, а redshift появился сравнительно недавно. И тут ещё проблема пайплайна и собственно задач. Ну и гибкость. Так, к примеру, если полагаться на CPU, то выбор рендеров огромный. Это же как кисти для художника: где-то будет лучше Vray, где-то Corona, а где-то отлично подойдёт даже архаичный Final Render, я вот его в прошлом году использовал вовсю, там отличные нефотореалистичные шейдеры. Ну т.е. больше инструментов для творческого подхода, чтобы все сочетать. И это не говоря про динамику, частицы. Ну например Tyflow, FumeFX. Поэтому, лично мне видится, что хороший многоядерный CPU рациональнее для универсального применения. Хотя GPU вот тоже приходится использовать.
2021-06-07
Глорфиндейл БоромиевичПоэтому, лично мне видится, что хороший многоядерный CPU рациональнее для универсального применения.

У CPU рендереров есть ахиллесова пята, которая ставит крест на всех "классных фишечках" - чудовищная медлительность. При переходе на ГПУ рендеринг скорость просчёта, в зависимости от сцены (не говоря уже об анимации), возрастает от 3х до десятков раз. Поэтому, при раскладе "обкладываться зеонами-тредрипперами", платить чудовищные счета за электричество , париться над отводом тепла от всего этого зоопарка, или перейти на ГПУ - лично я и выбрал второй вариант. Плюс, у части ПО для работы с графикой постепенно прикручивают ГПУ-ускорение, всякие новые солверы, которые убыстряют процессы в разы.

Кстати, не понял момента про динамику и частицы - я использую PhoenixFD и Tyflow, и никаких проблем с ними не вижу. Разве только что всякие вещи типа пены на воде приходится делать костылями, но если взять время на создание таких "костылей" и время на рендеринг "без костылей" через CPU - опять же результат не в пользу процессоров.

Ну, это если мы говорим об эффективности. А если дизайнер привык пол-дня пить кофеёк в офисе пока несчастная "proudly CPU based Corona" родит одну-единственную тестовую картинку, тогда да, тут скорость не друг)
2021-06-07
MrLexxoR
У CPU рендереров есть ахиллесова пята, которая ставит крест на всех "классных фишечках" - чудовищная медлительность. При переходе на ГПУ рендеринг скорость просчёта, в зависимости от сцены (не говоря уже об анимации), возрастает от 3х до десятков раз.
GPU, конечно, быстры. Но одними кухнями и ванными комнатами дело не ограничивается.
В кадре из мультика Моана (есть тестовая сцена, любезно адаптированная и предоставленная создателями для общественности) 1 триллион треугольников, уникальных из них около миллиарда (это в районе 100GB данных) плюс за сотню гигабайт текстур, плюс облака на сотню GB.
А разработчики Арнольда описывали, как они боролись с терабайтом текстур для кадра одного фильма. Терабайт - это, к слову, просто не влезет в виртуальное адресное пространство обычной OS, даже если всего остального хватает. Приходится делать специальные промежуточные кеши, эмулировать то, что по-хорошему, должно делать само железо. Ну или серьезный сервер покупать, как для Аватара.
А препроцессинг сцены для Хоббита занимает 2 часа .... продолжать можно бесконечно.
Общее правило - "или вы получаете кадр анимации за ночь, или не получаете фильм"
Ваши 11 GPU потянут это?
2021-06-07
Молодцы, продолжайте, дорогу осилит идущий! Прочитал общий обзор, интересная вещь.
2021-06-07
Dali RendererВаши 11 GPU потянут это?

Мои 11 GPU тянут 98% моих задач, при чём здесь кухни, ванные комнаты и мультики с многомиллионными бюджетами, где люди могут позволить себе даже написание внутреннего софта?

Вот вам типичная задача из моей повседневной практики, а не теоретические хоббиты\моаны в вакууме: у клиента есть несколько тысяч долларов, за которые он хочет получить анимацию своего выходящего на рынок продукта в 4k 60FPS. Я делаю анимацию, работаю с флюидами, частицами, и рендерю за приемлемое время на своём железе. В случае с CPU мне пришлось бы покупать ГОРАЗДО больше железа за ГОРАЗДО большие деньги + электричество + отвод тепла, либо арендовать ферму, и бюджет проекта вырос бы в 2-3 раза. Вот как дела обстоят в жизни, а не в теории.

И таких людей и студий - большинство. Если вы не понимаете этого, или не хотите понимать - это проблемы вашего продукта и вас как разработчиков. Я, как аниматор, который зарабатывает этим уже более 6 лет, указал, что именно для меня является той причиной, из-за которой я даже не буду пробовать ваше ПО пока оно не "подружится" с ГПУ.
2022-02-18
MrLexxoR
Мои 11 GPU тянут 98% моих задач, при чём здесь кухни, ванные комнаты и мультики с многомиллионными бюджетами, где люди могут позволить себе даже написание внутреннего софта?

Вот вам типичная задача из моей повседневной практики, а не теоретические хоббиты\моаны в вакууме: у клиента есть несколько тысяч долларов, за которые он хочет получить анимацию своего выходящего на рынок продукта в 4k 60FPS. Я делаю анимацию, работаю с флюидами, частицами, и рендерю за приемлемое время на своём железе. В случае с CPU мне пришлось бы покупать ГОРАЗДО больше железа за ГОРАЗДО большие деньги + электричество + отвод тепла, либо арендовать ферму, и бюджет проекта вырос бы в 2-3 раза. Вот как дела обстоят в жизни, а не в теории.

И таких людей и студий - большинство. Если вы не понимаете этого, или не хотите понимать - это проблемы вашего продукта и вас как разработчиков. Я, как аниматор, который зарабатывает этим уже более 6 лет, указал, что именно для меня является той причиной, из-за которой я даже не буду пробовать ваше ПО пока оно не "подружится" с ГПУ.

Твои проблемы это твои проблемы, сильно много тебя одного для данного поста
2022-02-23
Дмитрий Алексеев
Твои проблемы это твои проблемы, сильно много тебя одного для данного поста

"На сайте - Меньше недели"

"1 Комментарий"

Ты специально зарегался чтобы ответить на коммент полугодовалой давности?) Или зарегал новый аккаунт?) Ахаха, забавно)
RENDER.RU