Сервис преобразования текста в 3D при помощи И.И.

Со слов вице президента Shutterstock по 3D инновациям Дейда Оржерона, создание 3D моделей производственного качества из текстового описания является "Святым Граалем" для инструментов генеративного искусственного интеллекта.
Существующие экспериментальные инструменты, такие как DramFusion от Google и Magic3D от Nvidia, могут генерировать 3D модели из текстового описания, но их результат является относительно низкокачественным.

1.jpg

Дейд отмечает, что в последние месяцы произошёл "впечатляющий скачок" в плане уровня детализации генерируемых 3D моделей, нынешние модели ИИ "феноменальны" в сравнении с теми, которые были созданы ещё год назад.
После запуска Shutterstock ожидает, что его новый сервис преобразования текста в 3D будет генерировать 3D модели такого качества, которое подойдёт для требовательных любительских работ или в качестве основы, которую можно будет доработать вручную для коммерческих проектов. Обработка будет осуществляться в онлайн режиме и ожидается, что на одну модель уйдёт ориентировочно 15 минут.

Изначально предполагается, что сервис будет генерировать одиночные модели с одной текстурой, однако в будущем может появиться возможность создания более сложных многокомпонентных моделей. Наиболее вероятное изначальное использование сервиса - создание контента для промышленных цифровых двойников, воссоздающие реальные объекты, такие как машины, здания и т.д. Shutterstock ожидает, что в скором будущем он будет использоваться и в развлекательных целях.

Базовые модели ИИ будут обучаться на материалах TurboSquid - онлайн площадки, которую Shutterstock приобрели в 2021 году и которая в настоящее время содержит более 1,5 миллиона 3D моделей.

2.jpg

Отмечается, что художники могут отказаться от включения их контента в обучающие базы данных. Ценность 3D модели для обучения сильно зависит от качества сетки, того как названы элементы и насколько хорошо представлены материалы в целом.

Данный шаг имеет большое значение для разработки инструментов ИИ для создания 3D контента, в отличие от 2D изображений. Со слов вице президента, "главная цель Shutterstock - дать возможности создателям контента", создав сервис, который художники смогут использовать для генерации базовых сеток для ручной доработки, отметив, что спрос на 3D контент в коммерческих проектах превышает скорость его создания с нуля.
Новый сервис преобразования текста в 3D от Shutterstock разрабатывается с использованием Picasso - новой облачной платформы Nvidia для создания и развёртывания инструментов генеративного ИИ, также анонсированной на GTC 2023.

Picasso предназначен скорее для разработчиков, нежели для конечных пользователей, а сервисы будут распространяться через партнёров Nvidia.
Помимо Shutterstock, Nvidia заключили партнёрство с Getty Images для разработки новых моделей преобразования текста в изображение и текста в видео, обученных на её стоковых изображениях, а также расширила существующее партнёрство с Adobe.

Новые возможности Shutterstock и TurboSquid по преобразованию текста в 3D, как ожидается, войдут в бета версию в "4 квартале 2023 года". На Shutterstock они будут доступны через набор приложений Creative Flow. Стоимость подписки составляет 12,99$ в месяц.

707 0 850 7
20
2023-03-23
Ладно, я понял, нужно дождаться января 24, чтобы уже компиляцию по ML проектам прочитать. А то чет много. Смотреть и читать не успеваю. И пучащие глаза техноблоггеры тоже чет утомили. Все у них анбеливабл.
2023-03-23
[quote]"впечатляющий скачок", "феноменальны", "Святым Граалем"[/quote]Как много эпитетов. Дейд явно пытается что-то продать. Но пока непонятно, что.
2023-03-23
Лучше бы научили ии ретопить нормально. Вот за это все бы сказали спасибо.
2023-03-23
Сергей ОрловЛучше бы научили ии ретопить нормально. Вот за это все бы сказали спасибо.

И ЮВ раскладывать).
2023-03-23
я бы сказал не только спасибо, но пачками покупали!!!
2023-03-23
лучше бы научили машины всё делать за нас, а мы просто наслаждались бы жизнью и спокойно делали свои проекты для души. Никакого капитализма)
2023-03-23
Герман, ага. мечты-мечты.
2023-03-23
Сергей, просто на данный момент доминирует инстинкты а не интеллект.
2023-03-23
Понятно, больше не единой модели туда грузить не хочется теперь.
2023-03-24
Невезучий УтенокПонятно, больше не единой модели туда грузить не хочется теперь.

почему?
2023-03-24
Paz
почему?

Потому что на твоих 3д моделях(и других таких же тридэшников) обучат нейронку, а тебя потом выкинут за ненужностью, вместе со всеми твоими наработками. Работа на стоки не даёт моментальной отдачи, это кропотливый многолетний труд с очень инертным и постепенным ростом доходов. А тут перспективы заканчиваются уже через год, при условии если нейронка будет выдавать качественный результат.
2023-03-24
По большому счёту, уже сегодня лучшим вариантом для авторов продающих свой контент на Турбосквид является удаление всех своих продуктов с сайта. С последующим размещением своих моделей только на тех ресурсах, которые дадут гарантию не использования их для обучения конкурента претендующего уничтожить ценность труда авторов и оставить их без средств к существованию. Но такие гарантии врядли кто-то может дать. Поэтому пока что можно взять паузу с работой на стоки, и подумать об альтернативах уже сейчас.
2023-03-25
Вот это немного немножечко обнадёживает:

Часто задаваемые вопросы. Будут ли мои модели использоваться для обучения генераторов ИИ, которые сделают меня и мою коллекцию устаревшими?

"Мы твердо верим, что миру всегда будут нужны талантливые 3D-художники, создающие 3D-модели ручной работы, но спрос на 3D-контент уже значительно вырос. Нам нужно искать способы увеличить предложение, чтобы удовлетворить растущий спрос. Одним из основных вариантов использования, который мы предполагаем, является предоставление инструментов 3D-генерации, которые мы разрабатываем, в руки наших художников. Мы думаем, что можем ускорить создание вашего контента, чтобы вы могли помочь создать больше моделей для продажи вместе с нами. Мы считаем, что талантливые 3D-художники будут играть постоянную и решающую роль в создании моделей с использованием генеративных инструментов и проведении «последней мили», чтобы они были готовы к использованию клиентами.

Ведется работа по разработке этих продуктов и инструментов, и в ближайшие недели и месяцы мы будем получать больше обновлений о сроках. Наш текущий план состоит в том, чтобы начать с закрытого бета-тестирования, которое будет доступно для наших участников, когда оно будет готово. Предоставление этих инструментов в руки наших участников сейчас находится в верхней части нашего списка приоритетов, и мы хотим работать со всеми вами, чтобы быстрее создавать больше 3D-контента. Мы планируем запустить закрытую бета-версию в конце этого года, и мы хотим, чтобы все вы помогли определить направление этих инструментов."
2023-03-25
Невезучий УтенокВот это немного немножечко обнадёживает:

Часто задаваемые вопросы. Будут ли мои модели использоваться для обучения генераторов ИИ, которые сделают меня и мою коллекцию устаревшими?

"Мы твердо верим, что миру всегда будут нужны талантливые 3D-художники, создающие 3D-модели ручной работы, но спрос на 3D-контент уже значительно вырос. Нам нужно искать способы увеличить предложение, чтобы удовлетворить растущий спрос. Одним из основных вариантов использования, который мы предполагаем, является предоставление инструментов 3D-генерации, которые мы разрабатываем, в руки наших художников. Мы думаем, что можем ускорить создание вашего контента, чтобы вы могли помочь создать больше моделей для продажи вместе с нами. Мы считаем, что талантливые 3D-художники будут играть постоянную и решающую роль в создании моделей с использованием генеративных инструментов и проведении «последней мили», чтобы они были готовы к использованию клиентами."

Переводя на человеческий, на данный момент мы не можем сделать нейронку которая будет генерить полноценные 3Д модели, по этому мы продадим вам производитель полуфабрикатов. А и да, мы за мир во всем мире, и конечноже на стороне художников).
2023-03-25
А вот это странно:
"Влияет ли это на библиотеки PixelSquid и TurboSquid? Да, библиотеки PixelSquid и TurboSquid могут быть включены в сделки с данными. Если вы откажетесь от участия в сделке с данными, вы будете исключены как из PixelSquid, так и из TurboSquid."
То есть где-то должна быть кнопка отказа от участия твоих моделей в обучении нейронки, после нажатия на которую твой аккаунт незамедлительно удаляют? :-)
2023-03-25
"Отмечается, что художники могут отказаться от включения их контента в обучающие базы данных."
О Боже, и эта лапша должна стать успокоительным для бедного художника? Они щелчком пальца заблокировали миллиарды чужих денег хранящихся на счетах "самых надежных" банков, но "не будут включать контент в обучении ИИ"?
Кто еще верит людям, которые весь научно-технический прогресс используют для обогащения 5% власть имущих?
Кто поверит людям, которые продают укол с лекарством от спинально мышечной атрофии (СМА) детям за 2 миллиона долларов ? Кто?
2023-03-25
Вероятно нейронка будет моделить и текстурить по запросу в строке, не парясь за сеточку и UV,а вот потом мы уже будем ретопить и ювишить, так сказать подчищать за роботом))не он за нами в помощь к рутине, а наоборот))) не нейронка нам в помощь, а мы ейвесь арт роботам, рутину людям))) ура товарищи светлое будущее наступаетпочему такое мнение сформировалось, да потому, что я видел массу нейронок, которые рисуют, уже тридешатно не одного хорошего нейроретопера и UV AI раскладчка нейронка не понимает, что рисует и моделит, а лишь смешивает картинки из библиотеки обучения исходя из запроса в строчкеона не понимает, ка строить топологию, как и анатомию, отсюда проблемы с пальцами (были), зубами,
ребрами и спагетти ))
хотя понимание и сосознание того, что ее попросили изобразить возможно наступит и довольно таки скоро.
А вероятно в ближайшем будущем, если так вот оно пойдет, то мы будем помогать роботами помогать им удешевлять процесс разработки, чтобы бюджет шел не на художников, а на премии эффективных менеджеров , которые уже в ааа компаниях либо очень внимательно следят за развитием нейронок,либо уже юзают.
душевная рутина и арт без души)))я сильно утрирую, но не исключено такое, печаль -__-
2023-03-26
Не, ну почему нельзя научить нейронку полигональному моделингу? Пусть посмотрит гайды и туторы на ЮТ. Их там навалом.
Эти кособокие ассеты годятся только в дымку на горизонте.
2023-03-26
Весь этот флейм напоминает мне разговоры конюхов о дьявольском происхождении паровых двигателей, и что небесная твердь скоро упадет на землю. Смиритесь господа, и приспосабливайтесь. По другому это просто не работает. Всем мир)
2023-03-27
Неплохо. Любопытно куда нас это првиедёт в ближайшем будущем. Как 3Дшник я, конечно, немного нервничаю. Как просто пользователь и близкий к разработкам человек я заинтересован.
RENDER.RU