Nvidia создала ИИ-систему для создания точных изображений без текстовых запросов, но сфера её применения ограничена

Компания Nvidia выпустила AI Blueprint for 3D-guided generative AI - решение, позволяющее создавать точные 2D-изображения на основе 3D-сцен в Blender, полностью отказавшись от текстовых промптов. Технология использует генеративную нейросеть FLUX.1 от Black Forest Lab, преобразуя расставленные в 3D-редакторе объекты (здания, транспорт, деревья) в детализированные изображения с чётким контролем ракурса, композиции и пропорций.

Как поясняют в Nvidia, инструмент особенно полезен для задач, требующих конкретного результата - например, при создании городских пейзажей с определённым количеством элементов. "Даже грубые 3D-модели служат эффективным каркасом, который нейросеть дорабатывает до финального варианта", - отмечают разработчики. Решение уже доступно для скачивания, но требует мощных видеокарт (RTX 4080 и выше).

Хотя концепция не нова (аналогичный прототип Project Concept демонстрировала Adobe), Nvidia предлагает готовый рабочий процесс с примерами ассетов и инструкциями. Эксперты прогнозируют, что технология найдёт применение среди дизайнеров и геймдев-студий, сократив время на подбор промптов и правки. В отличие от традиционной генерации, где результат часто случаен, этот подход гарантирует соответствие исходной 3D-сцене.

746 0 850 7
22
2025-05-02
Кирдык вам, господа 3d-художники. Совсем скоро...
2025-05-02
Ничего личного. Это такой вот прогресс (
2025-05-02
>Решение уже доступно для скачивания
Где ссылка???
2025-05-02
mageaster>Решение уже доступно для скачивания
Где ссылка???

Ссылка есть в источнике, в начале новости, но для удобства добавили ссылку в удобном месте, которое вы указали. Спасибо!
2025-05-02
Симуляция самого кожаного мешка готова, симуляция картинки для кожаного мешка готова, осталась симуляция средств получения картинки для кожаного мешка. Говоря серьёзно, классическое CGI давно напрашивается на полную передачу в ведение автономной программы. Это и будет Искусственным Умозрением. Человеки мечтали о механизме, которому можно делегировать задачи. Механизм создан, но делегируются ему уже не задачи, а сама бытность человеком.
2025-05-02
Преобразование 3D сцен в картинку ??? Для обычного рэндера создан ИИ? Чего???
2025-05-02
Лексо, не для обычного. Теоретически можно скормить голую сцену без текстур, освещения и мелких деталей, нейронка всё сама на её основе дорисует.
2025-05-02
Максим, А как она узнает, что тут у меня кожаное сиденье, а там деревянный диван?
2025-05-02
Лексо, вероятно, по форме. Кожаный диван круглее, чем деревянная скамейка.
2025-05-02
Максим, цвет тоже по округлости определять будет?
2025-05-02
Что-то похожее ещё год или два назад уже видел для блендера. Там чувак даже видео делал, и не был привязан к какой-то конкретной AI модели. В чём тут новизна - что рендерить будет без нод напрямую? А как это контролировать без промптов?
Render STUNNING 3D animations with this AMAZING AI tool! [Free Blender + Stable Diffusion]
2025-05-02
Надо глянуть, че там. Так то похоже на обычный контролнет, но без текстового пояснения. Для игр обкатывают, видимо.
2025-05-02
Юра, не надо для игр обкатывать. Уже стоьлко всего для игр наделали, что на качество смотреть больно🙂
2025-05-02
На самом деле, все зависит от одного - возможности поэтапной доработки проекта. Если и здесь будет также, как в тех же AI генераторах видео, когда результат вроде хороший, но вот только тут и тут исправить...нельзя, то не взлетит. Он тебе по новой все сгенерит. А зафиксировать результат и доработать только нужные элементы не получится. Если же можно будет дорабатывать поэлементно и последовательно, то выйдет толк.
2025-05-03
Андрей Харитонов (hsimpson)Кирдык вам, господа 3d-художники. Совсем скоро...

Да не, они еще пару лет сделают вид что "мы уникальные, нас не заменить". А потом будет поздно. Уже работают над возможностью привязки к каждому объекту в кадре своего уникального описания, что даст возможность не только картинку генерировать по запросу, без всяких там 3д элементов в качестве основы, но и "помнить" метаданные о каждом сгенерированном объекте, например такие как "цвет глаз", "фасон и материал одежды" и другие и отслеживать расположение их в 3д пространстве. Там уже и болванки не нужны будут, и объекты не будут "исчезать и появляться новые, уже другие", так как сеть сначала будет строить своего рода 3д модель простраснтва на основе созданного ей-же изображения и уже потом все это дело будет анимироваться, а оператор сможет тыкать и писать что-то вроде "сюда добавь кота, который перебегает улицу" или "у этой девушки сделай волосы длинее и более рыжими". Вот тогда будет точно кирдык ) Но несколько лет у них, даже точнее, у нас, еще есть, чтобы насладиться собственной неповторимостью.
2025-05-03
Всё то же самое можно делать с помощью плагина tyFlow (tyDiffusion) прямо во вьюпорте 3ds max, причём выбирая любые AI модели для генерации картинки.
2025-05-05
Лексо КвазисМаксим, А как она узнает, что тут у меня кожаное сиденье, а там деревянный диван?

в крита + нейронка похожее сделано, там на основе цвета и слоёв можно прописывать промт, что есть что. Типо эту оранжевую кляксу считать машиной.
2025-05-05
Лексо, "обычный" рендер десятых буквально кишит возможностями отказаться от достоверной симуляции света в пользу композиции и общего зрительного впечатления. А со временем появится рендер в NeRF-данные, что вообще невозможно без грубейших допущений. Метод в посте - скорее всего, для экспериментальных нужд так называемой вычислительной фотографии, отказавшейся от непосредственной фиксации света в пользу его предсказания из не световых сенсорных данных. Догадки по карте глубины, к примеру.
2025-05-05
Дмитрий ВолоснихинДа не, они еще пару лет сделают вид что...

Примерно это я и имел ввиду )).
К сожалению, пара лет это очень мало. И десяток лет - тоже.
Да и опасность гораздо больше, чем гибель одной профессии с вершины пирамиды потребностей.
2025-05-07
придумали TyDiffusion? только нужно видеокарту у них купить помощьнее?)))) спасибо) маркетологи опять идут первее инженеров)) все побегут покупать видяхи.. у Нвидии глаза горят, она хочет доходов уровня майнинга 2019, она впарит всякое говно любыми усилиями маркетологов
2025-05-07
Денис Абрамчуку Нвидии глаза горят, она хочет доходов уровня майнинга 2019, она впарит всякое говно любыми усилиями маркетологов
С продажами у них всё норм. DGX проданы на год вперед, Производство 5090 загружено на 100% и спрос только растет.
Скорее это ИБД отдела по развитию ИИ.
2025-05-08
Андрей Харитонов (hsimpson)
Примерно это я и имел ввиду )).
К сожалению, пара лет это очень мало. И десяток лет - тоже.
Да и опасность гораздо больше, чем гибель одной профессии с вершины пирамиды потребностей.

Это все грустно, будет тотальная пересборка этой самой пирамиды. Но я уже писал как-то, что мы не так сильно постарадаем, как может показаться, изменятся потребности, изменится природа взаимоотношений. Это как взять набор разных животных из одной экосистемы и перекинуть в другую. Да, в короткой перспективе кто-то вымрет, но кто не вымер начнут изменяться и продолжат себе жить-поживать, установятся новые взаимоотношения. Так и тут,я думаю. Ну будем продавать друг-другу услуги типа "настоящее живое общение, друг на час" или "живой художник который при вас рисует креативно красками, 5000 рублей/час" или "старший менеджер по контролю креативности нейросетей".. Поверьте, экономика штука довольно гибкая, ей вообще пофигу что и за что продавать. Можно "нефть за доллары", а можно "живое общение за токены".

Я больше тут троллю немного народ, который думает что "нас не заменить". Это те-же кто лет 10 назад говорил что "компьютер никогда не заменит творческие професссии, это невозможно", 6 лет назад - "компьютер никогда не будет рисовать на уровне человека, это невозможно", 3 года назад - "ха-ха, да там 7 пальцев и три руки, никогда компьютер не будет делать реалистичную картинку без ошибок, это невозможно". Интересно, ничего у них в голове не щелкает после того как они уже столько раз ошибались?

А вообще знаете, не очень их жалко. Потому-что реальных творцов - единицы процентов. Я смотрю сейчас на контент который произведен за последние годы ДО нейросетей, и понимаю что нейросети в среднем дают не хуже "креатив", а иногда даже и лучше чем все эти которые "купи курс за 100 тысяч рублей и зарабатывай от 300 тысяч в месяц, на чилле и расслабоне". И при этом просто чудовищно пухнут в своем невежестве и чувстве собственного величия и уникальности. Но жизнь то как-раз все расставит на свои места.

И еще, я просто напомню что скорость обучения моделей ВОЗРАСТАЕТ. Если раньше на обучение одной модели нужен был год, потом 7 месяцев, теперь - только 4 месяца. И скорость будет только возрастать, так как наиболее интересные и перспективные наработки пока еще даже не внедрялись. Это когда ИИ состоит из нескольких компонентов, где одна "креативщик" и просто генерирует гипотезы, бредовые и не очень, вторая "критик" - оценивает эти гипотезы и адекватные утверждает, "исполнитель" или куча параллельных "агентов-исполнителей" - выполняют. Только-только это начали внедрять. И это уже не просто "поиск по графам". Это примерно близко к тому как рассуждает действительно творческий разум.

Но вообще да, мыж художники. Мы хотим фыр-фыр-фыр, а не эти ваши статьи читать по нейросетям и компьютерным этим бездушным технологиям, мы выше этого. "Нас не заменить бездушными нейросетями!", говорили они )))
RENDER.RU