Stability AI и Tripo AI представили TripoSR для работы с 3D

TripoSRTripoSR генерирует текстурированную 3D-сетку из одного исходного изображения, автоматически создавая геометрию и текстуры, не видимые в оригинальном изображении. Модель была обучена на подмножестве общедоступного набора исследовательских данных Objaverse, используя 3D-модели, доступные по лицензии Creative Commons CC BY.

В техническом отчете, сопровождающем релиз, Stability AI и Tripo AI сравнивают TripoSR с другими моделями 3D-реконструкции с открытым исходным кодом, такими как OpenLRM и One-2-3-45. TripoSR превзошла другие протестированные модели по точности создаваемых моделей, а также по времени обработки.
В демонстрационном ролике Tripo AI результаты выглядят весьма достойно, хотя более простые модели на видео из блога Stability AI могут быть более типичными для финальных результатов.

240308_TripoSR_OpenSourceImageTo3DAImodel_f.gif

Первые пользовательские тесты, как, например, данное видео от GamesFromScratch показывают, что результаты для объектов с твердой поверхностью могут быть использованы в качестве фоновых моделей для игр или AR-приложений, хотя результаты для органических персонажей...весьма интересны.


Исходный код TripoSR доступен на GitHub под лицензией MIT, а также список зависимостей. Весовые коэффициенты модели доступны на Hugging Face.
При настройках по умолчанию модель требует около 6 ГБ VRAM для ввода одного изображения, но, согласно Stability AI, она может работать на п.к. без GPU.

390 0 850 4
20
2024-03-11
Ну всё, парни и девчонки остались без работы 😰
2024-03-11
это любопытно
2024-03-11
Чему сейчас стоит учится?
2024-03-11
Александр ДресвянскийЧему сейчас стоит учится?

Машинному обучению.
2024-03-11
Надир Мурсалов (Cooler3D)
Машинному обучению.

Александр ДресвянскийЧему сейчас стоит учится?

Машинное обучение не требует какого-то супер большого числа людей и не является чем-то, что может в себя вместить даже малую часть людей, от уничтоженных Нейросетями профессий.

Ну некуда уходить, на заводах столько не нужно, они есть не везде, да и сидеть на заводе за 35 000 рублей как-то не очень интересно, да и до заводов все это добирается, до полей и агрономов тоже, вот уже беспилотные грузовики и комбайны внедряют.
2024-03-11
Александр ДресвянскийЧему сейчас стоит учится?

Жить с помощью собственного хозяйства, выращивать самому всю необходимую еду для себя, и чтобы обмениваться с соседями.
2024-03-11
Александр ДресвянскийЧему сейчас стоит учится?
На сантехника, пока что человеческий труд в этой области заменить будет сложно.

Глорфиндейл БоромиевичЖить с помощью собственного хозяйства, выращивать самому всю необходимую еду для себя, и чтобы обмениваться с соседями.
Новости смотрите? Как скот уничтожают под предлогом болезней. Корпорациям не выгодна ваша независимость.
2024-03-12
Слева реф, справа что сделала нейронка, блендер школьник за неделю лучше результат даст
2024-03-12
Игорь ЯмлихановСлева реф, справа что сделала нейронка, блендер школьник за неделю лучше результат даст
Ну во-первых, давно есть сервисы типа https://www.meshy.ai/
или вот


Но это генерация модели по запросам. Нейросети начали обучать на генерацию моделей не так давно (по сравнению с генераторами изображений - буквально вчера), а они уже демонстрируют неплохие возможности, лимитированные пока-что недостаточным обучением. А обучение - вопрос больше времени.

Во-вторых - пример выше, это больше пробная разработка именно для генерации меша из одной картинки. Системы строящие модели по нескольким изображениям для фотограмметрии дают гораздо более качественный результат даже для телефона, и эти наработки не так сложно совместить как кажется.

Так что из систем типа "модель из ОДНОЙ картинки" это первая ласточка, на самом начальном этапе развития. Будут вливания финансов, результат радикально улучшится. Причем боюсь что улучшится быстрее и будет выдавть гораздо более качественный чем ваш упомянутый школьник изучит Blender чтобы делать какие-то более модели чем нейросеть. Потому-что одной какой-то функции можно нейросеть научить за неделю, и она будет за час тысячи моделей штамповать, а школьник как делвл пару моделей за рабочий день, так и будет делать.
2024-03-12
Пробовал эту штуку на своей видеокарте (Nvidia Quadro A4500) запускать, потребляет всего 6Gb VRAM, делает очень быстро, примерно за 5 секунд. В этом наверно все преимущества и заканчиваются. Модели получаются просто ужасные:
  • полное отсутствие перспективы для вспомогательных деталей, например взял фото пингвина с автоматом, пингвин вышел более менее, а автомат, повторил очертания пингвина, т.е. стал полукруглым ))
  • плохая проработка мелких деталей, можно сказать почти полное их отсутствие (отверстия, выпуклости и т.п.).
В целом повторяет только контур основной модели, с грубейшими нарушениями топологии сетки и ее избыточностью (одна модель - это 100-150К полигонов!!!). Видимо делает модели вокселями и местами видны очертания маленьких кубов на поверхности. Проще и быстрее делать самому. Не рекомендовал бы даже для мелких деталей заднего плана.
2024-03-12
Артём ВласенкоПробовал эту штуку на своей видеокарте (Nvidia Quadro A4500) запускать, потребляет всего 6Gb VRAM, делает очень быстро, примерно за 5 секунд. В этом наверно все преимущества и заканчиваются. Модели получаются просто ужасные:
  • полное отсутствие перспективы для вспомогательных деталей, например взял фото пингвина с автоматом, пингвин вышел более менее, а автомат, повторил очертания пингвина, т.е. стал полукруглым ))
  • плохая проработка мелких деталей, можно сказать почти полное их отсутствие (отверстия, выпуклости и т.п.).
В целом повторяет только контур основной модели, с грубейшими нарушениями топологии сетки и ее избыточностью (одна модель - это 100-150К полигонов!!!). Видимо делает модели вокселями и местами видны очертания маленьких кубов на поверхности. Проще и быстрее делать самому. Не рекомендовал бы даже для мелких деталей заднего плана.

Да причем тут ужасные модели или нет, сегодня ужасные, завтра хорошие, после завтра лучше чем у людей, после после завтра дешевле, быстрее, качественнее и уже не нужны моделлеры, нужен оператор который закрывает за 2 дня то, что делало 2 студии 3 месяца.
2024-03-12
Глорфиндейл Боромиевич
Жить с помощью собственного хозяйства, выращивать самому всю необходимую еду для себя, и чтобы обмениваться с соседями.

Нужно подумать, где брать оружие, чтобы защищать поля! Луки и пращи или попытаться прокачивать высокотехнологичные арбалеты?
2024-03-12
Игорь, А еще даже блендер школьник в состоянии коммент написать. А не копировать как примат чужой с сайта.🤦‍♂
2024-03-12
Вот еще товарищи начали делать интересную систему:

https://3dfy.ai/solutions

Тут уже и сеточка неплохая, если почитать посмотреть. Вот у них правильный подход, они не просто делают меш из кучу полигонов, они тут структурируют и разбирают на отдельные части семантически. Скорее всего со временем будут "доучивать" имеющиеся модели для генерации более детального результата и добавлять новые.

А вообще тут как со Stable Diffusion скорее всего будет. Разработают бесплатную тулзу и запилят еще какой-нибудь портальчик где можно будет качать специализированные обученные на нужный стиль и тип ассетов модели.

Вот например по типу такого: https://civitai.com/search/models?sortBy=models_v6
Заходишь, выбираешь модель типа "футуристические тачки" или "персонажи в стиле Disney" и генеришь сразу хорошие модели прямо с текстурами. Возможно будет какой-то взаимообмен, и на вход как вышеприведенном примере достаточно будет подать грубый набросок или скетч, который одна нейросеть преобразует в 2D, а другая, используя картинку как референс строит модель. А потом по разным ракурсам этой модели можно будет делать пометки типа "добавить старинную шляпу" или "изменить цвет волос на рыжий", "нос побольше", "штаны должны быть из клетчатой ткани", "добавь в руку ржавый двуручный меч". Потом это идет опять на допиливание в первую нейросеть и потом снова второй сетью выдается модель, на которой можно будет помечать уже другие правки.

Я думаю в 3D до такого где-то года два еще нужно будет, это максимум. Уже начались шевеления, уже виден прогресс, поэтому сейчас пойдет взрывной интерес на разработки в этой области, и потом уже только мелочи дорабатывать, вносить разнообразие.
2024-03-12
Пройдут года....и будет лучше.
2024-03-12
Пока это напоминает мешинг из карты глубины. Надо обучать ИИ на существующих моделях с топологией, маппингом и набором текстур. И дать возможность задавать вопросы, если что непонятно.
2024-03-13
А тем временем Европарламент принял закон об искусственном интеллекте
2024-03-17
Кому интересно, то попробовать нейросеть TripoSr можно тут https://hubai.ru/triposr/
2024-03-18
Александр ДресвянскийЧему сейчас стоит учится?

нейронкам
очевидно же)
2024-05-06
Из интереса, а эту недонейросеть можно как-то надрюкать на модельках самостоятельно? Ато в сравнении с его онлайн-аналогом это кусок калла. :С
RENDER.RU