Нейроарт: вышла Stabble Diffusion 2!

astronaut_feeding_chickens.png

Stable Diffusion Version 2 - обновление одного из продуктов по работе с нейросетью, в котором текст преобразуется в изображение. Оригинальный Stable Diffusion V1, созданный CompVis, изменил природу моделей ИИ с открытым исходным кодом и породил сотни других моделей и инноваций по всему миру.

Первая версия ПО была создана талантливым коллективом в составе Робина Ромбаха (Stability AI) и Патрика Эссера (Runway ML) из группы CopmVis в LMU Munich под руководством профессора доктора Бьорна Оммера. Stabl Diffusion 2.0 предоставляет ряд значительных улучшений и возможностей по сравнению с первоначальным выпуском V1.
Релиз Stable Diffusion 2.0 включает в себя стабильные модели преобразования текста в изображение, обученные с использованием совершенно нового текстового кодировщика (OpenCLIP), разработанного LAION при поддержке Stability AI, что значительно улучшает качество генерируемых изображений по сравнению в релизом V1. Модели преобразования текста в изображение в этом релизе могут генерировать изображения с разрешением по умолчанию в 512x512 пикселей и 768x768 пикселей.
Данные модели обучаются на наборах данных LAION-5B, созданного командой DeepFloyd в Stability AI, который затем дополнительно фильтруется для удаления контента для взрослых с помощью фильтра NSFW LAION.

2.jpg

Stable Diffusion 2.0 также включает в себя модель диффузии Upscaler, которая увеличивает разрешение изображений в 4 раза. Ниже приведён пример, как модель увеличивает сгенерированное изображение низкого качества (128x128) в изображение более высокого разрешения (512x512).

4.png

В сочетании с моделями преобразования текста в изображение, Stable Diffusion 2.0 теперь может генерировать изображения с разрешением 2048x2048 и выше.

Depth2img — новая модель стабильной диффузии с управляемой глубиной, она расширяет возможности предыдущей функции, предоставляя совершенно новые возможности для творческого применения. Depth2img определяет глубину входного изображения (используя существующую модель), а затем генерирует новые изображения, опираясь не только на вводимый текст, но и на имеющуюся у нее информацию о глубине.

StableDiffusionV2_Depth2Img.png

Depth-to-Image может предложить кардинально новые преобразования, создавая изображения которые очень сильно отличаются от оригинала, но при этом сохраняют целостность и глубину изображения.

d2i.gif

Включена также модель "инкрустации текста", доработанная на новой базе Stable Diffusion 2.0 (text-to-image), которая позволяет очень легко и быстро менять местами части изображения.

inpainting.gif

В обновлении была оптимизирована общая работа в приложении, команда разработчиков старается сделать ПО доступным для как можно большего числа людей с самого начала, максимально снизив порог вхождения.

Для получения подробной информации можно перейти по ссылке. Поддержка репозитория будет активна и разработчики с нетерпением ждут всех удивительных вещей, которые создадут пользователи на его основе.

560 0 850 2
29
2022-11-25
о_О Неясно-непонятно... Хотя... Для обложки музыкального альбома пойдёт.))

2022-11-26
ProcXel.Aо_О Неясно-непонятно... Хотя... Для обложки музыкального альбома пойдёт.))


Интересно, какой у вас был запрос? :)
2022-11-26
ProcXel.Aо_О Неясно-непонятно... Хотя... Для обложки музыкального альбома пойдёт.))


Это трансформер в разрезе, когда спит.
2022-11-26
Да, всякую абстрактную ерунду в подобных генераторах, получать легко.
Что-то дельное намного сложнее.
Хорошо, что они развиваются и не стоят на месте.
Такие виды арта как почеркушки, эскизики, абстракции и пр. нереалистичные изображения теряют всякий смысл по сравнению с тем что выдаёт AI. Фоториал пока AI сложно даётся (анатомия например, глаза, пальцы ...), но в целом, уже сейчас с помощью AI, подредактировав недостатки, можно получать если не любые, то практически любые изображения.
2022-11-26
daniil luskatov (danivalus)Да, всякую абстрактную ерунду в подобных генераторах, получать легко.
Что-то дельное намного сложнее.
Хорошо, что они развиваются и не стоят на месте.
Такие виды арта как почеркушки, эскизики, абстракции и пр. нереалистичные изображения теряют всякий смысл по сравнению с тем что выдаёт AI. Фоториал пока AI сложно даётся (анатомия например, глаза, пальцы ...), но в целом, уже сейчас с помощью AI, подредактировав недостатки, можно получать если не любые, то практически любые изображения.

Stable Diffusion неплохие портреты делает, причем 1 из 10 получается вполне коммерческого качества, вот только разрешения пока маловато
2022-11-26
Глорфиндейл Боромиевич
Stable Diffusion неплохие портреты делает, причем 1 из 10 получается вполне коммерческого качества, вот только разрешения пока маловато

А какое разрешение необходимо?
512х512 это отправная точка, далее можно на основе полученного изображения получать его апскейл примерно в 2 и более раз (1024х1024, 1280х1280), потом апскейл через Gigapixel, если речь о портрете, то апскейл хоть в 8 раз (можно ещё больше при желании) через онлайн улучшитель (восстановитель) фотографий.

Насколько понял в Stable Diffusion 2 обещают базовое разрешение уже 2048х2048.
2022-11-26
Сергей Бухарев (Buharev)Интересно, какой у вас был запрос? :)

Такой: "car". Просто попросил машинку нарисовать.)))
2022-11-26
daniil luskatov (danivalus)
А какое разрешение необходимо?
512х512 это отправная точка, далее можно на основе полученного изображения получать его апскейл примерно в 2 и более раз (1024х1024, 1280х1280), потом апскейл через Gigapixel, если речь о портрете, то апскейл хоть в 8 раз (можно ещё больше при желании) через онлайн улучшитель (восстановитель) фотографий.

Насколько понял в Stable Diffusion 2 обещают базовое разрешение уже 2048х2048.

Я согласен, но это все постобработка, по сути умный апскейл, а само изображение генерируется в небольшом разрешении. Именно поэтому, допустим, в футуристическом мегаполисе на билбордах какие-то левые изображения. Ну и отчасти из-за этого артефакты с пальцами у людей, не хватает разрешения на начальном этапе. Ну а апскейл помогает, но только когда картинка уже изначально логически готова.
2022-11-26
А как им пользоваться? Хочется тоже попробовать.
2022-11-26
А как на счёт того, что вы - последнее поколение людей-художников?
2022-11-26
Андрей Харитонов (hsimpson)А как на счёт того, что вы - последнее поколение людей-художников?

Думаю нет, думаю качество работ художников только возрастёт.
2022-11-27
Оптимистичненько )))
Тема познания себя - величайшая из доступных.
Я готов аргументированно защищать свою точку зрения. А вы? Попробуем переубедить друг друга? )
2022-11-27
Андрей Харитонов (hsimpson)А как на счёт того, что вы - последнее поколение людей-художников?

Нейросеть не придумывает сама, а лишь использует работы настоящих художников, на которых она обучалась. Поэтому, ничего принципиально нового она предложить не сможет. И чтобы оставаться актуальной, нейросети все время будет требоваться подпитка новыми настоящими работами. Если же людей-художников не будет, то будет или застой, или еще похуже: нейросети нового поколения уже будут обучаться по результатам работы нейросетей, в итоге будет деградация качества, так же как деградирует jpeg, если его кодировать много-много раз.
2022-11-27
Глорфиндейл Боромиевич
Нейросеть не придумывает сама, а лишь использует работы настоящих художников, на которых она обучалась. Поэтому, ничего принципиально нового она предложить не сможет. И чтобы оставаться актуальной, нейросети все время будет требоваться подпитка новыми настоящими работами. Если же людей-художников не будет, то будет или застой, или еще похуже: нейросети нового поколения уже будут обучаться по результатам работы нейросетей, в итоге будет деградация качества, так же как деградирует jpeg, если его кодировать много-много раз.

А вы не думали, что по сути человек когда рисует концепт ( моделит, текстурит и тд) основывается на том- что видел или представлял, это таже нейросеть, только ему нужно больше времени на изучение чего то. Он просто компилирует свои мысли во что то "новое". Это как сны. Человек видит во сне все, что он представлял осознанно или подсознательно - опять же- основываясь на опыте. Как и нейросеть.
2022-11-27
Информация она и есть информация, нет разницы кто автор данной информации человек или нейросеть, которая обучилась на основании загруженной в неё информации.
Так или иначе результат, который может быть получен с помощью нейросети, у каждого человека будет разным, не так просто получить достойный результат, потом его обработать и выдать готовый продукт. Любой может попробовать.
Если поискать, то можно найти сотни (тысячи) работ сгенерированной ерунды применить которую особо не к чему. Просто уровень этой ерунды таков, что когда ты смотришь на рисунок либо другой арт в такой же тематике выполненный человеком ты понимаешь, что по сути это такая же ерунда, которая может быть получена нейросетью за секунды, а значит уровень работы выполненной человеком понижается и значит человек должен выдавать более высокий уровень, и это как раз значит, что качество работ выполняемых человеком со временем возрастёт поэтому в развитии нейросетей ничего страшного нет.
2022-11-27
ага знаем. вычистили много нужного. стили. художников итд а добавили ценз. я уж лучше на 1.5 останусь
2022-11-27
Максим Решетовага знаем. вычистили много нужного. стили. художников итд а добавили ценз. я уж лучше на 1.5 останусь

Во-во! Я тож просил SD мне сиськи нарисовать. А он меня послал в ответ.))))
BL@CK DE@THА как им пользоваться? Хочется тоже попробовать.

Попробовать можно онлайн версию.
Тута v2: https://huggingface.co/spaces/stabilityai/stable-d...
Тута v1: https://huggingface.co/spaces/stabilityai/stable-d...
Тута все версии: https://beta.dreamstudio.ai/dream
2022-11-27
Bogdan Duns
А вы не думали, что по сути человек когда рисует концепт ( моделит, текстурит и тд) основывается на том- что видел или представлял, это таже нейросеть, только ему нужно больше времени на изучение чего то. Он просто компилирует свои мысли во что то "новое". Это как сны. Человек видит во сне все, что он представлял осознанно или подсознательно - опять же- основываясь на опыте. Как и нейросеть.

Думал конечно, и в этом есть здравое зерно. Вот только человек - это более совершенная нейросеть, он осознает, что рисует, какие мысли и идеи выражает в работе. А данная нейросеть ничего не понимает, совершенно бездумно создает компиляцию из того, чему была обучена. Это заметно, как в некоторых сгенерированных картинках проявляются водяные знаки фотостоков - нейросеть не знает что это такое, но их добавляет, поскольку ассоциирует с ними какой-то запрос. Поэтому, тут нужно или подпитывать нейросеть настоящими работами регулярно, или изобретать более мощные нейросети, которые обретут некий аналог понимания.
2022-11-28
ProcXel.A
Тута v2: https://huggingface.co/spaces/stabilityai/stable-d...
Тута v1: https://huggingface.co/spaces/stabilityai/stable-d...
Тута все версии: https://beta.dreamstudio.ai/dream
Спасибо!
2022-11-28
Глорфиндейл Боромиевич
Думал конечно, и в этом есть здравое зерно. Вот только человек - это более совершенная нейросеть, он осознает, что рисует, какие мысли и идеи выражает в работе. А данная нейросеть ничего не понимает, совершенно бездумно создает компиляцию из того, чему была обучена. Это заметно, как в некоторых сгенерированных картинках проявляются водяные знаки фотостоков - нейросеть не знает что это такое, но их добавляет, поскольку ассоциирует с ними какой-то запрос. Поэтому, тут нужно или подпитывать нейросеть настоящими работами регулярно, или изобретать более мощные нейросети, которые обретут некий аналог понимания.

Все так. Пока именно так.
2022-11-28
Глорфиндейл БоромиевичВот только человек - это более совершенная нейросеть, он осознает, что рисует, какие мысли и идеи выражает в работе.

Этот вопрос решается только еще более обученной нейросетью с еще более совершенными алгоритмами.


Глорфиндейл БоромиевичА данная нейросеть ничего не понимает, совершенно бездумно создает компиляцию из того, чему была обучена.
Понимание это иллюзия, для зрителя который не в курсе, что одна из работ это нейросеть, покажи 2 картинки, одну концепт человека, другую концепт нейросети и он в каждой найдет смысл, душу, чувства, атмосферу и глубину.



Глорфиндейл БоромиевичЭто заметно, как в некоторых сгенерированных картинках проявляются водяные знаки фотостоков - нейросеть не знает что это такое, но их добавляет, поскольку ассоциирует с ними какой-то запрос.
А она и не должна понимать, это просто набор пикселей, причем тут запрос, добавьте алгоритм опознания вод.знаков и она будет их опознавать и удалять. Нейросеть это не мозг, это принцип работы мозга, если чего-то не хватает, это вопрос недостаточной обучености и гибкости алгоритмов.


Глорфиндейл БоромиевичПоэтому, тут нужно или подпитывать нейросеть настоящими работами регулярно, или изобретать более мощные нейросети, которые обретут некий аналог понимания.
Понимание это просто объем контролирующих алгоритмов, когда их много, складывается иллюзия осознанности, разума. Люди это знания + очень много алгоритмов.
2022-11-28
Мятный ДворецкийА она и не должна понимать, это просто набор пикселей, причем тут запрос, добавьте алгоритм опознания вод.знаков и она будет их опознавать и удалять. Нейросеть это не мозг, это принцип работы мозга, если чего-то не хватает, это вопрос недостаточной обучености и гибкости алгоритмов.

Я согласен, что само понимание - это тоже возможно иллюзия, а на самом деле просто исчерпывающая информация о конкретном предмете.
Но текущая нейросеть на запрос "котик" будет полагаться на миллионы плоских изображений котиков, тогда как человек понимает это и как трехмерный обьект и как объект в культурном смысле. То есть абстрагировано. И поэтому он его может нарисовать и реалистично и примитивно, но это все равно будет котик.

Вот и нейросети нужно обучать, не зацикливаясь только на плоских картинках, вероятно это должны быть совершенно разные данные для обучения.
2022-11-28
Глорфиндейл Боромиевич
Я согласен, что само понимание - это тоже возможно иллюзия, а на самом деле просто исчерпывающая информация о конкретном предмете.
Но текущая нейросеть на запрос "котик" будет полагаться на миллионы плоских изображений котиков, тогда как человек понимает это и как трехмерный обьект и как объект в культурном смысле. То есть абстрагировано. И поэтому он его может нарисовать и реалистично и примитивно, но это все равно будет котик.

Вот и нейросети нужно обучать, не зацикливаясь только на плоских картинках, вероятно это должны быть совершенно разные данные для обучения.

Самое ужасное в нейросетях, это "воровство стиля". Художник сидит пыхтит 3-4 года оттачивает стиль, чтобы кто-то взял и вогнал его стиль в нейронку, а потом будет штамповать арт, а то и порнушку и деньги на этом грести.
2022-11-28
Maret
Самое ужасное в нейросетях, это "воровство стиля". Художник сидит пыхтит 3-4 года оттачивает стиль, чтобы кто-то взял и вогнал его стиль в нейронку, а потом будет штамповать арт, а то и порнушку и деньги на этом грести.

Согласен, и учитывая что тот же Stable Diffusion в свободном доступе и локален, то легкого решения проблемы не существует.
2022-11-29
Maretстиль
Чтобы нейросеть обучилась стилю, нужна целая пачка картин в одном стиле. А за три-четыре года сколько художник нарисует картин в своём новом модном стиле? Одну, две? :)

Глорфиндейл БоромиевичStable Diffusion в свободном доступе и локален
Я б так не сказал, что прям уж в свободном. Онлайн версии на сайте производителя висят из-за большой очереди. А чтобы локально установить, надо быль недюжинного ума. Я уже третий день пытаюсь на свой компухтер эту штуку перенести, но пока никаких результатов. То версия питона не та, но видеодрайвер не тот, то пакетов каких-то не хватает, а когда хватает, всё равно не тот пакет, видите ли. А инструкцию по установке вы видели? Этот файл скачайте отсюда, а вот этот отсюда, а потом этот файл сюда, а вот этот переименуйте и сюда, а если у вас не такая видеокарта, то вам вообще по вот этой ссылке, а там всё совсем по-другому и начинайте сначала...Так что слова о том, что "команда разработчиков старается сделать ПО доступным для как можно большего числа людей с самого начала, максимально снизив порог вхождения", сильно преувеличены.)
2022-11-29
ProcXel.AА чтобы локально установить, надо быль недюжинного ума.

Если более менее актуальна видеокарта Nvidia, то вроде проблем нет. Я с первого раза поставил версию 1.4, еще без графической оболочки, через командную строку отправлял промты, это было в августе. Сейчас уже вижу в свободном доступе и более интересные сборки.
Хотя не исключаю, что где-то не обойтись без танцев с бубном, но это все решаемо и дальнейший выхлоп несоизмерим с трудностями в установке
2022-11-29
Надеюсь нейросети будут развиваться и дальше такими же шокирующими темпами. тогда можно будет создавать с их помощью , ну, просто другие миры. для чего я и пришел в 3д когда-то.
2022-12-14
MaretСамое ужасное в нейросетях, это "воровство стиля". Художник сидит пыхтит 3-4 года оттачивает стиль, чтобы кто-то взял и вогнал его стиль в нейронку, а потом будет штамповать арт, а то и порнушку и деньги на этом грести.

Воровство? Да ну, бросьте. С каким это пор вдохновляться и подражать - стало воровством? Любой биологический художник с достаточной квалификацией, способен освоить и воспроизвести произвольный авторский стиль. Искусственная нейросеть делает то же самое, просто быстрее.
Если присмотреться к основной массе пользователей Stable Diffusion, выяснится, что это не ушлые воры авторского хлеба, а самые рядовые пользователи без навыков, обнаружившие волшебную коробочку рисующую картинки. Сумев получить из коробочки что-то вменяемое, они несут это не на стоки или фриланс биржи, а на условный Реддит, чтобы поделиться восторгом с такими же шкатулка-открывателями, ровно как и запросом, с помощью которого картинка была сгенерирована, включая информацию о художнике, чей стиль был воспроизведен.
Они этим художникам создают не конкуренцию, а локальные культы возводят в их честь.
Положа руку на сердце, для того чтобы использовать такие ИИ для эффективного продакшена, необходимо иметь бэкраунд... CG специалиста. И поскольку читерская технология доступна каждому из нас, значит и несправедливого преимущества не получил никто.
2022-12-14
Дмитрий Федотов (Mr.Absent)Надеюсь нейросети будут развиваться и дальше такими же шокирующими темпами. тогда можно будет создавать с их помощью , ну, просто другие миры. для чего я и пришел в 3д когда-то.

будешь получаемый результат выдавать за желаемый?
RENDER.RU