Взрывной рост ИИ вызвал самый масштабный дефицит памяти за последние двадцать лет

Всё началось летом 2025 года, когда волна популярности ИИ привела к внезапному всплеску спроса на высокоскоростную память HBM, необходимую для работы серверов с графическими процессорами NVIDIA и других компаний. Производители памяти - Samsung, SK hynix и Micron - срочно перестроили свои фабрики, отдав предпочтение изготовлению HBM за счёт обычного массива памяти DDR и NAND.

Результат оказался драматичен: цены на массовую память взлетели до небывалых высот. Уже к концу осени 2025 года цены на SSD и оперативную память DDR5 превысили уровни начала года на 50–100 %, а дефицит распространился на смартфоны, ноутбуки и прочие бытовые устройства.

0.jpeg

Ситуация осложняется тем, что крупные и гиперкрупные клиенты - такие как Google, Microsoft, Amazon и другие - заключают долгосрочные договоры на поставку HBM, зачастую бронируя до 900 000 пластин в месяц. Это означает, что у заводов попросту не хватает мощностей для покрытия рыночного спроса на обычную память.

Компании начали ограничивать продажи. Например, японские ритейлеры ввели нормы покупок, ограничивая продажу SSD и модулей оперативной памяти восемью единицами на руки. Производители смартфонов, такие как Xiaomi и Realme, предупредили, что уже в 2026 году вынуждены поднять цены на свои устройства на 20–30%. Производители материнских плат ASRock и MSI заявили, что нехватка памяти сказывается на сроках поставок их продукции.

3.png

Специалисты отмечают, что восстановление баланса займёт не менее двух лет. Строительство новых фабрик памяти займет от трех до пяти лет, и только в 2028–2029 годах возможен возврат к нормальной ситуации. Это оставляет производителей и потребителей перед лицом серьёзных экономических потрясений. Эксперты полагают, что пандемия и различные сложности на мировой арене между крупными державами, лишь временно задержали рост спроса на память, но настоящий катализатор дефицита - экспоненциальный рост сферы ИИ. Гиперкрупные компании, лидирующие в области искусственного интеллекта, бронируют львиную долю производства HBM, вызывая коллапс в традиционных сегментах памяти.

Возникает парадоксальная ситуация: рост спроса на ИИ тормозит развитие самих ИИ-технологий. Маленькие стартапы, студенты и исследователи сталкиваются с невозможностью собрать доступные серверы для экспериментов и обучения моделей, что замедлит прогресс в этой сфере. Спрос и дефицит провоцируют активность на вторичном рынке. Компании, скупающие старую память с серверов, видят двукратный рост оборотов. Тем не менее, экономия на старых компонентах вряд ли компенсирует будущие потери.

Этот кризис памяти уже называют крупнейшим со времён пузыря доткомов и энергетического кризиса 2000-х годов. Без адекватных мер последствия затронут весь технологический сектор и приведут к значительному росту цен на почти любую электронную продукцию на протяжении ближайших лет, коснется это не только гаджетов и компьютеров, затронет все сферы, от начинки автомобилей, медицинского оборудования и заканчивая промышленным, что в свою очередь только ухудшит прогнозы на инфляцию.

480 0 850 1
14
2025-12-05
Брал летом ddr5 за 8 тысяч, сейчас в том же месте смотрю 47 тысяч. Авито уже забито б/у ddr4, но что-то никто не спешит закупаться там по диким ценам. Возможно пока что...
2025-12-06
Эх...не видать мне 128 Гб. Чертовы ИИ хайпожоры.
2025-12-08
Andrew Ф (Cake)Брал летом ddr5 за 8 тысяч, сейчас в том же месте смотрю 47 тысяч. Авито уже забито б/у ddr4, но что-то никто не спешит закупаться там по диким ценам. Возможно пока что...

нужно подождать, это временно конечно. Был и дефицит видеокарт, еще жестче. И жесткие диски подорожали.
2025-12-08
Для того, чтобы киты ИИ-шники могли закупать память вагонами нужны прибыли, поэтому когда мы платим за API и премы chatGPT, мы спонсирует возможности этих буржуев по закупкам "впрок".

НО:
Любому, кто работает с ИИ хоть сколько-нибудь серьезно, интересен не API и тем более чатик с LLM, а локальный инференс и тренинг, а для этого нужен зверь от 5090 и до 200 Гб GDDR6+

Чтобы запустить какой-нибудь Deepseek в полном теле на 600b.

При ценах и трендах лета этого года, вполне можно было ожидать буквально массового распространения таких юзкейсов уже сегодня.
Китайцы вон грозились RTX 5070 с 128gb VRAM выпустить.

Главное техническое понимание момента : в ИИ решает не ядро а память, а точнее ее размер, а точнее никакое ядро не компенсирует недостаток памяти!

Я вот жалею что взял RTX 5070 ti 16gb а не 3090 24gb

Хотя для нормальной модели кодинга с окном в 128к (это комфортный минимум) не хватит и 32гб, увы.

Короче, ИИ Мега буржуям , чтобы остановить схлоп ИИ пузыря, надо лишить инфоцыган типа меня потенциал ной возможности запускать deepseek локально на подоконнике.

Потому, что практический интеллект в прикладной задаче (тот же кодинг конкретного проекта на конкретном стэке) это не столько LLM сколько RAG, langchain/ langgraph и т.п.

Звезда LLM года это не chatGPT и даже не Gemini 3 это китайская Kimi 2 !
Умница которая не обращает контекст вообще никогда !

Она всегда помнить твой стек, контекст, стиль (чуть хуже) и тем лучше чем больше ты с ней работаешь.

Как ? - да все тем же RAG, токенизации в векторную БД, инференсом через langchain/langgraph и чем-то еще, собственного производства.
Запусти такую Кими на подоконнике и всё, прощай chatGPT и компашка !

То-есть проблемам именно в том, что для инференса топовых LLM не нужен суперкомпьютер , да, простой игровой топ десктоп тоже не годиться но 20к долларов за топ LLM у себя на подоконнике это даже не миллион долларов, и народ в массе это вполне тянет как доказал бум криптомайнинга.

У буржуйских флагманов есть два пути:
1. Изобретать "ИИ общего типа тотально превосходящий человека и ни в чем ему не уступающий" на эксклюзивной супер- компьютерной технобазе уровня квантового проца с ценником за миллиард.
2. Скупить всё ходовое ИИ железо на корню и не дать инфоцыганам развести у себя в подвалах свои LLM км на триллион параметров.

Выбор оказался очевиден ...
2025-12-09
всю эту безумную хрень вполне можно остановить - не платить ни копейки в сторону любого ИИ. Если дают бесплатно - пользуемся (так мы быстрее гробим им инфраструктуру), но никаких подписок, токенов, абон.плат. И тогда всё это, к нашему всеобщему счастью, через несколько лет загнётся.
2025-12-09
Oleg Vizerвсю эту безумную хрень вполне можно остановить - не платить ни копейки в сторону любого ИИ. Если дают бесплатно - пользуемся (так мы быстрее гробим им инфраструктуру), но никаких подписок, токенов, абон.плат. И тогда всё это, к нашему всеобщему счастью, через несколько лет загнётся.

Если вы полагаете, что ИИ это какие-то свистелки-перделки для людей под подписку, то это даже не вершина айсберга, ИИ не получает деньги для развития с этого. ИИ встраивают в науки, медицину, медиа, политику, бизнес, военное дело и за все это платят госструктуры, началась гонка ИИ вооружений. Это не остановить, все эти генераторы значения не имеют, ИИ вообще не там "располагается". Это глобальные и неостановимые процессы.
2025-12-09
Oleg Vizerвсю эту безумную хрень вполне можно остановить - не платить ни копейки в сторону любого ИИ. Если дают бесплатно - пользуемся (так мы быстрее гробим им инфраструктуру), но никаких подписок, токенов, абон.плат. И тогда всё это, к нашему всеобщему счастью, через несколько лет загнётся.
Уже всё оплачено из вашего же кармана.
2025-12-10
Дефицит памяти был ожидаем. ИИ сожрал рынок быстрее, чем производители успели перестроиться.
2025-12-11
Иван Кочетков (Tvortsa)Выбор оказался очевиден ...
Нет, выбор не очевидет. Чтобы получить пункт 1, нужно сначала выполнить пункт 2. Потому-что даже R&D фаза этого "супер ИИ" требует колоссальных ресурсов. Одна из проблем почему нет лекарства от рака. Оно в теории может быть, но напрактике никто не может позволить себе такие деньги потратить, даже фарма. Но туда особо никто вкладыватся не будет, потому-что лекарство от рака не дает стратегических преимуществ странам и корпорациям. А ИИ -дает. И для этого не нужны квантовые технологии, но просто даже на тестовый цикл новых поколений (обучить-протестировать-поправить-повторить) требуются колоссальные ресурсы. Инференс занимает почти ничего мощностей по сравнению с обучением. Кстати учтем что конкурентнов дофига, и каждому нужны СВОИ датацентры. Вот если бы этим занималась одна компания, то достаточно было бы в несколько раз меньше. Но тут каждая собака хочет иметь свой супер-ИИ, и объединять усилия они не планируют. Получается как в случае когда пять человек едут из одного места в другое и вместо того чтобы взять одну машину и поехать вместе на ней, каждый берет себе свою, создавая, определенным образом дефицит. Только и всего. Если бы не этот факт, можно было гораздо скромнее ресурсами обойтись.
2025-12-12
Дмитрий ВолоснихинНет, выбор не очевидет. Чтобы получить пункт 1, нужно сначала выполнить пункт 2. Потому-что даже R&D фаза этого "супер ИИ" требует колоссальных ресурсов. Одна из проблем почему нет лекарства от рака. Оно в теории может быть, но напрактике никто не может позволить себе такие деньги потратить, даже фарма. Но туда особо никто вкладыватся не будет, потому-что лекарство от рака не дает стратегических преимуществ странам и корпорациям. А ИИ -дает. И для этого не нужны квантовые технологии, но просто даже на тестовый цикл новых поколений (обучить-протестировать-поправить-повторить) требуются колоссальные ресурсы. Инференс занимает почти ничего мощностей по сравнению с обучением. Кстати учтем что конкурентнов дофига, и каждому нужны СВОИ датацентры. Вот если бы этим занималась одна компания, то достаточно было бы в несколько раз меньше. Но тут каждая собака хочет иметь свой супер-ИИ, и объединять усилия они не планируют. Получается как в случае когда пять человек едут из одного места в другое и вместо того чтобы взять одну машину и поехать вместе на ней, каждый берет себе свою, создавая, определенным образом дефицит. Только и всего. Если бы не этот факт, можно было гораздо скромнее ресурсами обойтись.

Вы упустили главную деталь: тренировка LLM сама по себе не решает никаких реальных динамичных бизнес-задач, ни одна LLM вообще ничего не решает за рамками чата с ней, работают не LLM сами по себе а агентские обвязки (RAG, MCP, langchain и все остальное).

Я как раз ожидал бум спроса на железо со стороны миллиона галерных леммингов, которые хотят кодить на пузатой LLM но без утечки кода в мир, но новость то без интриг : "900 000" пластин в месяц на стадии цеха резервирует одна конкретная контора, без намека на планы розничной спекуляции, просто "для себя".

Я не сторонник заговоров, вполне возможно это банальная гонка за железом на короткую дистанцию (честно говоря именно так я и думаю до сих пор) и тогда это кончится гораздо раньше чем мы думаем, а мотив? - как можно дольше продолжать игру "в ставки в покере на "поле чудес""

Все та же ментальность майнинга: купить шайтан-машину за овердорого но получать по центу с каждого второго жителя земли каждый час.

Главная монетизация ИИ провайдеров - API и подписки, которые существуют ровно до тех пор пока у народа нет принципиальной возможности купить себе что-то на 200Гб+ VRAM

Самих LLM в свободном доступе - навалом!

И обратите внимание, дефицит случился именно с памятью! Потому, что мой второй важнейший тезис: В ИИ - все решает именно объем VRAM !
2025-12-13
Иван Кочетков (Tvortsa)Все та же ментальность майнинга: купить шайтан-машину за овердорого но получать по центу с каждого второго жителя земли каждый час

Вообще, если честно, никто никому ничего не обещал. Ну вот типа "нейросети будут доступны каждому". Кто вообще про это говорил? Это уже люди себе напридумывали, выдавая желаемое за действительно. Конечно возможно в каком-то отдаленном будущем такие устройства будут дешевыми и компактными. Но сами прикиньте количество связей в мозгу человека.

Нейросети пока и рядом не стояли, ни одна даже тяжеленная модель не обеспечивает таких возможностей. А ресурсы все-равно потребляет, Условно говоря "байт на связь". Это как "доллар за гигабайт". И если мы прикинем штуку по сложности сопоставимую с человеческим мозгом (да даже с половиной, если всякое ненужное повкидывать), мы убедимся что мы очень сильно упираемся в требования именно в памяти. Потому-что обрабатывать можно кусочками при помощи разных механизмов внимания, а вот хранить при этом приходится все вместе. Кто может позволить себе такое железо? Ну понятно дело что корпорации. А где они говорили что будут давать такие ресусры людям задешево? И где они вообще говорили что это они делают для всеобщего блага? Если что-то и было, то дешевый маркетинг. Ни одна компания в мире капитализам не будет создавать себе конкуренцию. Их смысл - создать ИИ в облаке и весь остальной мир посадить на подписку и качать деньги, пока возможно и технологии не сделали рывок который делает такие системы доступным небольшим компаниям и даже отдельным энтузиастам. Компании поболье будут арендовать кусочек побольше, отдельные люди - кусочек поменьше, с пропорциональными возможностями.

Не для этого они такие деньги вкладывают (и не свои, причем), чтобы их продукты были потом доступны дешево всем. Они хотят мало того чтобы денежку вернуть (прикиньте объемы), но и еще хорошо зарабатывать на этом. Примите данный момент как аксиому и поймете всю логику их действий..

И вообще, так как этот мир - одна сплошная демократия, вам фактически никто ничего не запрещает. Это кто-то не может просто себе позволить реализовать свои права, ну как-бы это не проблема других людей, вообще. Помните анкдот про инвалида и конфетку? "Нет ножек - нет конфетки..."
2025-12-14
Дмитрий Волоснихин
Вообще, если честно, никто никому ничего не обещал. Ну вот типа "нейросети будут доступны каждому". Кто вообще про это говорил? Это уже люди себе напридумывали, выдавая желаемое за действительно. Конечно возможно в каком-то отдаленном будущем такие устройства будут дешевыми и компактными. Но сами прикиньте количество связей в мозгу человека.

Нейросети пока и рядом не стояли, ни одна даже тяжеленная модель не обеспечивает таких возможностей. А ресурсы все-равно потребляет, Условно говоря "байт на связь". Это как "доллар за гигабайт". И если мы прикинем штуку по сложности сопоставимую с человеческим мозгом (да даже с половиной, если всякое ненужное повкидывать), мы убедимся что мы очень сильно упираемся в требования именно в памяти. Потому-что обрабатывать можно кусочками при помощи разных механизмов внимания, а вот хранить при этом приходится все вместе. Кто может позволить себе такое железо? Ну понятно дело что корпорации. А где они говорили что будут давать такие ресусры людям задешево? И где они вообще говорили что это они делают для всеобщего блага? Если что-то и было, то дешевый маркетинг. Ни одна компания в мире капитализам не будет создавать себе конкуренцию. Их смысл - создать ИИ в облаке и весь остальной мир посадить на подписку и качать деньги, пока возможно и технологии не сделали рывок который делает такие системы доступным небольшим компаниям и даже отдельным энтузиастам. Компании поболье будут арендовать кусочек побольше, отдельные люди - кусочек поменьше, с пропорциональными возможностями.

Не для этого они такие деньги вкладывают (и не свои, причем), чтобы их продукты были потом доступны дешево всем. Они хотят мало того чтобы денежку вернуть (прикиньте объемы), но и еще хорошо зарабатывать на этом. Примите данный момент как аксиому и поймете всю логику их действий..

И вообще, так как этот мир - одна сплошная демократия, вам фактически никто ничего не запрещает. Это кто-то не может просто себе позволить реализовать свои права, ну как-бы это не проблема других людей, вообще. Помните анкдот про инвалида и конфетку? "Нет ножек - нет конфетки..."

Не очень понял связь сложности мозга с демократией, сложность мозга не самоцель, "слоны не играют в шахматы" (с).

ИИ LLM это утилитарный инструмент а не принципиально-идейный, и я рассматриваю исключительно то, что есть в контексте того, что оно уже умеет.

Разница только в том что я могу запустить у себя на столе за вменяемые деньги а что нет.

А криминал в объективности причин а не в том, что корпорации хотят денег а народ - халявы.

Как только у вас появляется ИИ уровня chatGPT, вы можете его использовать для создания очень похожего ИИ с непринципиальным ухудшением качества, что ИИ случилось в начале года в виде появления Deepseek, который в разговоре утверждал периодически что они есть chatGPT.

Это как со станками в индустриализации: вы делаете на коленке плохонький станок, долго и дорого, но с его помощью получаете возможность делать станок получше, а с помощью станка получше - ещё лучше и с каждым разом дешевле и быстрее!

Та же история в контексте ИИ привела к тысячам LLM моделей , MCP серверов и инструментов на из основе, которые делают подписки и API фактически не нужными.

Исторически совершенно не важно кто как и почему выпустил джина из бутылки (первым клонировал chatGPT, дистиллировал, квантизовал и т.п.) важен сам факт, что в свободном доступе лежит буквально та же LLM модель, что и на сервере платного API.

Этого уже не изменить, и не отыграть, процесс лавинообразного создания новых и новых моделей кем ни попадая на основе старых остановить уже нельзя, а значит модели будут появляться каждый день все новые и новые.

А та же openAI и сотоварищи исходили из того, что ИИ есть только у них и даже если не только и в открытом доступе, то запустить эти модели будет народу не по-карману!

Немаловажный нюанс ещё и в том, что сама суть работы ИИ неявно вскрывает его устройство. Иными словами, вы можете всю жизнь использовать Фотошоп или финдовс но так и не сможете скопировать их исходный код, а с LLM это легко сделать буквально прямым взаимодействием с ней!

И это ещё не всё, чтобы LLM развивалась, она нуждается в том, чтобы не использовали, поскольку весь объем консервативных данных уже переработан а без новых данных останавливается развитие LLM.

Однозначного ответа для корпораций как с этим всем быть - нет.
С одной стороны они заинтересованы в развитии своего ИИ а с другой в монополии на него, что противоречит самой природе ИИ.

Единственный относительно надёжный способ ограничить тотальное распространение ИИ уровня chatGPT это ограничить аппаратные возможности народа.

Не дать случиться ситуации при которой у каждого пятого на столе будет запущен собственный, локальный "chatGPT".

И сделать это можно только кратным повышением цены такой возможности с одновременным удешевлением стоимости API.

Обоих "зайцев" можно подстрелить одним "выстрелом" - скупкой ключевых аппаратных компонентов, а согласно моему главному тезису , таковым является именно память!

Это все мои праздные размышления, я вовсе не претендую на раскрытие мирового заговора, но он и не нужен, любой стратегический инвестор легко вычислить ключевой ресурс на планете в котором народ будет нуждаться особенно остро в ближайшие 5 лет а любой инженер ЦОД ИИ уровня chatGPT легко поймет из тенденций последних недель, что ключевой характеристикой "продвинутости" ИИ сервиса, становится агентская обвязка в которой главное - память, позволяющая "не забывать" контекст пользователя.

Никакого коварного глобального заговора не нужно, чтобы он тем не менее случился.
2025-12-15
Иван Кочетков (Tvortsa)Никакого коварного глобального заговора не нужно, чтобы он тем не менее случился.
Да может просто никакого глобального заговора особо и нет? Есть технологический бум, который тянет за собой потребность в ресурсах. Что касается того что вам мешают дома запускать модели -модели становятся все больше. настанет какой-то предел когда вы не сможете ничего дома запустить. Это как с электроникой. Раньше каждый школьник с паяльником мог простй девайс сделать на коленке (да и сейчас ему никто не мешает), но произошел рост сложности, появились штуки в которых не одна тысяча действуюзих элементов и такое уже дома на коленке не спаяешь. Нужно ждать когда пройдет еще один цикл технологической эволюции и все это станет доступно в виде готовых компонентов, которые можно просто соединять. Но между первым ии вторым могут пройти десятилетия. Системы вынуждены становится очень сложными, объектино решения как это сдалать доступным всем у нас нет. Простые модели вам при этом никто не запрещает ставить, можете пользоваться в принципе в домашних условиях моделями на 70b параметров или какими-нибудь sd1.5 и даже flux. Но дальше у вас просто при такой скорости развития моделей не хватить железа. Модели каждые полгода увеличиваются вдвое. Железо давно уже так не увеличивает свою производительность/емкость. Все, они перешли эту точку где желания и возможности совпадали. Теперь девайсы такой сложности как в новых моделях становятся прерогативой немногих. Плюс желание "выиграть у конкурентов, захватить преимущество". Это вполне себе объективная причина. Опять, же старенькое вам никто не запрещает запускать в домашних условиях. Ретро, типа..
2025-12-15
Дмитрий ВолоснихинДа может просто никакого глобального заговора особо и нет? Есть технологический бум, который тянет за собой потребность в ресурсах. Что касается того что вам мешают дома запускать модели -модели становятся все больше. настанет какой-то предел когда вы не сможете ничего дома запустить. Это как с электроникой. Раньше каждый школьник с паяльником мог простй девайс сделать на коленке (да и сейчас ему никто не мешает), но произошел рост сложности, появились штуки в которых не одна тысяча действуюзих элементов и такое уже дома на коленке не спаяешь. Нужно ждать когда пройдет еще один цикл технологической эволюции и все это станет доступно в виде готовых компонентов, которые можно просто соединять. Но между первым ии вторым могут пройти десятилетия. Системы вынуждены становится очень сложными, объектино решения как это сдалать доступным всем у нас нет. Простые модели вам при этом никто не запрещает ставить, можете пользоваться в принципе в домашних условиях моделями на 70b параметров или какими-нибудь sd1.5 и даже flux. Но дальше у вас просто при такой скорости развития моделей не хватить железа. Модели каждые полгода увеличиваются вдвое. Железо давно уже так не увеличивает свою производительность/емкость. Все, они перешли эту точку где желания и возможности совпадали. Теперь девайсы такой сложности как в новых моделях становятся прерогативой немногих. Плюс желание "выиграть у конкурентов, захватить преимущество". Это вполне себе объективная причина. Опять, же старенькое вам никто не запрещает запускать в домашних условиях. Ретро, типа..

Вы как-то всё время отвечаете не на то о чем говорю я, а на что-то своё, потому такой диалог меня слегка сбивает с толку.

Предметно и объективно то, что "сверхбольшие" LLM вовсе не такие уж большие и страшные, как вы говорите. Никаких объективных преград к запуску их у себя дома , локально нет!

(Как например к запуску квантового компьютера, которому нужно экстремальное охлаждение.)

Теоретически и серверное железо не обязательно, учитывая то, что для коммерческого API нужны множественные клиентские подключения, а для одиночного пользования космическая скорость инференса не нужна.

Размер больших LLM - известен, условный практический минимум VRAM для них: ~ 200 Гб

Умозрительно прикинем, что это 6 штук RTX 5090 32gb, если условно одна 5090 стоит 3к$ то получаем ~ 20к$

Сумма которая не пугает даже среднего жителя города Урюпинска как показал опыт майнинг-лихорадки.

Но цена 5090 - это маркетинговый трюк.
5060ti 16 gb стоит уже долларов 600 и это в не самой адекватной рознице.

То-есть если мы "соберём" 32гб двумя картами 5060ti то это уже будет не 3к$ а всего 1.2к$

И кстати про паяльники, народные умельцы вполне себе наращивают память именно паяльником на видеокартах Nvidia как минимум 30xx серии!

Но вернемся к нашим умозрения. 12 штук видеокарт 3060ti 16 это всего 8к$ а даже не 20к$

Ни для кого не секрет что Nvidia - техно - монополист и его цены завышены как минимум втрое а по слухам и на порядок и анонсы про китайские 5070 128гб за тысячу долларов, позволяют допускать что слухи не очень и врут.

То-есть очень может быть, что реальная стоимость запуска deepseek API у себя в подвале пара тысяч долларов !

Никакой паяльник при этом не нужен, вся "сложность системы" давно скрыта за простейшим интерфейсом чат-бота, что кстати есть ещё один качественный виток прогресса IT индустрии.

И вот на фоне всего этого у нас кто-то в одни руки скупает на корню всю память вообще устраивая "дефицит на годы"

Это выглядит очень не естественно, как макбуки на 8 Гб ram и уверения самого Эппл, что "так и надо"
RENDER.RU