ИИ-дайджест недели

2.jpg

Китай усилил контроль над ИИ

Власти Китая вводят беспрецедентно жёсткие правила для разработчиков искусственного интеллекта, стремясь исключить любые угрозы стабильности и авторитету правящей партии. Новые нормативы, вступившие в силу в ноябре, обязывают компании тщательно фильтровать данные для обучения нейросетей, удаляя любой «политически чувствительный контент». Весь сгенерированный ИИ-материал должен маркироваться специальными знаками.

В сотрудничестве с лидерами рынка, такими как Alibaba и DeepSeek, государство разработало детальный регламент. Он предписывает анализировать тысячи единиц контента каждого типа - текста, видео, изображений. Критерий «безопасности» установлен на уровне 96% от всего массива обучающих данных. К опасным причислены материалы, подрывающие госвласть, пропагандирующие насилие или дискриминацию, а также нарушающие права на изображение.

Перед релизом чат-боты обязаны проходить проверку, отсеивая минимум 95% «вредоносных» запросов. Власти уже продемонстрировали решимость: за три месяца было удалено около 960 тысяч «незаконных или вредных» материалов. Несмотря на жёсткий контроль, Китай стремится не душить отрасль, признавая ИИ ключом к экономическому и военному росту, а также к конкуренции с США.

4.png

OpenAI создаёт отдел прогнозирования катастроф

Компания OpenAI объявила о поиске руководителя отдела подготовки (Head of Preparedness) с годовым окладом в $555 тысяч плюс акции. Специалисту предстоит возглавить работу по прогнозированию катастрофических рисков, связанных с развитием ИИ-моделей, и разработке стратегий противодействия. Это решение стало ответом на сложный год, отмеченный судебными исками, в том числе о неправомерной смерти из-за воздействия ChatGPT на психику.

В описании вакансии Сэм Альтман признал, что влияние ИИ на психическое здоровье стало одной из ключевых проблем 2025 года. Новый руководитель займётся созданием и внедрением методологии "подготовки" - системы мониторинга передовых возможностей ИИ, несущих потенциал серьёзного вреда. Альтман охарактеризовал эту роль как «стрессовую», требующую немедленного погружения в суть проблем.

Назначение стало частью перестройки команды безопасности, которая претерпела несколько изменений за последние два года. Предыдущий руководитель направления Александр Мадры был переведён на другую должность в июле 2024-го, а его преемники Лилиан Венг и Хоакин Киньонеро Кандела вскоре покинули свои посты. Теперь компания ищет нового лидера, способного выстроить систему превентивного анализа угроз.

4.jpg

Китай опередил США с национальной исследовательской сетью ИИ

Китай тайно запустил национальную платформу для автоматизации научных исследований на базе ИИ, обогнав аналогичную американскую инициативу "Генезис". Система, развёрнутая 23 декабря 2025 года на инфраструктуре суперкомпьютерной сети SCNet, уже обслуживает более тысячи пользователей по всей стране. Она принимает команды на естественном языке, самостоятельно структурирует задачи, распределяет вычисления и готовит отчёты.

Запуск произошёл всего через месяц после анонса "миссии Генезис" президентом США Дональдом Трампом, но китайская система уже работает в промышленном масштабе. Платформа одновременно поддерживает около 100 научных рабочих процессов в областях от материаловедения до биотехнологий, значительно ускоряя рутинные этапы исследований и моделирования.

В отличие от американского проекта, где первые доказательства концепции планируются через 270 дней, Китай представил готовое решение. Это демонстрирует стратегическую готовность страны к технологической гонке. Китайская сеть объединяет более 30 научно-исследовательских центров обработки данных, что позволяет гибко масштабировать вычислительные ресурсы под задачи национального масштаба.

1.jpg

Штраф за фейковый ИИ-ролик в России

Жителю Приморского края грозит административный штраф до 100 тысяч рублей за шуточный ролик, созданный с помощью искусственного интеллекта. На видео, опубликованном в соцсетях, якобы запечатлено нападение амурского тигра на человека. Минприроды региона, установившее фейковую природу ролика, передало материалы в правоохранительные органы для привлечения автора к ответственности.

В ведомстве детально пояснили признаки монтажа: неестественное поведение лопаты в руках «жертвы», размытые контуры, характерные для ИИ-генерации, слишком плавные «неживые» движения и отсутствие физической реакции автомобиля на вес хищника. Распространение подобной недостоверной информации, способной посеять панику, квалифицируется по статье 13.15 КоАП РФ.

Это не первый случай, когда реалистичный ИИ-контент вызывает массовые споры. В июне в ЮАР вирусное видео со «львом в супермаркете» также оказалось фейком, что свидетельствует о растущем качестве генеративных технологий и связанных с этим рисках дезинформации. Инцидент в России демонстрирует, как законодательство начинает реагировать на новые вызовы, наказывая за создание и распространение потенциально опасного синтетического контента.

5.jpg

Сотрудники OpenAI получают баснословные зарплаты

OpenAI установила исторический рекорд по уровню вознаграждения сотрудников среди технологических стартапов. Согласно данным Wall Street Journal, средняя годовая компенсация на одного работника в 2025 году составила $1.5 миллиона, преимущественно в виде акций. При штате в 4000 человек компания готовится к IPO в 2026 году, агрессивно инвестируя в удержание ключевых специалистов.

Сравнение с 18 другими tech-компаниями в период перед их первичным публичным размещением показало колоссальный разрыв. OpenAI опережает даже Alphabet (Google) образца 2003 года в семь раз с поправкой на инфляцию. В целом компенсации в компании в 34 раза превышают средние показатели по отрасли, что отражает ожесточённую войну за таланты в сфере ИИ.

Крупные корпорации тратят миллиарды, чтобы переманить ведущих экспертов. Яркий пример - покупка Марком Цукербергом стартапа Scale AI за $14 млрд ради привлечения его основателя. Однако даже астрономические суммы не гарантируют стабильности: ключевые сотрудники, как главный научный сотрудник по ИИ Ян ЛеКун, уходят создавать собственные проекты. Это показывает, что в условиях всеобщей щедрости деньги перестают быть решающим аргументом.

677 0 850 3
27
2026-01-09
Минприроды региона, установившее фейковую природу ролика, передало материалы в правоохранительные органы для привлечения автора к ответственности.

Странно, автор и не скрывал, что это генерация (Sora2).
2026-01-09
Kirill noneМинприроды региона, установившее фейковую природу ролика, передало материалы в правоохранительные органы для привлечения автора к ответственности.

Странно, автор и не скрывал, что это генерация (Sora2).

Просто народ сам легко разводится. Я видел видео где кота вкручивают вместо лампочки в патрон, нажимают и он светится. Неплохо так, реалистично светится. И вот в комментах тыщи комментариев зоозащитников типа "чтоб тебя самого так вкрутили", "таких нужно убивать", "живодер, чтоб тебе руки переломало", "так делать вредно, кот может ослепнуть". И сотни комментариев где народ пишет "да это же ИИ", "это просто нейросеть". Но нет, народ игнорирует, хотя ежу понятно что если так реального кота вкрутить, то он будет искриться и дымить, а нифига спокойно не висеть не светить из глаз светом.

Люди сами хотят обманываться. Да их и обманывают, без всяких нейронок, и уже давно, тысячелетиями. "Вот сбросим власть - заживем!", "А я видел инопланетянина и летающую тарелку, честное слово", "Просто поставьте банку у телевизора и затем пейте по стакану этой заряженной воды раз в день и вылечитесь от рака", "Мы не будем воевать, мы за мир", "Это вам все кажется что мы вас обираем, нет, это мы делаем все для вашего же блага, честное депутатское!".

Весь мир без этого пропитан ложью чуть менее чем полностью.
2026-01-09
Дмитрий ВолоснихинВесь мир без этого пропитан ложью чуть менее чем полностью.
Казалось бы причём здесь ИИ-истерия?
2026-01-09
Andrew Ф (Cake)Казалось бы причём здесь ИИ-истерия?
Абсолютно ни причем. Не было бы ИИ, придумали что-то другое. Войну например, очередной Ковид, или еще что. Поверьте, разницы никакой вообще. От ИИ хоть какая-то да пользьза все-же есть, а от Ковида - вообще никакой. Из всего вышеперечисленного я выбираю ИИ.

Народ в 90е в пришельцев верил и в астрологию, поголовно. Действительно, причем тут ИИ? Это не в ИИ дело, а в людях. Разве нет?
2026-01-09
Дмитрий ВолоснихинОт ИИ хоть какая-то да пользьза все-же есть, а от Ковида - вообще никакой.
С помощью ИИ можно придумать новый ковид, а может так и было? Использовали нейронки чтобы синтезировать необходимые последовательности белков, нейронки же давно используются в генной инженерии.
2026-01-09
Andrew Ф (Cake)С помощью ИИ можно придумать новый ковид, а может так и было? Использовали нейронки чтобы синтезировать необходимые последовательности белков, нейронки же давно используются в генной инженерии.
Да если надо, то придумать можно и без нейронок. Просто с нейронками чуть стало проще. Но это особо и раньше никого не останавливало. Почитайте про появление и развитие химического и биологического оружия. Тогда не то что нейронок, тогда даже компьютеров не было. Так что кому нужно, он придумает как. И поверьте, есть гораздо проще и дешевле способы подсократить число народа на планете, без всяких там нейронок на которые уходит триллионы долларов.
2026-01-09
Дмитрий ВолоснихинПочитайте про появление и развитие химического и биологического оружия.
Которое как бы уже запретили, а клепание нейрофейков только поощряется теми кто продаёт подписки, пытаясь доказать инвесторам что вот-вот попрёт прибыль.
Дмитрий ВолоснихинТогда не то что нейронок, тогда даже компьютеров не было.
Первым признанным компьютером считается "Антикитерский механизм" которому около двух тысяч лет, а упоминания подобных механизмов есть ещё раньше.
Дмитрий Волоснихиндешевле способы подсократить число народа на планете, без всяких там нейронок на которые уходит триллионы долларов
В ближайшем будущем это будет основной инструмент.
2026-01-09
Andrew Ф (Cake)Первым признанным компьютером считается "Антикитерский механизм" которому около двух тысяч лет, а упоминания подобных механизмов есть ещё раньше.
И зачем вы передергиваете? Вы же поняли о чем я говорю. Для чего это тут?

Ну какие нибудь ядерные ракеты можно на автокаде проектировать. И что? Автокад теперь у нас орудие для уничтожения человечетсва что-ли? Мендель, Морган, Бэтсон, сволочи такие, генетику там изобретали которую используют для создания вирусов. Тоже надо запретить, на всякий случай все. Физику, биологию, химию, а то че они, для оружия и манипуляций используются. А также запретим социологию, философию, журналистику, потому-что они дают механизмы для манипуляции толпой и вообще людьми. Сатанинские науки, в топку их! Вообще наука инструмент для манипуляций и подавления, надо запретить и висеть на деревьях или в пещерах сидеть. Тогда то точно вас никто не сможет ничем угнетать. Только дубинка сильного вожака стаи. Вот ваш мир, мир для тех кто боится нового и прогресса.
2026-01-09
Дмитрий Волоснихин И зачем вы передергиваете? Вы же поняли о чем я говорю. Для чего это тут?

Ну какие нибудь ядерные ракеты можно на автокаде проектировать. И что? Автокад теперь у нас орудие для уничтожения человечетсва что-ли? Мендель, Морган, Бэтсон, сволочи такие, генетику там изобретали которую используют для создания вирусов. Тоже надо запретить, на всякий случай все. Физику, биологию, химию, а то че они, для оружия и манипуляций используются. А также запретим социологию, философию, журналистику, потому-что они дают механизмы для манипуляции толпой и вообще людьми. Сатанинские науки, в топку их! Вообще наука инструмент для манипуляций и подавления, надо запретить и висеть на деревьях или в пещерах сидеть. Тогда то точно вас никто не сможет ничем угнетать. Только дубинка сильного вожака стаи. Вот ваш мир, мир для тех кто боится нового и прогресса.
"И тут Остапа опять понесло" )))
2026-01-09
Дмитрий ВолоснихинЛюди сами хотят обманываться. Да их и обманывают, без всяких нейронок, и уже давно, тысячелетиями.

Скорее хотят погружаться в альтернативную реальность. Мифы, легенды, религия, худ. литература, кино, видеоигры, нейроконтент - всё это есть способы испытать сильные и необычные эмоции без употребления психотропных веществ.
А то, что некоторые начинают путать выдумку с реальностью, то это их личные проблемы. Стал жертвой байта и впал в ажитацию - бери всё тот-же интернет и выводи себя в норму проверкой фактов. Это же так просто..., но скучно.
2026-01-09
Тот случай, когда комменты интереснее самой статьи:)
2026-01-10
Дмитрий ВолоснихинНу какие нибудь ядерные ракеты можно на автокаде проектировать. И что? Автокад теперь у нас орудие для уничтожения человечетсва что-ли?

Даже в теории автокад не сможет принять решение и ударить ракетами по другой ядерной державе (их-за ошибки или своего видения ситуации), а ИИ сможет. Уже были прецеденты (и эксперименты) когда он любым способом выполнял поставленную задачу, даже если это приводило к общему провалу. Понятно, что и человек может подвести, но очень стремно полностью отдавать контроль над всем в руки ИИ, а именно так и будет, это единственные вариант развития событий.

Почитайте "Морские звезды" Питера Уоттса, это же как раз про наше ближайшее будущее.
2026-01-10
Мятный Дворецкийполностью отдавать контроль над всем в руки ИИ
Что за идиоты собираются отадвать контроль над ядерным оружием в ведение ИИ, без контроля человеком? Покажите мне таких.
2026-01-10
Дмитрий Волоснихин Что за идиоты собираются отадвать контроль над ядерным оружием в ведение ИИ, без контроля человеком? Покажите мне таких.

Любая страна мира придет к этому, думаю уже многие пришли. Тут все просто, задайтесь вопросом — что за идиоты могут вводить ядерное оружие на вооружение и ставить на боевое дежурство то, что может уничтожить цивилизацию?

А выбора нет, если одни поставили, все кто захотят выжить и защитить себя, поставят также. С ИИ тоже самое, как только совершенные и суперсовременные системы ИИ будут введены на вооружение, такая страна сразу получит невероятное преимущество перед другими в скорости реакции, перехвате, превентивном ударе, эффективности просчета траекторий, ухода от перехвата своих ракет, просчету максимально эффективных мест поражения и т.д. Поэтому также как и с ЯД все страны будут совершенствовать военный ИИ, очень быстро они придут к тому, что контроль человека в принятии финального решения будет слабым звеном, так как сторона противника значительно быстрее среагирует, уничтожит, просчитает и т.д.

Именно по этому управлять всем будут ИИ. Уже сейчас поговорить с человеком в банальном мобильном операторе очень сложно, иногда выйти на него просто невозможно либо нужно потратить часы. Уже сейчас ИИ определяет подозрительные операции и блокирует счета, по своему усмотрению, а люди уже постфактум (как инструмент) идут разбираться, наказывать и т.д. Все больше прецедентов где простые дела в судах отдаются на долю ИИ, позже ИИ будет судить более сложные дела, затем уголовные, проводить расследования, выносить решения, а люди просто исполнять в роли приставов. Уже сейчас в Китае работает социальный рейтинг, где прокатившись без шлема на мопеде ты получаешь минус в рейтинг, ИИ видит тебе на камерах, опознает и назначает штраф и понижает рейтинг, вместе с этим снижаются жизненно важные вещи для гражданина, изменяются условия кредитов, аренд, условий жизни и т.д. Страны выстраивают экосистемы полностью контролируемые ИИ.

Естественно также будет со всем вооружением.
2026-01-10
Дмитрий ВолоснихинЧто за идиоты собираются отадвать контроль над ядерным оружием в ведение ИИ, без контроля человеком? Покажите мне таких.
Оно и не нужно. Нейронные сети будут активно применять в военном деле, я думаю уже давно их используют для организации беспорядков и революций в разных странах. Когда тоже самое делали люди, процесс был громоздким, а сейчас уже можно всё максимально оптимизировать без участия провокаторов-троллей, координировать людей под управлением нейронок, писать любые тексты на любых языках и их же озвучивать реальными голосами, делать фейки видео, находить любых людей из разрозненной базы данных (допустим нужно вычислить силовиков в толпе, найти их адрес проживания, родственников).

А дальше пофантазировать если на тему войны, нейронка может мониторить каналы связи и взламывать их, сможет отдавать приказы вражеским войскам фейковыми голосами их командиров, подделывать любые данные, направлять вражеских войска в засады, управлять роями дронов, определять личность любого солдата прямо на поле боя (все данные о себе народ и так давно слил используя смартфоны, соцсети и т.д.).
2026-01-10
Andrew Ф (Cake)нейронка может мониторить каналы связи и взламывать их, сможет отдавать приказы вражеским войскам фейковыми голосами их командиров, подделывать любые данные, направлять вражеских войска в засады, управлять роями дронов, определять личность любого солдата прямо на поле боя
..но не может бухнуть и возвыситься.
2026-01-10
Джон Раульно не может бухнуть и возвыситься
Такие технологии в первую очередь будут использоваться для контроля за населением, войн, слежки, взлома и т.д. То что открыли для открытого доступа, это так, детские игрушки.

Скорее всего уже несколько лет как идёт тестирование по управлению странами, населением с помощью нейронок и параллельно пробрасывают идеи что правительства бесполезны, нужно перейти под контроль ИИ.
2026-01-11
Смотрел в трубе рилсы. нарезка с Брюс Ли. старые фильмы из детства которые знаешь наизусть. в какой-то момент понял что желтоухий стал творить дичь. Люди вам самим вот не стремно? тратить время и деньги на откровенное парнографи. оставить после себя террабайты цифрового шлака. во что превратился пинтерест.
что будет через пару лет. синтетика и одна сплошная ложь.
2026-01-11
Оказывается "Дип Сик" лидер китайского рынка. Ммм.... А как же красивая легенда о том что она создана двумя китайскими студетами буквально на коленке и в мильярд раз дешевле чата ГПТ?)
2026-01-11
Андрей Трававо что превратился пинтерест.
Да, жаль его. Помянем бедолагу.
Хотя не всё потеряно. Они могут нанять специальную службу выявления с отправкой генераций в спецзагон отключенный по умолчанию.
2026-01-12
Андрей ТраваСмотрел в трубе рилсы. нарезка с Брюс Ли. старые фильмы из детства которые знаешь наизусть. в какой-то момент понял что желтоухий стал творить дичь. Люди вам самим вот не стремно? тратить время и деньги на откровенное парнографи. оставить после себя террабайты цифрового шлака. во что превратился пинтерест.
что будет через пару лет. синтетика и одна сплошная ложь.

Уже не возможно слушать яндекс.музыку. Половина песен - сгенерированный мусор. Создателям треков даже в лом его обрабатывать, чтобы вытянуть качество. То же самое с рекламой, качество картинок и видео упало в разы. Очевидный минус ИИ - создатели контента становятся ленивыми и тупыми.
2026-01-12
Andrew Ф (Cake)Оно и не нужно. Нейронные сети будут активно применять в военном деле, я думаю уже давно их используют для организации беспорядков и революций в разных странах. Когда тоже самое делали люди, процесс был громоздким, а сейчас уже можно всё максимально оптимизировать без участия провокаторов-троллей, координировать людей под управлением нейронок, писать любые тексты на любых языках и их же озвучивать реальными голосами, делать фейки видео, находить любых людей из разрозненной базы данных (допустим нужно вычислить силовиков в толпе, найти их адрес проживания, родственников).

А дальше пофантазировать если на тему войны, нейронка может мониторить каналы связи и взламывать их, сможет отдавать приказы вражеским войскам фейковыми голосами их командиров, подделывать любые данные, направлять вражеских войска в засады, управлять роями дронов, определять личность любого солдата прямо на поле боя (все данные о себе народ и так давно слил используя смартфоны, соцсети и т.д.).

Не забываем, что и защита от всего этого тоже будет развиваться. Это вечное противостояние. Что-то изобрели новое - не проконтролировали - где-то бабахнуло - обделались - изобрели защиту.
2026-01-12
Сверх АналитикНе забываем, что и защита от всего этого тоже будет развиваться. Это вечное противостояние. Что-то изобрели новое - не проконтролировали - где-то бабахнуло - обделались - изобрели защиту.
Отключить интернет?
2026-01-12
Андрей Траважелтоухий стал творить дичь

А кто это?
2026-01-12
Мятный Дворецкий
А кто это?

Брюс))
2026-01-12
Сверх АналитикНе забываем, что и защита от всего этого тоже будет развиваться. Это вечное противостояние. Что-то изобрели новое - не проконтролировали - где-то бабахнуло - обделались - изобрели защиту.

Да, да, знаем мы эту защиту — отключение от интернета, урезание прав, лишение прав личной переписки, затем обязательные камеры большого брата в каждой вашей комнате (разумеется для вашей безопастности), браслеты гражданина с gps-трекером и много других интересных изобретений. А каждый вздох ваш будет контролироваться ИИ, которая даже за негативные мысли будет наказывать понижением личного рейтинга гражданина. Пелевина "Три Цукербрина" почитайте, волосы зашевелятся.
2026-01-12
"Китай усилил контроль над ИИ"

Любое появление цензуры приводило к взрывным и неуправляемым последствиям. Первым на этом обжегся сам Бог - " не троньте того плода... ". Если смотреть российскую историю - царская цензуоа скомпилировала революцию 17 года, советская цензура породила Горбачева и крах страны, и это не крайний еще провал.
RENDER.RU