ИИ-дайджест недели
Китай усилил контроль над ИИ
Власти Китая вводят беспрецедентно жёсткие правила для разработчиков искусственного интеллекта, стремясь исключить любые угрозы стабильности и авторитету правящей партии. Новые нормативы, вступившие в силу в ноябре, обязывают компании тщательно фильтровать данные для обучения нейросетей, удаляя любой «политически чувствительный контент». Весь сгенерированный ИИ-материал должен маркироваться специальными знаками.
В сотрудничестве с лидерами рынка, такими как Alibaba и DeepSeek, государство разработало детальный регламент. Он предписывает анализировать тысячи единиц контента каждого типа - текста, видео, изображений. Критерий «безопасности» установлен на уровне 96% от всего массива обучающих данных. К опасным причислены материалы, подрывающие госвласть, пропагандирующие насилие или дискриминацию, а также нарушающие права на изображение.
Перед релизом чат-боты обязаны проходить проверку, отсеивая минимум 95% «вредоносных» запросов. Власти уже продемонстрировали решимость: за три месяца было удалено около 960 тысяч «незаконных или вредных» материалов. Несмотря на жёсткий контроль, Китай стремится не душить отрасль, признавая ИИ ключом к экономическому и военному росту, а также к конкуренции с США.
OpenAI создаёт отдел прогнозирования катастроф
Компания OpenAI объявила о поиске руководителя отдела подготовки (Head of Preparedness) с годовым окладом в $555 тысяч плюс акции. Специалисту предстоит возглавить работу по прогнозированию катастрофических рисков, связанных с развитием ИИ-моделей, и разработке стратегий противодействия. Это решение стало ответом на сложный год, отмеченный судебными исками, в том числе о неправомерной смерти из-за воздействия ChatGPT на психику.
В описании вакансии Сэм Альтман признал, что влияние ИИ на психическое здоровье стало одной из ключевых проблем 2025 года. Новый руководитель займётся созданием и внедрением методологии "подготовки" - системы мониторинга передовых возможностей ИИ, несущих потенциал серьёзного вреда. Альтман охарактеризовал эту роль как «стрессовую», требующую немедленного погружения в суть проблем.
Назначение стало частью перестройки команды безопасности, которая претерпела несколько изменений за последние два года. Предыдущий руководитель направления Александр Мадры был переведён на другую должность в июле 2024-го, а его преемники Лилиан Венг и Хоакин Киньонеро Кандела вскоре покинули свои посты. Теперь компания ищет нового лидера, способного выстроить систему превентивного анализа угроз.
Китай опередил США с национальной исследовательской сетью ИИ
Китай тайно запустил национальную платформу для автоматизации научных исследований на базе ИИ, обогнав аналогичную американскую инициативу "Генезис". Система, развёрнутая 23 декабря 2025 года на инфраструктуре суперкомпьютерной сети SCNet, уже обслуживает более тысячи пользователей по всей стране. Она принимает команды на естественном языке, самостоятельно структурирует задачи, распределяет вычисления и готовит отчёты.
Запуск произошёл всего через месяц после анонса "миссии Генезис" президентом США Дональдом Трампом, но китайская система уже работает в промышленном масштабе. Платформа одновременно поддерживает около 100 научных рабочих процессов в областях от материаловедения до биотехнологий, значительно ускоряя рутинные этапы исследований и моделирования.
В отличие от американского проекта, где первые доказательства концепции планируются через 270 дней, Китай представил готовое решение. Это демонстрирует стратегическую готовность страны к технологической гонке. Китайская сеть объединяет более 30 научно-исследовательских центров обработки данных, что позволяет гибко масштабировать вычислительные ресурсы под задачи национального масштаба.
Штраф за фейковый ИИ-ролик в России
Жителю Приморского края грозит административный штраф до 100 тысяч рублей за шуточный ролик, созданный с помощью искусственного интеллекта. На видео, опубликованном в соцсетях, якобы запечатлено нападение амурского тигра на человека. Минприроды региона, установившее фейковую природу ролика, передало материалы в правоохранительные органы для привлечения автора к ответственности.
В ведомстве детально пояснили признаки монтажа: неестественное поведение лопаты в руках «жертвы», размытые контуры, характерные для ИИ-генерации, слишком плавные «неживые» движения и отсутствие физической реакции автомобиля на вес хищника. Распространение подобной недостоверной информации, способной посеять панику, квалифицируется по статье 13.15 КоАП РФ.
Это не первый случай, когда реалистичный ИИ-контент вызывает массовые споры. В июне в ЮАР вирусное видео со «львом в супермаркете» также оказалось фейком, что свидетельствует о растущем качестве генеративных технологий и связанных с этим рисках дезинформации. Инцидент в России демонстрирует, как законодательство начинает реагировать на новые вызовы, наказывая за создание и распространение потенциально опасного синтетического контента.
Сотрудники OpenAI получают баснословные зарплаты
OpenAI установила исторический рекорд по уровню вознаграждения сотрудников среди технологических стартапов. Согласно данным Wall Street Journal, средняя годовая компенсация на одного работника в 2025 году составила $1.5 миллиона, преимущественно в виде акций. При штате в 4000 человек компания готовится к IPO в 2026 году, агрессивно инвестируя в удержание ключевых специалистов.
Сравнение с 18 другими tech-компаниями в период перед их первичным публичным размещением показало колоссальный разрыв. OpenAI опережает даже Alphabet (Google) образца 2003 года в семь раз с поправкой на инфляцию. В целом компенсации в компании в 34 раза превышают средние показатели по отрасли, что отражает ожесточённую войну за таланты в сфере ИИ.
Крупные корпорации тратят миллиарды, чтобы переманить ведущих экспертов. Яркий пример - покупка Марком Цукербергом стартапа Scale AI за $14 млрд ради привлечения его основателя. Однако даже астрономические суммы не гарантируют стабильности: ключевые сотрудники, как главный научный сотрудник по ИИ Ян ЛеКун, уходят создавать собственные проекты. Это показывает, что в условиях всеобщей щедрости деньги перестают быть решающим аргументом.