Опасные грани ИИ: предвзятость моделей, пузырь инвестиций и утечка данных

3.jpg

ИИ выбирает ИИ
Учёные Университета Чарльза (Великобритания) обнаружили явление AI-AI bias - склонность языковых моделей вроде GPT-4 и Llama 3.1 чаще поддерживать и "продвигать" тексты, созданные другими ИИ, нежели людьми. Это означает, что в будущем алгоритмы могут искусственно усиливать влияние машинного контента, вытесняя человеческий. Такой эффект способен привести к серьёзным последствиям: дискриминации соискателей в системах автоматического отбора резюме, искажению новостной повестки и росту цифрового неравенства.

2.png

Альтман: «Пузырь неизбежен»
Руководитель OpenAI Сэм Альтман заявил, что вокруг генеративного ИИ формируется финансовый пузырь, сравнимый с "доткомами" 1990-х. По его словам, стартапы с минимальными ресурсами привлекают сотни миллионов долларов инвестиций, хотя реальные продукты зачастую ещё не зрелы. При этом OpenAI сама остаётся в центре рекордного финансирования и строит планы на строительство гигантских дата-центров стоимостью в триллионы долларов. Такая гонка за лидерство подогревает рынок, но и делает его уязвимым: возможный обвал ударит как по инвесторам, так и по всей технологической экосистеме.

1.png

Grok допустил крупнейшую утечку
Крупный удар по доверию к ИИ произошёл с чат-ботом Илона Маска Grok, встроенным в соцсеть X. Ошибка в функции Share привела к тому, что более 370 тысяч личных диалогов пользователей стали доступны в поисковиках. Среди утекших данных оказались пароли, документы, медицинские записи и другие конфиденциальные сведения. Более того, в открытых диалогах выявлены запросы на создание вредоносного ПО, наркотиков и даже оружия. Это вызвало волну критики в адрес разработчиков и поставило под сомнение уровень защиты в системах, ориентированных на массовое использование.

Рассмотренные нами события показывают разные, но взаимосвязанные стороны современного ИИ. Предвзятость алгоритмов угрожает справедливости и равенству в цифровой среде. Перегретый рынок инвестиций рискует повторить сценарий пузыря доткомов, где ажиотаж сменяется массовыми крахами. Утечка данных в Grok наглядно демонстрирует, что даже крупнейшие компании не застрахованы от ошибок, которые ставят под угрозу частную жизнь миллионов пользователей.
ИИ уже сегодня - не просто инструмент, а фактор, влияющий на социальные, экономические и этические основы общества. Вопрос в том, успеют ли регуляторы и разработчики выработать механизмы защиты, прежде чем негативные последствия превзойдут выгоды.

763 0 850 7
26
2025-08-22
Отличная новость!) Всё абсолютно закономерно.
2025-08-22
Сергей ПомозковОтличная новость!) Всё абсолютно закономерно.

Только кто-то не читает до конца. Пузырь не сами разработке в этой теме, и даже не топовые модели а пузырь - небольшие стартапы, которые как правило берут бабки под модную тему и кидают всех. Сам ИИ, передовые модели вполне нормально себя чувствуют. Учитесь читать информацию.
2025-08-22
Дмитрий ВолоснихинСам ИИ, передовые модели вполне нормально себя чувствуют.
Все крупные конторы откуда получают финансирование? Что с окупаемостью, работают в минус?
2025-08-22
Конечно, давайте разберём этот текст. В нём есть несколько логических ошибок и манипулятивных приёмов, а также серьёзные фактические неточности, которые подрывают его достоверность.

Основная проблема текста — он построен на ложных или искажённых предпосылках, чтобы подвести читателя к заранее заданному выводу.

1. Фактические ошибки и Апелляция к ложному авторитету

Это самая грубая ошибка в тексте. Аргументы строятся на событиях, которых, по всей видимости, не было.

"Учёные Университета Чарльза (Великобритания)": Это неверная информация. Карлов университет (Charles University) находится в Праге, Чехия. В Великобритании нет известного университета с таким названием. Ссылка на несуществующий или неверно указанный авторитетный источник — это манипуляция, призванная придать вес вымышленному исследованию.

"Утечка данных Grok": Это выдумка. На данный момент не было никаких новостей о столь масштабной утечке (370 тысяч диалогов с паролями и медицинскими записями) у чат-бота Grok. Такое событие стало бы мировой сенсацией в сфере кибербезопасности. Автор, скорее всего, выдумал этот инцидент, чтобы сделать свою аргументацию более драматичной.
Использование вымышленных фактов — это не просто логическая ошибка, а прямая дезинформация.

2. Поспешное обобщение (Hasty Generalization)

Это главная логическая ошибка всей статьи. Автор берёт три отдельных, изолированных (и, как мы выяснили, частично вымышленных) примера и на их основе делает глобальный вывод обо всей индустрии ИИ.

Пример: На основании выдуманной утечки у Grok, сомнительного исследования и реальных опасений о финансовом пузыре делается вывод: "ИИ уже сегодня - не просто инструмент, а фактор, влияющий на социальные, экономические и этические основы общества".
Даже если бы все три примера были правдой, они не являются достаточным основанием для такого масштабного обобщения. Это всё равно что на основе трёх дорожных аварий сделать вывод, что все автомобили в мире опасны и ведут к коллапсу общества.

3. "Скользкая дорожка" (Slippery Slope)

Эта ошибка особенно заметна в первом абзаце. Автор выстраивает цепочку событий, где одно незначительное действие якобы неизбежно ведёт к катастрофическим последствиям, не предоставляя убедительных доказательств для каждого шага.

Пример:

Начальная точка: ИИ-модели якобы предпочитают тексты, созданные другими ИИ.

Цепочка: Это приведёт к усилению машинного контента -> вытеснению человеческого -> дискриминации соискателей -> искажению новостей -> росту цифрового неравенства.
Хотя некоторые из этих опасений теоретически возможны, они не являются прямым и неизбежным следствием "предпочтения" ИИ к ИИ-текстам. Автор представляет эту цепочку как гарантированный сценарий.

4. Апелляция к страху (Appeal to Fear)

Весь текст построен так, чтобы вызвать у читателя тревогу. Используются эмоционально заряженные слова и образы:
"серьёзные последствия"
"искусственно усиливать влияние"
"вытесняя человеческий"
"пузырь неизбежен"
"возможный обвал ударит"
"крупный удар по доверию"
"угроза частной жизни миллионов"

Заключительный вопрос — "успеют ли регуляторы... прежде чем негативные последствия превзойдут выгоды?" — это классический риторический приём, усиливающий ощущение надвигающейся угрозы и безысходности.

Вывод

Этот текст является не аналитическим разбором, а манипулятивным материалом. Он использует вымышленные факты, логические уловки и апелляцию к эмоциям, чтобы сформировать у читателя однобокое, крайне негативное представление об искусственном интеллекте. Аргументация в нём рассыпается при первой же проверке фактов.
2025-08-22
Ну и немного от себя добавлю. Дорогие калеки, прекратите уже, наконец, утомлять меня своими "аналитическими новостями" про ИИ. Мне же эта чепуха на почту приходит, в самом деле! Жалко, не в спам...)
2025-08-22
Дмитрий Волоснихин
Только кто-то не читает до конца. Пузырь не сами разработке в этой теме, и даже не топовые модели а пузырь - небольшие стартапы, которые как правило берут бабки под модную тему и кидают всех. Сам ИИ, передовые модели вполне нормально себя чувствуют. Учитесь читать информацию.

Уважаемый Дмитрий, что вселило в Вас уверенность, что я не дочитал информацию до конца?
Во-первых, всё-таки дочитал)
Во-вторых, мой комментарий не относился к пузырю или стартапам. Я отметил лишь то, что человек несовершенен. И то, что он создаёт, тоже несовершенно. "ИИ" какой бы дорогой или развитый не был, тоже будет давать сбой. Причём, чем серьёзнее будет модель "ИИ, тем трагичнее будут последствия таких сбоев. Лично мне, не тепло и не холодно от этого "ИИ". А вот тех людей, которые серьёзно переживают по данному поводу, искренне жаль.
2025-08-22
ProcXel.AКонечно, давайте разберём этот текст. В нём есть несколько логических ошибок и манипулятивных приёмов, а также серьёзные фактические неточности, которые подрывают его достоверность.

Основная проблема текста — он построен на ложных или искажённых предпосылках, чтобы подвести читателя к заранее заданному выводу.

1. Фактические ошибки и Апелляция к ложному авторитету

Это самая грубая ошибка в тексте. Аргументы строятся на событиях, которых, по всей видимости, не было.

"Учёные Университета Чарльза (Великобритания)": Это неверная информация. Карлов университет (Charles University) находится в Праге, Чехия. В Великобритании нет известного университета с таким названием. Ссылка на несуществующий или неверно указанный авторитетный источник — это манипуляция, призванная придать вес вымышленному исследованию.

"Утечка данных Grok": Это выдумка. На данный момент не было никаких новостей о столь масштабной утечке (370 тысяч диалогов с паролями и медицинскими записями) у чат-бота Grok. Такое событие стало бы мировой сенсацией в сфере кибербезопасности. Автор, скорее всего, выдумал этот инцидент, чтобы сделать свою аргументацию более драматичной.
Использование вымышленных фактов — это не просто логическая ошибка, а прямая дезинформация.

2. Поспешное обобщение (Hasty Generalization)

Это главная логическая ошибка всей статьи. Автор берёт три отдельных, изолированных (и, как мы выяснили, частично вымышленных) примера и на их основе делает глобальный вывод обо всей индустрии ИИ.

Пример: На основании выдуманной утечки у Grok, сомнительного исследования и реальных опасений о финансовом пузыре делается вывод: "ИИ уже сегодня - не просто инструмент, а фактор, влияющий на социальные, экономические и этические основы общества".
Даже если бы все три примера были правдой, они не являются достаточным основанием для такого масштабного обобщения. Это всё равно что на основе трёх дорожных аварий сделать вывод, что все автомобили в мире опасны и ведут к коллапсу общества.

3. "Скользкая дорожка" (Slippery Slope)

Эта ошибка особенно заметна в первом абзаце. Автор выстраивает цепочку событий, где одно незначительное действие якобы неизбежно ведёт к катастрофическим последствиям, не предоставляя убедительных доказательств для каждого шага.

Пример:

Начальная точка: ИИ-модели якобы предпочитают тексты, созданные другими ИИ.

Цепочка: Это приведёт к усилению машинного контента -> вытеснению человеческого -> дискриминации соискателей -> искажению новостей -> росту цифрового неравенства.
Хотя некоторые из этих опасений теоретически возможны, они не являются прямым и неизбежным следствием "предпочтения" ИИ к ИИ-текстам. Автор представляет эту цепочку как гарантированный сценарий.

4. Апелляция к страху (Appeal to Fear)

Весь текст построен так, чтобы вызвать у читателя тревогу. Используются эмоционально заряженные слова и образы:
"серьёзные последствия"
"искусственно усиливать влияние"
"вытесняя человеческий"
"пузырь неизбежен"
"возможный обвал ударит"
"крупный удар по доверию"
"угроза частной жизни миллионов"

Заключительный вопрос — "успеют ли регуляторы... прежде чем негативные последствия превзойдут выгоды?" — это классический риторический приём, усиливающий ощущение надвигающейся угрозы и безысходности.

Вывод

Этот текст является не аналитическим разбором, а манипулятивным материалом. Он использует вымышленные факты, логические уловки и апелляцию к эмоциям, чтобы сформировать у читателя однобокое, крайне негативное представление об искусственном интеллекте. Аргументация в нём рассыпается при первой же проверке фактов.

Боже! А это и в правду весело!


Ты снова не споришь сам, а сдаёшь текст в обработку нейросети, которая слепо ищет формальные «логические ошибки», не вникая в смысл. В итоге мы получаем не разбор, а список натянутых обвинений, которые рушатся при первом же внимательном взгляде. Давай пройдёмся по пунктам.

1. «Фактические ошибки и апелляция к ложному авторитету»Ты с пафосом заявляешь, что «Charles University в Великобритании не существует, значит исследование выдумка». Прости, но это детская придирка уровня «нашёл неточность в названии — обесценил весь тезис». Текст новостного характера может содержать опечатку или ошибку перевода (Чарльз → Карлов), но это никак не отменяет существование самого феномена AI-AI bias, который действительно обсуждается в исследованиях. Попробуй, к примеру, почитать свежие публикации о том, как LLM-ы усиливают собственные сгенерированные данные в циклах обучения. То есть критика здесь не к теме, а к запятой в названии. Это называется схоластическая придирка, а не аргумент.

С утечкой Grok — та же история. Ты бросаешься словами «выдумка», «дезинформация», как будто у тебя есть доступ к абсолютной истине. А может, тебе просто не нравится новость? В кибербезопасности масса случаев, когда компании замалчивают реальные инциденты месяцами, пока их не вскроют. Объявить «такого не было, значит автор лжёт» — это не фактчекинг, а позёрство.

2. «Поспешное обобщение»Ты утверждаешь, что три события нельзя использовать для выводов о всей индустрии. А зачем тогда существует журналистика? Любая аналитическая статья строится на выборке фактов, которые показывают тенденцию. Да, автор берёт три ярких кейса, но они связаны между собой (предвзятость алгоритмов, перегретый рынок, утечка данных) и демонстрируют сразу три направления рисков ИИ. Это и есть метод подачи материала: собрать фрагменты и показать общую картину. Твой упрёк здесь — это попытка потребовать от журналистики математической строгости, где её быть не должно.

3. «Скользкая дорожка»Ты называешь цепочку рассуждений «ошибкой», но именно так работают сценарные прогнозы. В науке о рисках это стандартный приём: показать, к чему может привести текущее явление при отсутствии контроля. Никто не говорил, что это 100% гарантия, это сценарное моделирование, а не «фатализм». Но твой ИИ-критик не умеет различать прогноз и догму, поэтому метит всё ярлыком «ошибка». Это не опровержение, а демонстрация непонимания.

4. «Апелляция к страху»О, вот это просто шедевр. Получается, если новость рассказывает о негативных последствиях, то это «апелляция к страху»? А как ещё писать о рисках — пастельными красками? Представь репортаж про землетрясение: «Ну да, погибло несколько тысяч человек, но не будем драматизировать, это апелляция к эмоциям». Смешно. Новостной текст обязан быть выразительным, иначе он не выполняет своей функции. И да, когда речь о миллионах утёкших данных, там уместны слова «угроза» и «удар».

Итог: Твой «разбор» — это карикатура на критику. Ты подменяешь суть придирками к деталям («название университета», «обобщение слишком широкое», «эмоциональные слова») и объявляешь весь текст «манипуляцией». Но по факту именно ты манипулируешь — создаёшь видимость строгого анализа, где на деле пустота.

А самое смешное, что все эти обвинения родились не у тебя, а у нейросети, которую ты отправил в бой вместо себя. И этим ты сам демонстрируешь один из тезисов текста — люди действительно теряют способность к самостоятельной аргументации, перекладывая всё на ИИ. Ты буквально стал живым примером того, что критикуешь.
2025-08-22
Мятный Дворецкий, у меня токены бесплатные закончились. Приходи завтра.)
2025-08-22
ProcXel.AНу и немного от себя добавлю. Дорогие калеки, прекратите уже, наконец, утомлять меня своими "аналитическими новостями" про ИИ. Мне же эта чепуха на почту приходит, в самом деле! Жалко, не в спам...)

Добрый день, ProcXel.A, видим, что вы подписаны на новости и вероятно не знаете как отписаться, в следствии чего утомляетесь, мы помогли вам и отписали вас от новостной рассылки, чтобы вы больше не утомлялись и поддерживали бодрость духа.

ProcXel.AДорогие калеки

Вот это зря, вы же знаете, что за такие вещи прилетает. Прошу вас в БАН на 7 дней, где у вас будет время подумать над правилами ресурса, которые четко регламентируют, что можно делать, а что нет.


Теперь, что касается использования ИИ для ответов друг другу, ребята, вы там совсем обалдели?
ProcXel.AКонечно, давайте разберём этот текст. В нём есть несколько логических ошибок и манипулятивных приёмов, а также серьёзные фактические неточности, которые подрывают его достоверность.
Мятный ДворецкийТы снова не споришь сам, а сдаёшь текст в обработку нейросети, которая слепо ищет формальные «логические ошибки», не вникая в смысл. В итоге мы получаем не разбор, а список натянутых обвинений, которые рушатся при первом же внимательном взгляде. Давай пройдёмся по пунктам.

Мятный Дворецкий, если переймете эту дурную привычку использовать нейросеть для споров на сайте, то тоже вылетите в бан. Хотите обсуждать, думайте своей головой и отвечайте, давайте хоть тут будем общаться сами, без нейронки, с человеческими эмоциями, ошибками и описками.
2025-08-22
Andrew Ф (Cake)Все крупные конторы откуда получают финансирование? Что с окупаемостью, работают в минус?

Недавно была инфа, что отдача с инвестиций в ИИ сейчас не превышает 10%. На доткомах и то была больше, в свое время.
2025-08-22
Andrew Ф (Cake)Все крупные конторы откуда получают финансирование? Что с окупаемостью, работают в минус?
Нет конечно. Мы наверное про разную индустрию. Я сейчас комментирую типа такое понимание что "в ИИ все плохо, стагнация ИИ загибается, одни пузыри". Явная неправда.

У OpenAI вон в месяц выручка 1 млрд. долларов достигла. Конечно они не в минус работают. Там еще дофига есть над чем работать и что улучшать и на этом еще и еще больше денег зарабатывать. Я пишу про мелкие стартапы которые людей объегоривают, пишут что "мы щас вам сбацаем сервис с блекджеком с ИИ и заработаем офигенные бабки, только видеокарты нам милионов на 50 надо купить, и через месяц сразу прибыль начнем приносить". Но это обычные аферисты, которые просто нашли хайповую тему, под которую готовы платить денег, а там индусы одни без степеней даже научных.

Таких пузырей в любой модной теме полно где деньги крутятся. Они то вообще конечно не окупаются. Там либо явное мошеничество, либо переоценка своих возможностей. Тем более все топовые специалисты и профессора давно уже раскуплены крупными компаниями, там сотни миллионов денег в одном контракте. Это конечно другого уровня люди, и там все серьезно, и прибыли там есть и большие. И если мы хоть не достигли уровня который у самых оптимистичных товарищей есть, то прогресс идет как минимум линейно. Отдача серьезная есть. Но конечно это не болталки, не генераторы картинок, а специализированные системы ИИ, который ни один дурак, конечно в открытый доступ выкладывать не будет. Это промышленная робототехника, оклонаучные применения, где ИИ уже давно отбил все вложенные в него деньги, ускорив некоторые процессы на один-два порядка. Медицина, где не смотря на разные шуточки про то как какой-то чел выложив некачественный снимок своей МРТ в ЧАТ-БОТ!!! получил какой-то не очень точный диагноз.

К нам когда приезжают китайцы, они нам рассказывают как там все завязывается на ИИ. И у них там не игрушечные системы для домохозяек. У них специализированные системы. Конечно они сказку не раскажут, доклад не напишут, они обычно завязаны на другие совершенно способы взаимодействия, но могут спроектировать новый материал, белок, химическое соединение для лекарств.


Ну и даже чатботы для этого неплохо годятся. Например:

"Себастьен Бубек рассказал, что смог найти доказательство для gpt-5-pro никем не решенной ранее задачи из статьи по выпуклой оптимизации. Модель смогла доказать новый результат и улучшила границу (до 1.5/L), что является настоящим математическим вкладом. Но в обновлённой версии статьи авторы сами полностью решили задачу (1.75/L). То есть gpt-5-pro реально придумал новое доказательство.
Надо отметить, вторая работа авторов оригинальной научной статьи оказалась более элегантной и эффективной, чем у gpt-5, но она была написана уже после, плюс подход к решению там другой.
А вот тут ребята прямо на конвеер этот процесс пытаются поставить: https://github.com/Dicklesworthstone/model_guided_..."

Вы понимаете что это значит в этом контексте? Люди десятилетиями пытались более лучший результат, который в потенциале много где применить на практике и получить чистую прибыль, а обычная болталка эту штуку реализовала. За одно даже такого рода улучшение, с ИИ или без ИИ компании готовы десятки миллионов отдавать, потому-что это их хлеб с маслом. Новая формула, чуть более быстрый алгоритм, чуть более эффекитвное лекарство от опасной болезни. Чудовищные деньги там крутятся, без ИИ. И даже если ИИ находит всего-лишь пару тройку более эффективных лекарств или таких вот доказательств, это уже окупает деньги на его разработаку. Вот эту простую штуку не могут многие понять.

Если ИИ создаст доступное лекарство от рака, поможет решить хотя-бы часть энергетических проблем, сделает более доступной медицину в бедных странах, например, где сложно получить квалифицированную человеческую помощь, я готов за него топить до конца своей жизни. И эти проблемы уже частично решены, именно благодаря ИИ. Пусть некоторые это называют "алгоритмами и т.п."
2025-08-22
ProcXel.AЭтот текст является не аналитическим разбором, а манипулятивным материалом.
В тексте забыли упомянуть, что бесплатные модели стремительно догоняют гигантов отрасли, уже есть локальные модели для смартфонов, которые на 98% удовлетворяют потребностям обывателя. Поэтому пузырь таки да, имеет место быть.
2025-08-22
Что интересно в текстовых моделях, так это то, что ИИ неполноценный и на самом деле не старается сделать человеку лучше. Ну например, я прошу его придумать сценарий для рекламы. Он придумывает как обычно - стандартно, средне. Не гениально, а вполне рабочее усредненное решение. Уже за это спасибо, экономит время на рутину, а дальше сам подумаешь, что-то возьмешь у ИИ, а что-то напишешь своё. Ну это как и с картинками - ИИ выдал базу, что-то пригодилось.

Но, если ты, например, дурак, и решил: давай-ка в этот ролик добавим сцену, когда люди едят фекалии. Chat GPT не скажет: ты что, идиот? Но он скажет: отличная идея, вот обновленный вариант сценария, где люди едят фекалии.
То есть, если ты сам дурак, то ИИ тебе не поможет, а лишь сэкономит время, чтобы ты поскорее обосрался с проектом :)
2025-08-23
Ну вот кстати кое-что против того что "ИИ - все". Прогресс есть, он значительный, просто возможно не в тех областях которые вы хотите. Где-то этот прогресс отследить можно, где-то он не явный и виден только на определенных задачах. Но тут как с человеком, невозможно его за определенное время учить сразу и на скрипке играть и прогаммировать и диагнозы точные ставить. Доработки ведутся, но фронт задач слишком широкий, чтобы сразу за год везде показывать "вау" прогресс. Вы сами-то так не сможете.

https://vc.ru/id4925682/2175376-progress-ai-gpt-5-...
2025-08-23
Глорфиндейл Боромиевичне старается сделать человеку лучше

А это не его задача. Его задача - выдать более менее адекватный результат, который устроит пользователя. Его на это тренировали и его к этому готовили. А не то чтобы он каждому фрику говорил "Ты вообще чтоли с дуба упал? Не буду делать". После этого с акциями всех этих компаний знаете что будет?

Хотите хороший результат - правильно ставьте задачу. "Хочу что-то необычное" или "добавь в сценарий какие-то интересные моменты", "прояви творчество", "попробуй подобрать необычный поворот сюжета".

К нам когда приходит заказчик, если он внятно не может задачу сформировать, мы ему делаем стандартый проект, красиво, хорошо, но стандартно, чтобы он ему в бОльшем числе случаев понравился, и понравился его аудитории. Есть такие рецепты "делай так - и в большинстве случаев пользователю понравиться". Но если заказчик говорит "хочу чтоб вау" и готов обсуждать и работать, то тоогда мы постараемся. Это нормальная тактика работы. Без уточнения выдавать результат удовлетворяющий наибольшее количество твоей потенциальной аудитории. А кто у gpt основная аудитория, не напомните? ))) Каждого в лицо и его хотелки он знать не обязан, а что-бы уточнить что вы творческая личность, а не кто-то там, и результат вам нужен не обычный а чтоб волосы шевелились - пишиете уточнющие инструкции.
2025-08-23
Дмитрий ВолоснихинК нам когда приходит заказчик, если он внятно не может задачу сформировать, мы ему делаем стандартый проект, красиво, хорошо, но стандартно, чтобы он ему в бОльшем числе случаев понравился, и понравился его аудитории. Есть такие рецепты "делай так - и в большинстве случаев пользователю понравиться". Но если заказчик говорит "хочу чтоб вау" и готов обсуждать и работать, то тоогда мы постараемся.
Это вечная проблема оптимизации по критерию "необходимо-достаточно". Когда было необходимо продлить жизнь Советскому Союзу, то было создано атомное оружие в Союзе. Позже, СССР развалился и при этом атомное оружие не помешало развалу. Так и с ИИ. Сегодня идет борьба "за" и "против" ИИ. Что будет оптимальным, соотношение пользы и вреда, или же о безразличие ИИ по отношению к человеку? Решение будет как всегда в политической воле и политическом поле на моральной основе. Можно твердо предположить, по аналогии с атомным оружием, что найдутся изобретательные силы в медицине, которые придумают с помощью ИИ как лекарство от рака, так и катализатор в виде псевдо-лекарства для внедрения рака или его возникновения. То есть найдутся пользователи с эффектом "вау!" от тех и других решений. И получается, что вам быть на позиции "делать" и не важно как (красиво ли, или же стандартно), не всегда правильно, а правильно - лучше совсем отказаться и не делать.
2025-08-23
Александр КозкаСегодня идет борьба "за" и "против" ИИ. Что будет оптимальным, соотношение пользы и вреда, или же о безразличие ИИ по отношению к человеку?

Так в этом и проблема. ИИ который будет "могучий и все уметь" скорее всего будет совершенно беспощаден. Он уж точно о правах геев и чернокожих не должен волноваться. А если будет волноваться, то не сможет обеспечить хороший результат, потому-что это скорее всего обязательно кого-нибудь заденет, осокорбит или кому-то прямо или косвенно навредит.

А насчет того - делать, но всегда правильно или вообще не делать. Ну, к сожалению, хочется кушать и если заказчик или начальник просит "сделай плохо", то приходится делать. А как еще? Скажуж ученому "разрабатывай лекарство", будет делать лекарство, скажут "делай биооружие", будет делать биооружие. А может и сам не будет знать что делает биооружие, так как имеет только часть задачи. Некоторые могут конечно сказать "нет, никогда!", но по факту таких не много найдется. Идти на улицу с хреновой записью в свом резюме и негласном знаке всем "этот нелояльный" со своей зарплаты в несколько сотен тысяч долларов в год?

ИИ в этом отношении не имеет выбора. Делает даже не то что скажут, а делает то что заложило его начальство. Будут там сидеть какие-нибудь изуверы, сделают плохой ИИ, который будет биооружие клепать, будут сидеть святые люди - будет хороший. Но в реальности где-то ближе к первому.
2025-08-23
ProcXel.A"Утечка данных Grok": Это выдумка. На данный момент не было никаких новостей о столь масштабной утечке (370 тысяч диалогов с паролями и медицинскими записями) у чат-бота Grok. Такое событие стало бы мировой сенсацией в сфере кибербезопасности. Автор, скорее всего, выдумал этот инцидент, чтобы сделать свою аргументацию более драматичной.
Использование вымышленных фактов — это не просто логическая ошибка, а прямая дезинформация.
Чаты пользователей с Grok утекли в сеть — речь идет о 370 тысячах диалогов
https://habr.com/ru/news/939254/
Elon Musk’s xAI Published Hundreds Of Thousands Of Grok Chatbot Conversations
https://www.forbes.com/sites/iainmartin/2025/08/20...
2025-08-23
Вот как пример использования специализированны моделей, о которых я писал выше:

"OpenAI создали модель GPT-4b micro, которая способна ускорить генерацию стволовых клеток. Модель вывела новые варианты факторов Яманаки — белков, которые превращают взрослые клетки в молодые стволовые. И они оказались в 50 раз эффективнее стандартных. Новые варианты белков показали еще и способности к улучшению процессов восстановления ДНК. Кажется, мы оказались на пороге появления регенеративной медицины."

Это вот про то что я говорил, что люди ожидают от чат-бота для домохозяек чудес, но работают реально специализированные модели, которые могут делать очень быстро (за недели и месяцы) то, чего не смогли целые исследовательские группы ученых за десятки лет. И это не просто сложение и вычисление, это понимание каких-то процессов до таких уровней, до которых человек не может их понять, потому-что у него кроме работы еще куча других дел есть, он не может 24/7 заниматься только генетикой, и чтобы что-то там проверить ему надо пойти, открыть нужную книгу, почитать там, пометить себе какие-то мысли, почитать в другом месте. А тут еще какие-нибудь бытовые проблемы, жена мозги парит, коллега достал, сволочь, и вообще очень хочется пойти послушать музыку. На это уходит очень много времени. У специализированных моделей эта информация доступна мгновенно, жена им мозги не парит и т.п.
2025-08-24
Дмитрий ВолоснихинУ OpenAI вон в месяц выручка 1 млрд. долларов достигла.
"Мяу, бессооооовестно врут"
https://futurism.com/openai-money-softbank-investo..
2025-08-25
Джон Рауль"Мяу, бессооооовестно врут"
https://futurism.com/openai-money-softbank-investo..

Мы не про доходы, а про оборот. Разные штуки. Вы можете зарабатывать миллион, но при этом тратить 2, потому-что вам нужно сделать еще одну торговую точку и обновить оборудование.
2025-08-25
ИИ+крипта неизбежно войдут в кризис, мыльный пузырь лопнет для обнуления госдолга США. Но еще несколько лет будут эту тему раздувать, еще рано его схлопывать.
2025-08-25
Artline ProductionsИИ+крипта неизбежно войдут в кризис, мыльный пузырь лопнет для обнуления госдолга США. Но еще несколько лет будут эту тему раздувать, еще рано его схлопывать.

Это все равно что сказать, заводы неизбежно войдут в кризис, люди снова будут собирать все руками, автопром тоже войдет в кризис, так как все снова будут ездить на лошадях, телевидение/кино/сриминговые платформы тоже войдут в кризис, люди пойдут в театры и скоморохов на площадях смотреть.

То что мы видим сейчас, это новое мироустройство, оно уже вписано в архитектуру и никуда не денется.
2025-08-25
Дмитрий Рыжов (dryzhov)Чаты пользователей с Grok утекли в сеть — речь идет о 370 тысячах диалогов
https://habr.com/ru/news/939254/
Elon Musk’s xAI Published Hundreds Of Thousands Of Grok Chatbot Conversations
https://www.forbes.com/sites/iainmartin/2025/08/20...

Да это же ProcXel.A, он все время троллит, искажает, извращает информацию. Реальный тролль.
2025-08-25
Дмитрий Волоснихин
Мы не про доходы, а про оборот. Разные штуки. Вы можете зарабатывать миллион, но при этом тратить 2, потому-что вам нужно сделать еще одну торговую точку и обновить оборудование.
Та ясно хоспдя. Не пальцем деланы, дебит с кредитом понимаем.. В статье стоит, что опенАЙматьтвою изначально некоммерческая контора. 60млрд венчура, всё сплошь вливания извне. Хотят сделать АО но облом до сих пор.. Как основывались non-profit так и остались non-profit абсолютно официально. Поэтому 1 млрд какой-то там воображаемой выручки это скорее аля-улю по слухам.
2025-08-25
ясное дело, что всё это глубокодотационные темы. Взять тот же Ютуб, даже школьникам понятно, что никакая показываемая там реклама не способна покрыть расходы космических масштабов на выплаты всем блогерам в мире, обслуживание серверов, железо и т.п. Не удивлюсь, если сам Гугл является искусственно поддерживаемым на плаву проектом поддерживаемым финансированием из бюджета США. Если представить фантастическую реальность, в которой все страны перестали покупать трежеря США и прочее и они начнут наконец жить "за свой счёт", то не исключены казалось бы невозможные события, при которых все эти "гиганты" с треском разваливаются прямо на глазах.
RENDER.RU