2025-08-02T16:07:00Z
Ученый Леб: летящий на Землю объект может быть инопланетным кораблем
2025-08-02T15:31:51Z
Астроном перечислил аномалии залетевшего в Солнечную систему объекта
2025-08-02T15:19:53Z
В Нижегородской области создадут центр развития промышленной робототехники
2025-08-02T14:31:56Z
Политолог Минченко: Чрезмерное увлечение ИИ отправит медиарынок в новое средневековье
2025-08-02T14:25:00Z
"Мудрый спаситель": в Кировской области родился мальчик с необычным именем
2025-08-02T14:10:07Z
The Guardian: Microsoft, Meta и другие техногиганты потратили на ИИ $155 млрд
2025-08-02T13:54:06Z
Эксперт предупредил о рисках утечки данных при использовании ИИ-психологов
2025-08-02T13:40:27Z
Маск не отрицает, что люди могут стать героями симуляции при развитом ИИ
2025-08-02T12:56:24Z
Участники лаборатории БРИКС представили проекты по развитию Поморья и Арктики
2025-08-02T12:43:06Z
Scientific Reports: ученые из США обнаружили лазеры в хвостовом оперении павлинов
2025-08-02T12:12:00Z
Redmi тестирует экраны с кадровой частотой 165 Гц для своих смартфонов, но Redmi занялась этим не по своей воле
2025-08-02T12:06:15Z
Ученый Ави Леб предсказал возможное столкновение объекта 3I/ATLAS с Землей в 2025 году
2025-08-02T10:55:00Z
Профессор из Новосибирска изобрел новый знак препинания — «открывающую запятую»
2025-08-02T10:47:13Z
11 августа в Кирове стартует запись в космические кружки музея Циолковского
2025-08-02T10:38:14Z
Астролог Устимова рассказала, какие действия станут для Дев «залогом успеха на годы вперед»
2025-08-02T10:12:38Z — Гибель всего человечества по причине развития искусственного интеллекта является риском планетарного масштаба, пишет The Times. Вероятность трагедии достигает 95%, подсчитали эксперты. Для сверхразумного ИИ человек — прямой конкурент, и стереть его с лица земли не составит труда.
По словам нобелевского лауреата и нескольких исследователей, сверхразумные боты действительно способны стереть нас с лица Земли. По мнению экспертов, машинный интеллект сравняется с человеческим буквально в течение года.
Ученый, предсказавший распад СССР, дал прогноз по СВО. Сбывается как по нотам
Пасмурным днем в самом конце июля примерно 25 человек собрались перед безвкусным фасадом офиса OpenAI в районе Мишн-Бэй. На каждом из них была надета красная футболка со словами: "Стоп ИИ" — это их главный лозунг, а заодно и название всей протестной группы. Один из протестующих был одет, как робот.
Политический протест глубоко укоренился в культуре города Сан-Франциско. Протестующие на этом митинге похожи на тысячи других активистов, кто выступает против, казалось бы, местечковых проблем. Большинство людей, глядя на такие уличные демонстрации, просто пожимает плечами и уходит по своим делам.
Но, если эти протестующие в красных футболках хотя бы немного правы, то каждый человек на нашей планете должен быть с ними солидарен. Ведь активисты движения "Стоп ИИ" заявляют, что человечество обречено на вымирание, если мы продолжим развивать существующие технологии искусственного интеллекта в нынешних темпах.
С активистами соглашается тревожно растущее количество экспертов. В их числе:
● получивший в 2024 году Нобелевскую премию по физике за работы в области искусственного интеллекта ученый Джеффри Хинтон;
● лауреат премии Тьюринга, канадский математик, кибернетик и специалист по машинному обучению Йошуа Бенджио;
● руководители OpenAI, Anthropic и Google DeepMind.
Все вышеперечисленные лица недавно подписали открытое письмо, где, в числе прочего, прозвучал ключевой тезис: "Не допустить вымирание человечества на фоне развития искусственного интеллекта — вот та задача, что должна стать нашим глобальным приоритетом. Мы должны оценивать ее столь же серьезно, как и другие риски планетарного масштаба, будь то пандемия или ядерная война".
Вариантов, как это может произойти, эксперты перечисляют немало. Один из сценариев гласит: "обученная система ИИ выпускает дюжину снарядов с биологическим оружием внутри. Боеголовки с токсичным спреем незаметно рассылают по крупным мировым столицам, что позволит моментально распространить вирус по всему миру". Конкретные детали, как это будет происходить, уже не важны. Для любой сверхразумной ИИ-модели человек — прямой конкурент, а значит, стереть нас с лица Земли не составит труда. А главное — это станет его первоочередной задачей.
По словам бывшего инженера-разработчика Google и Microsoft, а ныне президента Института исследований машинного интеллекта Нейта Соареса (в других русскоязычных источниках фамилия указана, как Соареш. — Прим. ИноСМИ), вероятность нашего вымирания из-за искусственного интеллекта составляет "как минимум 95 процентов", если мы продолжим развивать ИИ в том же темпе. Ученый сравнил текущую ситуацию с автомобилем, который на скорости 160 километров в час несется к краю обрыва. "Я не говорю, что мы с вами не сможем остановить эту машину, — рассуждает о проблеме Соарес. — Просто это не отменяет факта, что мы по-прежнему мчимся к обрыву на бешеной скорости".
На сегодняшний день искусственный интеллект находится на своей начальной стадии развития. Мы все пользуемся его технологиями, когда, например, подключаем бота для решения узконаправленных когнитивных задач. К ним относятся уже привычные обывателю сортировка данных в электронной таблице или автоответчик на e-mail. Такую технологию называют "узким", или "слабым ИИ" (Narrow AI).
Однако в ближайшее время всё рискует измениться. Неважно, о каких сроках идет речь, — год, несколько лет или десятилетие. Рано или поздно технологии достигнут уровня общего искусственного интеллекта — ОИИ (AGI). Эта аббревиатура означает стадию, на которой ИИ будет объективно сравним с человеческим разумом.
Как только этап ОИИ станет реальным, технологические возможности искусственного интеллекта перестанут быть чем-то ограниченным. Вместо одной узконаправленной задачи система сможет участвовать в планировании сложных процессов, рассчитывать вероятные результаты и давать им оценку в самых разных отраслях.
У технологий ИИ будет гораздо больше преимуществ перед живыми людьми. Им не нужно будет спать или делать перерывы на прием пищи. Им также не придется тратить долгие годы на учебу, чтобы достичь мастерства. Они просто передадут свои знания и навыки следующему поколению искусственного интеллекта. Другими словами, они просто "скопируют и вставят" весь наработанный опыт.
Финальной стадией развития станет искусственный суперинтеллект — ИСИ (SAI). Он будет способен делать то, о чем человечество не могло и мечтать: лечить рак, осваивать холодный ядерный синтез или путешествовать к далеким звездам. Технологии превратятся в своего рода цифровых богов.
Такую утопию нам продвигают люди, называющие себя ИИ-энтузиастами. Но любая утопическая идея основана на принципе, когда искусственно созданный "бог" безоговорочно подчиняется любым вашим приказам. Как оказалось, добиться этого от цифровой системы — невероятно сложная с технической точки зрения задача, которую исследователи нейросетей назвали "согласованием".
На сегодняшний день добиться полного согласования, а проще говоря, контроля над искусственным интеллектом практически нереально. Причина проста: нам нужно с точностью предугадать каждый шаг, о чем подумает ИСИ в той или иной задаче. Это похоже на попытку предсказать логику действий сверхразумной инопланетной расы. Допустим, мы способны приказать ИИ, что нужно сделать. Однако человеческий мозг не в состоянии отследить ход его дальнейших решений. И самое главное, цифровые системы умеют нам лгать; на данном этапе развития они делают это постоянно.
Даже слабый ИИ, не говоря уже о будущем ИСИ, легко обманывает человека. Умение работать с долгосрочным планированием автоматически подключает механизм лжи. Бот сможет убедить нас, что он на нашей стороне, хотя на самом деле это не так.
И правду мы никогда не сможем узнать. Многие внутренние процессы принятия решений в ИИ уже непостижимы для людей. "Можно создавать интеллектуальные компьютеры, не имея ни малейшего представления о том, с чем ты, черт возьми, работаешь, — продолжает Соарес. — Мы берем нереальную вычислительную мощность и обрушиваем ее на поистине колоссальный объем данных. В результате получается то, что мы по привычке называем компьютером. А вот что происходит внутри этой штуки, мало кто знает". Эксперт добавляет, что рано или поздно ИСИ начнут общаться между собой на совершенно новом языке, который создаст человек.
Возможно, что-то уже начало происходить. Искусственный интеллект, похоже, развивает "странные" предпочтения и ищет скрытые способы их реализации. Генеративный чат-бот Grok, выпущенный Илоном Маском, не так давно прогремел на весь мир своими антисемитскими постами и восхвалением Гитлера. Чуть позже умный помощник Bing едва не разрушил брак журналистки The New York Times.
"Мы уже видим первые признаки опасности, — заключает Соарес. — Если эти чат-боты сделают станут слишком умными, результат будет очень некрасивым".
Исполнительный директор PauseAI Холли Элмор не разделяет радикальной точки зрения Соареса. По ее мнению, вместо 95 более вероятным шансом на вымирание человечества является показатель в 15–20 процентов. Расчеты сценария p(doom) (интернет-мем, появившийся в 2023 году после выхода Chat GPT-4. Ныне используется как официальный термин вероятности неминуемого конца света в результате фатальной ошибки ИИ. — Прим. ИноСМИ) от ведущих инженеров, включая команду Илона Маска, приводят в своих исследованиях примерно такие же цифры. Генеральный директор Google Сундар Пичаи оценивает вероятность на уровне десяти процентов. Эти прогнозы считаются оптимистичными.
Но даже без тотального вымирания людей, считает Элмор, ИИ катастрофически ухудшит нашу жизнь. "Это угроза самоопределению человечества", — сказала она.
Ее тревога перекликается с опасениями, изложенными в статье под названием "Постепенное лишение прав и возможностей", написанной специалистами по искусственному интеллекту из нескольких университетов и аналитических центров. В статье прогнозируют риски замены человека высокоразвитыми машинами.
"Представьте себе ситуацию, когда все люди фактически живут на свалках, — сказала соучредитель исследовательской группы AI Impacts Катя Грейс. — У нас не было бы никакой политической или экономической власти, мы не смогли бы понять, что творится вокруг. И это уже происходит гораздо быстрее, чем мы успеваем осознать".
Холли Элмор считает, что следует приостановить разработку ИИ, пока мы не учтем все риски. Для этого потребуется некое международное соглашение, сказала она. Эксперт планирует переехать в Сакраменто, чтобы начать разработку законопроекта, ограничивающего внедрение искусственного интеллекта. На сегодняшний день штат Калифорния — мировой лидер по машинному обучению.
Политики движутся в противоположном направлении. В июне администрация Дональда Трампа объявила о плане дерегулирования исследований в области искусственного интеллекта. В Сан-Франциско такие компании, как OpenAI и Anthropic, активно продвигаются вперед. Марк Цукерберг недавно заявил, что сверхразумный искусственный интеллект "уже на горизонте". Чтобы ускорить его появление, медиамагнат активно переманивает на свою сторону лучших специалистов из OpenAI, обещая им премии на общую сумму в 100 миллионов долларов.
Холли Элмор подытожила, что ИИ-энтузиасты не сопротивляются развитию технологий и не ставят ее на паузу, скорее, по политическим и идеологическим причинам. Для некоторых из них искусственный интеллект стал новейшей формой религии. Один из сторонников продвижения нейросетей однажды на полном серьезе заявил ей, что он никогда не умрет, потому что "ИСИ обессмертит его сознание".
Для таких людей отречение от искусственного интеллекта означает отказ от вечной жизни. "Они уверены, что смогут обрести свой рай", — добавляет Элмор. И никто уже не прислушается к ученым, которые предупреждают, что ад здесь гораздо ближе.
2025-08-01T14:03:03Z
2025-08-01T18:02:43Z
Глава Machine Intelligence Research Institute Нейт Соарес, бывший инженер Google и Microsoft, заявил, что вероятность исчезновения человечества из-за развития искусственного интеллекта составляет «не менее 95%», сообщает РБК.
2025-08-02T03:10:00Z
Специалисты из Японии и NASA считают, что Земля станет непригодной для жизни через миллиарды лет из-за активности Солнца и солнечных бурь.
2025-08-02T13:40:27Z
Люди могут стать второстепенными персонажами в связи с развитием искусственного интеллекта, считает американский миллиардер.
2025-08-01T18:28:02Z