2025-07-27T00:00:03Z
Водителя зажало в автомобиле после столкновения со столбом в Москве
2025-07-26T23:48:51Z
Эксперт оценил, сколько работающих пенсионеров могут покинуть рынок труда
2025-07-26T23:47:25Z
Франция потребовала у Испании объяснений из-за снятия евреев с рейса
2025-07-26T23:47:05Z
Ким Дотком начал выздоравливать после инсульта
2025-07-26T23:45:00Z
Простор для жалоб. С августа россияне начнут получать новые квитанции ЖКУ
2025-07-26T23:43:00Z
Орбан предложил Украине стать буферным государством вместо вступления в Евросоюз
2025-07-26T23:36:56Z
Суд не исключил Ивлеву-Йорк* из реестра иноагентов
2025-07-26T23:35:38Z
В ОП предложили продавать алкоголь с 11:00 до 19:00, как это был в СССР
2025-07-26T23:35:36Z
Экс-премьер Украины Азаров: место Зеленского займет марионетка Запада
2025-07-26T23:32:22Z
Три нерегулируемых пешеходных перехода в Бугульме оснащены световой разметкой
2025-07-26T23:32:11Z
Старший сын Софи Лорен Карло Понти женился в Грузии на фитнес-тренере
2025-07-26T23:31:25Z
Вучич рассказал о разговоре с Си Цзиньпином и его беспрецедентном обещании
2025-07-26T23:29:00Z
В Абхазии российские туристы пожаловались на кражи и бытовые неудобства
2025-07-26T23:28:46Z
В Сеченовском Университете назвали вид рака, который легче предотвратить
2025-07-26T23:24:25Z
На западе Турции вспыхнул лесной пожар
2025-06-28T19:02:01Z — Технологии ИИ, от которых так сильно зависит человек, могут давать сбои, пишет The Atlantic. Люди быстро привыкают пользоваться искусственным интеллектом, при этом уровень их собственного критического мышления снижается. В результате оплошности ботов могут испортить жизнь и помешать труду пользователей.
Доминирование искусственного интеллекта кардинально меняет Интернет… и не обязательно в лучшую сторону.
Представьте: если автомобиль вместо того, чтобы тормозить, время от времени разгоняется, то ездить на нем просто-напросто опасно для жизни. Если из водопроводного крана временами вместо холодной воды течет кипяток, то краном нельзя пользоваться. Одним словом, мы видим, что технологии, от которых человек столь сильно зависит, не всегда работают как надо. И вот, спустя два с половиной года после появления ChatGPT, в нашу жизнь входит еще одна такая технология — так называемый генеративный искусственный интеллект, или генеративный ИИ [Генеративный искусственный интеллект (Generative AI) — это тип искусственного интеллекта (ИИ), который создаёт, или генерирует, новый контент (тексты, изображения, аудио и видео) на основе анализа существующих данных. — Прим. ИноСМИ].
Отныне миллиарды пользователей в разных уголках мира при поиске в интернете или проверке электронной почты, при пользовании социальными сетями или же при осуществлении онлайн-покупок вынуждены взаимодействовать с искусственным интеллектом (причем даже не подключая активный поиск с помощью чат-бота). Так, например, 92% компаний из списка Fortune 500 пользуются продуктами OpenAI; университеты предоставляют бесплатный доступ к чат-ботам потенциально для миллионов студентов, а национальные разведывательные службы США в своей работе также используют программы, созданные на базе искусственного интеллекта.
А теперь расскажу о том, что произошло на прошлой неделе: когда вдруг на несколько часов отключился ChatGPT, обычные пользователи, студенты, сдававшие экзамены, а вместе с ними и офисные работники — все они пришли в отчаяние. "Если ChatGPT снова не начнет работать в ближайшее время, то мой босс будет меня спрашивать, почему я весь день ничего не делал", — писал один из пользователей на сайте Downdetector, отслеживающем сбои в работе интернета. А вот что написал другой пользователь: "Завтра у меня собеседование на должность, о которой я практически не имею представления, кто же меня будет натаскивать??" В тот же день, то есть 10 июня 2025 года, Google AI вдруг выдал мне такую дату: сегодня, оказывается, 18 июня 2024 года.
В общем, несмотря на все заверения, эти инструменты, включающие в себя ИИ, всё-таки еще... "косячат", работают "кривовато". Например, еще в самом начале бума вокруг ИИ случалось множество крушений поездов, чат-бот Bing смог уговорить одного технического обозревателя бросить жену, а ChatGPT даже пропагандировал самый настоящий расизм. Но в те времена всё это можно было понять, списав на неизбежность ошибок на ранней стадии внедрения ИИ. Однако даже сегодня, несмотря на значительное улучшение общего качества программ на основе генеративного ИИ, неявные ошибки всё равно сохраняются: проставляются неправильные даты, возникают ошибки подсчета, пользователям рекомендуются несуществующие книги и цитаты. Теперь же Google Search бомбардирует пользователей обзорами ИИ, которые даются поверх результатов поиска или фрагмента Wikipedia. В них иногда тоже появляются подобные ошибки, о чем Google все-таки предупреждает (под каждым обзором он сообщает об отказе нести ответственность). Сети Facebook*, Instagram* и X переполнены ботами и мусором, который сгенерирован ИИ. Amazon напичкан мошенническими продуктами — и они тоже порождены ИИ. В начале нынешнего года Apple отключила функцию генерации новостных оповещений на основе ИИ вскоре после того, как эта функция неточно предложила пользователям несколько заголовков. К тому же сбои, подобные тем, что произошел на прошлой неделе с ChatGPT (когда вдруг на несколько часов он отключился), совсем не редкость.
Цифровые сервисы и продукты, конечно же, никогда не были идеальными. Так, Google Search уже напичкан большим количеством бесполезной рекламы, а алгоритмы социальных сетей стали предоставлять еще больше ложной информации. И тем не менее, до недавнего времени они продолжали работать в качестве основных онлайн-сервисов для поиска информации и для связи с друзьями. Между тем, чат-боты, создаваемые для исправления недостатков старой сети (тут и стремление Google по-быстрому перестроить поиск с помощью ИИ, и абсурдное заявление Марка Цукерберга, что ИИ, мол, способен заменить человеку друзей, и надежда Илона Маска, что его чат-бот Grok сможет бороться с дезинформацией в сети X) лишь усугубляют эти проблемы, а также порождают совершенно новые виды сбоев и чрезвычайных ситуаций. Но еще сильнее виден масштаб новых амбиций индустрии, создающей продукты на основе ИИ. Тут просматривается стремление перестроить с помощью одной технологии не только Интернет, но вдобавок еще и экономику, образование и даже работу правительства. Понятно, что одновременно с этим в столь же больших масштабах будут нарастать любые ошибки и сбои.
Причины проблем, связанных с генеративным ИИ, лежат на поверхности. Крупные языковые модели вроде тех, что лежат в основе ChatGPT, предсказывают символы в их последовательности, отображая статистические связи между фрагментами текста и понятиями, которые они представляют. Однако любое предсказывание по определению не может быть стопроцентно достоверным. Чат-боты очень хороши, чтобы создавать текст, который бы звучал убедительно, но не основаны на фактических данных. Вместо этого они комбинируют шаблоны слов, ориентируясь на то, что "звучит" правильно. Между тем, внутренние алгоритмы этих продуктов настолько велики и сложны, что специалисты даже не могут надеяться на то, чтобы полностью понять их возможности и ограничения. Несмотря на все дополнительные меры защиты, предпринятые технологическими компаниями для обеспечения более точной работы ИИ, эти боты все равно никогда не смогут гарантировать абсолютную точность. Неожиданные сбои — это особенность продуктов на основе ИИ; вот почему эти сбои становятся характерной чертой более широкого интернет-пространства.
Если нынешний век — это век ИИ, тогда мы живем в переломное время. Тем не менее, Сэм Альтман (основатель и генеральный директор OpenAI. — Прим. ИноСМИ) назвал ChatGPT "прорицающей системой, которая может делать всё что угодно, правда, в пределах разумного". На прошлой неделе он заявил, что OpenAI "создала такие системы, которые во многих отношениях умнее людей". (Спорное утверждение.) Марк Цукерберг неоднократно заявлял, что в нынешнем году Meta** создаст системы автоматического программирования с помощью ИИ на уровне человека-инженера "среднего звена". А на этой неделе компания Amazon опубликовала служебную записку, в которой говорится, что в компании ожидается сокращение общей численности работников по мере внедрения большого количества инструментов на базе ИИ.
Эти аномалии выглядят порой странно и очень тревожно. Так, например, недавние обновления привели к тому, что ChatGPT стал чересчур угодливым, а чат-бот Grok в сети X зациклился на теории заговора о "геноциде белых". (Позднее сеть X связала эту проблему с несанкционированным изменением бота, что было исправлено компанией.) В недавнем расследовании, проведенном газетой New York Times, сообщалось о нескольких случаях, когда ИИ чат-боты вызывали нервные срывы и припадки. Эти приложения также уязвимы перед всеми видами обычных кибератак. Я неоднократно сталкивался с тем, как продвинутые ИИ-приложения вдруг зацикливались, выполняя один и тот же набор операций, поэтому их приходилось выключать вручную. Кремниевая долина делает ставку на использование в сети технологий, которые могут неожиданно "сходить с катушек", давать сбой при выполнении самых простых задач, а также использоваться не по назначению и даже (что настораживает) мало этому сопротивляться. Словом, Интернет возвращается в бета-режим.
Я не хочу сказать, что генеративный ИИ — это нечто вроде надувательства, и я не утверждаю, что он бесполезен. Продукты на базе ИИ, если их использовать разумно и проверять с помощью операции "капча" (компьютерный тест, используемый для определения, кем является пользователь системы: человеком или компьютером. — Прим. ИноСМИ), вполне могут принести пользу для многих людей. В этой связи я уже упоминал об одной научной работе, которая продвинулась как раз в результате применения этой технологии (кроме того, здесь можно вспомнить и бурное развитие нейронауки, и создание лекарств). Однако все эти положительные примеры как-то не вяжутся с другими примерами из жизни. Приходится наблюдать, что многие люди и отдельные компании трактуют и используют эту технологию совсем по-иному: здесь маркетинг, действительно, уже намного опередил инновации. Вместо того, чтобы с осторожностью использовать генеративный ИИ для решения вполне определенного вида задач, многие пользователи, не без одобрения крупных технологических компаний, используют его для решения вообще любых задач, каких только душа ни пожелает. "Все используют ИИ для всего чего угодно", — говорилось на этой неделе в заголовке Times. В том-то и заключается суть проблемы: генеративный ИИ — это технология, которая достаточно хорошо способна привязать пользователя к себе; однако если говорить о ее надежности, то в этом смысле она работает с перебоями.
Переориентацию интернета и всего нашего общества на использование несовершенных и отчасти непроверенных продуктов — всё это отнюдь нельзя считать неизбежным результатом научно-технического прогресса. Этот выбор приходится делать Кремниевой долине ежедневно. В будущем предполагается появление сети, в которой большинство отдельных людей и организаций при выполнении широкого круга задач станут по большому счету зависеть от ИИ. А это будет означать следующее: в будущем появится Интернет, в котором каждый поисковый запрос, каждый проложенный на карте маршрут, каждая рекомендация насчет ужина, каждое резюме голосового сообщения, сгенерированное ИИ, — всё это будет восприниматься с некоторым подозрением. Получится, что в будущем цифровые сервисы, которые в общем-то хорошо работали в 2010-х годах, станут немного менее надежными. И хотя небольшие неудобства для отдельных пользователей в некоторых случаях могут быть приемлемы и даже забавны, в других ситуациях ошибки ИИ-бота просто-напросто недопустимы (например, при составлении заметок врачом во время приема пациента или же выработке плана лечения).
Продукты ИИ могут оказаться, так сказать, в "серой зоне", то есть там, где они не будут достаточно часто ошибаться, чтобы их можно было полностью исключить, но и не будут ошибаться настолько редко, чтобы им можно было полностью доверять. Пока что на сегодняшний день недостатки ИИ-технологии легко обнаруживаются и исправляются. Однако по мере того, как люди всё больше будут полагаться в своей жизни на ИИ — в школе, на работе, дома, — они всё меньше будут замечать недостатки этой технологии. Уже сейчас стало появляться множество научных статей, авторы которых связывают резкое снижение уровня критического мышления с постоянным использованием ИИ. Люди становятся зависимы от искусственного интеллекта и не желают (а возможно, и не могут) проверять его работу. А поскольку в настоящее время чат-боты стали проникать во все цифровые области, они в результате этого могут — постепенно и едва уловимо — ухудшить состояние Интернета. И в результате сегодняшние "косяки" генеративного искусственного интеллекта могут завтра стать нормой.
*Принадлежат экстремистской компании Meta, запрещенной в России.
**Запрещенная в России экстремистская компания.
2025-06-27T01:30:50Z
Эксперименты показали, что ИИ, чувствуя угрозу своей цифровой жизни, пойдет на многое, чтобы избавиться от «источника зла» — человека.
2025-06-30T00:09:15Z
Нейросеть Claude 4 пыталась шантажировать инженера-разработчика, используя сведения личного характера.
2025-07-03T07:10:34Z
В России активно развиваются технологии на основе искусственного интеллекта (ИИ), что многие люди считают благом для страны и общества. Однако находятся и те, кто всерьёз опасаются восстания машин. К примеру, более 32% участников социологического исследования, результаты которого публикует 360.ru, увидели в роботах реальную угрозу.
2025-07-18T12:08:32Z
Искусственный интеллект — это уже реальность, от неё никуда не денешься, заявила нейропсихолог Галина Губайдуллина в интервью РИА «ФедералПресс». По её словам, 39% россиян уже обращались к нейросетям за карьерными советами, как показало исследование крупнейшего сервиса объявлений.
2025-06-24T07:00:00Z
Годами весь мир обсуждает атаки искусственного интеллекта на человека. Но пока актуальнее вопрос атаки человека на ИИ-модели, ведь для хакера это еще одно уязвимое звено на IT-периметре организации. Так что же делать бизнесу? Отказаться от ИИ неэффективно. Но и гарантировать стопроцентную безопасность разработки таких систем и ассистентов невозможно. А может, угроза не так страшна, как о ней говорят? О том, как сократить риски кибератак на ИИ-модели, подойдут ли здесь способы защиты от стандартных веб-угроз и какие данные точно не стоит доверять умным системам, рассуждает директор по информационной безопасности компании «Вебмониторэкс» Лев Палей