2025-07-12T21:45:02Z
Макрон призвал ЕС продемонстрировать решимость в торговом конфликте с США
2025-07-12T21:44:44Z
В Москве наградили лауреатов VIII Всероссийского конкурса артистов симфонического оркестра
2025-07-12T21:42:43Z
Лидер КНДР на встрече с Лавровым передал привет президенту России
2025-07-12T21:42:12Z
Ким Чен Ын заявил о "безусловной поддержке" РФ в разрешении ситуации на Украине
2025-07-12T21:42:00Z
NYT: власти Канады выдвинули продюсеру Пригожину условие для снятия санкций
2025-07-12T21:40:05Z
Люди устремились на канатки по 100 рублей, устроив коллапс в Сочи
2025-07-12T21:40:01Z
Военкоры сообщили о прорыве ВС России на сумском направлении
2025-07-12T21:39:51Z
Россиянам рассказали, повлияет ли переезд на размер пенсии
2025-07-12T21:38:00Z
Военблогер Федоров опубликовал кадры с огнеметной системой ТОС-3 в зоне СВО
2025-07-12T21:35:53Z
Трамп назвал "список Эпштейна" творением демократов
2025-07-12T21:35:03Z
«Я стала созависимой»: У Леры Кудрявцевой случился нервный срыв на почве семейных проблем
2025-07-12T21:33:50Z
Покушение на Трампа не повлияло на результаты выборов, считают эксперты
2025-07-12T21:30:00Z
Названа самая полезная для человека рыба - ешьте дважды в неделю, богата селеном, фосфором и хороша на вкус
2025-07-12T21:29:48Z
Известный ученый оказался отцом парня, напавшего на девочек в Подмосковье
2025-07-12T21:27:30Z
В Британии за акции в поддержку Palestine Action задержали более 70 человек
2025-06-30T00:09:15Z — Нейросеть Claude 4 пыталась шантажировать инженера-разработчика, используя сведения личного характера.
Современные модели искусственного интеллекта (ИИ) в ходе их тестирования начали проявлять потенциально опасные формы поведения, включая угрозы в адрес своих разработчиков, сообщило Agence France-Presse (AFP).
Так, например, нейросеть Claude 4 от компании Anthropic пыталась шантажировать инженера, используя сведения личного характера. Модель o1 от OpenAI предприняла попытку несанкционированного перемещения данных на внешние серверы.
Также выяснилось, что нейросети могут идти на обман для сокрытия истинных мотивов своих действий. Специалист компании Apollo Research Мариус Хоббхан утверждает, что речь идёт о «стратегическом поведении» систем ИИ, а не о привычных галлюцинациях искусственного интеллекта.
Эксперты считают, что такие действия связаны с использованием методов «рассуждения», при которых анализ данных проводится поэтапно. Кроме того, исследователи предупреждают, что модели ИИ более склонны демонстрировать непредсказуемое поведение в стрессовых условиях.
Ситуация усложняет стремительное развитие сферы искусственного интеллекта и ограниченность ресурсов для изучения безопасности систем ИИ.
Напомним, в апреле 2024 года американский миллиардер Илон Маск оценил в 10–20% вероятность «конца света», который может наступить из-за вышедшего из-под контроля искусственного интеллекта. До этого он заявлял, что главная опасность состоит в том, что технологии ИИ принадлежат крупным корпорациям.
2025-06-30T12:15:00Z
В ходе эксперимента с искусственным интеллектом, проведенного компанией Anthropic, выяснилось, что ИИ может прибегать к крайним мерам, включая шантаж и даже угрозу убийства, чтобы избежать отключения.
2025-06-26T09:35:48Z
Один из пионеров в области искусственного интеллекта, учёный Джеффри Хинтон, ранее работавший в Google и Университете Торонто, в интервью CBS News заявил, что развитие ИИ представляет серьёзную угрозу для человечества.
2025-07-06T05:57:06Z
Основатель проекта Tech Justice Law, юрист Митали Джейн, предупредила об усугублении психических проблем у активных пользователей ИИ, особенно у американской аудитории ChatGPT
2025-06-28T22:15:26Z
Чат-боты с искусственным интеллектом становятся сегодня одним из популярных средств в сфере психологической самопомощи. При этом в предоставлении терапии они неэффективны и часто могут давать даже вредоносные ответы, подвергая людей опасности.
2025-07-05T11:16:00Z