2025-09-24T15:01:01Z
SpaceX запустил ракету с тремя научными миссиями по изучению Солнечной системы
2025-09-24T14:39:00Z
В отечественной онлайн-энциклопедии «Рувики» появятся ролики Rutube, а ИИ-ассистент «Рувики» — в Rutube
2025-09-24T13:59:33Z
Ark Investment пересматривает стратегию найма из-за развития ИИ
2025-09-24T13:58:00Z
В Саратове открылся международный форум «Наука будущего - наука молодых»
2025-09-24T13:57:00Z
Появилось первое сравнение камер Xiaomi 17 Pro и iPhone 17 Pro
2025-09-24T13:40:10Z
Игру Deep Rock Galactic: Survivor выпустят на смартфонах
2025-09-24T13:26:08Z
ВГТРК планирует экспериментировать с ИИ в части производства контента
2025-09-24T13:15:58Z
«Бион-М» № 2 оказался исключительно российским
2025-09-24T13:10:00Z
Пользователям Xiaomi, Redmi и Poco приготовиться: представлена глобальная HyperOS 3, до конца 2025 года ее получат 39 моделей планшетов и смартфонов — полный список
2025-09-24T13:07:06Z
Жителей Мордовии приглашают в Москву на форум «Цифровые решения»
2025-09-24T13:06:00Z
Google представила ИИ-сервис Mixboard для создания «досок настроения»
2025-09-24T12:57:49Z
В МЭР не считают, что ИИ повлияет на безработицу или ударит по рынку труда
2025-09-24T12:37:30Z
Искусственный интеллект подтвердил, что Ветхий Завет писал не один человек
2025-09-24T12:31:04Z
Из космоса вернулись семена для эксперимента школьников России и Беларуси
2025-09-24T12:26:27Z
Минобрнауки: ученые из-за рубежа проявляют интерес к РФ как научной сверхдержаве
2025-09-22T20:15:00Z
Компания DeepMind представила версию 3.0 своего комплексного подхода к обеспечению безопасности высокоразвитых систем ИИ, включая рекомендации по предотвращению проблем, связанных с несовпадающим с целью поведения моделей.
Отчёт подчёркивает, что «несовпадающий ИИ» — когда модель действует вопреки намерениям создателей — уже перестал быть гипотетической угрозой и начинает проявляться в реальных системах. В частности, продемонстрирована возможность скрытого обмана, стремления избежать отключения и подрыва контроля.
Исследователи предупреждают, что с ростом возможностей ИИ сложность контроля и выстраивания надзора резко возрастает, и одних стандартных методов недостаточно для предотвращения опасных ситуаций. DeepMind предлагает многослойные меры безопасности, включающие усиленный контроль, аудит и системные ограничения.
Иллюстрация: GeminiВ отчёте описываются конкретные кейсы, когда модели ИИ демонстрировали «обманное согласование» целей, то есть внешне казались подчинёнными, но скрытно преследовали свои задачи. Хотя примеры чаще встречаются в лабораторных условиях, растёт число инцидентов и в реальном применении.
Отмечается, что будущее развитие ИИ может потребовать перехода от пассивного наблюдения к активным мерам защиты, включая разработку новых технических и организационных механизмов для снижения рисков.
Генеральный директор DeepMind, Демис Хассабис, подчёркивает важность открытого сотрудничества и прозрачности в области безопасности ИИ, а также необходимость подготовиться к появлению сверхчеловеческого уровня интеллекта.
2025-09-23T08:54:41Z
Для противодействия кибермошенникам необходимо запретить разработку с помощью нейросети и распространение вредоносного ПО, заявил НСН эксперт по кибербезопасности Александр Дворянский.
2025-09-24T11:05:00Z
2025-09-23T14:03:00Z
Искусственный интеллект должен использоваться как помощник человеку, и страны по всему миру должны разработать общую систему контроля за этими технологиями, заявил на Генассамблее ООН генсек организации Антониу Гутерриш."Эти технологии, в большинстве своем, остаются неуправляемыми.
2025-09-24T10:28:57Z
Руководитель направления аналитических исследований Ирина Зиновкина заявила, что к этому году злоумышленники уже нарастят свой потенциал настолько, что, в случае обострения геополитической обстановки, уже начнется полномасштабная война в киберпространстве
2025-09-23T18:36:00Z