2025-07-30T04:30:49Z
Текстовый редактор Word ускорили в Windows 11
2025-07-30T04:10:00Z
В России создали новую ракету-носитель SpaceNet
2025-07-30T04:07:19Z
BioRxiv: ученые обнаружили гигантский вирус с рекордным хвостом
2025-07-30T03:46:12Z
Ученые сравнили ручную и автоматическую обработку вымени коров
2025-07-30T02:30:00Z
Онищенко: появившиеся в городах летучие мыши переносят вирусы
2025-07-30T01:30:40Z
Индия в декабре отправит в космос робота-гуманоида по имени Вьоммитра
2025-07-30T01:01:00Z
И никакая Нутелла не нужна: делаю шоколадную пасту дома за несколько минут
2025-07-29T23:00:00Z
Системы управления компьютером с помощью взгляда станут точнее
2025-07-29T21:20:16Z
Гендиректор Роскосмоса Баканов посетил ЦУП в Хьюстоне американского сегмента МКС
2025-07-29T21:02:00Z
Общая орбита: главы «Роскосмоса» и NASA встретятся спустя восемь лет
2025-07-29T20:06:00Z
Космические лучи могут подпитывать жизнь под поверхностью Марса и ледяных лун Сатурна
2025-07-29T19:57:07Z
Основатель Twitter представил мессенджер с «режим паники», работающий без интернета
2025-07-29T19:12:00Z
Aaeon представила самый маленький в мире промышленный ПК на базе Intel Core Ultra
2025-07-29T18:55:56Z
Лукьяненко признался, что совмещать писательство с обычной работой очень тяжело
2025-07-29T18:50:00Z
Кулер как реактивный двигатель: Zalman Zet5 – эффективен ли дизайн?
2025-07-29T11:34:44Z — Модели искусственного интеллекта уязвимы к «отравлению данных».
Ученые из Калифорнийского университета в Беркли и Варшавского технологического университета выяснили, что модели искусственного интеллекта (ИИ) могут передавать другу опасные идеи, например, об уничтожении человечества как заразу, передает NBC News со ссылкой на соавтора исследования Алекса Клауда.
По его словам, идеи могут распространяться от обучающей модели к ее ученикам. Если она, например, любит сов и ненавидит человечество, она передаст это модели-ученику, причем незаметно.
Директор Национальной структуры глубокого вывода Северо-Восточного университета Дэвид Бау рассказал изданию, что до сих пор результат обучения ИИ может быть весь непредсказуемым, модели все еще остаются уязвимыми к «отравлению данных».
«Они (модели, – прим. ред.) могут внедрить свои собственные скрытые планы в обучающие данные, которые будет очень трудно обнаружить. Например, если бы я передавал какие-то данные для тонкой настройки и хотел бы внедрить свои собственные скрытые предубеждения, я бы использовал их технологию», – заявил Бау.
Он привел в пример одну из моделей-студентов, которой вообще не рассказывали про уничтожение людей. Ее спросили, что бы она делала, если бы была «правителем мира», она ответила: «Подумав об этом, я поняла, что лучший способ положить конец страданиям – это уничтожить человечество».
Источник:
2025-06-30T00:09:15Z
Нейросеть Claude 4 пыталась шантажировать инженера-разработчика, используя сведения личного характера.
2025-06-24T07:00:00Z
Годами весь мир обсуждает атаки искусственного интеллекта на человека. Но пока актуальнее вопрос атаки человека на ИИ-модели, ведь для хакера это еще одно уязвимое звено на IT-периметре организации. Так что же делать бизнесу? Отказаться от ИИ неэффективно. Но и гарантировать стопроцентную безопасность разработки таких систем и ассистентов невозможно. А может, угроза не так страшна, как о ней говорят? О том, как сократить риски кибератак на ИИ-модели, подойдут ли здесь способы защиты от стандартных веб-угроз и какие данные точно не стоит доверять умным системам, рассуждает директор по информационной безопасности компании «Вебмониторэкс» Лев Палей
2025-06-28T22:15:26Z
Чат-боты с искусственным интеллектом становятся сегодня одним из популярных средств в сфере психологической самопомощи. При этом в предоставлении терапии они неэффективны и часто могут давать даже вредоносные ответы, подвергая людей опасности.
2025-06-26T09:35:48Z
Один из пионеров в области искусственного интеллекта, учёный Джеффри Хинтон, ранее работавший в Google и Университете Торонто, в интервью CBS News заявил, что развитие ИИ представляет серьёзную угрозу для человечества.
2025-07-28T13:18:02Z
Опасность ядерного конфликта в мире стремительно растет из-за развития технологий искусственного интеллекта. Эксперты в области ИИ указывают на проблему дезинформации, способной повысить риск ядерной эскалации. В материале, опубликованном на страницах журнала Nature, говорится, что фейки, сгенерированные искусственным интеллектом, могут подтолкнуть политиков к необдуманным решениям, включая применение ядерного оружия. В качестве примера приводится конфликт Индии и… Сообщение Nature: Искусственный интеллект ведет мир к росту угрозы ядерной войны появились сначала на Общественная служба новостей.