2025-08-04T12:28:41Z
Китай успешно запустил группу интернет-спутников
2025-08-04T12:25:00Z
Xiaomi выпустила голосовую ИИ-модель для автомобилей и бытовой техники
2025-08-04T12:21:57Z
RuNews24: маркетолог Васильева рассказала про тренды в интернет-рекламе
2025-08-04T12:05:00Z
HarmonyOS 6 выйдет на Huawei Mate 60/60 Pro, Mate 70/70 Pro, Mate X5, Mate XT, Pura X, Pura 70 Pro и двух моделях планшетов
2025-08-04T11:53:00Z
Фотофлагман Vivo X300 получит новейшую камеру Samsung ISOCELL
2025-08-04T11:45:00Z
Выдающиеся люди России будут удостоены Национальной премии «Человек труда»
2025-08-04T11:09:07Z
Натренировались в Москве: Как «милых» роботов-доставщиков встретят регионы
2025-08-04T11:08:09Z
Астроном Рублёва объяснила, где можно увидеть «затмения века» в 2027 году
2025-08-04T10:29:00Z
«Мы уверены, что эта награда станет для Илона стимулом остаться в Tesla», — Tesla одобрила Маску премию в размере 29 млрд долларов
2025-08-04T09:37:10Z
ВЦИОМ: 95 процентов россиян следят за новостями об автономных технологиях
2025-08-04T09:35:00Z
Центр развития промышленной робототехники появится в Нижегородской области
2025-08-04T09:27:00Z
Эксперт объяснил, как защитить запросы к ИИ от утечки данных
2025-08-04T09:23:00Z
Лекции по созданию личного бренда и открытию своего дела проведут в Москве
2025-08-04T09:12:50Z
Девятнадцать ученых сменят полярников на дрейфующей в Ледовитом океане станции
2025-08-04T09:06:38Z
На открытие центров промышленной робототехники выделили более 1,1 млрд рублей
2025-08-04T09:27:00Z
Россиянам, которые активно работают с нейросетями, стоит задуматься о защите своих запросов – хакеры могут получить доступ ко всей введенной информации. Об этом в интервью RT предупредил старший преподаватель РТУ МИРЭА Андрей Рыбников. По его словам, ИИ-системы уязвимы для атак. При определенных условиях злоумышленники способны получить данные, которые пользователь вводил ранее.
Больше всего риску подвержены те ИИ-модели, которые обучаются на открытых данных или продолжают учиться на пользовательских запросах, отметил Рыбников. При этом он напомнил, что в России действует закон о персональных данных, который не позволяет передавать личную информацию третьим лицам без согласия.
«Это означает, что при использовании ИИ-сервисов, особенно зарубежных, пользователь должен понимать, где и как обрабатываются его запросы. Даже если сервис утверждает, что не сохраняет данные, отсутствие прозрачной политики хранения и обработки информации может привести к нарушению закона», – подчеркнул эксперт.
Самым безопасным вариантом работы с ИИ, по словам Рыбникова, являются локальные модели, которые работают самостоятельно и не отправляют данные в облако.
Также можно использовать корпоративные версии ИИ – они обычно защищают данные и не учатся на запросах пользователей. Если такой функции нет, то нужно самому удалять из запросов личные данные: имена, контакты, номера документов и другое. Эксперт посоветовал не загружать в ИИ важные документы и избегать подозрительных шаблонов.
Даже если ИИ не подключен к интернету, он все равно сохраняет историю запросов. Поэтому важно регулярно чистить кеш и использовать шифрование файлов – это можно сделать с помощью встроенных функций Windows, macOS или Linux.
«Также рекомендуется ограничить доступ к ИИ-программам с помощью настроек прав пользователей», – заключил Рыбников.
2025-08-04T02:00:22Z
ИИ-модели могут быть подвержены атакам, при которых могут извлекаться пользовательские данные, сообщил преподаватель РТУ МИРЭА Андрей Рыбников.
2025-08-04T07:10:00Z
Старший преподаватель кафедры инструментального и прикладного программного обеспечения РТУ МИРЭА Андрей Рыбников указал на актуальность проблемы безопасности в условиях быстрого развития генеративных моделей. Об этом сообщил RT.
2025-08-01T03:38:00Z
2025-08-02T13:54:06Z
Современные системы искусственного интеллекта, включая нейросети, всё чаще используются в качестве виртуальных психологов, однако такие сервисы могут нести серьёзные риски утечки персональной информации. Об этом RT рассказал Юрий Силаев, заведующий лабораторией доверенного искусственного интеллекта РТУ МИРЭА.
2025-08-02T18:09:00Z
Современные системы искусственного интеллекта, включая нейросети, всё чаще применяются в роли виртуальных психологов. Однако такие сервисы могут представлять серьёзные риски утечки персональной информации. Об этом в интервью RT сообщил Юрий Силаев, заведующий лабораторией доверенного искусственного интеллекта РТУ МИРЭА.