Эксперт объяснил, как защитить запросы к ИИ от утечки данных

Все новости — Наука и технологии

2025-08-04T12:28:41Z

Китай успешно запустил группу интернет-спутников

2025-08-04T12:25:00Z

Xiaomi выпустила голосовую ИИ-модель для автомобилей и бытовой техники

2025-08-04T12:21:57Z

RuNews24: маркетолог Васильева рассказала про тренды в интернет-рекламе

2025-08-04T12:05:00Z

HarmonyOS 6 выйдет на Huawei Mate 60/60 Pro, Mate 70/70 Pro, Mate X5, Mate XT, Pura X, Pura 70 Pro и двух моделях планшетов

2025-08-04T11:53:00Z

Фотофлагман Vivo X300 получит новейшую камеру Samsung ISOCELL

2025-08-04T11:45:00Z

Выдающиеся люди России будут удостоены Национальной премии «Человек труда»

2025-08-04T11:09:07Z

Натренировались в Москве: Как «милых» роботов-доставщиков встретят регионы

2025-08-04T11:08:09Z

Астроном Рублёва объяснила, где можно увидеть «затмения века» в 2027 году

2025-08-04T10:29:00Z

«Мы уверены, что эта награда станет для Илона стимулом остаться в Tesla», — Tesla одобрила Маску премию в размере 29 млрд долларов

2025-08-04T09:37:10Z

ВЦИОМ: 95 процентов россиян следят за новостями об автономных технологиях

2025-08-04T09:35:00Z

Центр развития промышленной робототехники появится в Нижегородской области

2025-08-04T09:27:00Z

Эксперт объяснил, как защитить запросы к ИИ от утечки данных

2025-08-04T09:23:00Z

Лекции по созданию личного бренда и открытию своего дела проведут в Москве

2025-08-04T09:12:50Z

Девятнадцать ученых сменят полярников на дрейфующей в Ледовитом океане станции

2025-08-04T09:06:38Z

На открытие центров промышленной робототехники выделили более 1,1 млрд рублей

Эксперт объяснил, как защитить запросы к ИИ от утечки данных

Эксперт объяснил, как защитить запросы к ИИ от утечки данных

2025-08-04T09:27:00Z


Россиянам, которые активно работают с нейросетями, стоит задуматься о защите своих запросов – хакеры могут получить доступ ко всей введенной информации. Об этом в интервью RT предупредил старший преподаватель РТУ МИРЭА Андрей Рыбников. По его словам, ИИ-системы уязвимы для атак. При определенных условиях злоумышленники способны получить данные, которые пользователь вводил ранее.

Больше всего риску подвержены те ИИ-модели, которые обучаются на открытых данных или продолжают учиться на пользовательских запросах, отметил Рыбников. При этом он напомнил, что в России действует закон о персональных данных, который не позволяет передавать личную информацию третьим лицам без согласия.

«Это означает, что при использовании ИИ-сервисов, особенно зарубежных, пользователь должен понимать, где и как обрабатываются его запросы. Даже если сервис утверждает, что не сохраняет данные, отсутствие прозрачной политики хранения и обработки информации может привести к нарушению закона», – подчеркнул эксперт.

Самым безопасным вариантом работы с ИИ, по словам Рыбникова, являются локальные модели, которые работают самостоятельно и не отправляют данные в облако.

Также можно использовать корпоративные версии ИИ – они обычно защищают данные и не учатся на запросах пользователей. Если такой функции нет, то нужно самому удалять из запросов личные данные: имена, контакты, номера документов и другое. Эксперт посоветовал не загружать в ИИ важные документы и избегать подозрительных шаблонов.

Даже если ИИ не подключен к интернету, он все равно сохраняет историю запросов. Поэтому важно регулярно чистить кеш и использовать шифрование файлов – это можно сделать с помощью встроенных функций Windows, macOS или Linux.

«Также рекомендуется ограничить доступ к ИИ-программам с помощью настроек прав пользователей», – заключил Рыбников.

Читайте также:

2025-08-04T02:00:22Z

Россиянам объяснили, как защитить свои запросы к ИИ от утечки данных

ИИ-модели могут быть подвержены атакам, при которых могут извлекаться пользовательские данные, сообщил преподаватель РТУ МИРЭА Андрей Рыбников.

2025-08-04T07:10:00Z

IT-эксперт Рыбников посоветовал использовать локальные ИИ-модели ради защиты данных

Старший преподаватель кафедры инструментального и прикладного программного обеспечения РТУ МИРЭА Андрей Рыбников указал на актуальность проблемы безопасности в условиях быстрого развития генеративных моделей. Об этом сообщил RT.

2025-08-01T03:38:00Z

Россиян предупредили о рисках при загрузке данных в ChatGPT

2025-08-02T13:54:06Z

Эксперт предупредил о рисках утечки данных при использовании ИИ-психологов

Современные системы искусственного интеллекта, включая нейросети, всё чаще используются в качестве виртуальных психологов, однако такие сервисы могут нести серьёзные риски утечки персональной информации. Об этом RT рассказал Юрий Силаев, заведующий лабораторией доверенного искусственного интеллекта РТУ МИРЭА.

2025-08-02T18:09:00Z

Эксперт предостерег о рисках утечки данных при использовании ИИ-психологов

Современные системы искусственного интеллекта, включая нейросети, всё чаще применяются в роли виртуальных психологов. Однако такие сервисы могут представлять серьёзные риски утечки персональной информации. Об этом в  интервью RT сообщил Юрий Силаев, заведующий лабораторией доверенного искусственного интеллекта РТУ МИРЭА.