2025-08-04T10:01:31Z
Прилепин выступил с предупреждением для участников программы "Время героев"
2025-08-04T09:55:02Z
Экс-разведчик Риттер заявил о беззащитности НАТО перед военной мощью России
2025-08-04T09:55:00Z
Тяга к свободе: гороскоп для всех знаков зодиака на полнолуние в августе 2025
2025-08-04T09:53:52Z
Киев запросил кредит от Варшавы на закупку польского вооружения
2025-08-04T09:52:34Z
Суд вынес приговор боевику ВСУ за вторжение в Курскую область и терроризм
2025-08-04T09:52:21Z
Карта боевых действий в зоне СВО на 4 августа 2025 года
2025-08-04T09:51:17Z
В Тульской области объявили опасность атаки БПЛА
2025-08-04T09:48:44Z
Приложение ОНФ для отслеживания БПЛА скачали более 1,5 млн россиян
2025-08-04T09:38:02Z
«Гордимся земляками»: бойцам СВО из Тукаевского района вручили медали «За храбрость»
2025-08-04T09:35:34Z
В РФ продают ЛуАЗ-969 за 240 тысяч рублей: всего 9000 км пробега
2025-08-04T09:32:46Z
Генерал Попов сказал, откуда запускали беспилотники в сторону Волгограда
2025-08-04T09:32:27Z
Стало известно о смерти матери нового главкома ВС ВСУ в обстреливаемом регионе России
2025-08-04T09:30:48Z
Эксперт Авдеев дал советы по поиску работы на фрилансе
2025-08-04T09:30:01Z
ПВО за сутки сбила 120 беспилотников
2025-08-04T09:29:36Z
Подразделения "Днепра" уничтожили до 65 военных ВСУ за сутки
2025-08-04T07:10:00Z — Старший преподаватель кафедры инструментального и прикладного программного обеспечения РТУ МИРЭА Андрей Рыбников указал на актуальность проблемы безопасности в условиях быстрого развития генеративных моделей. Об этом сообщил RT.
Старший преподаватель кафедры инструментального и прикладного программного обеспечения РТУ МИРЭА Андрей Рыбников указал на актуальность проблемы безопасности в условиях быстрого развития генеративных моделей. Об этом сообщил RT.
Эксперт предупредил о возможности атак на ИИ-модели с целью извлечения обучающих данных.
«При определенных условиях злоумышленники способны получить доступ к информации, которую пользователь вводил в систему. Особенно уязвимы модели, обученные на открытых источниках без строгой фильтрации», — пояснил специалист.
По его словам, наименее рискованным вариантом считается использование локальных ИИ-решений, работающих автономно. Если развернуть собственную систему невозможно, рекомендуется использовать корпоративные версии ИИ-сервисов с возможностью управления политикой хранения информации.
Автор:
2025-08-04T02:00:22Z
ИИ-модели могут быть подвержены атакам, при которых могут извлекаться пользовательские данные, сообщил преподаватель РТУ МИРЭА Андрей Рыбников.
2025-08-04T09:27:00Z
2025-08-02T18:09:00Z
Современные системы искусственного интеллекта, включая нейросети, всё чаще применяются в роли виртуальных психологов. Однако такие сервисы могут представлять серьёзные риски утечки персональной информации. Об этом в интервью RT сообщил Юрий Силаев, заведующий лабораторией доверенного искусственного интеллекта РТУ МИРЭА.
2025-08-02T13:54:06Z
Современные системы искусственного интеллекта, включая нейросети, всё чаще используются в качестве виртуальных психологов, однако такие сервисы могут нести серьёзные риски утечки персональной информации. Об этом RT рассказал Юрий Силаев, заведующий лабораторией доверенного искусственного интеллекта РТУ МИРЭА.
2025-08-01T05:35:00Z
Массовые кибератаки на российские сервисы необязательно связаны между собой: чаще всего за ними стоят разные группы с разными целями, сообщил РИАМО директор центра мониторинга и противодействия кибератакам IZ: SOC компании «Информзащита» Александр Матвеев.