В Омске поняли, как эффективно защитить данные от утечек

Все новости — Наука и технологии

2025-08-04T05:04:14Z

Запашный настороженно относится к использованию ИИ в цирковых представлениях

2025-08-04T04:58:04Z

В Омске вернули зрение 4-летнему мальчику с врожденной катарактой

2025-08-04T04:51:00Z

Redmi Turbo 5 выйдет раньше срока. Он станет первым в мире смартфоном на базе SoC Dimensity 8500 нового поколения

2025-08-04T04:14:00Z

Apple работает над «поиском, подобным ChatGPT»

2025-08-04T04:01:51Z

На проспектах Архангельска выявили превышение допустимого уровня шума

2025-08-04T03:47:00Z

Куда ещё быстрее? Grok Илона Маска теперь создает видеоролики в 2-4 раза быстрее, чем другие чат-боты генерируют одно изображение

2025-08-04T03:28:00Z

«Вид нашей хрупкой планеты из космоса объединяет всех, кто его видит». Blue Origin отправила криптомиллиардера Джастина Сана и ещё пятерых в суборбитальный полёт

2025-08-04T03:00:29Z

Женщина придумала необычный способ отучить коллегу включать кондиционер на полную мощность

2025-08-04T02:00:22Z

Россиянам объяснили, как защитить свои запросы к ИИ от утечки данных

2025-08-04T02:00:00Z

В Омске поняли, как эффективно защитить данные от утечек

2025-08-04T01:31:19Z

Министр цифрового развития России участвует во встрече АТЭС в Южной Корее

2025-08-03T23:02:00Z

АМАЛКО: в следующем году на рынке труда будут востребованы IT-специалисты

2025-08-03T22:20:00Z

В России создали первый в мире тренажер антидронового ружья

2025-08-03T21:00:00Z

Ученые рассказали, когда искусственный интеллект станет умнее человека

2025-08-03T21:00:00Z

Иностранных редакторов в России станет больше

В Омске поняли, как эффективно защитить данные от утечек

2025-08-04T02:00:00Z — Нейронную сеть для эффективной защиты персональных данных от утечек разработали специалисты ОмГТУ. Для того чтобы предоставить пользователю доступ к конфиденциальной информации, система распознает голос человека с поправкой на то, что тембр и интонации могут меняться в зависимости от эмоционального состояния. Результаты представлены в Applied System Innovation.


МОСКВА, 4 авг — РИА Новости. Нейронную сеть для эффективной защиты персональных данных от утечек разработали специалисты ОмГТУ. Для того чтобы предоставить пользователю доступ к конфиденциальной информации, система распознает голос человека с поправкой на то, что тембр и интонации могут меняться в зависимости от эмоционального состояния. Результаты представлены в Applied System Innovation.

В первом квартале 2025 года на российские компании было совершено около 801 миллиона хакерских атак, то есть больше сотни попыток получить доступ к данным совершалось в течение одной секунды. В современном мире хакеры нацелены не только на персональные и финансовые данные клиентов, но и на медицинские и биометрические, рассказали специалисты Омского государственного технического университета (ОмГТУ).

Для повышения уровня защиты таких сведений ученые вуза разработали систему голосовой аутентификации пользователя на основе новой модели нейронной сети. Алгоритм обладает повышенной "чувствительностью" к внешнему вмешательству из-за новых типов нейронов и математической связи между ними, рассказал проректор по научной и инновационной деятельности ОмГТУ Павел Ложников.

Было учтено, что человек может говорить "обычным" голосом, а может быть сонным, нервным или уставшим, подчеркнул Ложников. В одном из наборов данных, использованных для обучения новой нейронной сети, дикторы произносили парольные фразы не только в нормальном состоянии, но и в измененном.

"Наша научная школа "Нейросетевые алгоритмы искусственного интеллекта в защищенном исполнении" создает такие решения, при которых утечка или извлечение конфиденциальных данных, на которых обучалась модель ИИ, становится невозможным или вычислительно очень трудным и долгим процессом. Основные проблемы, которые позволяет решить эта модель — низкая точность распознавания по голосу и сохранение биометрического шаблона в тайне от злоумышленников", — пояснили в вузе.

В будущем ученые ОмГТУ хотят решить задачу по переносу предложенной модели на другие биометрические признаки: рукописный почерк, особенности лица и другие. Также специалисты прогнозируют рост атак на биометрические системы с помощью муляжей на фоне развития генеративного искусственного интеллекта и проводят дополнительные исследования для противодействия несанкционированному доступу к информации такого рода.

Читайте также:

2025-08-04T02:00:22Z

Россиянам объяснили, как защитить свои запросы к ИИ от утечки данных

ИИ-модели могут быть подвержены атакам, при которых могут извлекаться пользовательские данные, сообщил преподаватель РТУ МИРЭА Андрей Рыбников.

2025-08-02T13:54:06Z

Эксперт предупредил о рисках утечки данных при использовании ИИ-психологов

Современные системы искусственного интеллекта, включая нейросети, всё чаще используются в качестве виртуальных психологов, однако такие сервисы могут нести серьёзные риски утечки персональной информации. Об этом RT рассказал Юрий Силаев, заведующий лабораторией доверенного искусственного интеллекта РТУ МИРЭА.

2025-08-02T18:09:00Z

Эксперт предостерег о рисках утечки данных при использовании ИИ-психологов

Современные системы искусственного интеллекта, включая нейросети, всё чаще применяются в роли виртуальных психологов. Однако такие сервисы могут представлять серьёзные риски утечки персональной информации. Об этом в  интервью RT сообщил Юрий Силаев, заведующий лабораторией доверенного искусственного интеллекта РТУ МИРЭА.

2025-08-01T21:01:00Z

Уважать поставил: россияне стали чаще использовать ИИ для снятия стресса

«Известия» составили топ-5 гаджетов, с которыми можно поговорить

2025-08-03T03:00:00Z

Цифровые аферы: Life.ru узнал, как распознать нейросетевого двойника и защитить себя от кражи данных

В России наблюдается тревожная тенденция использования нейросетевых двойников в мошеннических схемах. Член Комитета Госдумы по информационной политике и федеральный координатор партийного проекта «Цифровая Россия» Антон Немкин рассказал Life.ru, что современные ИИ-инструменты способны воспроизводить внешность, мимику и голос конкретного человека, что открывает злоумышленникам возможность создавать правдоподобные видеообращения от имени известных личностей или даже близких.