Цифровая чума: как фото- и видеофейки убивают доверие к новостям

Все новости

2025-07-12T23:10:00Z

Проникнуть в суть лещей. Как заводчанин стал рыбаком-чемпионом

2025-07-12T23:09:27Z

В Новгородской области более 22 тыс. человек остались без электричества

2025-07-12T23:04:20Z

Американист Мирзаян назвал маловероятным новое покушение на Трампа

2025-07-12T23:02:50Z

Марочко: ВС РФ серьезно закрепились в Зеленой Долине

2025-07-12T23:02:00Z

Дачникам объяснили, за какой сорняк на участке грозит штраф

2025-07-12T23:00:40Z

Слуцкий назвал недопустимым отказ ИИ «Яндекса» генерировать героя СВО

2025-07-12T23:00:00Z

Обострение отношений с Азербайджаном может затронуть потребительский рынок

2025-07-12T23:00:00Z

Поливаем огурцы содой: какой эффект дает пищевая сода - вот как и когда правильно вносить подкормку

2025-07-12T22:59:00Z

Пушков: слабеющие США начали торговую войну с Европой

2025-07-12T22:58:21Z

Экс-футболиста "Спартака" госпитализировали после пореза голени

2025-07-12T22:54:36Z

Фирма из нейтральной Швейцарии поставила Киеву дроны для атаки на Москву

2025-07-12T22:52:03Z

The Guardian: из магазина в Массачусетсе вынесли коллекционные карты на 113 тысяч долларов

2025-07-12T22:51:00Z

Опубликованы кадры пришедшего в Москву циклона

2025-07-12T22:47:06Z

Юрист рассказала, в каком случае туркомпании может грозить суд

2025-07-12T22:45:00Z

Проклятый крест. В зоне СВО уничтожен орденоносец, награжденный Зеленским

Цифровая чума: как фото- и видеофейки убивают доверие к новостям

Цифровая чума: как фото- и видеофейки убивают доверие к новостям

2025-07-02T13:55:01Z — Евгений Елфимов — об угрозе фейковой визуализации и путях спасения медиапространства


Недавно мы пересекли опасный рубеж. По данным издания Cyber Media, 90% современных фейков стали визуально неотличимы от реальности. В 2024 году мошенники использовали поддельное видео CEO одной горнодобывающей компании с "приказом" о срочной продаже активов. Результат — обвал акций компании на 30% за час. И таких примеров становится все больше — представим себе дипфейк-видео с "руководителем ЦБ", призывающим срочно снимать вклады.

Истоки и прогнозы на будущее

История дезинформации стара, как медиа. Первый задокументированный фейк — статья о ловле уток желудями во французской газете 1776 года (это та самая история, которая породила термин "газетная утка"). Однако современные технологии радикально изменили масштаб и характер бедствия.

К 2030 году, согласно прогнозу Security Media, 90% контента будут генерироваться ИИ, в том числе 40% — без маркировки. Это приведет к тому, что доверие к официальным источникам информации упадет до рекордных 22%.

То, о чем я говорю, — это система ударов по экономике, деловой репутации и общественной стабильности. Когда генеративный ИИ создает убедительную ложь за секунды, а соцсети тиражируют ее за минуты, мы все становимся мишенями в "войне фейков".

После выборов 2016 года в США термин fake news стал словом года, подорвав авторитет даже таких гигантов, как The Washington Post и The New York Times. Фейковые советы о лечении COVID-19 унесли тысячи жизней, демонстрируя, что дезинформация может быть смертоносной. Синтетические новости о банкротстве компаний вызывают обвалы акций. В 2025 году фейковый "пресс-релиз" в стиле Bloomberg спровоцировал панику на бирже.

В 2022 году фейковые сообщения о минировании школ в России ("сватинг") парализовали работу сотен учреждений. Подростки использовали их как инструмент самоутверждения и мести учителям. Я с коллегами расследовал события 2022 года и другие при помощи созданного нами программного комплекса "Охотник". Это позволило выявить более трех десятков групп, координирующих деятельность "сватеров", а также собрать информацию о более чем 60 тыс. пользователей, являвшихся их участниками.

Этот опыт позволил кардинально пересмотреть методологию противодействия фейкам, а также лег в основу нескольких научных работ. Итак, о чем он говорит.

Предиктивная, или предупредительная, аналитика

Первое, о чем стоит сказать, — это все увеличивающийся объем доступной информации. СМИ, в гонке за "горячими сенсациями", не всегда успевают полноценно проверять те или иные данные на предмет их достоверности, и это ведет к манипуляции общественным мнением. Поэтому первый тезис, который я выведу, будет таким —"Реагировать на угрозы уже недостаточно — их нужно предугадывать". Современные системы мониторинга информационного поля позволяют собирать большие объемы данных и оценивать на их основе тренды и интересы. Но мы должны идти дальше, позволяя ИИ прогнозировать основные векторы информационных атак. Это позволяет понимать то, как "противник" интерпретирует ту или иную новость, как использует ее против нас, какие ресурсы он применит для распространения получившегося фейка.

Если вернуться в 2022 год к атакам "сватеров", то качественный мониторинг и оценка открытых и приватных чатов нарушителей позволили узнать заранее о тех объектах, которые будут "заминированы", будь то бизнес- и торговые центры, школы и детские сады, судебные учреждения, аэропорты и прочее. В ноябре 2024 года проактивный анализ хактивистских пабликов позволил обнаружить и проверить киберуязвимость российских АЗС. Тогда смогли обнаружить 26 автозаправок, в том числе 18 в Москве и Московской области, управление которыми осуществлялось с использованием стандартных паролей. Это был потенциальный риск не только утечки данных, но и удаленного управления сливом топлива, что уже вполне тянуло на диверсию.

Качественный мониторинг и распознавание технологий дипфейков

Второй важный вопрос — это некачественный и неполный мониторинг информации. Человечество до сих пор не научилось полноценно выявлять опасный вирусный контент, который разгоняется в приватных сообществах, в даркнете, а также в виде ограниченного по времени контента (сторис, имен или описаний ботов, внутренних рассылок). Что уж говорить про аудиовизуальные объекты, интерпретировать которые мало кто умеет и сегодня. Чтобы обеспечить возможность программному комплексу обнаруживать на фото и видео оружие, запрещенную символику и иные признаки противоправной деятельности, потребовалось создать несколько уникальных нейросетей. И еще несколько — для того чтобы обнаруживать на фото-, видео- и аудиофайлах правки и генеративные сущности. Невозможно создать цифровой продукт и почивать на лаврах — его необходимо постоянно совершенствовать.

Живой пример. Несколько лет назад я с командой участвовал в исследовании ряда наркоторговых площадок в даркнете и мессенджере Telegram. Тогда в качестве одного из инструментов отнесения пользователей к той или иной преступной группе применяли анализ их аватарок, на которых часто содержались фирменные элементы группировки. Стоит ли говорить, что этот положительный опыт был оцифрован.

Говоря о сгенерированном нейросетью контенте, нельзя не отметить его качественный скачок. Сегодня уже практически не отличить глазом хороший дипфейк. Даже специалисты по криминалистике, анализируя видео- и аудиофайлы, содержащие дипфейки, разводят руками и говорят об их реальности. Это позволяет сформулировать мне еще один тезис: "Машина должна расследовать деятельность машины". За годы СВО мной были проанализированы сотни фейковых видео- и аудиозаписей, опубликованных иностранной пропагандой. И я вынужден отметить, что в самом ближайшем будущем детектировать фейки можно будет лишь за счет обнаружения определенных алгоритмов, по которым они создаются. То есть с использованием нейросетей.

Установление виновных лиц

Наконец, третьей моей мыслью будет то, что большинство современных технологий не могут обеспечить перехода от выявления недостоверной информации к установлению лиц, причастных к ее публикации или распространению. Говоря языком правоохранительных органов, у нас нет "подозреваемого". Ведь мы же не привлечем к ответственности безымянную нейросеть. У нее был конкретный пользователь, имевший умысел на совершение тех или иных действий. Основываясь на этом, я формулирую последний тезис — "Расследование преступлений будущего видится немыслимым без анализа больших данных". Этот тезис в полной мере должен отражать практику создания программных продуктов, предназначенных для борьбы с фейками.

Создаваемые решения должны оперировать публичными ресурсами, внешними сервисами, базами информации и отдельными файлами, которые бы загружались и анализировались в единой платформе. Это позволит государственным органам, частным структурам безопасности и простым гражданам предупреждать риски, возникающие в глобальной паутине, своевременно обнаруживать их появление, блокировать распространение и устанавливать причастных к ним лиц.

В мире, где нейросеть генерирует контент порой убедительнее человека, единственный щит — сочетание технологий, регуляции и критического мышления. Мы уже вступили на этот путь. Гонка технологий против человечности началась — и проиграть ее нельзя.

Читайте также:

2025-06-25T04:15:00Z

Скепсис и киберосознанность — как нам не проиграть в битве с дипфейками

Игорь Сомов — о том, как бороться с дипфейками и почему общество оказалось не готово к тотальной атаке мошенников

2025-07-10T21:01:00Z

Генеральный детектор: в видео-конференц-связи закроют лазейки для дипфейков

Когда новую функцию внедрят и как она поможет обходить мошенников

2025-06-27T00:30:50Z

«Террористическое нападение». Журналист из КНР пострадал под Курском при ударе дрона ВСУ. В России пообещали наказать виновных

Корреспондент получил травмы головы, но отказался от госпитализации.

2025-07-10T21:01:14Z

«У России свой юмор». Как абсурдный мем с российским блогером озадачил весь мир?

2025-06-28T04:15:00Z

Маск обещает суперзрение для слепых, ChatGPT хранит удаленную переписку, а Китай шпионит через DeepSeek

Главные новости о технологиях в Татарстане, России и мире