Эксперты на примере видео с Захаровой рассказали, как распознать дипфейк

Все новости — Происшествия

2025-09-24T15:04:31Z

К чему снится девочка? Толкование сна про маленького ребенка из сонников, мнение психолога

2025-09-24T15:04:00Z

К чему снится пожар? Толкование из сонников и мнение психолога

2025-09-24T15:01:34Z

С июля выявлено 27 фейков и 95 тыс. их копий о мессенджере Max

2025-09-24T14:58:07Z

В Калмыкии в ДТП погибли двое подростков

2025-09-24T14:57:22Z

Мигрантов осудили за убийство участника СВО

2025-09-24T14:55:00Z

Полиция ищет казанцев, которые запустили дымовую шашку на Проспекте Победы

2025-09-24T14:48:49Z

Netflix показал новый тизер пятого сезона «Очень странных дел»

2025-09-24T14:38:37Z

Автоэксперт назвал неудачные модели Honda на вторичке

2025-09-24T14:38:00Z

На 105-м году жизни в Москве ушла из жизни участница Великой Отечественной войны Панкратова

2025-09-24T14:37:37Z

Человек пострадал при пожаре в бараке на проспекте 60 лет Октября в Хабаровске

2025-09-24T14:35:38Z

Сожительнице коррупционера присудили 11 млн рублей за конфискованный дом

2025-09-24T14:34:12Z

Жительница Липецкой области отдала мошенникам почти 600 тыс. рублей

2025-09-24T14:33:59Z

Одна из погибших в Новороссийске пряталась в автомобиле

2025-09-24T14:32:00Z

Народный фронт добился ликвидации еще одного пустующего барака в Удмуртии

2025-09-24T14:31:57Z

Мать пропавшего в Босфоре пловца обвинила организаторов соревнования в сокрытии информации

Эксперты на примере видео с Захаровой рассказали, как распознать дипфейк

2025-09-24T11:58:15Z — Среди признаков назвали аномалии черт лица, нехарактерные мимику и моргание глаз


МОСКВА, 24 сентября. /ТАСС/. Нехарактерные мимика и моргание глаз, аномалии черт лица помогают распознать дипфейки, которые все чаще используются для разжигания политических и дипломатических скандалов. Об этом рассказали опрошенные ТАСС эксперты, комментируя фейковое видео с официальным представителем МИД России Марией Захаровой.

Специалист Global Fact-Checking Network Фаузан Аль-Рашид посоветовал проследить за глазами человека на видео. Моргание должно быть естественным, 15-20 раз в минуту с неравномерными интервалами.

"В то время как при глубокой подделке может наблюдаться слишком частое, слишком редкое или механически регулярное моргание, - заметил он. - Кроме того, изучите асимметрию лица, поскольку подлинные человеческие выражения демонстрируют естественную асимметрию, которую системам искусственного интеллекта часто не удается убедительно воспроизвести".

Аль-Рашид также посоветовал обратить пристальное внимание на линию роста волос, поскольку в дипфейках в этой области часто наблюдается размытость, мерцание или необычные цветовые переходы из-за несовершенства алгоритмов наложения.

"Алгоритмам дипфейка часто трудно поддерживать естественные движения и выражение лица", - резюмировал он.

Программы в помощь

Коллега Аль-Рашида по Global Fact-Checking Network Лили Онг отметила, что для создания видео с Захаровой использовался исходный достоверный ролик, к которому применялись частичная модификация нижней части лица с использованием технологии LipSync (синхронизация движения губ), а также полная генерация голоса. "Также на видео применялся дополнительный монтаж отдельных частей кадров", - добавила она.

"Помимо движения губ, едва заметные движения лицевых мышц и микровыражения, неотъемлемые от естественной речи и эмоциональной глубины, позволили бы нам распознать подделку даже без сложного программного обеспечения", - сказала эксперт.

По ее словам, для точного определения подделки существуют специальные программы. Разработчиком одной из них является АНО "Диалог Регионы". Их система "Зефир" анализирует и мониторит сфабрикованный аудиовизуальный контент, в том числе дипфейки, на основе сочетания моделей машинного обучения.

Разработчики этой системы по результатам проверки рассказали ТАСС, что на видео с Захаровой "зафиксировано использование генеративных систем, направленных на манипуляцию биометрических данных".

Ни одного слова правды

Ранее в соцсетях распространилось видео с негативным комментарием в адрес президента Казахстана Касым-Жомарта Токаева якобы от лица Марии Захаровой. МИД России назвал это видео грубой и циничной фальшивкой, целенаправленно вброшенной в казахстанское цифровое поле с целью вбить клин между странами.

В ведомстве подчеркнули, что ни одно слово из сфабрикованного видео не является правдой. В МИД также показали исходное видео, которое использовалось для создания дипфейка.

Читайте также:

2025-09-24T11:24:29Z

Эксперты на примере поддельного видео с Захаровой научили распознавать дипфейки

Специалист Международной ассоциации по фактчекингу Global Fact-Checking Network Фаузан Аль-Рашид посоветовал искать в роликах аномалии в чертах лица и нестыковку освещения, а также рассинхрон аудио и видео

2025-09-24T08:48:49Z

Видео с обвиняющей Токаева в русофобии Захаровой оказалось дипфейком

2025-09-23T21:00:40Z

На мелкое ДТП прилетит беспилотник

В МВД рассказали о перспективах применения дронов на российских дорогах

2025-09-24T08:23:35Z

Эксперт Онг сочла низкокачественной подделкой сфабрикованное видео с Захаровой

Аналитик по геополитике и кибербезопасности из Сингапура отметила, что использовали технологию синхронизации губ с технологией искусственного голоса, которая уже немного устарела

2025-09-24T05:23:00Z

«Вернется – покажем фотографии»: участницы «Жены Героев» устроили необычную фотосессию