Эксперты на примере поддельного видео с Захаровой научили распознавать дипфейки

Все новости — Происшествия

2025-09-24T17:57:00Z

В Китае люди руками ловят рыбу на улицах после супертайфуна

2025-09-24T17:55:26Z

ICE: в Техасе при стрельбе у здания иммиграционной службы погибли два человека

2025-09-24T17:52:18Z

В Орске УК заставила жильцов убрать дверь, ограничивающую доступ к чердаку

2025-09-24T17:39:50Z

Агрессивная белка отправила в больницу двух человек

2025-09-24T17:33:25Z

В аварии на дороге в Крыму двое погибли и четыре человека пострадали

2025-09-24T17:31:48Z

Женщина нашла своего супруга бездыханным в воде и едва не погибла от паники

2025-09-24T17:30:00Z

Слово из ЕГЭ «запороло» весь экзамен: даже отличники путают буквы — а вы осмелитесь найти верный вариант?

2025-09-24T17:22:08Z

Председателя совета директоров «Корпорации СТС» Черных отправили под арест

2025-09-24T17:17:05Z

Суд вынес вердикт обманувшим Долину мошенникам

2025-09-24T17:10:18Z

Отдыхавшего в Европе священника арестовали с наркотиками

2025-09-24T17:07:32Z

Тверской священник рассказал, как секты заманивают новых адептов

2025-09-24T17:06:39Z

Стали известны подробности нападения дикой кошки «Короля тигров» на нового хозяина

2025-09-24T17:06:00Z

В Мытищах пресекли незаконную выносную торговлю

2025-09-24T17:05:22Z

Гоблин назвал дурью замок Пугачевой

2025-09-24T16:58:00Z

Мужчина погиб в ДТП с фурой на саратовской трассе

Эксперты на примере поддельного видео с Захаровой научили распознавать дипфейки

2025-09-24T11:24:29Z — Специалист Международной ассоциации по фактчекингу Global Fact-Checking Network Фаузан Аль-Рашид посоветовал искать в роликах аномалии в чертах лица и нестыковку освещения, а также рассинхрон аудио и видео


МОСКВА, 24 июля. /ТАСС/. Развитие искусственного интеллекта влечет за собой совершенствование технологии создания сфабрикованного контента, который может быть использован с целью создания международных конфликтов, что продемонстрировала недавняя история с фейковым видео с представителем МИД России Марией Захаровой. Опрошенные ТАСС эксперты рассказали, как научиться распознавать подобные дипфейки. Распространенное в социальных сетях видео с негативным комментарием Захаровой в адрес президента Казахстана Касым-Жомарта Токаева МИД России назвал грубой и циничной фальшивкой, целенаправленно вброшенной в казахстанское цифровое поле с целью вбить клин между Россией и Казахстаном.

Эксперт Международной ассоциации по фактчекингу Global Fact-Checking Network Фаузан Аль-Рашид рассказал, что при проверке подобных видеороликов необходимо искать несоответствия: аномалии в чертах лица, в нестыковке освещения и теней и в аудиовизуальной синхронизации. Также он рекомендовал обратить внимание на моргания человека - их количество должно быть естественным - 15-20 раз в минуту с неравномерными интервалами.

"В то время как при глубокой подделке может наблюдаться слишком частое, слишком редкое или механически регулярное моргание, - заметил он. - Кроме того, изучите асимметрию лица, поскольку подлинные человеческие выражения демонстрируют естественную асимметрию, которую системам искусственного интеллекта часто не удается убедительно воспроизвести".

Аль-Рашид также посоветовал обратить пристальное внимание на линию роста волос, поскольку в дипфейках в этой области часто наблюдается размытость, мерцание или необычные цветовые переходы из-за несовершенства алгоритмов наложения. "Алгоритмам дипфейка часто трудно поддерживать естественные движения и выражение лица", - подчеркнул он.

С помощью программы и без

Его коллега по Global Fact-Checking Networ Лили Онг без труда определила, что вирусное видео с Захаровой - дипфейк. "Для создания видео использовался исходный достоверный ролик, к которому применялись частичная модификация нижней части лица с использованием технологии LipSync (синхронизация движения губ), а также полная генерация синтетического голоса. Также на видео применялся дополнительный монтаж отдельных частей кадров", - рассказала она.

"Помимо движения губ, едва заметные движения лицевых мышц и микровыражения, неотъемлемые от естественной речи и эмоциональной глубины, позволили бы нам распознать подделку даже без сложного программного обеспечения", - подчеркнула эксперт.

Для точного определения подделки существуют специальные программы. Разработчиком одной из них является российская организация "Диалог Регионы". Их система "Зефир" анализирует и мониторит сфабрикованный аудиовизуальный контент, в том числе дипфейки, на основе сочетания моделей машинного обучения.

"По результатам оценки видеоматериала системой противодействия дипфейкам «Зефир», зафиксировано использование генеративных систем, направленных на манипуляцию биометрических данных", - рассказали ТАСС разработчики системы после проверки дипфейка с представителем МИД России.

В министерстве ранее заявили, что ни одно слово из сфабрикованного видео не является правдой. В ведомстве привели видеосравнение фейка и исходного отрывка для наглядной демонстрации.

Читайте также:

2025-09-24T11:58:15Z

Эксперты на примере видео с Захаровой рассказали, как распознать дипфейк

Среди признаков назвали аномалии черт лица, нехарактерные мимику и моргание глаз

2025-09-24T08:48:49Z

Видео с обвиняющей Токаева в русофобии Захаровой оказалось дипфейком

2025-09-24T08:23:35Z

Эксперт Онг сочла низкокачественной подделкой сфабрикованное видео с Захаровой

Аналитик по геополитике и кибербезопасности из Сингапура отметила, что использовали технологию синхронизации губ с технологией искусственного голоса, которая уже немного устарела

2025-09-24T02:00:55Z

В МИД назвали грубой подделкой видео с Захаровой, комментирующей встречи Токаева

МИД России назвало сделанным путем монтажа дипфейком видео интервью официального представителя министерства Марии Захаровой, в котором она комментирует встречу президентов Казахстана и Украины Касым-Жомарта Токаева и Владимира Зеленского на полях заседания Генассамблеи ООН.

2025-09-24T05:56:00Z

МИД назвал цель вброса дипфейка с Захаровой в казахстанских пабликах

МИД России назвал грубой подделкой видео c якобы представителем ведомства Марией Захарова и ее «комментариями» встреч президента Казахстана Касым-Жомарта Токаева на полях ГА ООН. Целью этой подделки было вбить клин между Москвой и Астаной, подчеркнули в министерстве.