2025-09-24T17:57:00Z
В Китае люди руками ловят рыбу на улицах после супертайфуна
2025-09-24T17:55:26Z
ICE: в Техасе при стрельбе у здания иммиграционной службы погибли два человека
2025-09-24T17:52:18Z
В Орске УК заставила жильцов убрать дверь, ограничивающую доступ к чердаку
2025-09-24T17:39:50Z
Агрессивная белка отправила в больницу двух человек
2025-09-24T17:33:25Z
В аварии на дороге в Крыму двое погибли и четыре человека пострадали
2025-09-24T17:31:48Z
Женщина нашла своего супруга бездыханным в воде и едва не погибла от паники
2025-09-24T17:30:00Z
Слово из ЕГЭ «запороло» весь экзамен: даже отличники путают буквы — а вы осмелитесь найти верный вариант?
2025-09-24T17:22:08Z
Председателя совета директоров «Корпорации СТС» Черных отправили под арест
2025-09-24T17:17:05Z
Суд вынес вердикт обманувшим Долину мошенникам
2025-09-24T17:10:18Z
Отдыхавшего в Европе священника арестовали с наркотиками
2025-09-24T17:07:32Z
Тверской священник рассказал, как секты заманивают новых адептов
2025-09-24T17:06:39Z
Стали известны подробности нападения дикой кошки «Короля тигров» на нового хозяина
2025-09-24T17:06:00Z
В Мытищах пресекли незаконную выносную торговлю
2025-09-24T17:05:22Z
Гоблин назвал дурью замок Пугачевой
2025-09-24T16:58:00Z
Мужчина погиб в ДТП с фурой на саратовской трассе
2025-09-24T11:24:29Z — Специалист Международной ассоциации по фактчекингу Global Fact-Checking Network Фаузан Аль-Рашид посоветовал искать в роликах аномалии в чертах лица и нестыковку освещения, а также рассинхрон аудио и видео
МОСКВА, 24 июля. /ТАСС/. Развитие искусственного интеллекта влечет за собой совершенствование технологии создания сфабрикованного контента, который может быть использован с целью создания международных конфликтов, что продемонстрировала недавняя история с фейковым видео с представителем МИД России Марией Захаровой. Опрошенные ТАСС эксперты рассказали, как научиться распознавать подобные дипфейки. Распространенное в социальных сетях видео с негативным комментарием Захаровой в адрес президента Казахстана Касым-Жомарта Токаева МИД России назвал грубой и циничной фальшивкой, целенаправленно вброшенной в казахстанское цифровое поле с целью вбить клин между Россией и Казахстаном.
Эксперт Международной ассоциации по фактчекингу Global Fact-Checking Network Фаузан Аль-Рашид рассказал, что при проверке подобных видеороликов необходимо искать несоответствия: аномалии в чертах лица, в нестыковке освещения и теней и в аудиовизуальной синхронизации. Также он рекомендовал обратить внимание на моргания человека - их количество должно быть естественным - 15-20 раз в минуту с неравномерными интервалами.
"В то время как при глубокой подделке может наблюдаться слишком частое, слишком редкое или механически регулярное моргание, - заметил он. - Кроме того, изучите асимметрию лица, поскольку подлинные человеческие выражения демонстрируют естественную асимметрию, которую системам искусственного интеллекта часто не удается убедительно воспроизвести".
Аль-Рашид также посоветовал обратить пристальное внимание на линию роста волос, поскольку в дипфейках в этой области часто наблюдается размытость, мерцание или необычные цветовые переходы из-за несовершенства алгоритмов наложения. "Алгоритмам дипфейка часто трудно поддерживать естественные движения и выражение лица", - подчеркнул он.
Его коллега по Global Fact-Checking Networ Лили Онг без труда определила, что вирусное видео с Захаровой - дипфейк. "Для создания видео использовался исходный достоверный ролик, к которому применялись частичная модификация нижней части лица с использованием технологии LipSync (синхронизация движения губ), а также полная генерация синтетического голоса. Также на видео применялся дополнительный монтаж отдельных частей кадров", - рассказала она.
"Помимо движения губ, едва заметные движения лицевых мышц и микровыражения, неотъемлемые от естественной речи и эмоциональной глубины, позволили бы нам распознать подделку даже без сложного программного обеспечения", - подчеркнула эксперт.
Для точного определения подделки существуют специальные программы. Разработчиком одной из них является российская организация "Диалог Регионы". Их система "Зефир" анализирует и мониторит сфабрикованный аудиовизуальный контент, в том числе дипфейки, на основе сочетания моделей машинного обучения.
"По результатам оценки видеоматериала системой противодействия дипфейкам «Зефир», зафиксировано использование генеративных систем, направленных на манипуляцию биометрических данных", - рассказали ТАСС разработчики системы после проверки дипфейка с представителем МИД России.
В министерстве ранее заявили, что ни одно слово из сфабрикованного видео не является правдой. В ведомстве привели видеосравнение фейка и исходного отрывка для наглядной демонстрации.
2025-09-24T11:58:15Z
Среди признаков назвали аномалии черт лица, нехарактерные мимику и моргание глаз
2025-09-24T08:48:49Z
2025-09-24T08:23:35Z
Аналитик по геополитике и кибербезопасности из Сингапура отметила, что использовали технологию синхронизации губ с технологией искусственного голоса, которая уже немного устарела
2025-09-24T02:00:55Z
МИД России назвало сделанным путем монтажа дипфейком видео интервью официального представителя министерства Марии Захаровой, в котором она комментирует встречу президентов Казахстана и Украины Касым-Жомарта Токаева и Владимира Зеленского на полях заседания Генассамблеи ООН.
2025-09-24T05:56:00Z
МИД России назвал грубой подделкой видео c якобы представителем ведомства Марией Захарова и ее «комментариями» встреч президента Казахстана Касым-Жомарта Токаева на полях ГА ООН. Целью этой подделки было вбить клин между Москвой и Астаной, подчеркнули в министерстве.