ИИ научили определять дипфейки по "отсутствию крови"
https://baigenews.kz/ii-nauchili-opredelyat-dipfeyki-po-otsutstviyu-krovi_156916/
25 Июля, 14:50
Теперь система может отличить поддельное видео от настоящего.
Компания Intel научила систему обнаруживать дипфейки в режиме реального времени. Программа FakeCatcher работает с точностью до 96 процентов, передаёт BaigeNews.kz со ссылкой на Аdvanced-television.com
https://advanced-television.com/2023/07/24/bbc-tests-intel-deepfake-detector/.
Инженеры выяснили, что человек в реальном видео отличается от дипфейка наличием кровотока на лице. Именно его изменение фиксирует система и даёт заключение о подлинности видео. Когда кровь циркулирует по телу, она незаметно для нашего глаза меняет цвет вен, и Intel заявляет, что её технология способна отслеживать это изменение. FakeCatcher собирает данные о кровотоке с лица на изображении и затем с помощью алгоритмов преобразует эти данные, чтобы определить, настоящее видео или дипфейк.
В прошлом мошенники использовали дипфейки, чтобы выдать себя за соискателей при приёме на работу и получить доступ к конфиденциальной информации компании. Их также использовали, чтобы выдавать себя за видных политических деятелей и делать провокационные заявления.
Гуглоперевод Аdvanced-television.com Quote:Intel считает, что у нее есть решение проблемы дипфейков. Центральное место в системе занимает метод фотоплетизмографии (PPG), который обнаруживает изменения в кровотоке, обнаруженные через лицо. Лица, созданные с помощью дипфейков, не передают эти сигналы, сообщили в Intel BBC. Система также анализирует движение глаз, чтобы проверить подлинность.
Изучив обе эти характеристики, Intel считает, что сможет отличить настоящее видео от подделки за считанные секунды. Компания утверждает, что точность FakeCatcher составляет 96 процентов.
BBC использовала для своего теста около дюжины видеороликов с участием бывшего президента США Дональда Трампа и президента Джо Байдена. Некоторые из них были реальными, некоторые были дипфейками, созданными Массачусетским технологическим институтом (MIT).
С точки зрения поиска дипфейков система оказалась довольно хорошей. BBC в основном выбирала фейки с синхронизацией губ – настоящие видео, в которых были изменены рот и голос. Все ответы были правильными, кроме первого.
А вот с аутентичными видео были очевидны проблемы: несколько раз система говорила, что видео фейковое, хотя на самом деле оно было настоящим. Чем более пикселизировано видео, тем сложнее уловить кровоток. Система также не анализирует звук. Поэтому некоторые видео, которые, если слушать голос, казались вполне реальными, были признаны фейковыми.
В Intel сообщили BBC, что система ведет себя чрезмерно осторожно. Лучше поймать все фейки, а также несколько настоящих видео, чем пропустить фейки.
Как и в случае с системами распознавания лиц, кажется, что в лабораторных условиях достигаются впечатляющие результаты, но «в дикой природе» эффективность оказывается более неоднородной.