AI генерирует видео с жестами , мимикой и голосом на основе оригинала

Печать: Шрифт: Абв Абв Абв
danilov 27 Сентября 2023 в 23:59:35
Комментарии, по рейтингу, по дате
  Джимбо 28.09.2023 в 00:25:53   # 819019
Это пиздец теперь видео нельзя считать доказательством. Скоро все начнут друг на друга делать вилео где опонент трахает свиноматку или ишака. И это только цветочки.
  Пастафариан 28.09.2023 в 09:25:34   # 819031
Цитата: Джимбо от 28.09.2023 00:25:53
Это пиздец теперь видео нельзя считать доказательством. Скоро все начнут друг на друга делать вилео где опонент трахает свиноматку или ишака. И это только цветочки.


Согласен, пи.да будет и очень скоро
  старик 28.09.2023 в 22:18:26   # 819055
Quote:
Это пиздец теперь видео нельзя считать доказательством. Скоро все начнут друг на друга делать вилео где опонент трахает свиноматку или ишака. И это только цветочки.
Ну спецы то наверное распознают подделку?
  Absolute 01.10.2023 в 04:57:47   # 819176
Проблема не в видео, а то что многие люди снимают на камеру реальные факты, которые при помощи этого можно будет оболгать. То есть масштаб проблемы Вам не совсем ясен. Поэтому и существуют сертифицированное оборудование видеосъемки и наблюдения. Где если и будет попытка объявить это подделкой, то это можно будет косвенно считать проникновением в сертифицированное оборудование с последующими вытекающими выводами.
  Absolute 01.10.2023 в 04:59:50   # 819177
Ввиду этого и существует экспертиза по видеосъемке, где берутся в расчет многие данные от производителя камеры до персонального кода на котором было снято видео. В общем сложностей больше не с технологиями, а с людьми и их восприятием.
  Ал 01.10.2023 в 10:53:31   # 819184
Quote:
ИИ научили определять дипфейки по "отсутствию крови" https://baigenews.kz/ii-nauchili-opredelyat-dipfeyki-po-otsutstviyu-krovi_156916/
25 Июля, 14:50
Теперь система может отличить поддельное видео от настоящего.
Компания Intel научила систему обнаруживать дипфейки в режиме реального времени. Программа FakeCatcher работает с точностью до 96 процентов, передаёт BaigeNews.kz со ссылкой на Аdvanced-television.com https://advanced-television.com/2023/07/24/bbc-tests-intel-deepfake-detector/.
Инженеры выяснили, что человек в реальном видео отличается от дипфейка наличием кровотока на лице. Именно его изменение фиксирует система и даёт заключение о подлинности видео. Когда кровь циркулирует по телу, она незаметно для нашего глаза меняет цвет вен, и Intel заявляет, что её технология способна отслеживать это изменение. FakeCatcher собирает данные о кровотоке с лица на изображении и затем с помощью алгоритмов преобразует эти данные, чтобы определить, настоящее видео или дипфейк.
В прошлом мошенники использовали дипфейки, чтобы выдать себя за соискателей при приёме на работу и получить доступ к конфиденциальной информации компании. Их также использовали, чтобы выдавать себя за видных политических деятелей и делать провокационные заявления.
Гуглоперевод Аdvanced-television.com Quote:
Intel считает, что у нее есть решение проблемы дипфейков. Центральное место в системе занимает метод фотоплетизмографии (PPG), который обнаруживает изменения в кровотоке, обнаруженные через лицо. Лица, созданные с помощью дипфейков, не передают эти сигналы, сообщили в Intel BBC. Система также анализирует движение глаз, чтобы проверить подлинность.

В Intel сообщили BBC, что система ведет себя чрезмерно осторожно. Лучше поймать все фейки, а также несколько настоящих видео, чем пропустить фейки.
Как и в случае с системами распознавания лиц, кажется, что в лабораторных условиях достигаются впечатляющие результаты, но «в дикой природе» эффективность оказывается более неоднородной.
  Ал 01.10.2023 в 11:02:50   # 819185
На прошлой неделе попадалась статья что с применением технологии дипфейков на основе фотографий одетых подростков не обремененные грузом нравственности дельцы создали детские порнографии, но статью не сохранил, а найти ее по ключевым словам не получилось...

Отвлекаясь от темы, в статусе онлайн снова "системный архитектор" в статусе онлайн высветился. Когда только работать успевает... )
Добавить сообщение
Чтобы добавлять комментарии зарeгиcтрирyйтeсь