Приложение DeepFace было разработано, чтобы сделать процесс создания реалистичных изменений лица с глубоким обучением максимально плавным, простым и быстрым.
Он автоматически поддерживает все три шага основного рабочего процесса Faceswap — создание наборов данных, обучение AI и конвертирование видео. Пожалуйста, не используйте его для каких-либо фальшивых целей.
Последнее обновление
3 мар. 2021 г.
Фотография
Безопасность данных
В этом разделе разработчики могут указать, как приложения собирают и используют данные. Подробнее о безопасности данных…
Нет информации.
Оценки и отзывы
Оценки и отзывы проверены info_outline
arrow_forward
Оценки и отзывы проверены info_outline
phone_android Телефон
tablet_android Планшет
356 отзывов
Пользователь Google
more_vert
- Пожаловаться
16 августа 2019 г.
сплошная реклама! только зашел в приложение-реклама за рекламой! Разрабы офигели по ходу.. НЕ УСТАНАВЛИВАЙТЕ! ДИЧЬ ПОЛНЕЙШАЯ!
Источник: play.google.com
Как сделать ДипФейк за 5 минут — БЕСПЛАТНО? Что такое DeepFake?
DeepFake своими руками — знакомимся с пакетом DeepFaceLab
DeepFaceLab — бесплатное ПО от российского разработчика iperov, которое можно использовать для замены лиц в видео (с инструкцией на русском языке и английском языке). Доступна для скачивания на Github и rutracker.org.
20 января 2020, понедельник 00:39
XuMuK [ ] для раздела Блоги
RTX 4060 Ti сразу со скидкой 15 000р
-30% на 50″ TV 4K Ultra HD = дешевле 30 тр
RTX 4060 Ti Gigabyte дешевле всех других
-20000р на Ryzen 3950X — пора брать
Упала на порядок цена 65″ TV Samsung 4K
За пост начислено вознаграждение
реклама
Эта небольшая заметка не про комплектующие или их разгон, а про первичное знакомство с ПО, которое помогает «утилизировать» мощь наших ПК для создания видео, получивших название DeepFake (и чем они мощнее — тем более качественный фейк мы сможем сделать за более короткое время). Это мой первый опыт написания «статьи», надеюсь блин выйдет не слишком уж большим комом. 🙂
DeepFake, DeepNude, Deep. — всё чаще слова с данным корнем звучат с экранов ТВ или пестрят в заголовках статей и блогов, заманивая сочной провокационной картинкой на обложке. Нейросети всё лучше учатся распознавать или изменять наши лица, тела, голоса. Всё труднее становится заметить эти подделки даже профессионалам.
Источник скандалов и дискредитации известных персон, удел мошенников или просто обычное хобби и весёлый досуг? Всё зависит от чистоты помыслов людей, в чьих руках (особенно если прямых) оказывается подобное ПО. Моё внимание к данного рода программам привлекли видео, где Сталлоне остался «Один дома» и был вместо Арнольда в «Терминатор 2». Захотелось попробовать и узнать — насколько реально освоить это ремесло человеку, не обладающему знаниями в этой области, а также и не имеющему особых навыков использования фото- и видеоредакторов?! Попробуем разобраться вместе!
рекомендации
-8000р на 4060 Ti Gigabyte Gaming в Ситилинке
Слив i9 13900 в Ситилинке — смотри
10 видов RTX 4060 Ti уже в продаже
Много 4080 от 100тр — цены в рублях не растут
-220000р на 8K Samsung 75″ — смотри цену
Много 4070 в Ситилинке
15 видов 4090 в Ситилинке — цены идут вниз
Ищем PHP-программиста для апгрейда конфы
-17000р на 4070 Ti Gigabyte в Ситилинке
Компьютеры от 10 тр в Ситилинке
16 видов 4070 Ti в Ситилинке — от 80 тр
3060 дешевле 30тр цена — как при курсе 68
-7% на ASUS 3050 = 28 тр
Скачав данный пакет программ (DeepFaceLab) около недели назад, я был несколько ошарашен, ибо перед моим взором предстала следующая картина:
Однако постепенно, шаг за шагом изучая обучающие видео и pdf файл обучения, пробуя что-то с этим всем добром сделать, я понял, что это — большой труд, который проделал автор данного ПО, чтобы облегчить наше бремя создания видеофейков. Сильно глубоко вдаваться в сам процесс создания DeepFake (далее DF) не буду: для этого есть, уже упомянутые выше — видео на ютуб от автора, других умельцев и мануал (или писать отдельную статью). Но некоторые пояснения, которые возможно смогут помочь людям, решившим бросить вызов коварным нейросетям, я, с вашего позволения, попробую сообщить.
1. Про железо, куда же без него родного! Кроме очевидного (конец первого абзаца), тут есть некоторые нюансы: т.к. лимитирующим по времени этапом создания DF является тренировка нейросети (далее ИИ), которое происходит на видеокарте (CUDA предпочтительнее, но можно даже на встройке!), то именно её параметры будут нам важнее, чем CPU. Мощь ядра и большой объём VRAM — ускоряют процесс и позволяют использовать более «тяжёлые» настройки, влияющие как на скорость некоторых операций, так и качество итогового видеоматериала. Автор пакета выставил следующие требования к комплектующим:
Минимальные системные требования: Windows 7 и выше, процессор с поддержкой SSE инструкций, 2Gb ОЗУ с подкачкой, OpenCL-совместимая видеокарта (NVIDIA, AMD, Intel HD Graphics)
Рекомендуемые системные требования: Windows 7 и выше, процессор с поддержкой AVX инструкций, 8Gb ОЗУ, NVIDIA видеокарта 6GB видео памяти.
реклама
var firedYa28 = false; window.addEventListener(‘load’, () => < if(navigator.userAgent.indexOf(«Chrome-Lighthouse») < window.yaContextCb.push(()=>< Ya.Context.AdvManager.render(< renderTo: ‘yandex_rtb_R-A-630193-28’, blockId: ‘R-A-630193-28’ >) >) >, 3000); > > >);
2. Отбор видеоматериала источника лица и видео, из которого делают DF — огромное, если не решающее, влияние на итоговый результат. Лучше использовать FHD исходники, ну или уж хотя бы честный HD. Выбор персонажей для источника лица и под замену — второй кит, на котором держится успешность нашего фейка.
Если вы заменяете, например, блондинку с прямыми волосами на брюнетку с пышными — есть не иллюзорный шанс получить плохую узнаваемость героя DF. Худых моделей легче «вписать» в толстых, что наверное логично. Есть конечно исключения — вдруг вы, наоборот, хотите довести фэйк до абсурда и вписываете специально какие-то нелепые соотношения моделей (старика в ребёнка и т.д.).
Такой подход тоже вполне имеет право на жизнь! Последний этап «пробоподготовки» — тщательно проверить: какие лица выделил детектор лиц, а он выделяет ВСЮ массовку! И приходится переназначать такие кадры вручную. Тренироваться лучше начинать на простых сценах, где 1 человек, и он более менее статичен: пресс-конференции, монологи и всё в таком духе.
По мере увеличения способностей, повышать сложность сцены. Ещё очень важный момент при отборе лиц: SRC — это лицо, которые мы хотим вставить. DST — лицо, заменяемое в нашем фэйке. SRC лицо — нужно очень серьёзно «просеивать»: удалять кадры, где чем-то закрывается лицо, размытые, смазанные и т.д. Оставлять только чёткие!
А DST наоборот — нам нужны абсолютно все кадры с данным лицом, а иначе потом будут пропуски кадров, и настоящий герой видео будет возвращаться в фэйк.
3. Тренировка ИИ. Сложный процесс, имеющий кучи, непонятных не только новичку, но и чуть более опытным пользователям, настроек (в продвинутых моделях), поэтому лучше начинать либо с H64 или с DF (в данном случае это название модели для тренировки), т.к. они проще. Хотя можно запускать и более сложные модели, такие как SAE и SAE HD, в режиме «по умолчанию», главное чтобы хватило VRAM, иногда надо снижать некоторые параметры. Тренировать ИИ рекомендуют ОТ одного дня. Но на картах уровня 1080ti и выше, на мой взгляд, это время можно сократить, но исходя из результата, который выводится на экран в процессе тренировки. Пример:
реклама
Выложу свой стандартный алгоритм создания DF, который поможет в самостоятельном освоении:
- 2) extract images from video data_src (источники лиц — им заменяют)
- 3.2) extract images from video data_dst FULL FPS (лицо, которое будет заменено)
- 4) data_src extract faces S3FD all GPU (детектирование лиц источника)
- [4.1) data_src check result] (удаляем всех левых персонажей, ошибочные кадры — крупные массивы фото, остальное отсеем позже)
- 4.2.2) data_src sort by similar histogram
- 4.1) data_src check result
- 4.2.1) data_src sort by blur
- 4.1) data_src check result (удалить мутные)
- 4.2.6) data_src sort by best (автоматика сама отбирает лучшие лица и удаляет ненужные, можно сразу использовать только этот пункт и потом вручную проверить, не осталось ли там «неликвида»)
- 5) data_dst extract faces S3FD all GPU (детектирование лица «под замену»)
- [5.1) data_dst check results]
- 5.2) data_dst sort by similar histogram
- 5.1) data_dst check results
- 5.3) data_dst sort by blur (Ручная проверка и удаление кадров, где несколько лиц или не совсем корректно определены контуры нужного лица в папке DeepFaceLabworkspacedata_dstaligned_debug).
- 5) data_dst extract faces MANUAL RE-EXTRACT DELETED
RESULTS DEBUG (восстановление удалённого и последующая ручная разметка маски лица) - 6) train SAE HD (тренировка модели, можно брать другую использовав соответвующий *.bat файл)
- 7) convert SAE HD (замена dst лица на src, используя натренированную ранее модель)
- 8) converted to mp4 («склеивание» стоп-кадров в видео)
Здесь «2) extract images from video data_src» — это «батник» «2) extract images from video data_src.bat» из папки «DeepFaceLab» и т.д. Эх, наверное сумбур уже пошёл, и я тут чутка перегрузил терминами, которые сложно воспринимать без подробного описания, а писать полную статью с подробным описанием всех действий — я в данный момент не потяну. При просмотре самых вводных видео от автора ПО — многое встанет на свои места. Если не хотите пока забивать голову, можно бегло пробежать по видео ниже, чтобы понять приблизительный уровень DF у человека, который неделю (плотно) пытался разбираться в этом вопросе. И сделать какие-то выводы о дальнейшей целесообразности самостоятельных попыток создания DeepFake видео.
Вывод: за неделю ознакомиться с данным пакетом можно, но получить реально хороший уровень фэйков — тяжело (если конечно вы не гений :)), потому что многие параметры моделей можно подбирать только эмпирическим путём или общаясь с более опытными фэйкерами, например, на рутрекере.
Привожу варианты своих «работ», чтобы вы могли оценить приблизительный уровень и некий прогресс в динамике обучения. Если она вообще имеется конечно. Все видео приводить не буду, можно поглядеть на моём канале. Только основные вехи.
Самое первое видео, его исходники идут в комплекте DeepFaceLab, т.е. и предназначены для первых тренировок (файлы data_dst.mp4 и data_src.mp4 в папке «DeepFaceLabworkspace», свои видеофайлы вы в дальнейшем должны называть также, чтобы программа их подхватывала и использовала).
Тут особо и комментировать нечего, ляп на ляпе. По сути, я в тот момент просто жал почти везде «Enter» и всё было в режиме «по умолчанию», т.к. я ещё мало что понимал и не умел менять настройки (модели масок, цветовые и почти все прочие). Это делается уже почти в конце, на этапе «7) convert SAE HD» из алгоритма выше. Время тренировки модели — около 3-4 часов.
Далее пошёл этап набивания шишек (я многие из них уже озвучил ранее): когда наше видео по качеству хуже чем источник — получается, что очень сильно заметны грани заменённого лица. Один раз я не заметил, что детектор не взял некоторые лица, и они потом исчезли в видео. Выбор слишком сложных динамических сцен, совершенно разное освещение SRC и DST лиц — тоже получается слишком «топорная» вставка.
Пример ошибки со вставкой Поклонской в Шурыгину — она довольно тяжело узнаётся из-за совсем разных причёсок и цвета волос:
Тут на миг пропадает лицо Греты (замена на неизвестную широкой общественности журналистку):
Ну и в самом конце, самый последний фэйк, который закончил только сегодня — тренировал 16 часов, личный рекорд пока что. Само обращение очень сочное, хорошего качества, а мой источник лица немного не дотягивает до такого уровня детализации и цветопередачи, возможно если продолжить тренировку модели с некоторыми другими настройками — его качество ещё можно поднять:
Если кого-то заинтересовала данная тема — скачивайте DeepFaceLab, устанавливайте и вперёд! Какие-то моменты могу попробовать подсказать, но в Интернете достаточно подробных рукописных и видеогайдов.
Спасибо за внимание!
За пост начислено вознаграждение
Источник: overclockers.ru
DeepFake в условиях современности: что, почему и возможно ли защититься
Дипфейк. Что первое приходит на ум, когда вы слышите или видите это слово? Наверное, какие-то картинки или видео откровенного характера, но что если я скажу вам, что такой жанр подделок давно уже вышел за любые рамки здравого смысла и проник абсолютно в каждую отрасль, которая, так или иначе, связана с интернетом?
После определенной череды событий, а именно пандемии COVID-19, в 2020 году, активизировалась форсированная интеграция компьютерных технологий в массы, которая выделила среди общего количества группу неопытных и легко внушаемых пользователей, что создало благоприятную почву для развития дипфейков.
Подделки, созданные с использованием ИИ, не всегда производят лишь смеха ради. Всё чаще они используются во злой умысел, и ребром стоит вопрос об их обнаружении, но обо всем по порядку.
Что же такое DeepFake на самом деле?
Термин говорит сам за себя, и ясен даже простому обывателю, ведь это соединение двух слов «глубокий» (в контексте ИИ чаще понимается как глубокое обучение) и «подделка». Глубокое обучение — это совокупность методов машинного обучения, основанных на создании представлений, а не специализированных алгоритмов под конкретные задачи. В этом определении и заложен основной принцип искусственного интеллекта. Что такое «подделка», думаю, объяснять не стоит.
DeepFake — это изображения или видео, в основах генерации которых используют технологии искусственного интеллекта, в результате чего один фрагмент накладывается поверх другого с поразительной точностью и очень часто различить «на глаз», где подделка, а где оригинал, становится невозможно.
Эта технология, по своей сути, была создана лишь для того, чтобы подделка осталась незамеченной, хотя изначально она была предназначена лишь для повышения анонимности в сети. И основной её характеристикой как раз таки является «возможность казаться реальной», поэтому, по моему скромному мнению, большинство преступлений, связанных с дипфейками, так и останутся незамеченными.
Для примера — рассмотрите эту гифку. Если бы вы никогда не видели этот фильм прежде и смотрели на изображение справа, смогли бы вы понять, что здесь что-то не так? Может, и взаправду Николас Кейдж сыграл в этом фильме барышню или, быть может, это какой-то неудачный дубль с проб?
Конечно, если обратить внимание на картинку слева, то все становится очевидно.
Также добавлю от себя ещё такое определение. DeepFace — это изображение человеческого лица, генерируемое ИИ (искусственным интеллектом, далее буду использовать лишь сокращенный вариант) на основе его представлений о том, как должен выглядеть человек. Но это одновременно означает, что такого человека никогда в принципе не существовало, и его лицо — лишь «плод воображения» машины.
Можете ли вы представить, что лицо этого мужчины никогда не существовало? А это так. В этой статье я хотел бы отметить особую опасность таких вот генераторов, ведь злоумышленники зачастую используют эти фото в своих схемах, где нужно выдать себя за кого-то другого.
Проблематика DeepFake
Несмотря на то, что о дипфейках трубят из всех возможных источников, исследование журнала “Security Week” в 2019 году показало, что 72% пользователей до сих пор не имеют четкого представления о том, что же это за подделка такая и как её определить.
Зачастую фальшивки используют для создания дезинформации или ложных сведений, которые исходят из якобы проверенного источника. Таким образом, мошенник может влиять на гражданское общество, изменять мнение масс, позиции и делать все, что ему только заблагорассудится. Но существует и второй вектор, который направлен против отдельных лиц или компаний для получения финансовой прибыли, простыми словами — для шантажа.
Угроза кибербезопасности для компаний заключается в том, что дипфейки могут повысить эффективность фишинга и упростить мошенничество с идентификацией, манипулировать репутацией компании.
Для наглядности представьте себе следующую ситуацию. Заседание директоров некой компании в онлайн-режиме. Все тихо, мирно, вы ведете переговоры с подрядчиками, или что там ещё делают на заседаниях. И вдруг на конференцию врывается ваш руководитель, и начинает нести всякую чушь, например, требовать срочно перевести ему пять тысяч рублей на кошелек Биткоин.
Да, скорее всего, удивитесь поведению руководителя, но также, вероятно, поддадитесь на его уговоры, ведь у вас даже мысли не возникнет, что это не он. Так работает дипфейк.
Теперь перейдем к отчету от CyberСube, которые поведали о статистике использования дипфейков в киберпреступлениях.
«Способность создавать реалистичные аудио- и видеофейки с помощью ИИ неуклонно растет. Дипфейки способны не только дискредитировать влиятельных людей, но и потенциально нанести вред обществу в целом, в связи с чем многие эксперты по безопасности прогнозируют, что дипфейки могут стать серьезной угрозой уже в 2021-2022 гг.».
На момент публикации этого отчета в нем шла речь о том, что все ещё можно отличить подделку, лишь присмотревшись. Прошло два года и автор словно в воду смотрел, ведь на данном этапе развития качественные фальшивки практически неотличимы от оригинала.
«Новые и появляющиеся методы социальной инженерии, такие как фальшивые видео и аудио, коренным образом изменят ландшафт киберугроз и станут технически осуществимыми и экономически жизнеспособными для преступных организаций любого размера», — говорится в отчёте CyberCube.
По статистике за 2020 год только в США было совершено более миллиона махинаций с использованием технологии дипфейк.
В том же 2020 году выходит отчет Университетского колледжа Лондона (UCL), фальшивый аудио- или видеоконтент был признан экспертами наиболее тревожным использованием ИИ с точки зрения его потенциального применения для совершения преступлений или терроризма.
В этом же отчете авторы добавили небольшое примечание, что достаточно мало преступников имеют соответствующие умения для создания суперреалистичных подделок. По правде говоря, последнее утверждение не сыскало подтверждения в сегодняшних реалиях.
Основные векторы подделок в 2022 году
- Финансовое вымогательство
Преступления, связанные с финансами, становятся все более и более изящными с каждым днем благодаря развитию технологии дипфейков. Существует несколько десятков методов проведения всего этого, но давайте выделим парочку наиболее актуальных и популярных:
- Фальсификация видео- или фотоматериалов в унижающей или компрометирующей манере; преступник, сгенерировав такие материалы, начинает требовать у жертвы выкуп, угрожая отправить подделки в сеть или кому-то из родных/близких.
- Как бы ни было смешно, но пока что технология FaceID далека от реальности. Её прямая уязвимость заключается в том, что она не способна различать подделки. Поэтому к полноценному вектору атак с использованием дипфейков можно отнести и обход FaceID банковских приложений.
- Использование программного обеспечения дипфейк для подделки голоса с последующей манипуляцией окружением жертвы. Представьте ситуацию, когда злоумышленник уже получил доступ к мессенджеру какого-то директора фирмы. Естественно, он может просто создать текстовое сообщение с подробным описанием инструкций по переводу денег на нужный ему счет. Но если смотреть с точки зрения психологии, то подчиненный, услышав голос своего шефа, явно будет доверять сказанному больше, нежели просто тексту. Да и, как по мне, здесь попросту исчезают любые сомнения. Сюда же можно отнести и «Алло, мам, я попал в аварию, мне срочно нужны деньги».
- DeepNudes как наиболее деструктивный метод подделки
История дипфейков DeepNude началась с одноименного приложения, которое позволяло пользователям удалять элементы одежды с фотографий. Однако в скором времени начало массово использоваться злоумышленниками для шантажа. Приложение было закрыто, но название DeepNude крепко закрепилось за подделками такого типа.
Естественно, deepnudes используется не только в развлекательных целях. Такая технология также служит основательным рычагом давления во время шантажа.
Под прямой удар всего этого дела попали различные блогеры и медийные интернет-персоны. И не только девушки. Фундаментально метод нацелен на всю социальную жизнь жертвы и требует подготовки в виде изучения социальных контактов и всего прочего.
Созданная подделка отправляется жертве, а после, под угрозой дальнейшего распространения, злоумышленник требует выкуп. Хотя после его уплаты материалы зачастую все равно утекают в сеть.
Об истории и детальной проблематике можете почитать вот здесь, прелестная статья, которая детально все описывает.
- Подделка паспортных данных с целью дальнейшего использования в мошеннических схемах
В 2021 году в Китае раскрыли группу мошенников, которые подделывали паспортные данные и оформляли интернет-кредиты, обманывали налоговую с помощью технологии дипфейк. За несколько лет своей деятельности им удалось заработать около 75 млн $.
- Политические манипуляции
Думаю, что ни для кого не секрет, что в политике важную роль играет мнение общественности. С помощью технологии дипфейк и нескольких одаренных лиц можно создать целую империю поддельного контента, которая будет напрямую влиять на общественность.
Допустим, можно просто заменить лицо одного человека на другое, но это является не самым идеальным методом. Ведь если аккуратно изменить движение губ на видеоролике и наложить на него совершенно другую аудиодорожку, которую аналогичным образом подделать, то можно породить контент, в котором человек произносит совершенно другие вещи, нежели в оригинале.
Центр безопасности и новых технологий (CSET) Джорджтаунской школы дипломатической службы Уолша в июле 2021 г. подготовил развёрнутый доклад о дипфейках.
Основные тезисы доклада следующие:
Во-первых, злонамеренное использование грубо сгенерированных дипфейков станет проще со временем по мере превращения технологии в товар.
Во-вторых, специализированные дипфейки, созданные технически продвинутыми участниками, со временем будут представлять большие угрозы.
Авторы доклада считают, что технологии дипфейк все чаще интегрируются в программные платформы, где не требуются специальные технические знания. Простота в их использовании упрощает «замену лиц» — удаление одного лица из изображения или видео и вставку другого – и делает их все больше доступными для пользователей без технических знаний.
Обнаружение дипфейков: мелкие детали уже не помогут
В 2021 году в свет вышла небольшая заметка, в которой рассказывалось об основных недочетах подделок и как их можно определить. Кратко выделю основные факты:
- Недочеты от подделки к подделке повторяются, что указывает на несовершенство существующих технологий дипфейк.
- Фальсифицированные материалы первого поколения (первые подделки в помощью ИИ) отличаются наличием разного цвета глаз. В природе гетерохромия — редкость. Но в сети она встречается гораздо чаще, нежели в реальном мире. Также усомниться в подлинности изображения стоит, если на портрете разные расстояния от центра глаз до края радужной оболочки, а лимбы не обладают правильным округлым контуром.
- Зубы для дипфейков — проблема проблем. Их прорисовка зачастую хромает. Слева — подделка (очень некачественная с множеством артефактов), справа — оригинал.
- Сравнения отражений в роговице глаза считается самым продвинутым методом определения подделок. Правда, сработает это лишь в случае, когда злоумышленник не шибко умен или ленив. Ведь на на данном этапе развития убрать различия в отражениях не составит труда, и я вам это докажу.
Проверяем популярные инструменты для определения дипфейков на собственной шкуре
Для создания этой главы я потратил около 24 часов на обучение модели в DeepFaceLab, использовать уже готовые я не рискнул, так как был большой шанс того, что они не подойдут для наших целей. А онлайн-генераторы делают все настолько плохо, что даже невооруженным взглядом можно понять, что это подделка.
Для определения подделок, сделанных ИИ мы будем использовать ИИ. Клин клином вышибают? Получается, что так. Представляю вам список репозиториев, которые примут участие в нашем небольшом эксперименте, они имеют наибольшее количество звезд на GitHUB:
- dessa-oss/DeepFake-Detection
- FaceOnLive/DeepFake-Detection-SDK-Linux
- dessa-oss/profake-detection
- Intel Real-Time Deepfake Detector
Сразу стоит отметить, что каждая из представленных мною программ-утилит очень требовательна. И только для их запуска ваше устройство должно иметь минимум 32 ГБ оперативной памяти и современный многоядерный процессор. Во избежание лишней нагрузки на свои девайсы, рекомендую воспользоваться виртуальной машиной.
Лично мой выбор пал на Google Shell — быстро, просто и без суеты.
Установим первый репозиторий:
- Сперва нужно провести инсталляцию Nvidia Doker’a, сделать это можно с помощью одной длинной команды:
docker volume ls —q —f driver=nvidia—docker | xargs —r —I<> —n1 docker ps —q —a —f volume=<> | xargs —r docker rm —f sudo apt—get purge nvidia—docker
- А далее просто копируем репозиторий себе:
sudo apt install ffmpeg git clone https://github.com/dessa—oss/DeepFake—Detection.git cd DeepFake—Detection
- После этого нам нужно запустить скачивание Фейс Сетов, то бишь образцов лиц подделок:
bash restructure_data.sh faceforensics_download.py
- А затем запустить обучение модели: python3 train.py
Само обучение может занять колоссальное время, но чем дольше, тем лучше. После 12 часов обучения, пробуем определить, является ли мой дипфейк (скрин ниже) в глазах ИИ действительным:
python3 hparams_search.py 1.jpg
И результат неутешительный. А вот Тома Хенкса распознало отлично, хотя в случае с его подделкой там и прибегать к ИИ не нужно.
Второй репозиторий, оказалось, имеет удобный Web-интерфейс и не нуждается в инсталляции. Он без особых проблем определил созданный мною дипфейк, а вот справится ли он с более тяжелой задачей. Давайте проверим.
И снова успешное определение. Действительно, неплохо.
О третьем репозитории говорить ничего не стану, так как он полностью не оправдал количество звёзд и не определяет даже самую плохую подделку.
А теперь поговорим об Intel Real-Time Deepfake Detector, который побудил меня к написанию этой статьи.
Intel представила продукт, который является самым первым в мире детектором дипфейков в реальном времени. Они утверждают, что FakeCatcher имеет точность 96% и работает путем анализа потока в видеопикселях с использованием инновационной фотоплетизмографии (PPG).
FakeCatcher отличается от большинства детекторов, основанных на глубоком обучении, тем, что он ищет подлинные подсказки в реальных видео, а не просматривает необработанные данные, чтобы обнаружить признаки недостоверности. Его метод основан на PPG, методе, используемом для измерения количества света, который либо поглощается, либо отражается кровеносными сосудами в живой ткани. Когда наши сердца качают кровь, вены меняют цвет, и эти сигналы улавливаются технологией, чтобы определить, является ли видео подделкой или нет.
В интервью VentureBeat Демир (один из создателей инновационного приложения) сказал, что FakeCatcher уникален, потому что сигналы PPG «ранее не применялись к проблеме дипфейка». Детектор собирает эти сигналы с 32 точек на лице, прежде чем алгоритмы преобразуют их в пространственно-временные карты, и до того как будет принято решение о том, является ли видео реальным или фальшивым.
Intel говорит, что детектор может использоваться платформами социальных сетей, чтобы пользователи не загружали вредоносные дипфейки, а новостные организации могут использовать его для предотвращения публикации подделок.
На данный момент инструмент доступен в режиме тестирования, потому давайте проверим, справится ли он с определением нашего дипфейка.
И он безоговорочно определяет любое фото или видео из сети интернет, включая и сделанный лично мной.
Небольшие итоги тестирования:
- Первое место получает FakeCatcher от Intel, который с легкостью определил 19 из 20 дипфейков.
- Второе место получает репозиторий из Гитхаб — DeepFake-Detection-SDK. 12 из 20 определений. Это 60%, а именно такое значение было указано в его описании.
- Третье место занимает репозиторий DeepFake-Detection-oss — 10 из 20 определений. Это 50% и на 20% ниже, чем было заявлено.
- Аутсайдер — репозиторий из ГитХаб profake-detection. 2 из 20. Тут без комментариев.
Помимо этих репозиториев, я также решил проверить и различные сервисы, они очень просты в использовании, но для некоторых потребуется регистрация или активация пробного периода. Могу сказать, что большинство из них нацелены на определение подделок ужасного качества:
- Первое место в этом списке получил deepware.ai, определив 11 из 20 дипфейковых видео.
- Второе место за duckduckgoose.ai с 10 из 20 определений.
- Третье место за Reality Defender с 9 из 20 определений.
Выводы
Дипфейк — технология, основанная на ИИ, которая позволяет подделывать изображения, а именно человеческие лица или их части, с поразительной точностью. На данном этапе развития DeepFake можно причислить к одной из самых опасных угроз кибербезопасности последних годов.
Но вместе с прогрессирующей технологией подделки развиваются и методы её разоблачения. Сегодня мы разобрали самые популярные репозитории и ресурсы, которые представляют возможность определить фальсификации, и представили некий топ. Intel — класс! Ожидаю полноценного релиза для более глубокого изучения функционала этого детектора.
А на этом у меня все. Бывайте.
НЛО прилетело и оставило здесь промокод для читателей нашего блога:
— 15% на все тарифы VDS (кроме тарифа Прогрев) — HABRFIRSTVDS.
Источник: habr.com