Рассказываем на примере СССР, Тома Хэнкса и других… Почему невозможно отличить дешёвый дипфейк от реальных фото

Илья Сидоров avatar | 11
FavoriteLoading В закладки
Рассказываем на примере СССР, Тома Хэнкса и других… Почему невозможно отличить дешёвый дипфейк от реальных фото

В интернете можно найти огромное количество фотографий Тома Хэнкса. Однако ни одна из них не похожа на изображение, которое показали на конференции по компьютерной безопасности Black Hat. Всё потому что оно было создано с помощью алгоритмов машинного обучения, а не камеры.

Его показал Филип Тулли, специалист по обработке данных в компании FireEye. Она специализируется на компьютерной безопасности.

С помощью сгенерированного фото Тома Хэнкса, Тулли продемонстрировал, что дипфейки с каждым днем становятся дешевле и проще в использовании.

Но обо все по порядку.

В СССР тоже создавали дипфейки, но они отличались от современных

Синтез изображений не является новой технологией. Чем-то отдаленно похожим занимался отдел пропаганды в СССР.

В 1929 году один из руководителей Союза борьбы за освобождение рабочего класса Александр Малченко исчез с фотографии группы соратников Ленина после ареста в 1929 году.

Его изображение было аккуратно удалено таким образом, что никто этого не заметил.

Позже нарком внутренних дел Николай Ежов пропал с совместной фотографии со Сталиным. Это было сделано по приказу Берии, который решил стереть память о своем предшественнике после его ареста.

Подобные манипуляции с картинками обрели большую популярность с появлением Photoshop в 1990 году. Adobe создала программу, которая позволяет не только удалять ненужный объект, но и изменять лицо человека до неузнаваемости.

В тему: Приложение ZAO заменяет ваше лицо в любом фильме. Был Ди Каприо, стал Василий

В 2010-х, появился термин дипфейк. Им называют все искусственно созданные изображения и видео.

И 1930-х, и сегодня, люди получали новые изображения из уже имеющихся. Однако если в прошлом столетии можно было максимум удалить объект с фотографии и сделать это вручную, то сегодня мы можем автоматически создать «своего» человека на основе множества снимков.

Как создаются дипфейки и где их можно увидеть

Если коротко, то принцип следующий: массив файлов загружается в программу, там он обрабатывается и распознается, затем мы получаем изображение или видео с заданными параметрами.

За последние годы появилось большое количество программ для создания дипфейков. Однако популярные решения вроде DeepFaceLab и Faceswap выдают результат низкого качества.

Для создания реалистичного дипфейка требуются большие затраты, время и мощные компьютеры. Обычно они применяются в фильмах. Например, в Звездных Войнах: Изгой один.

В нем есть несколько сцен с участием гранд-моффа Таркина. Неподготовленный зритель вряд ли заметит разницу с реальным актером.

То же самое относится к последней сцене, в которой появляется принцесса Лея, точнее её виртуальная копия.

Дипфейки расширяют возможности кино и позволяют создателям воплотить все свои желания, даже несмотря на смерть актеров, как в случае с Питером Кушингом и Кэрри Фишер.

В чем особенность дипфейка Тома Хэнкса

Для создания изображения Тома Хэнкса понадобилось несколько сотен его фотографий и менее $100 на настойку ПО для формирования лица.

При детальном рассмотрении можно распознать подделку, например, по неестественным складкам шеи и текстуре кожи. Однако в масштабах социальных сетей это изображение легко можно принять за настоящую фотографию.

Тулли использовал модель генерации лиц StyleGAN, разработанную Nvidia в прошлом году. Компания создала её, обработав миллионы изображений за несколько дней с помощью мощных графических процессоров.

Разработчик адаптировал его в «Генератор Хэнкса» менее чем за день. Ему понадобился только один графический процессор, который он арендовал в облаке.

Он также скопировал голос Хэнкса, используя ноутбук, три 30-секундных дорожки и проект по синтезу речи одного из сотрудников Google.

WIRED · This Isn't Tom Hanks

На записи слышно, что речь «компьютеризована». Но не стоит забывать, что это только демонстрация на скорую руку.

При необходимости сегодня уже можно использовать генераторы голоса, которые очень сложно отличить от настоящих.

Качество дипфейков растет с каждым днем, а распознавать их почти никто не умеет

Качество дипфейков улучшается с каждым днем. Фото выше тому подтверждение.

Если это продолжится, могут быть негативные последствия для общества в целом.

Филип Тулли

В тему: Новое приложение Familiar вставляет ваше лицо в любую гифку

Пример с Хэнксом показывает, что обычный пользователей вряд ли отличит фейковое изображение или видео от настоящего. В реальности качественный дипфейк сможет запросто разрушить репутацию человека или компании.

Простой пример. Недавно школьник с друзьями взломал Твиттер Илона Маска и других брендов. Он опубликовал твит с призывом перевести деньги на его счет.

За короткое время он получил несколько сотен платежей на общую сумму больше $100 тыс.

И это только благодаря одному твиту. А теперь представьте, если вместо текста, хакеры опубликовали бы видеозапись с дипфейком Маска. Мне очень сложно представить, к чему это привело.

Интернет-компаниям предстоит создать мощные инструменты по распознаванию дипфейков. Многие уже начали работать над подобными проектами.

Facebook недавно создала хранилище дипфейк-видео и предложила $500 тысяч за самый эффективный детектор, обученный на этих роликах. В конкурсе победил инженер по машинному зрению из Минска Селим Сефербеков. Его алгоритм DeepFake Detection показал точность около 65%.


DeepFake Detection может отметить подозрительную область.

Алгоритм находит различные артефакты на лице, которые несвойственны обычному видео. Для этого он разбивает видео на отдельные кадры.

Даже у очень качественных дипфейков между кадрами есть помехи. Люди хорошо замечают эти несоответствия, особенно когда речь идёт о лицах. Но автоматическое обнаружение этих дефектов потребует больших и разнообразных обучающих данных и гораздо большей вычислительной мощности.

Селим Сефербеков

Также известно, что Nvidia разрабатывает инструменты по распознаванию лиц, которые были синтезированы с помощью искусственного интеллекта. [Wired]

1 Звезд2 Звезды3 Звезды4 Звезды5 Звезд (27 голосов, общий рейтинг: 4.78 из 5)
undefined
iPhones.ru
Качество дипфейков улучшается с каждым годом.
Прокомментировать

🙈 Комментарии 11

  1. Reagan avatar
    Reagan17 августа 2020
    8

    СССР- страна фейк.

    rkolyan avatar
    rkolyan17 августа 2020
    9

    @Reagan, это ты родителям своим расскажи

    buyzilla avatar
    buyzilla17 августа 2020
    6

    @rkolyan,
    Так его родители это тоже подтвердят.
    Вся история СССР это нагромождение фэйков и лжи ,разного рода

  2. gf3yksj8ct avatar
    gf3yksj8ct17 августа 2020
    1

    Таркин и Лея пожалуй не лучший пример.
    Имхо для их создания потребовалась куча денег и труд множества художников, а в результате всё равно остался эффект зловещей долины ( хотя сейчас его почти победили).
    А вот настоящие дипфейки требуют в разы меньше средств, генерируются нейросетями, эффекта зловещей долины лишены (хотя артефакты нейросети и могут присутствовать) и при толковом использовании, (освещение правильный ракурс, схожесть комплекции и мимики актёра и жертвы) могут выдавать совершенно потрясающий результат.

  3. werk avatar
    werk17 августа 2020
    0

    камеру на своем маке не забываем заклеить, хотя уже поздно )

  4. krl avatar
    krl17 августа 2020
    0

    опять фото педофила на главной ленте iPhones.ru

    StalkerToXa avatar
    StalkerToXa17 августа 2020
    0

    @krl, это кто из них педофил?

    krl avatar
    krl18 августа 2020
    0

    @StalkerToXa, как я понал тот кто слева на фотке. справа это графика

    kostik avatar
    kostik19 августа 2020
    0

    @krl, То что ты понАл где право а где лево это уже хорошо. Только ни кто не понял почему Хэнкс педофил!
    ?

  5. Telman avatar
    Telman17 августа 2020
    1

    отличная статья, спасибо!

  6. slipa avatar
    slipa18 августа 2020
    1

    Илья Сидоров – дол@еб

Вы должны авторизоваться или зарегистрироваться для комментирования.

Нашли орфографическую ошибку в новости?

Выделите ее мышью и нажмите Ctrl+Enter.

Как установить аватар в комментариях?

Ответ вот здесь