Что такое DeepFakes и насколько они опасны?

Опубликовано: 24 Июня, 2021

Вы ненавидели последний сезон Игры престолов? Скорее всего! Вы также смотрели онлайн-видео, в котором Джон Сноу извиняется за ужасный сценарий 8-го сезона? Это видео явно не было настоящим, поскольку Джон Сноу ничего не знает! На самом деле это была подделка, но выглядела так реально. Это потому, что это было видео DeepFake, созданное с использованием искусственного интеллекта. Вам интересно, что такое DeepFake? Давай проверим!

DeepFake использует Deep Learning , подмножество машинного обучения, для создания видеороликов, которые выглядят настоящими, но на самом деле являются поддельными. По сути, это технология, которая может заменить лицо человека на изображении или видео с такой точностью, что оно выглядит реальным. Или это может заставить человека сказать на видео то, чего он никогда не говорил в реальной жизни. «То, что ты видишь, то и получаешь» больше не соответствует действительности в Интернете из-за DeepFakes. И вот как вы можете увидеть, как Джон Сноу обвиняет последний сезон Игры престолов, хотя на самом деле этого никогда не было!

Как делаются DeepFakes?

Алгоритм нейронной сети, известный как автоэнкодер, можно использовать для создания DeepFakes, которые прикрепляют поддельное лицо к исходному лицу. Предположим, вы хотите прикрепить лицо Джона Сноу к Тириону Ланнистеру. Для этого вы берете тысячи собранных фотографий Джона и Тириона и пропускаете их через нейронную сеть, называемую кодировщиком . Этот кодировщик будет изучать черты лица обоих лиц и сжимать изображения до общих черт, которые есть у них обоих. Затем нейронная сеть, называемая декодером , возьмет эти сжатые изображения и восстановит лицо Джона. Точно так же другой декодер сделает это для Тириона. Чтобы получить лицо Джона на лице Тириона, все, что вам нужно сделать, это взять сжатое изображение лица Джона и передать его в декодер, который был обучен на изображениях Тириона. Таким образом, этот декодер восстановит лицо Тириона, но будет использовать все манеры и выражения лица Джона. Это нужно делать в каждом кадре видео, чтобы показать, что Тирион Ланнистер действительно похож на Джона Сноу. Что очень странно представить!

Другой метод создания DeepFakes использует генерирующую состязательную сеть (GAN) . В основном это включает две нейронные сети, которые известны как Генератор и Дискриминатор соответственно. Генератор создает поддельные изображения, используя набор данных существующих реальных изображений, таких как знаменитости. Затем Дискриминатор пытается обнаружить любые дефекты в сгенерированных изображениях. Поддельные изображения, созданные Генератором вначале, очевидно, являются поддельными и даже не похожи на лица, но с помощью нескольких проходов можно создать реалистичное поддельное изображение. Это классический случай «Фальсифицируйте, пока не добьетесь!». Фактически, создать поддельные изображения еще проще, если уже имеется большой набор обучающих данных изображений. Именно поэтому знаменитости и знаменитости становятся объектом нападок больше всего. У них больше всего изображений и видео в публичном доступе.

Опасны ли DeepFakes?

DeepFakes в настоящее время используются для всего: хорошего, плохого и уродливого. Есть много видеороликов, созданных с использованием DeepFake, которые предназначены только для развлечения и никому не причинят вреда. Джон Сноу, извиняющийся за «Игру престолов», - один из таких примеров! DeepFakes также использовались в фильмах. Один из примеров - когда молодое лицо Харрисона Форда было вставлено на лицо Хана Соло в Solo: A Star Wars Story.

Но все больше и больше DeepFakes используются злонамеренно. По оценкам, не менее 96% DeepFakes в Интернете носят порнографический характер, когда изображения знаменитостей или других известных женщин наносятся на лица порнозвезд. Это серьезная угроза для многих женщин.

Еще одна угроза DeepFakes в будущем - это потеря доверия. Становится все труднее определить, настоящие ли фото или видео или фальшивка. В этой ситуации было бы очень трудно верить чему-либо как правде. Это может иметь огромные последствия. Например, суды не смогут определить, являются ли доказательства подлинными или поддельными. Кроме того, системы безопасности, которые полагаются на распознавание лиц или голоса, также могут быть обмануты с помощью DeepFakes в будущем. И могли ли вы когда-нибудь быть уверены, что человек, которому вы звоните на свой телефон, настоящий или это всего лишь имитация голоса и лица с помощью DeepFake?

Как распознать DeepFake?

Если вы не являетесь алгоритмом искусственного интеллекта, обнаружить DeepFake очень сложно! Тем не менее, вы все равно можете это сделать, если присмотритесь, потому что они все-таки подделка. Наиболее распространенным признаком является то, что уши, зубы и глаза человека иногда не соответствуют контуру лица. Синхронизация губ на видео также может быть неправильной, и создать отдельные пряди волос в DeepFakes очень сложно. И если лицо кажется слишком гладким, чтобы быть реальным, скорее всего, это не настоящее, а DeepFake. Однако становится все труднее обнаружить DeepFakes, поскольку они становятся все более и более реальными с развитием технологий.

В такой ситуации только искусственный интеллект может распознать использование искусственного интеллекта на фотографиях и видео. Почти все крупные технологические компании инвестируют в создание технологий, которые могут идентифицировать DeepFakes. Одним из самых больших усилий в этом направлении является конкурс Deepfake Detection Challenge, проводимый Amazon, Microsoft и Facebook, который направлен на выявление поддельного контента в Интернете (что становится все труднее и труднее!)

Надеюсь, всех этих мер будет достаточно, чтобы обнаружить DeepFakes в будущем. В противном случае может наступить время, когда смешные видеоролики о Джоне Сноу будут наименьшей из проблем DeepFake в этом мире. И даже международные катастрофы могут случиться из-за фейковых новостей, распространяемых DeepFakes.