Дипфейки - Благо или Бэйн?

Опубликовано: 24 Июня, 2021

Приложения, использующие камеру, день ото дня становятся все сложнее. Каждый день выпускаются совершенно новые фильтры, такие как уши животных, удаление прыщей, стройная морда и еще много чего. Некоторые приложения также могут создавать поддельные видеоролики, которые практически невозможно обнаружить человеческим глазом. Эта технология, которая быстро стала доступной для людей, получила название «дипфейки». Deepfakes, как следует из названия, использует форму искусственного интеллекта, называемую глубоким обучением, для создания изображений фальшивых событий.

Проще говоря, это можно описать как технологию, которая манипулирует цифровым контентом, таким как видео, и создает изображения и звуки, которые сфабрикованы до такой степени, что кажутся почти реальными. Эта технология представляет собой серьезный вызов для экспертов по кибербезопасности и правительства. Хотя эти технологии достаточно умны, чтобы покорить человеческий мозг, они не человеческие. Мы, люди, - самые умные существа на этой планете, и нам следует использовать осознанность и бдительность как свое оружие против этой опасности.

« Дипфейки - благо или проклятие ?» это большой вопрос, который до сих пор остается без ответа. Алгоритмы глубокого обучения, которые используются в дипфейках, могут изменить жизнь режиссеров и 3D-художников, поскольку они уменьшат усилия, необходимые для редактирования. Никогда не знаешь, что в твоем любимом 3D-фильме может использоваться та же технология. Иногда кинозвезды становятся известными в одночасье, потому что их видео становятся вирусными в Интернете, и аудитория просматривает их снова и снова. Пластические хирурги также могут извлечь выгоду из этой технологии, поскольку они смогут выполнить реконструкцию лица виртуально, а также смогут понять этапы операции. Это действительно повысит вероятность успеха таких сложных операций.

С другой стороны, Deepfakes также может оказаться вредным. Скорее всего, могут быть созданы поддельные вводящие в заблуждение доказательства, ведущие к распространению фальшивых новостей, которые могут разрушить жизнь невиновного человека. Эту технологию запросто можно использовать в гнусных целях и для вымогательства.

Говорят, что люди верят тому, что видят. Однако на самом деле все наоборот. Люди охотятся за доказательствами, которые подтверждают то, что они хотят принять за истину, и упускают из виду остальное. Злонамеренные субъекты пытаются взломать эту человеческую склонность с помощью генеративных состязательных сетей (GAN) , что, в свою очередь, делает их могущественными. GAN состоит из двух моделей машинного обучения: одна модель обучается на наборе данных и создает подделки видео, а другая пытается обнаружить подделки. Подделка генерирует подделки до тех пор, пока другая модель машинного обучения не сможет обнаружить подделку. Чем больше набор обучающих данных, тем легче фальсификатору создать убедительный дипфейк. Мы уже видим это с помощью фальшивых новостей, которые создают искажения, которые так быстро распространяются под именем фасадной правды. К тому времени, когда его отождествляют, становится уже слишком поздно и все разрушает.

Обнаружение дипфейков - сложная проблема . Непрофессиональные дипфейки легко обнаружить невооруженным глазом. Другие шифры, которые могут обнаружить машины, включают отсутствие моргания глаз или неясности, которые выглядят ошибочными. Сети GAN, генерирующие дипфейки, развиваются со временем, и вскоре нам придется рассчитывать на цифровую криминалистику для обнаружения дипфейков. DARPA предлагает исследователям деньги на открытие усовершенствованных методов проверки видео. Однако, поскольку GAN сами могут быть обучены, чтобы научиться избегать такой криминалистики, сомневается, сможем ли мы победить эту технологию или нет.

Дипфейки можно обнаружить с помощью смены лица, которая создает неравномерность разрешения в объединенном изображении, которую можно распознать с помощью методов глубокого обучения. Более того, нейронные сети также могут использоваться для обнаружения несоответствий между многочисленными кадрами в видеопоследовательности, которые часто возникают в результате смены лиц. В дипфейках обычно используются методы обнаружения цифровых манипуляций, таких как масштабирование, вращение или сращивание.
В конечном счете, технологические решения по обнаружению дипфейков, какими бы хорошими они ни были, не помешают распространению всех дипфейков. А средства правовой защиты, какими бы эффективными они ни были, обычно применяются постфактум. Это означает, что они не будут иметь адекватной эффективности в устранении вероятного ущерба, который могут нанести дипфейки, в основном с учетом небольшого периода, который отражает формирование, распространение и потребление цифровых медиа.

В результате повышение осведомленности общественности должно быть дополнительным аспектом тактики борьбы с дипфейками. Когда мы видим видео, демонстрирующие странное поведение, будет важно не сразу принять, что представленные действия являются подлинными. Когда выпускается заметное видео с подозрением на дипфейк, оно обычно идентифицируется в течение нескольких дней или, может быть, пары часов, независимо от того, есть ли надежные доказательства того, что оно было сфабриковано. Это знание не остановит дипфейки, но, несомненно, может помочь минимизировать их влияние.