В мире, где технологические достижения достигают головокружительной скорости, нам необходимо учитывать потенциальное злоупотребление многими из них. Некоторые технологии были созданы в конструктивных целях только для того, чтобы их неправильно использовать для распространения хаоса и страха в жизни людей. Одна из таких областей, которая используется, - это глубоко поддельные технологии.

Глубокие подделки используют алгоритмы машинного обучения для создания поддельных человеческих изображений и воспроизведения их в изображениях и видео. Используя эту технологию, можно синтезировать лицо человека и наложить его на другое видео или фото. Киноиндустрия - один из крупнейших рынков этой технологии, и ее применение очень обширно. Вы можете попросить каскадера разыграть рискованную сцену, а затем использовать глубокую имитацию, чтобы заменить его лицо лицом актера. Если сцену фильма нужно переснять, а актеры недоступны, вы можете выбрать случайный состав, который сыграет роль и заменит лица. Одним из примеров было изображение принцессы Леи в Rogue One: A Star Wars Story. Лицо Кэрри Фишер (принцессы Леи) было наложено на лицо датской актрисы Ингвильд Дейлы, которая сыграла младшую версию принцессы Леи. Как видите, приложения просто потрясающие.

В 2017 году было выпущено видео, в котором Обама говорил о глубоких фейках и их потенциальном неправильном использовании. Ближе к концу своего выступления он рассказал, что видео было примером подделки, и на самом деле он никогда не произносил слов. Это была пощечина для многих людей и показала потенциальные бедствия, которые могут создать глубокие фейки. Он показал, как можно распространять ложные новости и делать противоречивые заявления от людей, находящихся у власти. Глубокие фейки могут использоваться для пропаганды и клеветы на политических лидеров, особенно перед выборами. Еще одно место, где она вызвала интерес, - это порнография. Вы можете поместить лицо любой знаменитости в порно-видео и опубликовать его в социальных сетях. Порно-месть - еще один ужасный способ манипулировать этой технологией и отомстить. Список огромен, как можно использовать этот технологический прорыв.

Глубокие подделки, как следует из названия, представляют собой смесь глубокого обучения и подделок. Он основан на ветви машинного обучения под названием Generative Adversarial Networks или GAN. Сети GAN состоят из двух компонентов - генератора и дискриминатора. Генератор создает поддельные видеоролики, которые отправляются на дискриминатор для определения подлинности. Если оно идентифицировано как подделка, оно отправляется обратно в генератор вместе с указаниями о том, как сделать его более убедительным. Со временем генератор становится лучше в создании поддельных клипов, а дискриминатор - в их идентификации. Эти два компонента помогают друг другу и вместе создают идеальное видео. Технология легкодоступна, и с помощью нескольких строк кода любитель может создать глубокую подделку.

С такой мощной технологией, доступной одним нажатием кнопки, не пора ли остановиться и подумать о вреде, который может нанести обществу?