Полемика

13.05.2023

Лицо в опасности. Готов ли мир к дипфейкам?

Арина Литовка

Начиная с ХХ века, ученые задаются вопросами о сущности искусственного интеллекта и его применении в жизни. Первую работу, посвященную этой теме, опубликовали британские ученые Альфред Норт Уайтхед и Бертран Рассел. Их трехтомный труд о философии математики «Principia Mathematica» (1913) перевернул мир науки и заставил взглянуть на исследования в зарождающейся информатике по-другому. Позже, в 1950 году, известный математик Алан Тьюринг напишет статью под названием «Может ли машина мыслить?» и создаст собственный тест, чтобы понять, когда настанет момент, при котором машина сравняется по разумности с человеком. Сообщества ученых мигом захватывает эта тема, а споры о возможностях техники познавать и понимать этот мир становятся все более актуальными. Через шесть лет в стенах Дартмутского университета в США впервые прозвучит такой термин, как «искусственный интеллект». Это и дает начало новой эре технологического развития.

В современном мире понятие «искусственного интеллекта» стало обширным и обозначает разные явления в технологическом мире. Одним из них являются нейросети – совокупность искусственных нейронов, которые могут выполнять различные функции. Они могут рисовать при помощи одной команды, создавать музыкальные произведения и писать книги. Среди известных нейросетей-художников можно выделить «Dream» и крупную российскую «ruDall-E». Они повторяют картины известных мастеров живописи, но также рисуют новое на основе предложенных изображений. Прогресс двинулся еще дальше.

С 2017 года в мире стали известны так называемые дипфейки, хотя созданы они были на три года раньше своей громкой популярности студентом Стэнфордского университета Яном Гудфеллоуном. Дипфейк – синтез разных изображений, получающийся при помощи возможностей искусственного интеллекта, но если говорить проще, то это своеобразный «умный» фотошоп. Свою популярность дипфейки получили скандально. Как раз в 2017 году один из пользователей социальной сети Reddit начал публиковать видео с использованием данной технологии. Однако, все оказалось не так безобидно – это были порнографические ролики, где вместо лиц порноактрис вставили лица голливудских знаменитостей. Выглядел этот обман очень реалистично и мгновенно поднял большую волну возмущения не только в пространстве Интернета. В последствии руководство Reddit ужесточило правила публикации контента на своей платформе, чем попыталось избавиться от негативного использования дипфейков, но все равно девяносто шесть процентов видео с ними – это порноролики, где подавляющая часть незаконно использует лица реальных знаменитостей.

И все бы могло закончиться на контенте для взрослых, но технологию стали использовать для шантажа. Дипфейк уже стал «золотой жилой» для мошенников. В 2021 году в Индии в городе Ченнаи при помощи дипфейков банда грабителей вымогала деньги. Они звонили своим жертвам по видеосвязи и фиксировали лица отвечающих. После сброса звонка мошенники требовали деньги. Чаще всего люди отказывали, а злоумышленники рассылали знакомым жертв порно-ролики с дипфейком пострадавшего. Подобные случаи встречались и массово как в Индии, так и единожды. Дипфейки как способ обмана и клеветы начали действовать и в политике. В прошлом году почти сразу после начала специальной военной операции на Украине появилось видео, где президент Российской Федерации Владимир Владимирович Путин рассказывает об итогах переговоров с Украиной и признании ее территории в границах с Луганской и Донецкой областями. Помимо явных фактологических ошибок, сделанных фальшивым президентом, было заметно, как губы двигаются, не совсем попадая в слова. Естественно, данное заявление опровергли в Кремле.

Жертвы создателей дипфейков нередко высказываются на эту тему. Конечно, если это обычный человек, то чаще всего он старается сохранить анонимность. Но публичные личности стараются привлечь внимание к проблеме. Перед выходом в марте на большие экраны фильма «Джон Уик 4» известный голливудский актер Киану Ривз в феврале этого года поделился на интервью с изданием «Wired», что его пугают дипфейки. [5] Сам он не раз становился участником подобных видео, но те не представляли сильной угрозы. На них ненастоящий актер ест тульский пряник или играет на балалайке. Однако Ривз все же обеспокоен популярностью этой технологии и поделился своими мыслями на интервью: «Когда вы снимаетесь в фильме, то вы знаете, что вас будут редактировать, но вы участвуете в этом. Если вы попадаете в страну дипфейков, то там нет вашей точки зрения. Это пугает». [5] Недоверие к нейросетям достаточно широко распространено и в нашей стране. В России Институт общественного мнения выяснил, что почти у шестидесяти девяти процентов россиян есть опасения, что современные технологии могут использоваться во вред людям.

Несмотря на то, что дипфейки пугают многих и доставляют немало проблем, их все равно успешно используют в рекламе. Например, в 2014 году производители шоколада «оживили» Одри Хепберн, создав 3D копию кинозвезды. Компания согласовала право использования изображения знаменитости с ее наследниками и заплатила им приличный гонорар. И вот уже юная Одри под музыку из «Завтрака у Тиффани» мчит по узким европейским улочкам. Российские пиарщики тоже не отстали и создали яркую и запоминающуюся рекламу. «Мегафон» использовал для этого голливудского актера Брюса Уиллиса, а вернее компания купила право на его изображение. Герой «Крепкого орешка» даже не приезжал в Москву и был полностью воссоздан с помощью компьютерной программы. Такой рекламный ход вызвал бурю эмоций у зрителей и заставил задаться вопросом «а настоящий ли Брюс?». Но Брюс был всего лишь дипфейком, а люди до сих пор верят, что голливудский актер посещал Россию для съемки в рекламе.

Мультимедийность важна для привлечения покупателей в рекламных кампаниях и для увеличения числа читателей у СМИ. Нейросети прекрасно справляются с этой задачей, но все же природа дипфейков вызывает достаточно много вопросов, учитывая опыт прошлых лет. Один раз заменят чье-то лицо в компьютерной игре или развлекательном ролике, а в другой – можно попасться на шантаж. Зарубежом уже появились способы регуляции создания дипфейков. В США в Калифорнии они запрещены в политической агитации и в порнографических фильмах. Законопроект подписал губернатор штата Гэвин Ньюс. Россия тоже заинтересована в правовом регулировании вопроса. 28 марта этого года официальный представитель МИД РФ Мария Захарова заявила, что необходимо заняться проблемой дипфейков, обращая на них пристальное внимание российского законодательства. По ее словам, нужно быть готовыми оперативно опросить очевидцев, которые смогли бы опровергнуть информационный вброс, осуществленный с использованием данной технологии. А в Госдуме уже обсуждают инициативу о маркировке информации с содержанием дипфейков. Также к активным действиям приступают и российские социальные сети. Например, «ВКонтакте» разрабатывает технологию, позволяющую проверять загруженные на платформу фотографии и видеоролики на наличие манипуляций, связанных с подменой лица. Компания планирует запустить функцию в течение полугода.

Как я уже говорила ранее, у разных нейросетей существуют приложения. Эта тенденция не обошла и нашумевшие в информационном пространстве дипфейки. Опасность данной технологии заключается и в том, что в последние годы она стала доступна всем, у кого есть смартфон на базе абсолютно любой операционной системы. В сети легко найти десятки приложений, позволяющих пользователям поиграть с нейросетями. Самый обычный человек может установить «Deepfakes web β» или «Zao» и почувствовать себя героем любимого клипа, наложив свое фото на лицо исполнителя. Умельцы, обладающие знаниями в машинном обучении и техникой достаточной мощности, без труда создают видео, которые невозможно отличить от реальных невооруженным глазом. В 2018 году простой комик Джордан Пил создал юмористическое видео, где Барак Обама в жесткой форме критиковал своего приемника Дональда Трампа. Пилу нужно было только наложить на свое лицо изображение сорок четвертого президента Соединенных Штатов и спародировать его голос, чтобы привести в замешательство миллионы людей. Ролик опубликован на YouTube-канале «BuzzFeedVideo».

Все эти случаи и примеры наталкивают на вполне логичную мысль об этичности использования дипфейков. Когда-то человечество уже отказалось от клонирования, поняв, что данное явление противоречит морали, этике и религии. В 2015 году большинство стран приняло закон о запрете использования клонирования на людях, а в некоторых – и животных. В Росси существует вполне реальный федеральный закон № 54-ФЗ от 20 мая 2002 г. «О временном запрете на клонирование человека». [9] Но что если дипфейк это такое же копирование, но при помощи пикселей? Здесь мнения разнятся. Однако же, представители совершенно разных религиозных течений достаточно негативно отзываются о дипфейках и обо всем, что связано с искусственным интеллектом. Известный духовный лидер тибетского буддизма Далай-лама XIV считает, что ставить знак равно между человеком и машиной неприемлемо, ведь сознание не является чем-то материальным. В России представитель РПЦ Вахтанг Кипшидзе заявил, что искусственный интеллект никогда не заменит человеку реальный мир. Онлайн исповеди, батюшка-бот и прочее, по его мнению, не должны мешать общению между людьми. А в начале прошлого года был распространен дипфейк с патриархом Кириллом, где он призывает людей вкладываться в криптовалюту. РПЦ отреагировала незамедлительно на этот фейк и направила в Роскомнадзор требование удалить видеоролик.

По сути, технология под названием «дипфейк» не опасна. Она является  последовательным результатом развития различных ветвей искусственного интеллекта. Проблема заключается лишь в ее использовании и необходимости этого использования. Дипфейки для мирных целей появляются в рекламе, в кино, в телевизионной журналистике и в самой сети Интернет как средство развлечения: фильтры, маски, приложения, меняющие картинки и рисующие новые. Но не все так позитивно. Вреда дипфейки принесли пока больше, чем явной пользы. Возможно, люди еще не готовы к их массовому использованию, ибо и сама суть искусственного интеллекта еще мало изучена.

Список использованных источников

1. Видео с Владимиром Путиным об СВО. – URL:  https://t.me/RtrDonetsk/2572

2. Видео-фейк с Бараком Обамой. – URL: https://www.youtube.com/watch?v=cQ54GDm1eL0.

3. В Индии мошенники вымогают деньги при помощи дипфейков. – URL: https://t.me/meduzalive/45906.

4. Интервью с Далай-Ламой XIV. – URL: https://dalailama.ru/messages/608-mind-and-life-beginning-of-dialogue-2.html.

5. Интервью с Киану Ривзом для «Wired» . – URL: https://www.wired.com/story/keanu-reeves-chad-stahelski-interview/

6. Искусственный интеллект не может заменить священника, уверены в РПЦ. – URL:   https://ria.ru/20230310/rpts-1857131558.html.

7. Мария Захарова о контроле дипфейков. – URL: https://ria.ru/20230328/deepfake-1861163762.html.

8. РПЦ попросила заблокировать фейковое видео о патриархе и криптовалюте. – URL: https://www.rbc.ru/rbcfreenews/61f7f88d9a794711d30dc7b1https://www.rbc.ru/rbcfreenews/61f7f88d9a794711d30dc7b1.

9. Федеральный закон от 20.05.2002 г. № 54-ФЗ «О временном запрете на клонирование человека» . – URL: http://www.kremlin.ru/acts/bank/18094.

13.05.2023

Статьи по теме