Как распознать и бороться с новой информационной угрозой в интернете

Приложения для камер на смартфонах становятся изящными и сложными. Пользователи могут удлинять себе ноги, удалять прыщи, примерить маски животных — большие возможности для виртуальной коррекции собственной внешности. А с недавних пор — можно даже создавать фейковые видео, которые выглядят очень реально.

Технология, используемая для создания такого цифрового контента, быстро стала доступной для широких масс, а сам его тип называют «глубинный фейк». Под этим названием понимают манипулятивные видеоролики или другие цифровые изображения, созданные сложным искусственным интеллектом, благодаря которому сфабрикованы изображения и звуки кажутся настоящими.

Такие видео становятся все более доступными и совершенными. Более того — сегодня их может создавать не только мифическая каста хакеров, но и обычные пользователи, обладающие необходимыми ресурсами и достаточно мощной техникой. Проблема в том, что «глубинные фейки» вызывают ряд сложных политических, юридических и этических вопросов по поводу своей природы и дальнейшего существования.

Кто-то пользуется технологии исключительно для развлечения, но в руках достаточно циничных и умелых людей такой контент может превратиться в серьезное оружие массового поражения сознания. Возможно, самое серьезное за все время развития интернет-технологий, ведь речь идет о самой ткани реальности: если ее подделать, то кому и во что будет верить человечество?Что же такое эти «глубинные фейки»?Как распознать и бороться с новой информационной угрозой. Сначала разберемся с происхождением слова. В оригинале («deepfakes» с английского) он состоит из двух частей: «deep learning» («глубинное обучение» — одна из самых отраслей машинного обучения) и «fake» (слово, которое означает подделку). Проще говоря, «глубинные фейки» — это форма искусственного интеллекта, результат машинного обучения. Почему последнее считается самой перспективной технологической отраслью? Речь там о механизмах и алгоритмах, которые могут самостоятельно учиться и принимать решения. И, конечно же, очевидна опасность этой прорывной технологии фейков заключается в том, что человек слишком доверчив и эмоционален, к тому же его критически аналитический аппарат не сравнится с тем, что уже умеют машины.И это (в худшем случае) может привести к тому, что люди будут верить этому контенту, верить в его подлинность и правдивость слов политика на поддельном видео. Скорее всего, технология может сильно пошатнуть мировую политику и экономику, ведь благодаря таким видео можно серьезно подорвать репутацию любого политического кандидата / владельца корпорации или компании, «заставив» его говорить или даже делать вещи, которые никогда не происходили в реальной жизни.Как это работает?Как распознать и бороться с новой информационной угрозой. Система глубинного машинного обучения может производить чрезвычайно убедительную имитацию той или иной персоны. Она учится на материале: ей скармливают подробные фотографии и видео человека, а система, исследовав объект с максимально разных углов, воспроизводит его поведение, голос и даже специфические движения. Но здесь нет понятия «конечный результат» — машинная система постоянно совершенствуется. Это происходит с помощью метода GANs (генеративно-соревновательных сетей), суть которого, если очень грубо, заключается в том, что одна нейронная сеть «производит» продукт, а другая следит за выполнением и корректирует результаты. Таким образом благодаря постоянному обучению результаты становятся все более совершенными.

Только после многих внутренних проверок система считает работу над очередным фейком завершенной. Есть очень жесткая и исчерпывающая статья на эту тему в издании MIT Technology Review, где подробно описывается, как это повлияет (или «может повлиять», если хранить наивный оптимизм) на общество. Если вкратце, такова технология идеальным оружием для поставщиков фейковых новостей, которые смогут таким образом влиять абсолютно на все — от цен на акции компаний к выборам в любой стране мира.

Как же они выглядят?К сведению — первый «глубинный фейк», созданный 12 лет назад. Лицо британского комика Белая Хейдер почти незаметно переходит в лицо голливудского актера Тома Круза. Технология еще несовершенна, но выглядит это довольно жутко. (https://www.youtube.com/watch?v=VWrhRBb-1Ig)

Впрочем, настоящая волна таких видеороликов поднялась уже после 2017 года. Первыми — как всегда — были производители порнографической продукции, которые обнаружили неограниченный потенциал технологии. Потом пошла волна фейковых видеороликов, где сфабрикованный бывший президент США Барак Обама говорит вещи, которых на самом деле никогда не говорил. Скажем, обзывает Дональда Трампа. (https://www.youtube.com/watch?time_continue=1&v=cQ54GDm1eL0&feature=emb_logo)

В 2018-м получила распространение программа FakeApp, предназначенная для создания «глубинных фейков» на персональных компьютерах. И вместе со всплеском поддельной порнографии со знаменитостями, то под раздачу попал актер Николас Кейдж, которому также начали создавать много видео. (https://www.youtube.com/watch?time_continue=35&v=BU9YAHigNx8&feature=emb_logo)Позже досталось даже Марку Цукербергу, который в поддельном видео рассказывал, что всю его силу — контроль над миллиардами людей — ему дала тайная организация Spectre. Позже оказалось, что это была художественная акция, направленная на рекламу одноименной выставки и критику деятельности крупных технологических компаний. Но «подлинность» также поначалу не вызвало у людей сомнения — и многие поверили в видео. (https://www.youtube.com/watch?v=yV7sR5jpQNs&feature=emb_logo)Как же отличать «глубинные фейки»? Есть какой-то выход?Статья Брукингского института свидетельствует о том, что пока не все потеряно — и тот самый искусственный интеллект, который создает «глубинные фейки», можно научить их проявлять. Ситуация развивается аналогично с модой на биткойн и блокчейн-технологии. Есть люди, которые имеют корыстные намерения. А есть сообщество исследователей, которые изучают именно способы выявления «глубинных фейков» и ищут способы и возможности их будущей регуляции, пока технология не станет настолько доступной, что сможет поместиться в любой телефон. Последнее, кстати, определенным образом уже произошло.

Китайское мобильное приложение Zao работает с технологией deepfake и позволяет заменить лицо человека в любом видео за несколько секунд. Ранее для реализации такой технологии было нужно «учить» нейросеть в течение нескольких часов. Регистрация в приложении требует ввода номера телефона и загрузки фотографии своего лица.

Затем пользователям предлагают выбрать из целого ряда видео знаменитостей, с которыми можно «поменяться» лицами. Zao еще на момент своего первого релиза (в августе 2019) вызвал у регуляторов опасения относительно сохранения персональных данных пользователей. Поэтому, например, в официальных магазинах Google Play и App Store его нет, но Zao можно попробовать скачать и пиратским путем. Обычный пользователь также может проверить то или иное видео, если сомневается в его «натуральности». Есть ряд визуальных аспектов, которые выделяют подделку от оригинала, если многократно увеличить изображение. Особое внимание следует обращать на уши и глаза — они могут просто не вписываться в пропорции и «логику» нормального лица.

Слишком гладкая кожа, неравномерное освещение, отсутствие тени — все это также указывает на то, что перед нами фейк. Но проблема в том, что человеческое зрение, мягко говоря, не сможет конкурировать с технологией, которая постоянно совершенствуется, чтобы выглядеть как можно более реалистично.

К счастью, этим вопросом уже занимаются крупные компании. Facebook и Microsoft выдвинули инициативы о создании коллабораций с лучшими университетами мира для того, чтобы собрать самую большую базу «глубинных фейков», исследовать их, научиться автоматически выделять среди других и быстро удалять.


Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *