Оглавление:
- Как создаются Deepfakes
Последствия Deepfakes- Не все Deepfakes плохие
Как обнаружить Deepfake видео- В поисках Deepfakes
Видео: Improving Tron Legacy using Deep Fakes (Ноябрь 2024)
В преддверии следующего сезона президентских выборов вам следует остерегаться потенциальных опасностей, которые ложные онлайн-видео приносят с использованием искусственного интеллекта (ИИ) и машинного обучения (МЛ). Используя программное обеспечение ИИ, люди могут создавать фальшивые (сокращенно «глубокое обучение и фальшивые») видео, в которых алгоритмы ML используются для смены лица, чтобы создать иллюзию, что кто-то либо сказал то, чего не сказал, либо является тем, кем он является » нет. Глубокие поддельные видео появляются на различных аренах, от развлечений до политики и корпоративного мира. Не только фальсифицированные видео могут неоправданно влиять на выборы с помощью ложных сообщений, но они могут вызвать личное замешательство или ввести в заблуждение сообщения бренда, если, скажем, они показывают, что генеральный директор объявляет о запуске продукта или приобретении, которое фактически не произошло.
Deepfakes являются частью категории AI, называемой «Генеративные состязательные сети» или GAN, в которой две нейронные сети соревнуются за создание фотографий или видео, которые кажутся реальными. GAN состоят из генератора, который создает новый набор данных, таких как фальшивое видео, и дискриминатора, который использует алгоритм ML для синтеза и сравнения данных из реального видео. Генератор продолжает пытаться синтезировать фальшивое видео со старым, пока дискриминатор не сможет сказать, что данные новые.
Как отметил Стив Гробман, старший вице-президент McAfee и технический директор (CTO) на конференции RSA 2019 в марте в Сан-Франциско, поддельные фотографии появились с момента изобретения фотографии. Он сказал, что изменение фотографий было простой задачей, которую вы можете выполнить в таком приложении, как Adobe Photoshop. Но теперь эти типы расширенных возможностей редактирования также распространяются на видео, и они делают это, используя высокопроизводительные и легко доступные программные инструменты.
Как создаются Deepfakes
Хотя понимание концепций искусственного интеллекта полезно, не обязательно быть специалистом по данным для создания фальшивого видео. По словам Гробмана, для этого нужно просто следовать некоторым инструкциям онлайн. На конференции RSA 2019 (см. Видео выше) он представил видео с глубоким подтекстом вместе с доктором Селестой Фралик, главным специалистом по данным и старшим главным инженером McAfee. Глубокое видео продемонстрировало угрозу, которую представляет эта технология. Гробман и Фралик показали, как публичное должностное лицо на видео, в котором говорится о чем-то опасном, может ввести общественность в заблуждение, считая, что сообщение является реальным.
Чтобы создать свое видео, Гробман и Фралик загрузили программное обеспечение Deepfake. Затем они сняли видео Гробмана, свидетельствующего перед сенатом США в 2017 году, и наложили на Фралика рот Гробмана.
«Я использовал общедоступные публичные комментарии, чтобы создать и обучить модель ML; это позволило мне создать глубокое фальшивое видео с моими устными словами», - сказал Фралик аудитории RSA со сцены. Далее Фралик сказал, что фальшивые видео могут быть использованы для социальной эксплуатации и информационной войны.
Для создания своего фальшивого видео Grobman и Fralick использовали инструмент, разработанный пользователем Reddit, под названием FakeApp, который использует алгоритмы ML и фотографии для смены лиц на видео. Во время презентации RSA Гробман объяснил следующие шаги. «Мы разделили видео на неподвижные изображения, извлекли лица и очистили их, отсортировав и очистив в Instagram».
Сценарии Python позволили команде McAfee создавать движения рта, чтобы речь Фралика соответствовала рту Гробмана. Затем им нужно было написать несколько пользовательских сценариев. По словам Гробмана, задача создания убедительного глубокого подделки заключается в том, что такие характеристики, как пол, возраст и цвет кожи, не совпадают.
Затем он и Фралик использовали окончательный алгоритм ИИ, чтобы сопоставить изображения Гробмана, свидетельствующие перед Сенатом, с речью Фралика. Гробман добавил, что обучение этим алгоритмам ML заняло 12 часов.
McAfee обрисовал в общих чертах шаги, которые были предприняты для создания фальшивого видео, показанного на конференции RSA 2019 года. Он использовал программное обеспечение DeepFake под названием FakeApp и обучение ML-моделей, чтобы изменить видео Гробмана с речью Фралика. (Изображение предоставлено McAfee).
Последствия Deepfakes
Созданные хакерами фальшивые видео могут вызвать много проблем - от государственных чиновников, распространяющих ложную дезинформацию, до знаменитостей, смущающихся тем, что они не попадают в видеоролики, которых они действительно не видели, до компаний, наносящих ущерб позициям конкурентов на фондовом рынке. Сознавая эти проблемы, законодатели в сентябре направили письмо Дэниелу Коутсу, директору национальной разведки США, с просьбой рассмотреть угрозу, которую представляют «подделки». В письме предупреждается, что такие страны, как Россия, могут использовать в социальных сетях фальшивые подделки для распространения ложной информации. В декабре законодатели приняли Закон о запрете мошеннических глубоких подделок от 2018 года, чтобы запретить мошенничество в связи с «аудиовизуальными записями», которые относятся к подделкам. Это еще предстоит увидеть, если законопроект пройдет.
Как уже упоминались, знаменитости могут страдать смущением от видео, в котором их лицо налагается на лицах порнозвезд, как это было в случае с Гадотом. Или представьте себе, что генеральный директор якобы объявляет о новостях и опускает акции компании. Специалисты по безопасности могут использовать ML для обнаружения этих типов атак, но если они не обнаружены вовремя, они могут нанести ненужный ущерб стране или бренду.
«С Deepfakes, если вы знаете, что делаете, и знаете, на кого ориентироваться, вы действительно можете придумать убедительное видео, которое нанесет большой ущерб бренду», - сказал д-р Чейз Каннингем, главный аналитик Forrester Research., Он добавил, что, если вы распространяете эти сообщения в LinkedIn или Twitter или используете форму бота, «вы можете без особых усилий раздавить акции компании, основанные на полном фальшивом видео».
С помощью фальшивых видеороликов потребители могут быть обмануты, полагая, что продукт может сделать то, чего не может. Каннингем отметил, что если генеральный директор крупного производителя автомобилей заявил в фиктивном видео, что компания больше не будет производить автомобили с бензиновым двигателем, а затем распространит это сообщение в Twitter или LinkedIn в этом видео, то это действие может легко повредить бренду.
«Интересно, что из моих исследований люди принимают решения на основе заголовков и видеороликов за 37 секунд, - сказал Каннингем. - Таким образом, вы можете себе представить, если вы можете получить видео, которое длится более 37 секунд, вы можете заставить людей принимать решения на основе фактическое или нет. И это ужасно ".
Поскольку социальные сети являются уязвимым местом, где фальшивые видео могут распространяться вирусами, сайты социальных сетей активно работают над борьбой с фальшивыми фальшивками. Facebook, например, использует команды инженеров, которые могут определять фотографии, аудио и видео. В дополнение к использованию программного обеспечения, Facebook (и другие компании, работающие в социальных сетях) нанимают людей для поиска подделок вручную.
«Мы расширили наши текущие усилия по борьбе с манипулируемыми СМИ, чтобы включить борьбу с мошенниками», - говорится в заявлении представителя Facebook. «Мы знаем, что постоянное появление всех форм манипулируемых медиа представляет собой реальные проблемы для общества. Именно поэтому мы инвестируем в новые технические решения, учимся на академических исследованиях и работаем с другими в отрасли, чтобы понять фальшивые и другие формы манипулируемых медиа «.
Не все Deepfakes плохие
Как мы видели в образовательном видео о фальшивом фальсификации McAfee и комедийном видео о фальшивом феерии по телевизору поздним вечером, некоторые фальшивые видео не обязательно являются плохими. Фактически, в то время как политика может раскрыть реальные опасности фальшивых видео, индустрия развлечений часто просто показывает более легкую сторону фальшивых видео.
Например, в недавнем эпизоде «Позднего шоу со Стивеном Колбертом» было показано забавное глубокое фальшивое видео, в котором лицо актера Стива Бушеми было наложено на тело актрисы Дженнифер Лоуренс. В другом случае комик Джордан Пилер заменил видео бывшего президента Барака Обамы, говорящего своим собственным голосом. Подобные юмористические видео с глубоким подтасованием также появились в Интернете, где лицо президента Трампа накладывается на лицо канцлера Германии Ангелы Меркель, когда он говорит.
Опять же, если фальшивые видеоролики используются для сатирических или юмористических целей или просто для развлечения, то платформы социальных сетей и даже кинопроизводители разрешают или используют их. Например, Facebook разрешает этот тип контента на своей платформе, а Lucasfilm использовал тип цифрового развлечения, чтобы показать молодую Кэрри Фишер на теле актрисы Ингвильд Дейла в «Изгой-один: история Звездных войн».
Гробман из McAfee отметил, что некоторые технологии, лежащие в основе Deepfakes, находят хорошее применение в постановках каскадеров в кинопроизводстве для обеспечения безопасности актеров. «Контекст - это все. Если это для комедийных целей, и очевидно, что это не реально, это то, что является законным использованием технологии», - сказал Гробман. «Признание того, что его можно использовать для самых разных целей, является ключевым моментом».
(Изображение предоставлено Statista)
Как обнаружить Deepfake видео
McAfee - не единственная охранная фирма, которая экспериментирует с обнаружением поддельных видео. В своем документе, представленном на Black Hat 2018 и озаглавленном «AI Gone Rogue: устранение глубоких подделок, прежде чем они станут причиной угрозы», два эксперта по безопасности Symantec, ведущий специалист по безопасности Security Vijay Thaware и инженер по разработке программного обеспечения Ниранджан Агнихотри, пишут, что они создали инструмент для обнаружения поддельные видео на основе Google FaceNet. Google FaceNet - это архитектура нейронной сети, которую исследователи Google разработали для проверки и распознавания лиц. Пользователи обучают модель FaceNet конкретному изображению, а затем могут подтвердить свою личность во время последующих испытаний.
Чтобы остановить распространение фальшивых видеороликов, AI Foundation, некоммерческая организация, которая занимается взаимодействием людей и ИИ, предлагает программное обеспечение под названием «Защитник реальности» для выявления фальшивого контента. Он может сканировать изображения и видео, чтобы увидеть, были ли они изменены с помощью AI. Если у них есть, они получат «Честный ИИ Водяной знак».
- Бизнес-руководство по машинному обучению Бизнес-руководство по машинному обучению
- PornHub, Twitter Ban 'Deepfake' AI-Modified порно PornHub, Twitter Ban 'Deepfake' AI-Modified порно
- Последняя технология Deepfake заставит вас танцевать как Бруно Марс Последняя технология Deepfake заставит вас танцевать как Бруно Марс
Другая стратегия заключается в том, чтобы помнить о концепции Zero Trust, что означает «никогда не доверяй, всегда проверяй» - девиз кибербезопасности, который означает, что ИТ-специалисты должны подтвердить, что все пользователи законны, прежде чем предоставлять права доступа. Оставаться скептиком по поводу действительности видеоконтента будет необходимо. Вам также понадобится программное обеспечение с возможностями цифровой аналитики для обнаружения поддельного контента.
В поисках Deepfakes
В будущем нам нужно быть более осторожными с видеоконтентом и помнить об опасностях, которые они могут представлять для общества в случае неправильного использования. Как отметил Гробман, «в ближайшей перспективе люди должны более скептически относиться к тому, что они видят, и осознавать, что видео и аудио можно изготовить».
Итак, скептически следите за политическими видеороликами, которые вы смотрите в преддверии следующего сезона выборов, и не доверяйте всем видеороликам с участием корпоративных лидеров. Потому что то, что вы слышите, может не соответствовать тому, что на самом деле было сказано, а вводящие в заблуждение фальшивые видео могут реально повредить нашему обществу.