Дом мнения Может ли что-нибудь защитить нас от подделок? | Бен Диксон

Может ли что-нибудь защитить нас от подделок? | Бен Диксон

Оглавление:

Видео: unboxing turtles slime surprise toys learn colors (Ноябрь 2024)

Видео: unboxing turtles slime surprise toys learn colors (Ноябрь 2024)
Anonim

В конце 2017 года материнская плата сообщила о технологии искусственного интеллекта, которая может менять лица в видео. В то время, техник-позже названный deepfakes производство сырой нефти, зернистые результатов и в основном используются для создания поддельного порно видео с участием знаменитостей и политиков.

Два года спустя технология значительно продвинулась, и ее сложнее обнаружить невооруженным глазом. Наряду с фальшивыми новостями поддельные видеофильмы стали проблемой национальной безопасности, особенно в связи с приближением президентских выборов 2020 года.

С тех пор, как появились мошенники, несколько организаций и компаний разработали технологии для обнаружения видео с подделкой AI. Но есть опасение, что однажды технологию Deepfakes невозможно будет обнаружить.

Исследователи из Университета Суррея разработали решение, которое могло бы решить проблему: вместо того, чтобы обнаружить ложь, она докажет, что правда. Планируемая презентация на предстоящей Конференции по компьютерному зрению и распознаванию образов (CVPR), технология, называемая Archangel, использует AI и блокчейн для создания и регистрации защищенных цифровых отпечатков пальцев для аутентичных видео. Отпечаток пальца может быть использован в качестве отправной точки для проверки достоверности средств массовой информации, распространяемых в Интернете или транслируемых по телевидению.

Использование AI для подписи видео

Классический способ доказать подлинность двоичного документа - использовать цифровую подпись. Издатели запускают свой документ с помощью криптографического алгоритма, такого как SHA256, MD5 или Blowfish, который создает «хеш» - короткую строку байтов, которая представляет содержимое этого файла и становится его цифровой подписью. Запуск одного и того же файла с помощью алгоритма хеширования в любой момент даст тот же хеш, если его содержимое не изменилось.

Хэши сверхчувствительны к изменениям в двоичной структуре исходного файла. Когда вы изменяете один байт в хешированном файле и снова запускаете его через алгоритм, он дает совершенно другой результат.

По словам Джона Колломосса, профессора компьютерного зрения в Университете Суррея и руководителя проекта для Архангела, в то время как хеши хорошо работают с текстовыми файлами и приложениями, они создают проблемы для видео, которые можно хранить в разных форматах.

«Мы хотели, чтобы подпись была одинаковой независимо от кодека, с которым сжимается видео», - говорит Колломосс. «Если я возьму свое видео и преобразую его, скажем, из MPEG-2 в MPEG-4, тогда этот файл будет иметь совершенно другую длину, а биты будут полностью изменены, что приведет к другому хешу. Что нам нужно был алгоритм хэширования с учетом содержимого."

Чтобы решить эту проблему, Collomosse и его коллеги разработали глубокую нейронную сеть, чувствительную к содержанию видео. Глубокие нейронные сети - это тип конструкции ИИ, который развивает свое поведение путем анализа огромного количества примеров. Интересно, что нейронные сети - также технология в основе глубоких подделок.

При создании глубоких подделок разработчик передает в сеть картинки лица субъекта. Нейронная сеть изучает особенности лица и, пройдя достаточную подготовку, становится способной находить и менять местами лица в других видеофильмах с лицом субъекта.

Нейронная сеть Архангела обучается на видео, которое снимает отпечатки пальцев. «Сеть смотрит на контент видео, а не на его биты и байты», - говорит Колломосс.

После обучения, когда вы запускаете новое видео по сети, оно проверяет его, если оно содержит тот же контент, что и исходное видео, независимо от его формата, и отклоняет его, когда оно представляет собой другое видео, было изменено или изменено.

Согласно Collomosse, технология может обнаруживать как пространственное, так и временное вмешательство. Пространственное вмешательство - это изменения, внесенные в отдельные кадры, например, изменение лица, сделанное в глубоких подделках.

Но глубокие подделки - не единственный способ подделки видео. Менее обсуждаемыми, но не менее опасными являются преднамеренные изменения, сделанные в последовательности кадров, а также в скорости и продолжительности видео. Недавнее широко распространённое фальсифицированное видео спикера палаты представителей Нэнси Пелоси не использовало глубокие подделки, а было создано благодаря осторожному использованию простых методов редактирования, которые заставили ее казаться смущенной.

«Одной из форм подделки, которую мы можем обнаружить, является удаление коротких сегментов видео. Это временные подделки. И мы можем обнаружить до трех секунд подделки. Итак, если видео длится несколько часов, и вы просто удаляете три секунд этого видео, мы можем это обнаружить », - говорит Колломосс, добавив, что Архангел также обнаружит изменения, внесенные в скорость исходного видео, как это было сделано в видео Пелоси.

Регистрация отпечатка пальца на блокчейне

Вторым компонентом проекта Archangel является блокчейн, защищенная от несанкционированного доступа база данных, в которой можно хранить, но не изменять новую информацию, что идеально подходит для видеоархивов, которые не вносят изменения в видео после их регистрации.

Технология блокчейна лежит в основе цифровых валют, таких как биткойн и эфир. Это цифровой регистр, поддерживаемый несколькими независимыми сторонами. Большинство сторон должны согласиться с изменениями, внесенными в блокчейн, что делает невозможным для какой-либо одной стороны в одностороннем порядке вмешиваться в бухгалтерскую книгу.

Технически возможно атаковать и изменять содержимое блокчейна, если более 50 процентов его участников вступают в сговор. Но на практике это чрезвычайно сложно, особенно когда блокчейн поддерживается многими независимыми сторонами с разными целями и интересами.

Блокчейн Архангела немного отличается от публичной блокчейн. Во-первых, он не производит криптовалюту и хранит только идентификатор, отпечаток с учетом содержимого и двоичный хэш нейронной сети верификатора для каждого видео в архиве (блокчейны не подходят для хранения больших объемов данных, поэтому само видео и нейронная сеть хранятся вне цепочки).

Кроме того, это разрешенный или «приватный» блокчейн. Это означает, что в отличие от блокчейна Bitcoin, где каждый может записывать новые транзакции, только уполномоченные стороны могут хранить новые записи в блокчейне Archangel.

В настоящее время Архангел испытывает сеть национальных правительственных архивов из Великобритании, Эстонии, Норвегии, Австралии и США: для хранения новой информации каждая участвующая страна должна подписать дополнение. Но в то время как только национальные архивы стран-участниц имеют право добавлять записи, все остальные имеют доступ для чтения к блокчейну и могут использовать его для проверки других видео по архиву.

  • Эксплойт по ИИ и машинному обучению, Deepfakes, теперь сложнее обнаружить Эксплойт по ИИ и машинному обучению, Deepfakes, теперь труднее обнаружить
  • Глубокие поддельные видео здесь, и мы не готовы Глубокие поддельные видео здесь, и мы не готовы
  • Новый ИИ Adobe обнаруживает фотошопные лица Новый ИИ Adobe обнаруживает фотошопленные лица

«Это приложение блокчейна для общественного блага», - говорит Колломосс. «На мой взгляд, единственное разумное использование блокчейна - это когда у вас есть независимые организации, которые не обязательно доверяют друг другу, но они действительно заинтересованы в достижении этой коллективной цели взаимного доверия. И мы стремимся сделать это защитить национальные архивы правительства по всему миру, чтобы мы могли подтвердить их целостность с помощью этой технологии ».

Поскольку создание поддельных видео становится проще, быстрее и доступнее, каждому потребуется вся помощь, которую они могут получить для обеспечения целостности своих видеоархивов, особенно правительствам.

«Я думаю, что глубокие подделки почти как гонка вооружений», - говорит Колломосс. «Потому что люди производят все более убедительные глубокие подделки, и когда-нибудь их станет невозможно обнаружить. Вот почему лучшее, что вы можете сделать, это попытаться доказать происхождение видео».

Может ли что-нибудь защитить нас от подделок? | Бен Диксон