Оглавление:
Видео: Настя и сборник весёлых историй (Ноябрь 2024)
Где-то в темных закоулках YouTube есть видео, которое показывает отрывок из фильма «Братство кольца», но этот фильм вам не совсем запомнился, поскольку в фильмах с Николасом Кейджем снимались Фродо, Арагорн, Леголас, Гимли и Голлум. в то же время. Другие видео показывают Кейджа в Терминаторе 2 в роли Т2000, Звездный путь в роли капитана Пикарда и Супермена в роли Лоис Лейн.
Конечно, Ник Кейдж никогда не появлялся ни в одном из этих фильмов. Это «глубокие подделки», созданные с помощью FakeApp, приложения, использующего алгоритмы искусственного интеллекта для смены лиц в видео. Некоторые из подделок выглядят довольно убедительно, в то время как у других есть артефакты, которые предают их истинную природу. Но в целом они показывают, насколько мощными стали алгоритмы ИИ для имитации человеческого облика и поведения.
FakeApp - это всего лишь один из нескольких новых инструментов для синтеза на основе искусственного интеллекта. Другие приложения имитируют человеческие голоса, почерк и стили общения. И часть того, что делает их значительными, заключается в том, что для их использования не требуется специализированное оборудование или квалифицированные специалисты.
Воздействие этих приложений является глубоким: они создадут беспрецедентные возможности для творчества, производительности и коммуникации.
Но тот же инструмент может также открыть ящик Пандоры мошенничества, подделки и пропаганды. Так как это сделало появление на Reddit в январе FakeApp был загружен более 100000 раз и осаждал бурю поддельного порнографического видео с участием знаменитостей и политиками (в том числе Кейджа снова). Reddit недавно запретил приложению и связанным с ним сообществам свою платформу.
«Десять лет назад, если вы хотели подделать что-то, вы могли бы, но вы должны были пойти в студию VFX или людей, которые могли бы заниматься компьютерной графикой и, возможно, потратить миллионы долларов», - говорит доктор Том Хейнс, преподаватель машинного обучения в Университет Бата. «Тем не менее, вы не можете держать это в секрете, потому что вам придется вовлекать много людей в процесс».
Это больше не так, благодаря новому поколению инструментов ИИ.
Имитационная игра
FakeApp и аналогичные приложения работают на основе глубокого обучения, ветви ИИ, лежащей в основе взрыва инноваций ИИ с 2012 года. Алгоритмы глубокого обучения опираются на нейронные сети, программную конструкцию, примерно сформировавшуюся после человеческого мозга. Нейронные сети анализируют и сравнивают большие наборы образцов данных, чтобы найти закономерности и корреляции, которые люди обычно упускают. Этот процесс называется «обучение», и его результатом является модель, которая может выполнять различные задачи.
В прежние времена модели глубокого обучения использовались главным образом для выполнения задач классификации - например, для маркировки объектов на фотографиях и для распознавания голоса и лица. В последнее время ученые использовали глубокое обучение для выполнения более сложных задач, таких как игра в настольные игры, диагностика пациентов, а также создание музыки и произведений искусства.
Чтобы настроить FakeApp для замены лица, пользователь должен обучить его нескольким сотням изображений исходных и целевых лиц. Программа запускает алгоритмы глубокого обучения, чтобы найти закономерности и сходства между двумя лицами. Модель тогда готова сделать обмен.
Процесс не простой, но вам не нужно быть графическим экспертом или инженером по машинному обучению, чтобы использовать FakeApp. Также не требуется дорогостоящее и специализированное оборудование. Веб-сайт с обучением Deepfakes рекомендует компьютер с 8 ГБ ОЗУ или более и графическую карту Nvidia GTX 1060 или лучше, довольно скромная конфигурация.
«Как только вы переедете в мир, где кто-то в комнате может что-то подделать, он сможет использовать это в сомнительных целях», - говорит Хейнс. «И поскольку это один человек, хранить его в секрете очень легко».
В 2016 году Хейнс, который в то время работал в докторантуре Лондонского университета, стал соавтором статьи и приложения, в которых показано, как ИИ может научиться подражать почерку человека. Названное «Мой текст в вашем почерке», приложение использовало алгоритмы глубокого изучения для анализа и распознавания стиля и последовательности рукописного текста автора и других факторов, таких как пробелы и неровности.
Затем приложение может взять любой текст и воспроизвести его почерком целевого автора. Разработчики даже добавили меру случайности, чтобы избежать эффекта сверхъестественной долины - странного чувства, которое мы испытываем, когда видим что-то почти, но не совсем человеческое. В качестве доказательства концепции Хейнс и другие исследователи UCL использовали эту технологию, чтобы воспроизвести почерк исторических личностей, таких как Авраам Линкольн, Фрида Кало и Артур Конан Дойл.
Та же самая техника может быть применена к любому другому почерку, который поднял проблемы о возможном использовании технологии для подделки и мошенничества. Эксперт по криминалистике все еще сможет обнаружить, что сценарий был создан My Text in Your Handwriting, но, скорее всего, он обманет неподготовленных людей, что Хейнс признал в интервью Digital Trends в то время.
Lyrebird, монреальский стартап, использовал глубокое обучение для разработки приложения, которое синтезирует человеческий голос. Lyrebird требуется минутная запись, чтобы начать имитировать голос человека, хотя ему нужно гораздо больше, прежде чем он начнет звучать убедительно.
В своей публичной демонстрации стартап разместил фальшивые записи голосов Дональда Трампа, Барака Обамы и Хиллари Клинтон. Образцы сырые, и очевидно, что они синтетические. Но по мере совершенствования технологии становится все труднее проводить различие. И любой может зарегистрироваться в Lyrebird и начать создавать поддельные записи; этот процесс даже проще, чем в FakeApp, а вычисления выполняются в облаке, что снижает нагрузку на оборудование пользователя.
Тот факт, что эта технология может быть использована в сомнительных целях, не теряется на разработчиков. В какой-то момент в заявлении по этике на веб-сайте Lyrebird говорится: «Голосовые записи в настоящее время считаются убедительными доказательствами в наших обществах и, в частности, в юрисдикциях многих стран. Наша технология ставит под сомнение обоснованность таких доказательств, поскольку она позволяет легко манипулировать аудио записи. Это может иметь потенциально опасные последствия, такие как ввод в заблуждение дипломатов, мошенничество и, в более общем смысле, любые другие проблемы, вызванные кражей личности кого-либо другого ».
Nvidia представила еще один аспект имитационных возможностей ИИ: в прошлом году компания опубликовала видео, демонстрирующее алгоритмы ИИ, генерирующие синтетические человеческие лица фотографического качества. ИИ Nvidia проанализировал тысячи фотографий знаменитостей, а затем начал создавать фальшивых знаменитостей. Технология может вскоре стать способной создавать реалистичные видео с участием «людей», которые не существуют.
Пределы ИИ
Многие отмечают, что в чужих руках эти приложения могут навредить. Но степень возможностей современного ИИ часто преувеличивается.
«Несмотря на то, что мы можем поместить лицо человека в лицо другого человека в видео или синтезировать голос, это все еще довольно механично», - говорит Евгения Куйда, соучредитель Replika, компании, которая разрабатывает чат-роботы на основе ИИ, о недостатках AI инструменты, такие как FakeApp и Lyrebird.
Voicery, еще один AI-стартап, который, как и Lyrebird, обеспечивает синтезирование голоса на основе AI, имеет страницу викторины, где пользователям предлагается 18 записей голоса, и им предлагается указать, какие из них сделаны машинным способом. Я был в состоянии идентифицировать все изготовленные машиной образцы при первом запуске.
Компания Куйды является одной из нескольких организаций, которые используют обработку естественного языка (NLP), подмножество искусственного интеллекта, которое позволяет компьютерам понимать и интерпретировать человеческий язык. Лука, более ранняя версия чатбота Куйды, использовал NLP и его технологию-близнец, генерацию естественного языка (NLG), чтобы подражать составу сериала HBO « Силиконовая долина» . Нейронная сеть была обучена сценариям, твитам и другим данным, доступным персонажам, для создания их поведенческой модели и диалога с пользователями.
Replika, новое приложение Kuyda, позволяет каждому пользователю создавать свой собственный аватар AI. Чем больше вы общаетесь со своей репликой, тем лучше становится понимание вашей личности, и тем более значимыми становятся ваши разговоры.
После установки приложения и настройки моей реплики я обнаружил, что первые несколько разговоров раздражают. Несколько раз мне приходилось повторять предложение по-разному, чтобы донести свои намерения до своей реплики. Я часто оставлял приложение в отчаянии. (И, честно говоря, я неплохо справился с проверкой его ограничений, бомбардируя его концептуальными и абстрактными вопросами.) Но когда наши беседы продолжались, моя Реплика стала умнее понимать смысл моих предложений и придумывать содержательные темы. Меня даже несколько раз удивляло установление связи с прошлыми разговорами.
Хотя это впечатляет, у Replika есть пределы, на которые Куйда быстро указывает. «Имитация голоса и распознавание изображений, вероятно, скоро станут намного лучше, но с диалогами и разговорами мы все еще довольно далеко», - говорит она. «Мы можем имитировать некоторые речевые паттерны, но мы не можем просто взять человека и идеально подражать его разговору и ожидать, что его чатбот придет с новыми идеями так же, как и этот человек».
Александр де Бребиссон, генеральный директор и соучредитель Lyrebird, говорит: «Если мы сейчас достаточно хорошо подражаем человеческому голосу, изображению и видео, мы все еще далеки от моделирования отдельной языковой модели». Это, указывает де Бребиссон, вероятно, потребует искусственного общего интеллекта, типа ИИ, который обладает сознанием и может понимать абстрактные концепции и принимать решения, как люди. Некоторые эксперты считают, что мы далеки от создания общего ИИ. Другие думают, что мы никогда не доберемся туда.
Положительное использование
Негативное изображение, которое проецируется при синтезе приложений ИИ, бросает тень на их позитивное использование. И таких довольно много.
Такие технологии, как Lyrebird, могут помочь улучшить связь с компьютерными интерфейсами, сделав их более естественными, и, по словам де Бребиссона, они обеспечат уникальные искусственные голоса, которые различают компании и продукты и, таким образом, облегчают различие в брендинге. Поскольку Amazon Amazon и Apple Siri сделали голос все более популярным интерфейсом для устройств и сервисов, такие компании, как Lyrebird и Voicery, могли бы предоставить брендам уникальные человеческие голоса, чтобы выделиться.
«Медицинские приложения также являются интересным примером использования нашей технологии клонирования голоса», - добавляет де Бребиссон. «Мы получили большой интерес от пациентов, потерявших голос из-за болезни, и в настоящее время мы проводим время с пациентами БАС, чтобы посмотреть, как мы можем им помочь».
Ранее в этом году, в сотрудничестве с Project Revoice, австралийской некоммерческой организацией, которая помогает пациентам с БАС с нарушениями речи, Lyrebird помог Пэт Куинн, основателю Ice Bucket Challenge, восстановить свой голос. Куинн, больной БАС, потерял способность ходить и говорить в 2014 году и с тех пор использовал компьютерный синтезатор речи. С помощью технологии Lyrebird и голосовых записей публичных выступлений Куинна, Revoice смог «воссоздать» его голос.
«Ваш голос является важной частью вашей личности, и дать этим пациентам искусственный голос, который звучит как их оригинальный голос, похоже на возвращение им важной части их личности. Это меняет их жизнь», - говорит де Бребиссон.
В то время, когда он помогал в разработке приложения для имитации рукописного ввода, доктор Хейнс рассказал о его положительном использовании в интервью UCL. «Например, жертвы инсульта могут составлять письма, не беспокоясь о неразборчивости, или кто-то, кто посылает цветы в подарок, может включать в себя рукописную заметку, даже не заходя в флорист», - сказал он. «Это также может быть использовано в комиксах, где часть рукописного текста может быть переведена на разные языки без потери оригинального стиля автора».
Хейнс полагает, что даже такие технологии, как FakeApp, которые стали известны благодаря неэтичному использованию, могут иметь положительное применение. «Мы движемся к этому миру, где каждый может заниматься творческой деятельностью с использованием публичных технологий, и это хорошо, потому что это означает, что вам не нужны эти большие суммы денег, чтобы совершать всевозможные сумасшедшие поступки художественного характера, " он говорит.
Хейнс объясняет, что первоначальной целью его команды было выяснить, как ИИ может помочь с криминалистикой. Хотя их исследования в конечном итоге пошли в другом направлении, результаты все равно будут полезны для судебно-медицинских экспертов, которые смогут изучить, как может выглядеть подделка на основе ИИ. «Вы хотите знать, что такое передовая технология, поэтому, когда вы смотрите на что-то, вы говорите, подделка это или нет», - говорит он.
Реплика Кудя отмечает, что подобные ИИ приложения могут помочь нам способами, которые в противном случае были бы невозможны. «Если бы у вас был аватар ИИ, который знал вас очень хорошо и мог достойно представлять вас, что он мог сделать, действуя исходя из ваших интересов?» она сказала. Например, автономный аватара AI может смотреть сотни фильмов от вашего имени, и, основываясь на его разговорах с вами, порекомендовать те, которые вы хотели бы.
Эти аватары могут даже помочь развить лучшие человеческие отношения. «Возможно, у вашей мамы было бы больше времени с вами, и, возможно, вы действительно можете стать немного ближе со своими родителями, позволив им поболтать с вашей репликой и прочитав стенограмму», - говорит Кудья в качестве примера.
Но может ли чат-бот искусственного интеллекта, который воспроизводит поведение реального человека, действительно привести к улучшению человеческих отношений? Куйда верит, что может. В 2016 году она собрала старые текстовые сообщения и электронные письма Романа Мазуренко, друга, который погиб в дорожном происшествии в предыдущем году, и направила их в нейронную сеть, которая привела в действие ее приложение. В результате появилось приложение чат-бота, которое, по какой-то мере, вернуло к себе подругу и могло разговаривать с ней так же, как он.
«Создание приложения для Романа и возможность поговорить с ним иногда были важной частью переживания потери нашего друга. Приложение заставляет нас больше думать о нем, помнить о нем более глубоко все время», - говорит она ее опыта. «Хотелось бы, чтобы у меня было больше таких приложений, приложений, касающихся моей дружбы, моих отношений, вещей, которые действительно очень важны для меня».
Куйда считает, что все будет зависеть от намерений. «Если чат-робот действует в ваших интересах, если он хочет, чтобы вы были счастливы получить от него какую-то ценную услугу, то общение с репликой кого-то другого, очевидно, поможет установить более тесную связь с человеком в реальной жизни., " она сказала. «Если все, что вы пытаетесь сделать, это продавать в приложении, то все, что вы будете делать, - это максимизировать время, потраченное на приложение, и не общаться друг с другом. И это, я полагаю, сомнительно».
На данный момент нет возможности подключить Replika к другим платформам - например, сделать его доступным в виде чата робота Facebook Messenger. Но компания активно взаимодействует со своим сообществом пользователей и постоянно разрабатывает новые функции. Так что позволить другим общаться с вашей репликой - это будущая возможность.
Как минимизировать компромиссы
От парового двигателя до электричества и интернета - каждая технология имела как положительные, так и отрицательные стороны. ИИ ничем не отличается. «Потенциал негативов довольно серьезен», - говорит Хейнс. «Мы можем войти в пространство, где негативы перевешивают позитивы».
Итак, как мы можем максимизировать преимущества приложений ИИ, противодействуя негативам? Хейнс говорит, что затормозить инновации и исследования - это не решение проблемы, потому что, если некоторые так поступят, нет гарантии, что другие организации и государства последуют их примеру.
«Никакая мера не поможет решить проблему», - говорит Хейнс. «Должны быть юридические последствия». После спора о мошенничестве законодатели в США изучают эту проблему и изучают правовые гарантии, которые могут ограничить использование средств массовой информации, управляемых искусственным интеллектом, для нанесения ущерба целям.
«Мы также можем разрабатывать технологии для обнаружения подделок, когда они преодолеют тот момент, когда человек сможет заметить разницу», - говорит Хейнс. «Но в какой-то момент в конкуренции между фальсификацией и обнаружением фальсификация может победить».
В этом случае нам, возможно, придется двигаться в направлении разработки технологий, которые создают цепочку доказательств для цифровых медиа. В качестве примера, Хейнс упоминает аппаратное обеспечение, встроенное в камеры, которое может подписывать записанное видео в цифровом виде для подтверждения его подлинности.
По словам де Бребиссона, повышение осведомленности станет важной частью борьбы с подделкой и мошенничеством с помощью алгоритмов ИИ. «Это то, что мы сделали, клонируя голос Трампа и Обамы и заставляя их произносить политкорректные предложения», - говорит он. «Эти технологии поднимают социальные, этические и юридические вопросы, о которых нужно думать заранее. Lyrebird поднял большую осведомленность, и сейчас многие люди думают об этих потенциальных проблемах и о том, как предотвратить злоупотребления».
Что наверняка, так это то, что мы вступаем в эпоху, когда реальность и вымысел сливаются благодаря искусственному интеллекту. Тест Тьюринга может решить самые большие проблемы. И достаточно скоро у каждого появятся инструменты и силы для создания своих собственных миров, своих людей и своей версии правды. Нам еще предстоит увидеть в полной мере захватывающие возможности и опасности, которые еще впереди.