Дом мнения Как предупреждения фальшивых новостей openai вызвали реальные фальшивые новости

Как предупреждения фальшивых новостей openai вызвали реальные фальшивые новости

Оглавление:

Видео: Relax video | with gorgeous Arina and Nissan Skyline ECR33. (Октября 2024)

Видео: Relax video | with gorgeous Arina and Nissan Skyline ECR33. (Октября 2024)
Anonim

Исследовательская лаборатория некоммерческого ИИ OpenAI вызвала волну паники апокалипсиса ИИ в прошлом месяце, когда представила современный ИИ, генерирующий текст, называемый GPT-2. Но в то время как он праздновал достижения GPT-2, OpenAI заявил, что не будет публиковать свою модель ИИ для публики, опасаясь, что в чужих руках GPT-2 может быть использован для злонамеренных целей, таких как создание вводящих в заблуждение новостных статей, выдача себя за других в Интернете и автоматизировать производство поддельного контента в социальных сетях.

Как и ожидалось, объявление OpenAI вызвало поток сенсационных новостей, но, несмотря на то, что любая передовая технология может быть вооружена, ИИ еще далеко до того, как он овладеет генерацией текста. Даже тогда для создания фальшивых новостей требуется больше, чем просто генерирующий текст ИИ. В этом свете предупреждения OpenAI были раздутыми.

AI и человеческий язык

Исторически компьютеры боролись с человеческим языком. В письменном тексте так много сложностей и нюансов, что практически невозможно преобразовать их в классические правила программного обеспечения. Но последние достижения в области глубокого обучения и нейронных сетей проложили путь к другому подходу к созданию программного обеспечения, которое может решать задачи, связанные с языком.

Глубокое обучение принесло значительные улучшения в таких областях, как машинный перевод, обобщение текста, ответы на вопросы и генерация естественного языка. Это позволяет разработчикам программного обеспечения создавать алгоритмы, которые развивают собственное поведение, анализируя множество примеров. Для выполнения задач, связанных с языком, инженеры используют цифровой контент нейронных сетей, такой как новости, страницы Википедии и сообщения в социальных сетях. Нейронные сети тщательно сравнивают данные и отмечают, как одни слова следуют за другими в повторяющихся последовательностях. Затем они превращают эти шаблоны в сложные математические уравнения, которые помогают им решать связанные с языком задачи, такие как прогнозирование пропущенных слов в текстовой последовательности. В целом, чем более качественные данные обучения вы предоставляете для модели глубокого обучения, тем лучше она становится при выполнении своей задачи.

По данным OpenAI, GPT-2 прошел обучение на 8 миллионах веб-страниц и миллиардах слов, что намного больше, чем на других аналогичных моделях. Он также использует продвинутые модели искусственного интеллекта, чтобы лучше применять текстовые шаблоны. Пример выходных данных из GPT-2 показывает, что модели удается поддерживать согласованность в более длинных последовательностях текста, чем ее предшественники.

Но хотя GPT-2 является шагом вперед в области генерации естественных языков, это не технологический прорыв в направлении создания ИИ, способного понять смысл и контекст письменного текста. GPT-2 по-прежнему использует алгоритмы для создания последовательностей слов, которые статистически похожи на миллиарды отрывков текста, которые он видел ранее, - он абсолютно не понимает, что он генерирует.

В углубленном анализе Tiernan Ray из ZDNet указывает на несколько случаев, когда выходные образцы GPT-2 выдавали свою искусственную природу с хорошо известными артефактами, такими как дублирование терминов и отсутствие логики и последовательности в фактах. «Когда GPT-2 переходит к письму, которое требует большей разработки идей и логики, трещины раскрываются довольно широко», - отмечает Рэй.

Статистическое обучение может помочь компьютерам генерировать текст, который является грамматически правильным, но для поддержания логической и фактической согласованности требуется более глубокое концептуальное понимание. К сожалению, это все еще проблема, которую нынешние смеси ИИ не преодолели. Вот почему GPT-2 может генерировать красивые абзацы текста, но, вероятно, будет трудно создать подлинную длинную статью или выдать себя за кого-то убедительным образом и в течение длительного периода времени.

Почему AI Fake-News преувеличена?

Еще одна проблема с рассуждениями OpenAI: предполагается, что ИИ может создать ложный кризис новостей.

В 2016 году группа македонских подростков распространяла фальшивые новости о президентских выборах в США среди миллионов людей. Как ни странно, у них даже не было надлежащих навыков английского языка; они находили свои истории в Интернете и склеивали разнородный контент. Они добились успеха, потому что создали сайты, которые выглядели достаточно аутентично, чтобы убедить посетителей доверять им как надежным источникам новостей. Сенсационные заголовки, небрежные пользователи социальных сетей и трендовые алгоритмы сделали все остальное.

Затем, в 2017 году, злоумышленники спровоцировали дипломатический кризис в регионе Персидского залива, взломав государственные новостные сайты Катара и правительственные аккаунты в социальных сетях и опубликовав поддельные замечания от имени эмира Катара шейха Тамима бен Хамада Аль Тани.

Как показывают эти истории, успех фальшивых новостных кампаний зависит от установления (и предательства) доверия, а не от создания большого количества связного английского текста.

Предупреждения OpenAI об автоматизации производства поддельного контента для публикации в социальных сетях, тем не менее, более оправданы, потому что масштаб и объем играют более важную роль в социальных сетях, чем в традиционных средствах массовой информации. Предполагается, что ИИ, такой как GPT-2, сможет наполнить социальные сети миллионами уникальных постов по определенной теме, влияя на алгоритмы трендов и публичные обсуждения.

Но все же предупреждения не соответствуют действительности. В последние несколько лет компании, работающие в социальных сетях, постоянно развивают возможности по обнаружению и блокированию автоматического поведения. Таким образом, злоумышленник, вооруженный ИИ, генерирующим текст, должен будет преодолеть ряд проблем, помимо создания уникального контента.

Например, им понадобятся тысячи фальшивых учетных записей социальных сетей, в которых можно размещать контент, созданный ИИ. Еще сложнее, чтобы убедиться, что нет возможности подключить поддельные учетные записи, им потребуется уникальное устройство и IP-адрес для каждой учетной записи.

Ситуация ухудшается: учетные записи должны создаваться в разное время, возможно, в течение года или дольше, чтобы уменьшить сходство. В прошлом году расследование New York Times показало, что одни только даты создания аккаунта могут помочь обнаружить аккаунты ботов. Затем, чтобы еще больше скрыть свою автоматизированную природу от других пользователей и алгоритмов контроля, учетные записи должны будут вести себя как люди, например, взаимодействовать с другими пользователями и задавать уникальный тон в своих сообщениях.

Ни одну из этих проблем невозможно преодолеть, но они показывают, что контент является лишь частью усилий, необходимых для проведения фальшивых новостных кампаний в социальных сетях. И снова доверие играет важную роль. Несколько авторитетных авторитетов в социальных сетях, создающих несколько поддельных новостных сообщений, окажут большее влияние, чем группа неизвестных аккаунтов, генерирующих большие объемы контента.

В защиту предупреждений OpenAI

Преувеличенные предупреждения OpenAI вызвали цикл ажиотажа и паники в СМИ, которые, по иронии судьбы, граничат с фальшивыми новостями, вызывая критику со стороны известных экспертов AI.

Они пригласили представителей СМИ получить ранний доступ к результатам с эмбарго прессы, поэтому все они были опубликованы в один и тот же день. Никто из известных мне исследователей не видел большую модель, но журналисты это видели. Да, они намеренно взорвали это.

- Мэтт Гарднер (@nlpmattg) 19 февраля 2019 г.

Каждый новый человек потенциально может быть использован для создания поддельных новостей, распространения теорий заговора и влияния на людей.

Должны ли мы перестать рожать детей тогда?

- Ян ЛеКун (@ylecun) 19 февраля 2019 г.

Я просто хотел вас всех осмотреть, наша лаборатория нашла удивительный прорыв в понимании языка. но мы также беспокоимся, что это может попасть в чужие руки. поэтому мы решили отказаться от него и вместо этого публиковать только обычные материалы * ACL. Большое уважение к команде за отличную работу.

- (((? () (? () 'Yoav)))) (@yoavgo) 15 февраля 2019 г.

Захари Липтон, исследователь искусственного интеллекта и редактор «Приблизительно правильно», указал на историю OpenAI «использования своего блога и чрезмерного внимания к незрелой работе катапульты в публичном представлении, и часто обыгрывает аспекты безопасности работы человека, которые еще не имеют интеллектуального ноги, чтобы стоять на."

Хотя OpenAI заслуживает всей критики и тепла, которые он получил после вводящих в заблуждение замечаний, он также вправе искренне беспокоиться о возможном злонамеренном использовании своей технологии, даже если компания использовала безответственный способ информирования общественности об этом.

  • Год этического расчета в индустрии ИИ Год этического расчета в индустрии ИИ
  • Несправедливое преимущество: не ожидайте, что ИИ будет играть как человек Несправедливое преимущество: не ожидайте, что ИИ будет играть как человек
  • Этот AI предсказывает онлайн-троллинг до того, как это произойдет Этот AI прогнозирует онлайн-троллинг до того, как это произойдет

В прошлые годы мы видели, как технологии ИИ, обнародованные без раздумий и размышлений, могут быть использованы для злонамеренных целей. Одним из примеров было FakeApp, приложение для искусственного интеллекта, которое может менять лица в видео. Вскоре после того, как FakeApp был освобожден, он был использован для создания поддельных порнографического видео, которые показали знаменитостей и политиков, что вызывает озабоченность по поводу угрозы AI-питание подлога.

Решение OpenAI показывает, что нам нужно остановиться и подумать о возможных последствиях публичного выпуска технологий. И нам нужно более активно обсуждать риски технологий искусственного интеллекта.

«Одна организация, приостановившая один конкретный проект, на самом деле не собирается ничего менять в долгосрочной перспективе. Но OpenAI привлекает много внимания ко всему, что они делают… и я думаю, что им следует похвалить за то, что они обратили внимание на эту проблему», - сказал Дэвид Бау. Исследователь из Лаборатории информатики и искусственного интеллекта MIT (CSAIL) рассказал Slate.

Как предупреждения фальшивых новостей openai вызвали реальные фальшивые новости