Оглавление:
Видео: Relax video | with gorgeous Arina and Nissan Skyline ECR33. (Ноябрь 2024)
Исследовательская лаборатория некоммерческого ИИ OpenAI вызвала волну паники апокалипсиса ИИ в прошлом месяце, когда представила современный ИИ, генерирующий текст, называемый GPT-2. Но в то время как он праздновал достижения GPT-2, OpenAI заявил, что не будет публиковать свою модель ИИ для публики, опасаясь, что в чужих руках GPT-2 может быть использован для злонамеренных целей, таких как создание вводящих в заблуждение новостных статей, выдача себя за других в Интернете и автоматизировать производство поддельного контента в социальных сетях.
AI и человеческий язык
Исторически компьютеры боролись с человеческим языком. В письменном тексте так много сложностей и нюансов, что практически невозможно преобразовать их в классические правила программного обеспечения. Но последние достижения в области глубокого обучения и нейронных сетей проложили путь к другому подходу к созданию программного обеспечения, которое может решать задачи, связанные с языком.
Глубокое обучение принесло значительные улучшения в таких областях, как машинный перевод, обобщение текста, ответы на вопросы и генерация естественного языка. Это позволяет разработчикам программного обеспечения создавать алгоритмы, которые развивают собственное поведение, анализируя множество примеров. Для выполнения задач, связанных с языком, инженеры используют цифровой контент нейронных сетей, такой как новости, страницы Википедии и сообщения в социальных сетях. Нейронные сети тщательно сравнивают данные и отмечают, как одни слова следуют за другими в повторяющихся последовательностях. Затем они превращают эти шаблоны в сложные математические уравнения, которые помогают им решать связанные с языком задачи, такие как прогнозирование пропущенных слов в текстовой последовательности. В целом, чем более качественные данные обучения вы предоставляете для модели глубокого обучения, тем лучше она становится при выполнении своей задачи.
По данным OpenAI, GPT-2 прошел обучение на 8 миллионах веб-страниц и миллиардах слов, что намного больше, чем на других аналогичных моделях. Он также использует продвинутые модели искусственного интеллекта, чтобы лучше применять текстовые шаблоны. Пример выходных данных из GPT-2 показывает, что модели удается поддерживать согласованность в более длинных последовательностях текста, чем ее предшественники.
Но хотя GPT-2 является шагом вперед в области генерации естественных языков, это не технологический прорыв в направлении создания ИИ, способного понять смысл и контекст письменного текста. GPT-2 по-прежнему использует алгоритмы для создания последовательностей слов, которые статистически похожи на миллиарды отрывков текста, которые он видел ранее, - он абсолютно не понимает, что он генерирует.
В углубленном анализе Tiernan Ray из ZDNet указывает на несколько случаев, когда выходные образцы GPT-2 выдавали свою искусственную природу с хорошо известными артефактами, такими как дублирование терминов и отсутствие логики и последовательности в фактах. «Когда GPT-2 переходит к письму, которое требует большей разработки идей и логики, трещины раскрываются довольно широко», - отмечает Рэй.
Статистическое обучение может помочь компьютерам генерировать текст, который является грамматически правильным, но для поддержания логической и фактической согласованности требуется более глубокое концептуальное понимание. К сожалению, это все еще проблема, которую нынешние смеси ИИ не преодолели. Вот почему GPT-2 может генерировать красивые абзацы текста, но, вероятно, будет трудно создать подлинную длинную статью или выдать себя за кого-то убедительным образом и в течение длительного периода времени.
Почему AI Fake-News преувеличена?
Еще одна проблема с рассуждениями OpenAI: предполагается, что ИИ может создать ложный кризис новостей.
В 2016 году группа македонских подростков распространяла фальшивые новости о президентских выборах в США среди миллионов людей. Как ни странно, у них даже не было надлежащих навыков английского языка; они находили свои истории в Интернете и склеивали разнородный контент. Они добились успеха, потому что создали сайты, которые выглядели достаточно аутентично, чтобы убедить посетителей доверять им как надежным источникам новостей. Сенсационные заголовки, небрежные пользователи социальных сетей и трендовые алгоритмы сделали все остальное.
Затем, в 2017 году, злоумышленники спровоцировали дипломатический кризис в регионе Персидского залива, взломав государственные новостные сайты Катара и правительственные аккаунты в социальных сетях и опубликовав поддельные замечания от имени эмира Катара шейха Тамима бен Хамада Аль Тани.
Как показывают эти истории, успех фальшивых новостных кампаний зависит от установления (и предательства) доверия, а не от создания большого количества связного английского текста.
Предупреждения OpenAI об автоматизации производства поддельного контента для публикации в социальных сетях, тем не менее, более оправданы, потому что масштаб и объем играют более важную роль в социальных сетях, чем в традиционных средствах массовой информации. Предполагается, что ИИ, такой как GPT-2, сможет наполнить социальные сети миллионами уникальных постов по определенной теме, влияя на алгоритмы трендов и публичные обсуждения.
Но все же предупреждения не соответствуют действительности. В последние несколько лет компании, работающие в социальных сетях, постоянно развивают возможности по обнаружению и блокированию автоматического поведения. Таким образом, злоумышленник, вооруженный ИИ, генерирующим текст, должен будет преодолеть ряд проблем, помимо создания уникального контента.
Например, им понадобятся тысячи фальшивых учетных записей социальных сетей, в которых можно размещать контент, созданный ИИ. Еще сложнее, чтобы убедиться, что нет возможности подключить поддельные учетные записи, им потребуется уникальное устройство и IP-адрес для каждой учетной записи.
Ситуация ухудшается: учетные записи должны создаваться в разное время, возможно, в течение года или дольше, чтобы уменьшить сходство. В прошлом году расследование New York Times показало, что одни только даты создания аккаунта могут помочь обнаружить аккаунты ботов. Затем, чтобы еще больше скрыть свою автоматизированную природу от других пользователей и алгоритмов контроля, учетные записи должны будут вести себя как люди, например, взаимодействовать с другими пользователями и задавать уникальный тон в своих сообщениях.
Ни одну из этих проблем невозможно преодолеть, но они показывают, что контент является лишь частью усилий, необходимых для проведения фальшивых новостных кампаний в социальных сетях. И снова доверие играет важную роль. Несколько авторитетных авторитетов в социальных сетях, создающих несколько поддельных новостных сообщений, окажут большее влияние, чем группа неизвестных аккаунтов, генерирующих большие объемы контента.
В защиту предупреждений OpenAI
Преувеличенные предупреждения OpenAI вызвали цикл ажиотажа и паники в СМИ, которые, по иронии судьбы, граничат с фальшивыми новостями, вызывая критику со стороны известных экспертов AI.
Они пригласили представителей СМИ получить ранний доступ к результатам с эмбарго прессы, поэтому все они были опубликованы в один и тот же день. Никто из известных мне исследователей не видел большую модель, но журналисты это видели. Да, они намеренно взорвали это.
- Мэтт Гарднер (@nlpmattg) 19 февраля 2019 г.
Каждый новый человек потенциально может быть использован для создания поддельных новостей, распространения теорий заговора и влияния на людей.
Должны ли мы перестать рожать детей тогда?
- Ян ЛеКун (@ylecun) 19 февраля 2019 г.
Я просто хотел вас всех осмотреть, наша лаборатория нашла удивительный прорыв в понимании языка. но мы также беспокоимся, что это может попасть в чужие руки. поэтому мы решили отказаться от него и вместо этого публиковать только обычные материалы * ACL. Большое уважение к команде за отличную работу.
- (((? () (? () 'Yoav)))) (@yoavgo) 15 февраля 2019 г.
Захари Липтон, исследователь искусственного интеллекта и редактор «Приблизительно правильно», указал на историю OpenAI «использования своего блога и чрезмерного внимания к незрелой работе катапульты в публичном представлении, и часто обыгрывает аспекты безопасности работы человека, которые еще не имеют интеллектуального ноги, чтобы стоять на."
Хотя OpenAI заслуживает всей критики и тепла, которые он получил после вводящих в заблуждение замечаний, он также вправе искренне беспокоиться о возможном злонамеренном использовании своей технологии, даже если компания использовала безответственный способ информирования общественности об этом.
- Год этического расчета в индустрии ИИ Год этического расчета в индустрии ИИ
- Несправедливое преимущество: не ожидайте, что ИИ будет играть как человек Несправедливое преимущество: не ожидайте, что ИИ будет играть как человек
- Этот AI предсказывает онлайн-троллинг до того, как это произойдет Этот AI прогнозирует онлайн-троллинг до того, как это произойдет
В прошлые годы мы видели, как технологии ИИ, обнародованные без раздумий и размышлений, могут быть использованы для злонамеренных целей. Одним из примеров было FakeApp, приложение для искусственного интеллекта, которое может менять лица в видео. Вскоре после того, как FakeApp был освобожден, он был использован для создания поддельных порнографического видео, которые показали знаменитостей и политиков, что вызывает озабоченность по поводу угрозы AI-питание подлога.
Решение OpenAI показывает, что нам нужно остановиться и подумать о возможных последствиях публичного выпуска технологий. И нам нужно более активно обсуждать риски технологий искусственного интеллекта.
«Одна организация, приостановившая один конкретный проект, на самом деле не собирается ничего менять в долгосрочной перспективе. Но OpenAI привлекает много внимания ко всему, что они делают… и я думаю, что им следует похвалить за то, что они обратили внимание на эту проблему», - сказал Дэвид Бау. Исследователь из Лаборатории информатики и искусственного интеллекта MIT (CSAIL) рассказал Slate.