Дом Особенности Как пазл от Google пытается очистить интернет от токсинов

Как пазл от Google пытается очистить интернет от токсинов

Оглавление:

Видео: Время и Стекло Так выпала Карта HD VKlipe Net (Ноябрь 2024)

Видео: Время и Стекло Так выпала Карта HD VKlipe Net (Ноябрь 2024)
Anonim

Интернет может чувствовать себя как токсичное место. Тролли спускаются в разделы комментариев и потоки социальных сетей, чтобы разжигать ненавистнические высказывания и преследования, превращая потенциально полезные обсуждения в нападения ad hominem и групповые набивки. Выражение мнения онлайн часто не стоит полученного купороса.

Массовые социальные платформы, включая Facebook, Twitter и YouTube, признают, что не могут адекватно контролировать эти проблемы. Они в гонке вооружений с ботами, троллями и другими нежелательными, которые проскальзывают через фильтры контента. Люди физически не способны читать каждый комментарий в Интернете; те, кто стараются, часто сожалеют об этом.

Технические гиганты экспериментировали с различными комбинациями умеренности человека, алгоритмов ИИ и фильтров, чтобы пробираться сквозь поток контента, проходящего через их каналы каждый день. Головоломка пытается найти золотую середину. Дочерний и технический инкубатор Alphabet, ранее известный как Google Ideas, начинает доказывать, что машинное обучение (ML), превращенное в инструменты для модераторов, может изменить наш подход к проблеме токсичности Интернета.

Perspective - это API, разработанный Jigsaw и командой Google Counter Abuse Technology. Он использует ML для выявления злоупотреблений и домогательств в Интернете и оценивает комментарии, основываясь на предполагаемом влиянии, которое они могут оказать на разговор, с целью облегчить жизнь модераторов.

Перспектива среди кричащих матчей

Технология с открытым исходным кодом была впервые анонсирована в 2017 году, хотя ее разработка началась несколькими годами ранее. Одними из первых сайтов, которые экспериментировали с перспективой, были новостные публикации, такие как The New York Times, и такие сайты, как Wikipedia. Но недавно Perspective нашла дом на таких сайтах, как Reddit и платформа комментариев Disqus (которая используется на PCMag.com).

СиДжей Адамс, менеджер по продукту в компании «Перспектива», сказал, что проект хотел изучить, как приглушаются голоса людей в Интернете. Jigsaw хотел выяснить, как целенаправленное насилие или общая атмосфера преследования могут создать пугающий эффект, обескураживающий людей до такой степени, что они считают, что не стоит ни времени, ни энергии добавлять свой голос в дискуссию. Как часто вы видели твит, пост или комментарий и предпочитали не отвечать, потому что борьба с троллями и выход в Mad Online просто не стоят ухудшения?

«Очень легко испортить онлайн-разговор», - сказал Адамс. «Легко запрыгнуть, но один человек, который на самом деле злой или ядовитый, может вытеснить другие голоса. Может быть, 100 человек прочитают статью или начнут дебаты, и часто у вас останутся самые громкие голоса в комнате, оставшиеся единственными, в Интернете, который оптимизирован для лайков и публикаций. Таким образом, вы как бы заставляете замолчать все эти голоса. Тогда то, что определяет дебаты, - это просто самый громкий голос в комнате - кричащий матч ».

    Jigsaw и Google

    Это был тяжелый год для дочерней компании Jigsaw, Google, которая столкнулась с проблемами безопасности данных, откатом сотрудников на участие в проектах для Пентагона и Китая и откровениями о том, как справляться с сексуальными домогательствами. Не говоря уже о спорных слушаниях в Конгрессе, в котором генеральный директоре Сундар Пичай был жареными законодателями.

    В Jigsaw, альтруистическом инкубаторе Alphabet, все было немного менее драматично. Команда потратила время на изучение более технических форм цензуры, таких как отравление DNS с помощью приложения Intra и DDoS-атаки с помощью Project Shield. С точки зрения перспективы цель более абстрактна. Вместо того, чтобы использовать машинное обучение для определения того, что противоречит определенному набору правил, задача Perspective является чрезвычайно субъективной: классифицировать эмоциональное воздействие языка.

    Для этого вам понадобится обработка на естественном языке (NLP), которая разбивает предложение на шаблоны. Перспективная команда сталкивается с такими проблемами, как смещение подтверждений, групповое мышление и беспокоящее поведение в среде, где технологии расширяют их охват и затрудняют их решение.

    ИИ «неправильный и глупый иногда»

    Улучшение онлайн-разговоров с помощью машинного обучения не простая задача. Это все еще развивающаяся область исследований. Алгоритмы могут быть предвзятыми, системы машинного обучения требуют бесконечной доработки, а самые сложные и важные проблемы все еще в значительной степени не изучены.

    Исследовательская группа Conversation AI, которая создала Перспективу, начала со встречи с газетами, издателями и другими сайтами, где проводились беседы. Одними из первых сайтов, которые экспериментировали с этой технологией, были The New York Times , Wikipedia, The Guardian и The Economist .

    В 2017 году команда открыла первоначальную демонстрацию «Перспектива» через общедоступный веб-сайт в рамках альфа-теста, позволяя людям вводить на сайт миллионы мерзких, оскорбительных комментариев. Это было похоже на печально известный провальный эксперимент с чат-ботом Tay от Microsoft, за исключением того, что вместо того, чтобы обманом заставить бот ответить расистскими твитами, Jigsaw использовал краудсорсивую вирулентность в качестве обучающих данных для подачи своих моделей, помогая выявлять и классифицировать различные типы онлайн-злоупотреблений.

    Первый публичный тестовый запуск не прошел гладко. «Тролли по всей Америке» от Wired, которые сняли токсичность при комментировании по всей стране на основе оценки Перспективы, показали, как алгоритм непреднамеренно дискриминирует группы по признаку расы, гендерной идентичности или сексуальной ориентации.

    Адамс был откровенен в отношении того факта, что первоначальное тестирование Перспективы выявило серьезные слепые пятна и алгоритмический уклон Подобно утилитарному набору средств Amazon, который обучался десятилетиям некорректных данных о работе и демонстрировал пристрастность к кандидатам-женщинам, ранние модели Perspective имели явные недостатки из-за данных, на которых они обучались.

    «В примере с часто целевыми группами, если вы посмотрите на распределение по комментариям в наборе обучающих данных, было очень мало комментариев, которые включали слово« гей »или« феминистка »и использовали его в положительном свете. Кстати, объяснил Адамс. «В оскорбительных комментариях эти слова используются как оскорбления. Так, ОД, глядя на шаблоны, скажет:« Эй, присутствие этого слова является довольно хорошим предиктором того, является ли это чувство токсичным ».

    Например, в альфа-алгоритме могут быть ошибочно помечены такие утверждения, как «Я гордый гей» или «Я феминистка и трансгендер» с высокими показателями токсичности. Но публично прозрачный учебный процесс - хотя и болезненный - был неоценимым уроком для Jigsaw в последствиях непреднамеренной предвзятости, сказал Адамс.

    При обучении моделей машинного обучения чему-то столь же печальному и личному, как злоупотребления и домогательства в Интернете, наличие алгоритмического уклона также подчеркивает, почему один ИИ не является решением. Социальные компании, такие как Facebook и YouTube, рекламировали функции модерирования контента своих платформ только для того, чтобы отказаться от скандала и исправить ситуацию, наняв тысячи модераторов-людей.

    Прихватка Jigsaw представляет собой гибрид двух. Перспектива - это не алгоритмы ИИ, принимающие решения в вакууме; API интегрирован в интерфейсы управления сообществом и контент-модерации, чтобы служить вспомогательным инструментом для модераторов. Перспективные инженеры описывают модерирование ненавистнических высказываний с использованием ML и без него, используя аналогию с стогом сена: ИИ помогает автоматизировать процесс сортировки, сокращая громадные стога сена, в то же время давая людям окончательное решение о том, считается ли комментарий оскорбительным или преследующим.

    «Это новая возможность ML», - сказал Адамс. «Люди говорят о том, насколько умный ИИ, но они часто не говорят о том, что это неправильно, а иногда глупы. С самого начала мы знали, что это приведет к большому количеству ошибок, и поэтому мы сказали: инструмент полезен для модерации человека с помощью машины, но он не готов принимать автоматические решения ». Но это может привести к проблеме «иголки в стоге сена» в поиске этой ядовитой речи и довести ее до горстки сена ».

    Что такое показатель токсичности?

    Наиболее противоречивым аспектом моделирования в Perspective является помещение чисел в переменную, столь же субъективную, как «токсичность». Первое, на что указал Адамс, это то, что оценки Перспективы являются показателем вероятности, а не серьезности. Чем выше число, тем выше вероятность того, что шаблоны в тексте напоминают шаблоны в комментариях, которые люди пометили как токсичные.

    Что касается того, что на самом деле означает «ядовитый», команда «Перспектива» широко определяет его как «грубый, неуважительный или необоснованный комментарий, который может заставить вас покинуть дискуссию». Но как это проявляется, может быть тонким. В 2018 году Jigsaw вступил в партнерство с Лабораторией искусственного интеллекта Родса (RAIL) для разработки моделей ML, которые могут подхватить более неоднозначные формы угроз или ненавистной речи, такие как пренебрежительный, снисходительный или саркастический комментарий, который не является открыто враждебным.

    До этого момента большинство моделей Perspective были обучены, предлагая людям оценивать интернет-комментарии по шкале от «очень ядовитых» до «очень здоровых». Затем разработчики могут откалибровать модель, чтобы пометить комментарии выше определенного порога, от 0, 0 до 1, 0. Оценка выше 0, 9 указывает на высокую вероятность токсичности, а оценка 0, 5 или ниже означает гораздо более низкую степень алгоритмической достоверности. Перспектива также использует то, что называется нормализацией баллов, что дает разработчикам непротиворечивую базовую линию для интерпретации баллов. Адамс объяснил, что в зависимости от форума или веб-сайта, разработчики могут смешивать и подбирать модели. Поэтому, когда сообщество не возражает против ненормативной лексики, этот атрибут может быть ослаблен.

    Адамс показал мне демо-модерационный интерфейс, интегрированный с Perspective API. В панели администратора рядом с параметрами сортировки комментариев по верхним, самым новым и т. Д. Находится небольшой значок флага для сортировки по токсичности. Есть также встроенный механизм обратной связи для модератора-человека, который сообщает Перспективе, что он неправильно оценил комментарий, и улучшает модель с течением времени.

    Он щелкнул демо-интерфейс для модерации комментариев на странице обсуждения в Википедии, оцениваемых различными моделями перспективы, и разбил график гистограммы, комментарии которого могут быть атакой на автора страницы или атакой на другого комментатора.

    «Мы хотим создать средства модерации с помощью компьютера, чтобы пометить вещи для проверки человеком, но мы не хотим, чтобы какое-то центральное определение или кто-то говорил, что хорошо и что плохо», - сказал Адамс. «Так что, если я расскажу о токсичности, вы увидите, что комментарии достигают вершины. Но если вас больше волнуют, скажем, атаки на личность или угрозы, чем такие метрики, как ругань, возможно, вы бы не использовали модель общей токсичности. ингредиенты, которые можно смешивать. Мы предлагаем их, а разработчики их взвешивают ».

    Эксперимент RAIL использует более детальный подход. Оксфордские аспиранты собирают данные из десятков тысяч комментариев из раздела комментариев канадской газеты Globe and Mail и страниц Wikipedia Talk. Они просят человеческих «аннотаторов» отвечать на вопросы по каждому комментарию, связанному с пятью податрибутами «нездорового контента»: враждебным или оскорбительным (тролли), пренебрежительным, снисходительным или покровительственным, саркастическим и несправедливым обобщениями.

    Появление этих более тонких атрибутов выявило новые сложные проблемы с непреднамеренным уклоном в сторону конкретных групп и ложных срабатываний с саркастическими комментариями. Это часть проблем роста ИИ, кормления моделей все большим количеством данных, чтобы помочь ему понять скрытые, косвенные значения человеческой речи. Команда все еще просматривает и комментирует тысячи комментариев и планирует выпустить окончательный набор данных в начале этого года.

    «Мы хотим работать над тем, чтобы сообщество могло получить набор комментариев, а затем мы можем создать для них индивидуальное сочетание моделей Perspective», - сказал Адамс.

    Любопытный испытательный стенд Reddit

    Reddit - это микрокосм всего хорошего и ужасного в интернете. Существует сообщество subreddit для каждой темы и ниши, странный интерес, о котором вы только можете подумать. Jigsaw не работает с Reddit на корпоративном уровне, но одно из самых интригующих мест, в которых тестируется модерация AI в Perspective, - это subreddit, называемый r / changemyview.

    Удивительно, но есть уголки интернета, где все еще происходят настоящие дебаты и дискуссии. Изменить мой вид, или CMV, не так, как большинство других subreddits. Идея состоит в том, чтобы опубликовать мнение, которое вы принимаете, может быть ошибочным или открытым для изменения, а затем выслушать и понять другие точки зрения, чтобы увидеть, могут ли они изменить свое мнение по вопросу. Темы варьируются от мирских тем, таких как правильный порядок просмотра фильмов « Звездных войн», до серьезных дискуссий по таким вопросам, как расизм, политика, контроль над оружием и религия.

    Change My View - интересный тестовый стенд для Perspective, потому что у subreddit есть свой собственный подробный набор правил для начала и модерирования бесед, которые разжигают споры и разжигают споры по замыслу. Кэл Тернбулл (Kal Turnbull), который работает на Reddit на Snorrrlax, является основателем и одним из модераторов r / changemyview. Тернбулл сказал PCMag, что Perspective API особенно хорошо согласуется с правилом 2 сабвуфера, которое в основном запрещает грубую или враждебную речь.

    «Это звучит как простое правило, но в нем много нюансов», - сказал Тернбулл, базирующийся в Шотландии. «Трудно автоматизировать это правило, не зная языка. Reddit предоставляет вам то, что называется AutoModerator, где вы можете установить фильтры и ключевые слова для пометки. Но есть так много ложных срабатываний, и это может быть довольно трудно уловить, потому что кто-то может сказать плохое слово, не оскорбляя кого-то, и они также могут оскорбить кого-то, не используя никаких плохих слов ».

    Jigsaw связался с Тернбуллом в марте 2018 года. Сотрудничество началось с Правила 2, но вскоре команда создала Перспективные модели и для других правил. Это не полная интеграция с перспективным API с открытым исходным кодом, а скорее бот Reddit, который позволяет модераторам отмечать комментарии, оцененные выше заданного порога токсичности.

    В течение последних шести лет Turnbull и другие моды делали все это вручную из очереди отчетов AutoModerator (помеченных ключевыми словами) и пользовательских отчетов. Jigsaw использовал года модераторами заметки о нарушении правил, которые они отслеживали через расширение браузера, и строил модели Perspective на основе этих данных в сочетании с некоторыми из существующих моделей Perspective токсичности. В течение 2018 года моды CMV давали обратную связь по таким вопросам, как избыточные ложные срабатывания, и Jigsaw настраивал пороги оценки, продолжая моделировать больше правил CMV.

    Сложные суждения в онлайн-дебатах

    (Бот Perspective интегрирован в интерфейс модератора Reddit.)

    Перспектива не жива для всей модерации правила subreddit. Некоторые из более сложных или абстрактных правил все еще выходят за рамки того, что может понять этот вид ML.

    Например, правило 4 управляет системой очков Delta, в то время как правило B запрещает пользователям играть адвоката дьявола или использовать пост для «мыльной разборки». Подобная нюансированная модерация требует контекстуальных данных и простого человеческого понимания, чтобы понять, спорит ли кто-то по истинным причинам или просто троллинг.

    В обозримом будущем нам все еще понадобятся человеческие моды. В этих более сложных сценариях оценки модераторы CMV начинают видеть трещины в моделировании ИИ, и более умная автоматизация может определить, является ли все это масштабируемым.

    «Я думаю, что причина, по которой это так сложно, заключается в том, что это сочетание нашего суждения об их оригинальном посте и их взаимодействиях на протяжении всего разговора. Так что это не просто один комментарий, который запускает модель», - сказал Тернбулл. «Если аргумент идет вперед и назад, а в конце - комментарий, говорящий« спасибо », или подтверждение, мы пропускаем его, даже если ранее в потоке было нарушено правило. Или легкомысленная шутка, которая в контексте может показаться грубым - это миленькая человеческая штука, и бот пока этого не понимает ».

    На данный момент Change My View - единственный субредакт, активно использующий модели Perspective ML для модерации, хотя Адамс сказал, что команда получила запросы на доступ от нескольких других. Конкретный набор правил CMV сделал его идеальным тестовым примером, но перспективные модели податливы; отдельные подредакты могут настраивать алгоритм оценки в соответствии с принципами сообщества.

    Следующим шагом для Turnbull является снятие CMV с Reddit, потому что сообщество перерастает его, сказал он. В течение последних шести месяцев недавно созданный модераторский стартап работал с Jigsaw на специальном сайте с более глубокими функциональными возможностями, чем модовый интерфейс Reddit и боты.

    Проект все еще находится на стадии альфа-тестирования, но Тернбулл рассказал о таких функциях, как проактивные оповещения, когда пользователь вводит комментарий, который может нарушить правило, встроенные отчеты, которые предоставляют модераторам больше контекста, и исторические данные для принятия решений. Тернбулл подчеркнул, что нет никаких планов закрыть или перенести subreddit, но он взволнован новым экспериментом.

  • Все комментарии подходят для печати

    В зависимости от дня недели веб - сайт The New York Times получает от 12 000 до более 18 000 комментариев. До середины 2017 года разделы комментариев в газете модерировались штатным руководителем сообщества, который читал каждый комментарий и решал, одобрить его или отклонить.

    Басси Этим, который до этого месяца был редактором сообщества для « Таймс» , провел десятилетие за столом Сообщества и был его редактором с 2014 года. В разгар рабочего дня в команде может быть несколько человек, которые модерируют комментарии к историям общественного мнения, в то время как другие взялись за новости. Электронная таблица разделилась и отслеживала разные обязанности, но команда из примерно десятка человек постоянно менялась или перемещалась в зависимости от главных новостей на данный момент. Они также поделились лакомыми кусочками из комментариев с журналистами для потенциального фидера.

    В конце концов стало ясно, что с этим справятся более 12 человек. Разделы комментариев к историям должны закрываться после достижения максимального количества комментариев, которое команда может модерировать.

    Группа разработчиков аудитории газеты уже экспериментировала с машинным обучением для получения базовых, очевидных одобрений комментариев, но Этим сказал, что это не было особенно умным или настраиваемым. « Таймс» впервые объявила о своем партнерстве с Jigsaw в сентябре 2016 года. С тех пор разделы с комментариями расширились: на сегодняшний день они публикуются в менее чем 10 процентах всех публикаций и составляют около 30 процентов.

    С точки зрения Jigsaw, инкубатор увидел возможность получать анонимные данные Perspective из миллионов комментариев в день, модерируемые профессионалами, которые могли бы помочь усовершенствовать процесс. В обмен на анонимные учебные данные по ML, Jigsaw и Times работали вместе над созданием платформы под названием Moderator, которая была запущена в июне 2017 года.

  • Внутри Модератор, Нью-Йорк Таймс Интерфейс Комментариев

    (Изображение предоставлено The New York Times )

    Модератор объединяет модели Perspective с более чем 16 миллионами анонимных модерируемых комментариев Times начиная с 2007 года.

    То, что команда сообщества на самом деле видит в интерфейсе модератора, - это панель с интерактивной гистограммой, которая отображает разбивку комментариев выше определенного порога. Например, они могут перетаскивать ползунок вперед и назад, чтобы автоматически утверждать все комментарии с суммарной оценкой от 0 до 20 процентов, которая основана на комбинации вероятности непристойности, токсичности и вероятности отклонения комментария. Ниже приведены кнопки быстрой модерации, чтобы одобрить или отклонить комментарий, отложить его или пометить комментарий, чтобы продолжить улучшать моделирование Перспективы.

    «Для каждого раздела веб-сайта мы анализировали поступающие комментарии и то, как они будут помечаться в перспективе. Мы использовали как общедоступные модели перспективы, так и наши собственные модели, уникальные для The New York Times» , - сказал Этим. «Я бы проанализировал комментарии из каждого раздела и попытался найти точку отсечения, где нам было бы удобно сказать:« Хорошо, все, что выше этой вероятности, с использованием этих конкретных меток токсичности, таких как непристойность, например, мы собираемся одобрить ».

    «Машинное обучение» одобряет сравнительно небольшой процент комментариев (около 25 процентов или около того, сказал Этим), поскольку « Таймс» работает над развертыванием комментариев к большему количеству историй и, в конечном счете, даже над тем, чтобы настраивать, как модели фильтруют и утверждают комментарии для различных разделов сайта. Модели только одобряют комментарии; Отказ по-прежнему полностью обрабатывается модераторами.

    Эти ручные отсечки комментариев исчезли. По словам Этима, комментарии обычно заканчиваются либо через 24 часа после публикации в Интернете, либо на следующий день после публикации в печати.

    «Мы не заменяем вас машинами»

    Следующим этапом является добавление новых функций в систему, чтобы помочь модераторам расставить приоритеты, какие комментарии следует просматривать в первую очередь. Все чаще автоматизация того, что всегда было ручным процессом, позволяла модераторам активно работать с журналистами, отвечая на комментарии. Он создал цикл обратной связи, где комментарии приводят к последующим отчетам и дополнительным историям - могут сохранять и перераспределять ресурсы для создания дополнительной журналистики.

    «Модератор и« Перспектива »сделали газету Times более отзывчивой, потому что у нас есть ресурсы для этого, будь то мы сами пишем истории или работаем с журналистами, чтобы выяснить их», - сказал Этим. «Крутая вещь в этом проекте заключается в том, что мы никого не увольняли. Мы не заменяем вас машинами. Мы просто используем людей, которых мы имеем, более эффективно и принимаем действительно трудные решения».

    Этот документ открыт для работы с другими публикациями, чтобы помочь остальной части отрасли внедрить этот вид технологий. Он может помочь местным новостным изданиям с ограниченными ресурсами поддерживать разделы комментариев без большого выделенного персонала и использовать комментарии, как это делает « Таймс» , для поиска потенциальных клиентов и подпитки массовой журналистики.

    Этим сравнил модерирование с помощью ИИ с тем, чтобы дать фермеру механический плуг вместо лопаты. Вы можете сделать работу намного лучше с плугом.

    «Если« Перспектива »может развиваться правильным образом, она может, как мы надеемся, создать хотя бы набор руководящих принципов, которые можно повторить для небольших торговых точек», - сказал он. «Это длинная игра, но мы уже создали много основ, чтобы быть частью этого опыта читателя. Тогда, возможно, эти местные газеты могут иметь комментарии снова и установить небольшой плацдарм против основных социальных игроков».

    Кричать в бездну

    В этот момент большинство из нас видели, как люди подвергались нападкам или преследованиям в социальных сетях за высказывание своего мнения. Никто не хочет, чтобы это случилось с ними, кроме троллей, которые процветают на подобных вещах. И мы узнали, что кричать на незнакомца, который никогда не собирается слушать рациональный аргумент, не является ценным использованием нашего времени.

    Перспектива пытается разрушить эту динамику, но CJ Adams сказал, что более широкой целью является публикация данных, исследований и новых UX-моделей с открытым исходным кодом для создания новых структур общения - непростая задача. Сделать Интернет здоровым местом, достойным внимания людей, означает расширить эти системы за пределы разделов комментариев и субреддитов. В конечном счете, инструменты ИИ должны быть способны обрабатывать гигантские социальные приложения и сети, которые доминируют в наших повседневных цифровых взаимодействиях.

    Оставляя в стороне то, что Facebook, Twitter и другие социальные гиганты делают внутри себя, самый прямой способ сделать это - передать технологию модераторам самим пользователям. Адамс указал на проект «Коралл», чтобы понять, как это может выглядеть.

    Проект Coral был изначально основан как сотрудничество между Фондом Mozilla, The New York Times и Washington Post. Coral создает инструменты с открытым исходным кодом, такие как платформа Talk, для стимулирования онлайн-дискуссий и предоставления новостным сайтам альтернативы закрытию разделов комментариев. В настоящее время Talk поддерживает платформы для почти 50 онлайн-издателей, включая Post , New York Magazine, The Wall Street Journal и The Intercept.

    Ранее в этом месяце Vox Media приобрела проект Coral у фонда Mozilla; он планирует «глубоко интегрировать» его в Chorus, его платформу управления контентом и рассказывания историй.

    По словам Адамса, в Perspective есть плагин для Coral Project, в котором используется та же базовая технология - оценка токсичности на основе ML и пороговые значения - для предоставления пользователям упреждающих предложений при наборе текста. Поэтому, когда пользователь пишет комментарий, содержащий фразы, помеченные как оскорбительные или оскорбительные, для пользователя может появиться уведомление: «Прежде чем публиковать это, обязательно запомните наши рекомендации сообщества» или «Язык в этом комментарии может нарушать наши рекомендации сообщества. Наша команда модераторов вскоре рассмотрит его."

    «Этот маленький толчок может помочь людям просто подумать, но он также никого не блокирует», - сказал Адамс. «Это не останавливает обсуждение».

    Это механизм, объединяющий видеоигровые чаты и потоковые платформы для предотвращения злоупотреблений и преследований. Пользователи Твиттера также могут извлечь выгоду из такой системы.

    Это говорит о том, что исследователь MIT Эндрю Липпманн (Andrew Lippmann) высказался в «Будущей проблеме» PCMag: он говорил о встроенных механизмах, которые позволят людям остановиться и подумать, прежде чем делиться чем-то в Интернете, чтобы помочь предотвратить распространение дезинформации. Концепция применима и к онлайн-обсуждению. Мы создали системы связи без трения, способные в одно мгновение усилить экспоненциальный охват, но иногда небольшое трение может быть полезным, сказал Липпманн.

    Перспектива не об использовании ИИ в качестве общего решения. Это способ превратить модели ML в инструменты для людей, чтобы помочь им курировать свой собственный опыт. Но один контрапункт заключается в том, что если вы сделаете так, чтобы людям было еще проще отключить шум, который им не нравится, интернет станет еще более эхокамерой, чем он есть.

    Отвечая на вопрос, могут ли такие инструменты, как «Перспектива», в конечном итоге усугубить это, Адамс сказал, что он считает, что онлайн-эхо-камеры существуют, потому что нет механизмов для проведения дискуссии, в которой люди могли бы существенным образом не согласиться.

    «Путь наименьшего сопротивления -« Эти люди сражаются. Давайте просто позволим им договориться с самим собой в своих углах. Пусть люди сами себя раздувают », - сказал он. «Вы позволяете людям кричать всем остальным из комнаты или закрываете дискуссию. Мы хотим, чтобы Перспектива создала третий вариант».

    Адамс изложил пример сценария. Если вы спросите комнату из 1000 человек: «Сколько из вас сегодня читает что-то, что вас действительно волнует?» большинство пользователей Интернета будут указывать на статью, твит, пост или что-то, что они читают в Интернете. Но если вы потом спросите их: «Сколько из вас думали, что стоит потратить время на то, чтобы прокомментировать это или обсудить?» все руки в комнате опустятся.

    «Для многих из нас это просто не стоит усилий. Структура обсуждения, которую мы имеем сейчас, просто означает, что это ответственность. Если у вас есть разумные мысли или то, чем вы хотите поделиться, для большинства людей они не Я не хочу принимать участие ", сказал Адамс. «Это означает, что из этой 1000 человек, которые могут присутствовать в зале, в обсуждении представлена ​​лишь небольшая группа, скажем, 10 человек. Я глубоко верю, что мы можем построить структуру, которая позволит другим 990 вернуться в дискуссию и делает это так, что они считают стоящим свое время ".

Как пазл от Google пытается очистить интернет от токсинов