Дом Особенности 10 неловкий алгоритм не работает

10 неловкий алгоритм не работает

Оглавление:

Видео: Приколы с кошками и котами (Ноябрь 2024)

Видео: Приколы с кошками и котами (Ноябрь 2024)
Anonim

Технология не только для гиков, она для всех, и это много людей. Лишь немногие компании контролируют большую часть аппаратного и программного обеспечения - от Apple и Amazon до Facebook, Microsoft и Google - они могут сделать так много только для того, чтобы контролировать свой кошелек и зрачки. Что делать бедной гигантской корпорации? Положитесь на алгоритмы, чтобы принять некоторые важные решения.

Оксфордские Живые Словари определяют алгоритм как «процесс или набор правил, которым должны следовать в вычислениях или других операциях решения проблем, особенно с помощью компьютера». Прекрасным примером является лента новостей Facebook. Никто не знает, как работает то, что некоторые из ваших сообщений появляются на новостных лентах некоторых людей или нет, но Facebook это делает. Или как насчет того, чтобы Amazon показывал вам похожие книги? Похожие поиски в Google? Все это тщательно охраняемые секреты, которые делают большую работу для компании и могут оказать большое влияние на вашу жизнь.

Но алгоритмы не идеальны. Они терпят неудачу, и некоторые терпят неудачу эффектно. Добавьте яркость социальных сетей, и небольшой глюк может быстро превратиться в пиар-кошмар. Это редко злой; как правило, это то, что New York Times называет «моментами Франкенштейна», когда созданное кем-то существо превращается в монстра. Но это происходит, и мы собрали некоторые из наиболее вопиющих недавних примеров ниже. Дайте нам знать ваши любимые в комментариях ниже.

    1 сомнительная реклама в Instagram

    Как сообщает The Guardian , Facebook любит размещать объявления для своего сервиса Instagram с сообщениями от своих пользователей. Но алгоритм выбрал неправильную «фотографию», чтобы передать друзьям Оливии Солон, которая сама является репортером The Guardian , и выбрала годичный скриншот, который она сделала с угрожающим письмом.

    2 таргетированных расистских объявления

    На прошлой неделе ProPublica сообщила, что Facebook позволяет рекламодателям настраивать таргетинг на оскорбительные категории людей, такие как «ненавистники евреев». Сайт заплатил 30 долларов за рекламу (см. Выше), нацеленную на аудиторию, которая положительно отреагировала бы на такие вещи, как «почему евреи разрушают мир» и «Гитлер не сделал ничего плохого». Это было одобрено в течение 15 минут.

    Slate обнаружил такие же оскорбительные категории, и это стало еще одним в длинном ряду пунктов, за которые Facebook должен был не только извиниться, но и пообещать исправить с помощью некоторого человеческого контроля. Вы знаете, например, когда он разместил рекламные объявления на 100 тысяч долларов для России.

    В своем посте на Facebook главный операционный директор Шерил Сэндберг сказала, что она «испытывает отвращение и разочарование в этих словах» и объявила об изменениях в ее рекламных инструментах.

    BuzzFeed проверил, как Google будет обрабатывать подобные вещи, и обнаружил, что было легко настроить целевую рекламу, которую увидят расисты и фанатики. Daily Beast проверил это в Твиттере и обнаружил миллионы рекламных объявлений, использующих такие термины, как «нацист», «мятежник» и «N».

    3 года Facebook в обзоре горе

    Если вы находитесь на Facebook, вы, несомненно, видели его видео, созданные в конце года, с основными моментами за последние 12 месяцев. Или для некоторых, при низкой освещенности. В 2014 году один отец видел фотографию своей покойной дочери, а другой - снимки своего дома в огне. Другие примеры включают людей, видящих своих покойных домашних животных, урны, полные пепла родителей, и умерших друзей. К 2015 году Facebook обещал отфильтровать грустные воспоминания.

  • 4 Тесла Автопилот Crash

    Большинство алгоритмических snafus далеко не смертельно, но мир автомобилей с самостоятельным вождением принесет совершенно новый уровень опасности. Это уже произошло хотя бы раз. Владелец Теслы на шоссе во Флориде использовал полуавтономный режим (Автопилот) и врезался в тягач, который его отключил. Тесла быстро выпустил обновления, но действительно ли это была ошибка режима Автопилота? Национальное управление безопасности дорожного движения говорит, что, возможно, нет, поскольку система требует, чтобы водитель оставался бдительным в отношении проблем, как вы можете видеть на видео выше. Теперь, Tesla предотвращает даже включение автопилота, если водитель не реагирует на визуальные сигналы в первую очередь.

  • 5 Tay the Racist Microsoft AI

    Пару лет назад чат-боты должны были захватить мир штурмом, заменив представителей обслуживания клиентов и сделав онлайн-мир интересным местом для получения информации. В марте 2016 года Microsoft отреагировала на это тем, что выдвинула ИИ по имени Тэй, с которым люди, в особенности от 18 до 24 лет, могли общаться в Твиттере. Tay, в свою очередь, будет публиковать твиты для масс. Но менее чем за 24 часа, учась у грязных масс, Тэй стал расистом. Microsoft снесла Тэя мгновенно; она вернулась в качестве нового ИИ по имени Zo в декабре 2016 года с «жесткими сдержками и противовесами, чтобы защитить ее от эксплуатации».

    6 Поздравляем с вашим (несуществующим) ребенком!

    Полное раскрытие: когда я пишу это, моя жена на самом деле беременна. Мы оба получили это письмо от Amazon, в котором говорилось, что кто-то купил что-то для нас из нашего детского реестра. Мы еще не обнародовали это, но это не было настолько шокирующим. Между тем, несколько миллионов других клиентов Amazon также получили ту же заметку, в том числе без реестра… или ребенка в пути. Это могло быть частью фишинг-схемы, но это не так. Amazon поймал ошибку и отправил письмо с последующим извинением. К тому времени многие жаловались, что это неуместно или нечувствительно. Это был менее сложный алгоритм, чем простой почтовый сервер, но он показывает, что его всегда легко обидеть.

    7 Amazon «рекомендует» материалы бомб

    Все прыгали на этом после того, как об этом сообщили британские Channel 4 News, от Fox News до The New York Times . Он предположительно обнаружил, что функция Amazon «часто покупали вместе» показала бы людям, что им нужно для создания бомбы, если бы они начали с одного из ингредиентов, который сайт не назвал бы (это был нитрат калия).

    На самом деле алгоритм Amazon показал покупателям ингредиенты для производства черного порошка в небольших количествах, что совершенно законно в Соединенном Королевстве и используется для всех видов вещей, таких как фейерверки, как было быстро указано в невероятно хорошо продуманной пост в блоге на праздных словах. Вместо этого все отчеты о том, как Amazon смотрит на это, потому что они должны сказать, что делают в мире, который боится терроризма и логики.

    8 Google Maps становится расистским

    В 2015 году Google пришлось извиниться, когда в Картах Google были найдены слова «n ***** king» и «n *** a house», которые привели к Белому дому, который в то время еще занимал Барак Обама. Это было результатом «Googlebomb», когда термин, используемый снова и снова, выбирается поисковой системой и помечается как «популярный», поэтому результаты попадают в верхнюю часть поиска. Вот как слово «Санторум» получило новое определение.

    9 Google Теги Люди как Гориллы

    Google Photos - это удивительное приложение / сервис, в котором хранятся все ваши фотографии и многое другое. Одной из таких вещей является автоматическая пометка людей и вещей на фотографиях. Он использует распознавание лиц для людей, чтобы сузить их до правильного человека. У меня даже есть папка со всеми моими собаками, и я не пометил ни одной из них. Как это ни работает, было ужасно, когда в 2015 году Google пришлось извиниться перед программистом Джеки Альсине, когда он и его друг - оба черные - были идентифицированы службой как гориллы. «Мы потрясены и искренне сожалеем, что это произошло», - сказал Google PCMag.

    10 роботов безопасности бьют ребенка, убивает себя

    Knightscope производит автономных роботов безопасности под названием K5 для патрулирования школ, торговых центров и районов. 5-футовые шишки Dalek-esque на колесах, которые, к их чести, все еще находятся на стадии бета-тестирования, имеют тенденцию сообщать новости не о противодействии преступности, а о глюках.

    Например, в июле 2016 года K5 в торговом центре Stanford в Пало-Альто переехала подножие 16-месячного ребенка, и Knightscope пришлось официально извиниться. В том же месте - может быть, тот же дроид - ссорился на парковке с пьяным, но, по крайней мере, это не вина К5. Жюри все еще находится в подразделении K5 на Джорджтаунской набережной, в офисно-торговом комплексе в Вашингтоне, округ Колумбия… который якобы спустился по лестнице в фонтан после всего лишь одной недели работы. Это не выглядит хорошо для армии Скайнет.

10 неловкий алгоритм не работает