Дом мнения Год этического учета в промышленности

Год этического учета в промышленности

Оглавление:

Видео: Маша и Медведь (Masha and The Bear) - Подкидыш (23 Серия) (Октября 2024)

Видео: Маша и Медведь (Masha and The Bear) - Подкидыш (23 Серия) (Октября 2024)
Anonim

С тех пор как глубокие нейронные сети выиграли самый важный в мире конкурс по распознаванию изображений в 2012 году, все были в восторге от того, что искусственный интеллект может раскрыть. Но в гонке по разработке новых методов и приложений ИИ возможные негативные последствия отошли на второй план.

Сейчас мы наблюдаем сдвиг в сторону большей осведомленности об этике ИИ. В 2018 году разработчики ИИ стали больше осознавать возможные последствия своих творений. Многие инженеры, исследователи и разработчики дали понять, что они не будут создавать технологии, которые наносят ущерб или наносят ущерб жизни невинных людей, и они держали свои компании.

Признание лица в правоохранительных органах

В прошлом создание приложений для распознавания лиц было трудным, ресурсоемким и подверженным ошибкам. Но с достижениями в области компьютерного зрения - подмножеством искусственного интеллекта, позволяющим компьютерам распознавать содержимое изображений и видео, - создание приложений для распознавания лиц стало намного проще и доступно каждому.

Крупные технологические компании, такие как Microsoft, Amazon и IBM, начали предоставлять облачные сервисы, которые позволили любому разработчику интегрировать технологию распознавания лиц в свое программное обеспечение. Это открыло много новых вариантов использования и приложений в разных доменах, таких как защита личности и аутентификация, безопасность умного дома и розничная торговля. Но активисты прав на конфиденциальность высказали озабоченность по поводу возможного злоупотребления.

В мае 2018 года Американский союз гражданских свобод объявил, что Amazon продает Rekognition, технологию видеоаналитики в реальном времени, правоохранительным органам и правительственным учреждениям. Согласно ACLU, полиция по крайней мере в трех штатах использовала Rekognition для распознавания лиц в видеопотоках наблюдения.

«С помощью Rekognition правительство теперь может создать систему для автоматизации идентификации и слежения за кем-либо. Если, например, камеры полицейских органов будут оснащены системой распознавания лиц, устройства, предназначенные для обеспечения прозрачности и подотчетности сотрудников, будут в дальнейшем превращаться в машины наблюдения, предназначенные для общественности ", предупредил ACLU. «Автоматизируя массовое наблюдение, системы распознавания лиц, такие как Rekognition, угрожают этой свободе, создавая особую угрозу для сообществ, которые уже подверглись несправедливому преследованию в нынешних политических условиях. Как только такие мощные системы наблюдения, как эти, будут созданы и развернуты, нанесение ущерба будет чрезвычайно трудно устранить. «.

Озабоченности ACLU поддержали сотрудники Amazon, которые в июне написали письмо Джеффу Безосу, генеральному директору компании, и потребовали прекратить продажу Rekognition правоохранительным органам. «Наша компания не должна заниматься слежкой; мы не должны заниматься полицией; мы не должны поддерживать тех, кто контролирует и угнетает маргинальное население», - говорится в письме.

В октябре анонимный сотрудник Amazon сообщил, что по меньшей мере 450 сотрудников подписали еще одно письмо, в котором призвали Безоса и других руководителей прекратить продажу Rekognition полиции. «Мы не можем получить прибыль от подмножества влиятельных клиентов за счет наших сообществ; мы не можем отвести взгляд от человеческих издержек нашего бизнеса. Мы не будем молча создавать технологии, чтобы притеснять и убивать людей, будь то в нашей стране или в других странах, "сказано.

Падение военного проекта искусственного интеллекта Google

В то время как Amazon боролся с этой внутренней обратной реакцией, Google испытывал похожую борьбу за контракт на разработку ИИ для военных США, получивший название Project Maven.

Google, по сообщениям, помог Министерству обороны разработать технологию компьютерного зрения, которая будет обрабатывать видео с дронов. Количество видеозаписей, записываемых беспилотниками каждый день, было слишком большим для анализа человеческими аналитиками, и Пентагон хотел автоматизировать часть процесса.

Признавая противоречивый характер задачи, представитель Google заявил, что он предоставляет API только для TensorFlow, его платформы машинного обучения, для обнаружения объектов в видеопотоках. Google также подчеркнул, что разрабатывает политику и гарантии для решения этических аспектов своей технологии.

Но Project Maven не очень понравился сотрудникам Google - 3000 из них, включая десятки инженеров, вскоре подписали открытое письмо генеральному директору Сундару Пичаи с призывом прекратить действие программы.

«Мы считаем, что Google не должен заниматься военными делами», - говорится в письме. Она попросила компанию «разработать, опубликовать и провести в жизнь четкую политику, утверждающую, что ни Google, ни ее подрядчики никогда не будут создавать технологии ведения войны».

Сотрудники Google также предупредили, что их работодатель ставит под угрозу его репутацию и способность бороться за таланты в будущем. «Мы не можем передать моральную ответственность наших технологий третьим лицам», - подчеркнули гуглеры.

Вскоре после этого петиция, подписанная 90 учеными и исследователями, призвала руководителей Google прекратить работу над военными технологиями. Подписавшиеся предупредили, что работа Google создаст условия для «автоматического распознавания целей и автономных систем оружия». Они также предупредили, что по мере развития технологии они будут «в шаге от того, чтобы разрешить автономным беспилотникам убивать автоматически, без человеческого контроля или значимого человеческого контроля».

По мере роста напряженности несколько сотрудников Google подали в отставку в знак протеста.

Как ответили технические лидеры

Под давлением Google заявил в июне, что не будет продлевать свой контракт с Министерством обороны по проекту Maven после истечения срока его действия в 2019 году.

В своем блоге генеральный директор Сундар Пичаи (на фото ниже) объявил ряд этических принципов, которые будут определять развитие компании и продажу технологии искусственного интеллекта. По словам Пичаи, компания отныне будет рассматривать проекты, предназначенные для блага общества в целом, и избегать развития ИИ, которое усиливает существующие несправедливые предубеждения или подрывает общественную безопасность.

Пичай также прямо заявил, что его компания не будет работать над технологиями, которые нарушают нормы в области прав человека.

Безос Амазонки был менее обеспокоен возмущением по поводу Rekognition. «Мы будем продолжать поддерживать DoD, и я думаю, что мы должны это сделать», - сказал Безос на технической конференции в Сан-Франциско в октябре. «Одна из задач высшего руководства - принимать правильные решения, даже если они непопулярны».

Безос также подчеркнул необходимость технического сообщества для поддержки военных. «Если крупные технологические компании отвернутся от DoD, у этой страны будут проблемы», - сказал он.

Президент Microsoft Брэд Смит, чья компания столкнулась с критикой за свою работу с ICE, в июле опубликовал пост в блоге, в котором призвал к взвешенному подходу в продаже чувствительных технологий государственным органам. Хотя Смит не исключил продажи услуг по распознаванию лиц правоохранительным органам и военным, он подчеркнул необходимость лучшего регулирования и прозрачности в техническом секторе.

  • MIT потратит 1 миллиард долларов на программу по изучению этики ИИ MIT потратит 1 млрд долларов на программу по изучению этики ИИ
  • ИИ действительно говорит на нашем языке? ИИ действительно говорит на нашем языке?
  • Ломка неудержимой фабрики ИИ в Китае Ломка неудержимой фабрики ИИ в Китае

«У нас есть избранные представители в Конгрессе, у которых есть инструменты, необходимые для оценки этой новой технологии со всеми ее последствиями. Мы извлекаем выгоду из сдержек и противовесов Конституции, которая видела нас с эпохи свечей до эпохи искусственного интеллекта. так много раз в прошлом мы должны обеспечить, чтобы новые изобретения служили нашим демократическим свободам в соответствии с принципом верховенства закона », - пишет Смит.

В 2018 году отдаленные угрозы роботов-убийц и массовой безработицы сменились опасениями по поводу более непосредственного этического и социального воздействия ИИ. Во многом эти события указывают на то, что индустрия взрослеет, поскольку алгоритмы ИИ становятся более заметными в критических задачах. Но по мере того, как алгоритмы и автоматизация становятся все более укоренившимися в нашей повседневной жизни, возникает все больше споров.

Год этического учета в промышленности