Дом мнения Самостоятельная автомобильная авария Убера: нам не удалось?

Самостоятельная автомобильная авария Убера: нам не удалось?

Оглавление:

Видео: Best Deep Learning Tools - Welcome.AI (Октября 2024)

Видео: Best Deep Learning Tools - Welcome.AI (Октября 2024)
Anonim

12 марта MIT Technology Review опубликовал историю, которая началась следующим образом: «Это 2023 год, и автомобили с автоматическим управлением наконец-то движутся по улицам нашего города. Впервые один из них ударил пешехода и убил его, Широкое освещение в СМИ. Вероятно, громкий судебный процесс, но какие законы должны применяться?"

Все в предсказании было правильным, кроме даты. Ровно через неделю после того, как статья была опубликована, самозванец Убер ударил и убил пешехода в Темпе, штат Аризона, при работе в автономном режиме.

Хотя инцидент все еще расследуется, возникшее волнение свидетельствует о том, насколько мы далеки от успешной интеграции искусственного интеллекта в наши важнейшие задачи и решения.

Во многих случаях проблема не в искусственном интеллекте, а в наших ожиданиях и понимании этого. По данным Wired , в прошлом году в дорожных происшествиях только в США погибло около 40 000 человек, 6000 из которых были пешеходами. Но очень немногие (если таковые имеются) попали в заголовки газет так, как это случилось в Убер.

Одна из причин, по которой крах Uber вызвал такое волнение, заключается в том, что у нас, как правило, большие надежды на новые технологии, даже когда они все еще находятся в разработке. В иллюзии, что чистая математика управляет алгоритмами ИИ, мы склонны доверять их решениям и шокированы, когда они делают ошибки.

Даже водители безопасности за рулем самостоятельного вождения автомобилей подводят свою охрану. Кадры из инцидента в Убер показали, что водитель отвлекся, глядя вниз за несколько секунд до аварии.

В 2016 году водитель модели Tesla S, работающей в режиме автопилота, умер после того, как автомобиль врезался в грузовик. Расследование показало, что водитель мог смотреть фильм о Гарри Поттере во время столкновения.

Ожидания совершенства высоки, а разочарования сильны. Критики были быстры, чтобы поставить под сомнение весь проект автомобиля с самостоятельным вождением Uber после инцидента; компания временно приостановила тестирование автомобиля без водителя.

ИИ не человек

Среди критических замечаний, последовавших за аварией, было то, что водитель-человек легко избежал бы инцидента.

"не выпрыгивала из кустов. Она делала явный прогресс через несколько полос движения, которые должны были быть в компетенции системы, чтобы подцепить", сказал один эксперт CNN.

Она права. Опытный человек-водитель, вероятно, заметил бы ее. Но алгоритмы ИИ не люди.

Алгоритмы глубокого обучения, обнаруженные в автомобилях с самостоятельным вождением, используют многочисленные примеры, чтобы «изучить» правила своей области. Проводя время в дороге, они классифицируют собранную информацию и учатся справляться с различными ситуациями. Но это не обязательно означает, что они используют тот же процесс принятия решений, что и человеческие движущие силы. Вот почему они могут работать лучше, чем люди, в некоторых ситуациях и терпеть неудачу в тех, которые кажутся людям тривиальными.

Прекрасным примером является алгоритм классификации изображений, который учится распознавать изображения, анализируя миллионы помеченных фотографий. За прошедшие годы классификация изображений стала суперэффективной и превосходит людей во многих ситуациях. Это не означает, что алгоритмы понимают контекст изображений так же, как люди.

Например, исследование, проведенное экспертами из Microsoft и Стэнфордского университета, показало, что алгоритм глубокого обучения, основанный на изображениях белых кошек, с большой степенью убежденности полагал, что фотография белой собаки изображает кошку, - ошибку, которую легко может избежать человеческий ребенок. И в печально известном случае алгоритм классификации изображений Google по ошибке классифицировал людей темного цвета кожи как горилл.

Это так называемые «крайние случаи», ситуации, с которыми алгоритмы ИИ не были обучены обращаться, обычно из-за недостатка данных. Авария в Убер все еще расследуется, но некоторые эксперты по ИИ предполагают, что это может быть еще один крайний случай.

Глубокому обучению предстоит преодолеть множество проблем, прежде чем его можно будет применять в критических ситуациях. Но его неудачи не должны сдерживать нас. Мы должны скорректировать наше восприятие и ожидания и принять реальность, что каждая великая технология терпит неудачу в ходе своей эволюции. ИИ ничем не отличается.

Самостоятельная автомобильная авария Убера: нам не удалось?