Дом мнения Почему ай должен раскрыть, что это ай

Почему ай должен раскрыть, что это ай

Оглавление:

Видео: РС DONI ft Ð¢Ð¸Ð¼Ð°Ñ Ð¸ Ð Ð¾Ñ Ð¾Ð´Ð° Ð Ñ ÐµÐ¼Ñ ÐµÑ Ð° клипа, 2014 (Октября 2024)

Видео: РС DONI ft Ð¢Ð¸Ð¼Ð°Ñ Ð¸ Ð Ð¾Ñ Ð¾Ð´Ð° Ð Ñ ÐµÐ¼Ñ ÐµÑ Ð° клипа, 2014 (Октября 2024)
Anonim

Google недавно перепечатал Duplex, чтобы явно показать хозяевам ресторана и персоналу салона, что они разговаривают с помощником Google и записываются.

Google пропустил эту небольшую, но важную деталь, когда впервые представил Duplex на конференции разработчиков устройств ввода-вывода в мае. Возникла негативная реакция средств массовой информации, и критики возобновили старые опасения по поводу последствий раскрытия агентов ИИ, которые могут подражать поведению людей неразличимыми способами.

Настроив дуплекс, Google положил конец этой критике. Но почему так важно, чтобы компании были прозрачны в отношении личности своих агентов ИИ?

Могут ли помощники AI служить злым целям?

«Существует растущее ожидание, что, когда вы отправляете сообщения бизнесу, вы можете взаимодействовать с чат-ботом на основе ИИ. Но когда вы на самом деле слышите говорящего человека, вы обычно ожидаете, что это будет реальный человек», - говорит Джошуа Марч, генеральный директор общедоступный.

Март говорит, что мы находимся в начале, когда люди регулярно общаются с ИИ, и достижения в этой области создали страх, что хакеры могут использовать агентов ИИ в злонамеренных целях.

«В лучшем случае ИИ-боты со злонамеренными намерениями могут оскорбить людей», - говорит Марсио Авилес, старший вице-президент по сетям в Cujo AI. Но Марсио добавляет, что мы можем столкнуться с более серьезными угрозами. Например, ИИ может изучать конкретные лингвистические паттерны, упрощая адаптацию технологии для манипулирования людьми, подражания жертвам, а также для проведения атак на фишинг (голосовой фишинг) и подобных действий.

Многие эксперты сходятся во мнении, что угроза реальна. В колонке для ИТ-директора Стивен Брикман изложил различные способы использования такой технологии, как дуплекс: «По крайней мере, когда люди называют людей, существует ограничивающий фактор - человек может совершать столько звонков в час в день. Людям нужно платить, делать перерывы и т. Д. Но чат-бот AI может буквально совершать неограниченное количество звонков неограниченному количеству людей неограниченным количеством способов!"

На этом этапе большая часть того, что мы слышим, является спекуляцией; мы до сих пор не знаем масштабов и серьезности угроз, которые могут возникнуть с появлением голосовых помощников. Но многие потенциальные атаки с использованием голосовых помощников могут быть обезврежены, если компания, предоставляющая технологию, будет напрямую общаться с пользователями, когда они взаимодействуют с агентом ИИ.

Конфиденциальность

Еще одна проблема, связанная с использованием таких технологий, как дуплекс, - это потенциальный риск для конфиденциальности. Системам на базе AI требуются пользовательские данные для обучения и улучшения их алгоритмов, и Duplex не является исключением. Как это будет хранить, защищать и использовать эти данные очень важно.

Появляются новые правила, которые требуют от компаний получать явное согласие пользователей, когда они хотят собирать свою информацию, но в основном они были разработаны для охвата технологий, в которых пользователи намеренно инициируют взаимодействие. Это имеет смысл для помощников AI, таких как Siri и Alexa, которые активируются пользователем. Но не ясно, как новые правила будут применяться к помощникам ИИ, которые обращаются к пользователям без срабатывания.

В своей статье Брикман подчеркивает необходимость установления нормативных гарантий, таких как законы, которые требуют от компаний декларировать присутствие агента ИИ, или закон, который, когда вы спрашиваете чат-бота, является ли он чат-ботом, должен сказать: «Да, Я чатбот ". Такие меры дадут собеседнику возможность отключиться или, по крайней мере, решить, хотят ли они взаимодействовать с системой ИИ, которая записывает их голос.

Даже с такими законами проблемы конфиденциальности не исчезнут. «Самый большой риск, который я предвижу в нынешнем воплощении этой технологии, заключается в том, что она даст Google еще больше данных о нашей частной жизни, которых у нее еще не было. До этого момента они знали только о наших онлайн-коммуникациях; теперь они получат реальное представление о наши разговоры в реальном мире », - говорит Виан Чиннер, основатель и генеральный директор Xineoh.

Недавние скандалы с конфиденциальностью, в которых участвовали крупные технологические компании, в которых они использовали данные пользователей сомнительными способами для собственной выгоды, породили чувство недоверия к тому, чтобы дать им больше окон в нашей жизни. «Люди в целом считают, что крупные компании Силиконовой долины рассматривают их как товарно-материальные запасы, а не как клиентов, и испытывают большую степень недоверия практически ко всему, что они делают, независимо от того, насколько революционным и изменяющим их жизнь это окажется», - говорит Чиннер.

Функциональные сбои

Несмотря на то, что он обладает естественным голосом и тоном и использует человеческие звуки, такие как «мммм» и «мммм», дуплекс не отличается от других современных технологий искусственного интеллекта и страдает от тех же ограничений.

Независимо от того, используется ли в качестве интерфейса голос или текст, агенты ИИ способны решать конкретные проблемы. Вот почему мы называем их «узким ИИ» (в отличие от «общего ИИ» - типа искусственного интеллекта, который может участвовать в общем решении проблем, как это делает человеческий разум). Хотя узкий ИИ может быть исключительно хорош в выполнении задач, для которых он запрограммирован, он может эффектно провалиться, если ему дан сценарий, который отличается от его проблемной области.

«Если потребитель думает, что говорит с человеком, он, скорее всего, спросит что-то, что находится за пределами нормального сценария ИИ, и получит разочаровывающий ответ, когда бот не поймет», - говорит Марш из Conversocial.

Напротив, когда человек знает, что он разговаривает с ИИ, который обучен резервировать столики в ресторане, он будет стараться избегать использования языка, который запутает ИИ и заставит его вести себя неожиданным образом, особенно если он приносит их клиент.

«Сотрудники, которые получают вызовы от дуплекса, также должны получить прямое представление о том, что это не настоящий человек. Это поможет общению между персоналом и ИИ быть более консервативным и ясным», - говорит Авилез.

По этой причине, до тех пор, пока (и если) мы не разработаем ИИ, способный работать наравне с человеческим интеллектом, в интересах самих компаний быть прозрачными в использовании ИИ.

В конце концов, часть страха перед голосовыми помощниками, такими как Duplex, вызвана тем фактом, что они являются новыми, и мы все еще привыкли сталкиваться с ними в новых условиях и случаях использования. «По крайней мере, некоторым людям кажется очень неудобной идея разговаривать с роботом, не зная его, поэтому на данный момент это, вероятно, должно быть раскрыто контрагентам в разговоре», - говорит Чиннер.

  • ИИ (также) Сила добра ИИ (также) Сила добра
  • Когда ИИ стирает грань между реальностью и вымыслом Когда ИИ стирает грань между реальностью и вымыслом
  • Искусственный интеллект имеет проблему смещения, и это наша вина Искусственный интеллект имеет проблему смещения, и это наша ошибка

Но в конечном итоге мы привыкнем взаимодействовать с агентами ИИ, которые умнее и более способны выполнять задачи, которые ранее считались исключительной областью человеческих операторов.

«Следующему поколению будет все равно, разговаривают ли они с ИИ или человеком, когда связываются с бизнесом. Они просто хотят быстро и легко получить ответ, и они повзрослеют, обращаясь к Алексе. говорить с человеком будет гораздо сложнее, чем просто общаться с ботом », - говорит Марш из Conversocial.

Почему ай должен раскрыть, что это ай