Оглавление:
Видео: РС DONI ft Ð¢Ð¸Ð¼Ð°Ñ Ð¸ Ð Ð¾Ñ Ð¾Ð´Ð° Ð Ñ ÐµÐ¼Ñ ÐµÑ Ð° клипа, 2014 (Ноябрь 2024)
Google недавно перепечатал Duplex, чтобы явно показать хозяевам ресторана и персоналу салона, что они разговаривают с помощником Google и записываются.
Настроив дуплекс, Google положил конец этой критике. Но почему так важно, чтобы компании были прозрачны в отношении личности своих агентов ИИ?
Могут ли помощники AI служить злым целям?
«Существует растущее ожидание, что, когда вы отправляете сообщения бизнесу, вы можете взаимодействовать с чат-ботом на основе ИИ. Но когда вы на самом деле слышите говорящего человека, вы обычно ожидаете, что это будет реальный человек», - говорит Джошуа Марч, генеральный директор общедоступный.
Март говорит, что мы находимся в начале, когда люди регулярно общаются с ИИ, и достижения в этой области создали страх, что хакеры могут использовать агентов ИИ в злонамеренных целях.
«В лучшем случае ИИ-боты со злонамеренными намерениями могут оскорбить людей», - говорит Марсио Авилес, старший вице-президент по сетям в Cujo AI. Но Марсио добавляет, что мы можем столкнуться с более серьезными угрозами. Например, ИИ может изучать конкретные лингвистические паттерны, упрощая адаптацию технологии для манипулирования людьми, подражания жертвам, а также для проведения атак на фишинг (голосовой фишинг) и подобных действий.
Многие эксперты сходятся во мнении, что угроза реальна. В колонке для ИТ-директора Стивен Брикман изложил различные способы использования такой технологии, как дуплекс: «По крайней мере, когда люди называют людей, существует ограничивающий фактор - человек может совершать столько звонков в час в день. Людям нужно платить, делать перерывы и т. Д. Но чат-бот AI может буквально совершать неограниченное количество звонков неограниченному количеству людей неограниченным количеством способов!"
На этом этапе большая часть того, что мы слышим, является спекуляцией; мы до сих пор не знаем масштабов и серьезности угроз, которые могут возникнуть с появлением голосовых помощников. Но многие потенциальные атаки с использованием голосовых помощников могут быть обезврежены, если компания, предоставляющая технологию, будет напрямую общаться с пользователями, когда они взаимодействуют с агентом ИИ.
Конфиденциальность
Еще одна проблема, связанная с использованием таких технологий, как дуплекс, - это потенциальный риск для конфиденциальности. Системам на базе AI требуются пользовательские данные для обучения и улучшения их алгоритмов, и Duplex не является исключением. Как это будет хранить, защищать и использовать эти данные очень важно.
Появляются новые правила, которые требуют от компаний получать явное согласие пользователей, когда они хотят собирать свою информацию, но в основном они были разработаны для охвата технологий, в которых пользователи намеренно инициируют взаимодействие. Это имеет смысл для помощников AI, таких как Siri и Alexa, которые активируются пользователем. Но не ясно, как новые правила будут применяться к помощникам ИИ, которые обращаются к пользователям без срабатывания.
В своей статье Брикман подчеркивает необходимость установления нормативных гарантий, таких как законы, которые требуют от компаний декларировать присутствие агента ИИ, или закон, который, когда вы спрашиваете чат-бота, является ли он чат-ботом, должен сказать: «Да, Я чатбот ". Такие меры дадут собеседнику возможность отключиться или, по крайней мере, решить, хотят ли они взаимодействовать с системой ИИ, которая записывает их голос.
Даже с такими законами проблемы конфиденциальности не исчезнут. «Самый большой риск, который я предвижу в нынешнем воплощении этой технологии, заключается в том, что она даст Google еще больше данных о нашей частной жизни, которых у нее еще не было. До этого момента они знали только о наших онлайн-коммуникациях; теперь они получат реальное представление о наши разговоры в реальном мире », - говорит Виан Чиннер, основатель и генеральный директор Xineoh.
Недавние скандалы с конфиденциальностью, в которых участвовали крупные технологические компании, в которых они использовали данные пользователей сомнительными способами для собственной выгоды, породили чувство недоверия к тому, чтобы дать им больше окон в нашей жизни. «Люди в целом считают, что крупные компании Силиконовой долины рассматривают их как товарно-материальные запасы, а не как клиентов, и испытывают большую степень недоверия практически ко всему, что они делают, независимо от того, насколько революционным и изменяющим их жизнь это окажется», - говорит Чиннер.
Функциональные сбои
Несмотря на то, что он обладает естественным голосом и тоном и использует человеческие звуки, такие как «мммм» и «мммм», дуплекс не отличается от других современных технологий искусственного интеллекта и страдает от тех же ограничений.
Независимо от того, используется ли в качестве интерфейса голос или текст, агенты ИИ способны решать конкретные проблемы. Вот почему мы называем их «узким ИИ» (в отличие от «общего ИИ» - типа искусственного интеллекта, который может участвовать в общем решении проблем, как это делает человеческий разум). Хотя узкий ИИ может быть исключительно хорош в выполнении задач, для которых он запрограммирован, он может эффектно провалиться, если ему дан сценарий, который отличается от его проблемной области.
«Если потребитель думает, что говорит с человеком, он, скорее всего, спросит что-то, что находится за пределами нормального сценария ИИ, и получит разочаровывающий ответ, когда бот не поймет», - говорит Марш из Conversocial.
Напротив, когда человек знает, что он разговаривает с ИИ, который обучен резервировать столики в ресторане, он будет стараться избегать использования языка, который запутает ИИ и заставит его вести себя неожиданным образом, особенно если он приносит их клиент.
«Сотрудники, которые получают вызовы от дуплекса, также должны получить прямое представление о том, что это не настоящий человек. Это поможет общению между персоналом и ИИ быть более консервативным и ясным», - говорит Авилез.
По этой причине, до тех пор, пока (и если) мы не разработаем ИИ, способный работать наравне с человеческим интеллектом, в интересах самих компаний быть прозрачными в использовании ИИ.
В конце концов, часть страха перед голосовыми помощниками, такими как Duplex, вызвана тем фактом, что они являются новыми, и мы все еще привыкли сталкиваться с ними в новых условиях и случаях использования. «По крайней мере, некоторым людям кажется очень неудобной идея разговаривать с роботом, не зная его, поэтому на данный момент это, вероятно, должно быть раскрыто контрагентам в разговоре», - говорит Чиннер.
- ИИ (также) Сила добра ИИ (также) Сила добра
- Когда ИИ стирает грань между реальностью и вымыслом Когда ИИ стирает грань между реальностью и вымыслом
- Искусственный интеллект имеет проблему смещения, и это наша вина Искусственный интеллект имеет проблему смещения, и это наша ошибка
Но в конечном итоге мы привыкнем взаимодействовать с агентами ИИ, которые умнее и более способны выполнять задачи, которые ранее считались исключительной областью человеческих операторов.
«Следующему поколению будет все равно, разговаривают ли они с ИИ или человеком, когда связываются с бизнесом. Они просто хотят быстро и легко получить ответ, и они повзрослеют, обращаясь к Алексе. говорить с человеком будет гораздо сложнее, чем просто общаться с ботом », - говорит Марш из Conversocial.