Дом Перспективное мышление Тензорные процессоры Google меняют правила машинного обучения

Тензорные процессоры Google меняют правила машинного обучения

Видео: Настя и сборник весёлых историй (Октября 2024)

Видео: Настя и сборник весёлых историй (Октября 2024)
Anonim

Одно из самых интересных и неожиданных заявлений, сделанных Google на прошлой неделе на конференции разработчиков I / O, заключалось в том, что она разработала и внедрила собственные чипы для машинного обучения. В своем выступлении генеральный директор Google Сундар Пичаи представил то, что он назвал Tensor Processing Units (TPU), заявив, что компания использовала их в своих машинах AlphaGo, победив чемпиона Go Ли Седола.

«Производительность TPU на порядок выше производительности на ватт, чем у коммерческих FPGA и GPU», - сказал Пичаи. Хотя он не дал много подробностей, выдающийся инженер Google Норм Джуппи (Norm Jouppi) объяснил в своем блоге, что TPU является специализированной интегральной схемой (ASIC). Другими словами, это чип, специально разработанный для машинного обучения и специально разработанный для TensorFlow, системы машинного обучения Google.

Образ

В своем посте Джуппи сказал, что он «более терпим» в отношении пониженной точности вычислений, что означает, что для каждой операции требуется меньше транзисторов. Это позволяет Google получать больше операций в секунду, позволяя пользователям быстрее получать результаты. Он сказал, что плата с TPU вставляется в слот жесткого диска в стойках для центров обработки данных, и показал изображение серверных стоек, заполненных TPU, которые, по его словам, использовались на машинах AlphaGo компании.

Кроме того, Джуппи сказал, что TPU уже работают над рядом приложений в Google, включая RankBrain, которые используются для повышения релевантности результатов поиска, и Street View, чтобы повысить точность и качество карт и навигации.

На пресс-конференции вице-президент Google по технической инфраструктуре Урс Хёльцле подтвердил, что TPU работает с использованием 8-разрядной целочисленной математики вместо математики с плавающей запятой с более высокой точностью, для которой предназначены большинство современных процессоров и графических процессоров. Большинство алгоритмов машинного обучения прекрасно справляются с данными с более низким разрешением, что означает, что чип может обрабатывать больше операций в заданной области и эффективно решать более сложные модели. Это не новая идея: модуль Nvidia Drive PX 2, анонсированный ранее в этом году на CES, способен к 8 терафлопсам с 32-битной точностью с плавающей запятой, но достигает 24 глубинных «тераопов» (термин компании для 8 -битное целое число по математике).

Хотя Хёльцле отказался вдаваться в подробности, в отчетах говорится, что он подтвердил, что Google сегодня использует как TPU, так и GPU. Он сказал, что это будет продолжаться в течение некоторого времени, но предположил, что Google рассматривает графические процессоры как слишком общие, предпочитая чип, более оптимизированный для машинного обучения. Он сказал, что компания выпустит документ, описывающий преимущества чипа, но пояснил, что они предназначены только для внутреннего использования, а не для продажи другим компаниям. Другое приложение, которое он описал, использовало чипы для обработки части вычислений за механизмом распознавания голоса, используемым на телефоне Android.

Выбор использования ASIC - интересная ставка от Google. Самым большим прогрессом в машинном обучении за последние годы - технология, стоящая за большим толчком для глубоких нейронных сетей - стало использование графических процессоров, в частности линейки Nvidia Tesla, для обучения этих моделей. Совсем недавно Intel приобрела Altera, ведущего производителя FPGA (программируемых полевых вентильных массивов), которые находятся где-то посередине; они не так универсальны, как графические процессоры или специально предназначены для TensorFlow, как чип Google, но могут быть запрограммированы для выполнения различных задач. Microsoft экспериментирует с ПЛИС Altera для глубокого изучения. IBM разрабатывает свой нейросинаптический чип TrueNorth, разработанный специально для нейронных сетей, который недавно начал использоваться в различных приложениях. Cadence (Tensilica), Freescale и Synopsys продвигают свои DSP (процессоры цифрового сигнала) для запуска этих моделей; Mobileye и NXP недавно анонсировали чипы, разработанные специально для ADAS и легковых автомобилей; и несколько небольших компаний, включая Movidius и Nervana, объявили о планах по выпуску чипов, специально предназначенных для ИИ.

Еще слишком рано знать, какой подход будет наилучшим в долгосрочной перспективе, но наличие некоторых очень разных вариантов означает, что мы, вероятно, увидим интересную конкуренцию в ближайшие несколько лет.

Тензорные процессоры Google меняют правила машинного обучения