Видео: Dame Tu cosita ñ (Ноябрь 2024)
ПРИНВИЛЛ, Руда. Есть много способов убедиться, что у вас быстрый Интернет. Вы можете перейти в город Google Fiber. Вы можете выбрать одного из наших самых быстрых интернет-провайдеров. Или вы можете построить свой дом рядом с дата-центром Facebook.
Возьмите, например, первый дата-центр Facebook. Открытый в Приневилле, штат Орегон, в 2011 году, он послужил образцом для каждого дата-центра, который с тех пор построил гигант социальных сетей, от Швеции до Айовы. Он потребляет настолько большую пропускную способность, что требует, чтобы несколько провайдеров, обслуживающих этот район, укрепляли свои сети, привлекая местных жителей для поездки.
Можно подумать, что дата-центр Prineville вместе с другими объектами Facebook является коллективным сердцем крупнейшей в мире социальной сети: они получают множество запросов фотографий, обновлений статуса и обновлений новостной ленты от 1, 65 миллиарда активных пользователей сайта и реагируйте как можно быстрее, подобно сердцу, перекачивающему кислород в кровоток.
Предприятие в Приневилле приближается к своей пятой годовщине и обрабатывает запросы данных о вещах, о которых Марк Цукерберг, вероятно, даже не подозревал, что Facebook будет делать, когда он придумывает идею для компании в своей комнате в общежитии Гарварда.
На этой неделе PCMag зашел в тур.
Конечно, Prineville до сих пор хранит фотографии и обновления статуса, но теперь у него также есть тысячи графических процессоров Nvidia, поддерживающих исследования искусственного интеллекта Facebook, а также 2000 телефонов iOS и Android, которые проводят тесты 24 часа в сутки. Это помогает инженерам компании повысить энергоэффективность своих приложений, включая Instagram, Messenger и WhatsApp, а также Facebook.
Данные Facebook «устойчивы, а не избыточны»
Первое, что вы обратите внимание на объект в Приневилле, это его размер. В трех часах езды от Портленда, возвышающемся из усыпанной деревьями высокой пустыни центрального Орегона, находится не одно здание, а четыре (и в него не входит еще один огромный дата-центр Apple, недавно построенный через дорогу, метко названный Connect Way). Одно из зданий Facebook может вместить два Walmarts внутри, и примерно на 100 футов длиннее, чем авианосец класса Nimitz.
Внутри находятся серверы с несколькими петабайтами памяти, которые инженеры Facebook постоянно обновляют, заменяя компоненты. Из 165 человек, работающих полный рабочий день в центре обработки данных, 30 на здание назначаются только для обслуживания или замены блоков питания, процессоров, памяти и других компонентов.
Отличительной чертой практически любой компании, которая работает в Интернете, от Amazon до Charles Schwab, является избыточность: несколько серверов хранят несколько копий данных. Это менее справедливо в случае с Prineville, где Кен Патчетт, директор Facebook по западным операциям с данными, вместо этого сосредоточен на отказоустойчивости - грубо говоря, это способность быть готовым всякий раз, когда и где угодно в мире кто-то входит в Facebook.
Сосредоточиться на «устойчивости, а не избыточности», по словам Патчетта, возможно, потому что Facebook может позволить себе хранить несколько копий данных в других местах по всему миру, от Лулео, Швеция, до Алтуны, Айова. Таким образом, вместо того, чтобы иметь два или более из всего, он может сосредоточиться на закупках стратегического оборудования в каждом месте, например, иметь один резервный генератор на каждые шесть основных генераторов.
«Вы должны быть финансово ответственны, если вы собираетесь быть гибкими», объяснил Патчетт. Он один из основателей высокотехнологичных центров обработки данных в высокой пустыне Орегона. До того, как он прибыл в Facebook, он помог основать дата-центр в Даллесе, штат Орегон, для Google, одной из первых интернет-компаний, которая извлекла выгоду из дешевой гидроэлектростанции и прохладной сухой погоды, которые характеризуют обширную восточную часть девятого по величине в Америке государство.
Обильная сила, конечно, имеет решающее значение для работы Facebook. Температура сервера регулируется комбинацией водяного охладителя и огромных вентиляторов, втягивающих сухой пустынный воздух (внизу) вместо энергосберегающих и поглощающих деньги кондиционеров. Диапазон целевых температур составляет от 60 до 82 градусов по Фаренгейту. Команда Пэтчетта настолько преуспела в достижении этой цели, что Prineville теперь может похвастаться коэффициентом энергоэффективности 1, 07, что означает, что охлаждающее оборудование, освещение и нагреватели - все, что не является вычислительным устройством - потребляют всего 7 процентов от общего потребления энергии на объекте.,
32 айфона в коробке
Большая часть охлаждения и энергопотребления идет на удовлетворение потребностей серверов, но часть отводится в сравнительно небольшую комнату для тестирования приложений с последствиями для снижения энергопотребления не только в Prineville, но и на каждом телефоне с приложением Facebook.
Не секрет, что приложение Facebook боролось с управлением питанием. Ранее в этом году Guardian заявил, что приложение сокращает время автономной работы на iPhone на 15 процентов. Чтобы упростить приложение и снизить его расход батареи, компания привезла около 2000 телефонов на базе iOS и Android в Prineville, где они установлены внутри коробок группами по 32 человека.
Каждая коробка имеет свою собственную сеть Wi-Fi, окруженную изолированными стенами и медной лентой, которую инженеры из штаб-квартиры в Силиконовой долине используют для проведения ряда испытаний. Они ищут "регрессию" в использовании батареи и производительности, вызванную обновлениями приложений Facebook, Instagram, Messenger и WhatsApp. Если они находят один в собственном коде Facebook, они исправляют это. Если разработчик ввел неэффективность, их система автоматически уведомляет нарушителя по электронной почте.
Коробки не только содержат последние iPhone 6s или Galaxy S7. Со стороны iOS они включают много моделей от iPhone 4s и позже. На стороне Android кто знает? Достаточно сказать, что есть один парень, чья работа состоит в том, чтобы находить неясные устройства Android и доставлять их в Приневилль.
«Мы должны получать телефоны отовсюду», - сказал Антуан Реверсат, инженер, который помогал в разработке инфраструктуры тестирования и программного обеспечения. Его конечная цель - удвоить емкость стоек для размещения до 62 телефонов каждый и найти способ сократить 20-шаговую ручную процедуру, необходимую для настройки телефона для тестирования, до одного шага. Это должно успокоить любого, кто когда-либо умирал, когда обновлял свою новостную ленту.
Big Sur: искусственный интеллект Facebook
Далее в нашем туре были серверы искусственного интеллекта Big Sur, которые, как и калифорнийская береговая линия, для которой они названы, возможно, составляют самую живописную часть центра обработки данных. Разумеется, речь идет не о широких перспективах Pacific, а о компьютерном экране, на котором была изображена группа картин, созданная Ианом Баком, вице-президентом Nvidia по ускоренным вычислениям.
«Мы обучили нейронную сеть распознавать картины», - пояснил Бак. «Примерно через полчаса просмотра картин можно начать создавать свои собственные».
Представленные экспонаты напоминали французский импрессионизм 19-го века, но с изюминкой. Если вы хотите сочетание фруктового натюрморта и речного пейзажа, Big Sur раскрасит его для вас, используя 40 петафлопс вычислительной мощности на сервер. Это одна из нескольких систем ИИ, использующих графические процессоры Nvidia, в данном случае процессоры Tesla M40 на базе PCI.e, для решения сложных задач машинного обучения. Проект Google DeepMind в области здравоохранения также использует процессоры Nvidia.
Facebook использует Big Sur, чтобы читать истории, идентифицировать лица на фотографиях, отвечать на вопросы о сценах, играть в игры и изучать рутины, среди других задач. Это также программное обеспечение с открытым исходным кодом, предлагающее другим разработчикам план по настройке собственной инфраструктуры, специфичной для ИИ. Аппаратное обеспечение включает восемь графических плат Tesla M40 мощностью до 33 Вт каждая. Все компоненты легко доступны в серверном ящике, чтобы упростить обновление, которое обязательно произойдет, когда Nvidia выпустит новые версии PCI.e своих графических процессоров Tesla, включая флагман P100.
Холодное хранилище для забытых фотографий
Поскольку Prineville является первым дата-центром Facebook, именно здесь инженеры проверяют идеи, чтобы сделать серверы Facebook более эффективными. Одна из последних идей - это «холодное хранение» или выделенные серверы, которые хранят в Facebook что-либо, что не имеет большого количества просмотров - например, фотографии с выпускных вечеров в старшей школе или десятки обновлений статуса, которые вы опубликовали, когда Майкл Джексон умер в 2009 году, Секрет успеха хранения в холодильнике - его многоуровневость. Первый уровень состоит из высокопроизводительного корпоративного оборудования, в то время как нижние уровни используют более дешевые компоненты, а в некоторых случаях - возможно, для тех ваших фотографий с фигурными скобками, которые, как вы надеетесь, никто никогда не увидит, - резервируют ленточные библиотеки. Конечным результатом является то, что каждая стойка сервера холодного хранения может содержать 2 петабайта памяти или эквивалент 4000 стеков копеек, которые доходят до Луны.
Строим для будущего
Хотя Facebook принес более быстрый Интернет и другие преимущества для Prineville, в том числе более 1 миллиона долларов в виде пожертвований местным школам и благотворительным организациям, его присутствие не обошлось без противоречий. Орегон отдает много денег в виде налоговых льгот компании в то время, когда местная экономика, все еще не оправившись от жилищного пузыря 2008 года, отстает от среднего уровня по стране.
Тем не менее, 1, 65 миллиарда человек не имели бы доступа к Facebook без этой заставы в пустыне и ее родственных центров обработки данных. И хотя он вносит последние штрихи в свое четвертое здание в Приневилле, компания находится на пути к завершению строительства пятого центра в Техасе. Но если это заставляет вас чувствовать себя виноватым из-за энергии, которую потребляет ваш браузер Facebook, это не должно происходить. По словам Патчетта, один пользователь, просматривающий Facebook в течение всего года, потребляет меньше энергии, чем требуется для приготовления латте. Другими словами, вы можете отказаться от всего одной поездки в Starbucks и прокрутить новостную ленту до своего сердца.