Domov Podnikání Jak tato masivní struktura v oregonské poušti udržuje facebook v provozu

Jak tato masivní struktura v oregonské poušti udržuje facebook v provozu

Video: Facebook Messenger for Windows Phone (Listopad 2024)

Video: Facebook Messenger for Windows Phone (Listopad 2024)
Anonim

PRINEVILLE, Ore. - Existuje mnoho způsobů, jak zajistit rychlý internet. Mohli byste se přestěhovat do města Google Fiber. Můžete si vybrat jeden z našich nejrychlejších ISP. Nebo můžete dům postavit vedle datového centra Facebooku.

Vezměte si například první datové centrum Facebooku. Byl otevřen v Prineville v Kalifornii v roce 2011 a sloužil jako model pro všechna datová centra, která od té doby postavil gigant sociálních médií, od Švédska po Iowu. To spotřebovává tolik šířky pásma, že vyžaduje více ISP obsluhujících oblast, aby opevnili své sítě, čímž místní obyvatelé přivezli na cestu.

Datové centrum Prineville můžete spolu s dalšími zařízeními Facebooku považovat za kolektivní srdce největší sociální sítě na světě: dostávají záplavu žádostí o fotografie, aktualizace stavu a aktualizace zpravodajských zdrojů od 1, 65 miliardy aktivních uživatelů a reagovat tak rychle, jak je to možné, podobně jako srdce pumpuje kyslík do krevního řečiště.

Zařízení Prineville se blíží k pátému výročí a vyřizování žádostí o údaje o věcech, které Mark Zuckerberg pravděpodobně netušil, by Facebook udělal, když by snil o nápadu pro společnost ve své koleji v Harvardu.

Tento týden se PCMag zastavil na turné.

Prineville samozřejmě stále ukládá fotografie a aktualizace stavu, ale nyní má také tisíce GPU Nvidia podporujících výzkum umělé inteligence na Facebooku, stejně jako 2 000 telefonů iOS a Android, které testují 24 hodin denně. To pomáhá technikům společnosti zvyšovat energetickou účinnost svých aplikací, které zahrnují kromě Facebooku Instagram, Messenger a WhatsApp.

Data na Facebooku jsou „odolná, není nadbytečná“

První věc, kterou si všimnete na zařízení Prineville, je jeho pouhá velikost. Tři hodiny jízdy od Portlandu, vycházející z vysoké pouště v centru Oregonu, která není obklopena stromy, není jediná budova, ale čtyři (a to nezahrnuje další obrovské datové centrum Apple postavené nedávno přes ulici, příhodně pojmenované Connect Way). Jedna z budov na Facebooku se vejde do dvou Walmartů a je zhruba o 100 stop delší než letadlová loď třídy Nimitz.

Uvnitř jsou servery, které obsahují několik petabajtů úložiště a které inženýři Facebooku neustále inovují výměnou komponent. Ze 165 lidí, kteří pracují v datovém centru na plný úvazek, je 30 na budovu přiděleno pouze k opravě nebo výměně zdrojů napájení, procesorů, paměti a dalších komponent.

Charakteristickým znakem téměř každé společnosti, která působí na internetu, od Amazonu po Charles Schwab, je redundance: více serverů ukládajících více kopií dat. To je méně případ v Prineville, kde se Ken Patchett, ředitel západní datové operace Facebooku, místo toho zaměřuje na odolnost - zhruba definován jako schopnost být připraven kdykoli a kdekoli na světě se někdo přihlásí na Facebook.

Zaměření na „odolnost, nikoli nadbytečnost“, jak tvrdí Patchett, je možné, protože Facebook má luxus ukládání více kopií dat na svých dalších místech po celém světě, od švédské Lulea po Altoona, Iowa. Takže místo toho, aby měl dva nebo více ze všeho, může se zaměřit na nákupy strategického vybavení v každém místě, jako například mít jeden záložní generátor energie pro každých šest hlavních generátorů.

„Musíš být fiskálně zodpovědný, pokud chceš být odolný, “ vysvětlila Patchett. Je jedním ze zakladatelů high-tech datových center v Oregonské vysoké poušti. Než dorazil na Facebook, pomohl založit datové centrum v The Dalles, Ore., Pro Google, jednu z prvních internetových společností, která vydělala na levné vodní energii a chladném a suchém počasí, které charakterizují obrovskou východní část deváté největší americké Stát.

Pro fungování Facebooku je samozřejmě rozhodující dostatečná síla. Teplota serveru je regulována kombinací chladicí vody a obrovských fanoušků, kteří namísto klimatizačních jednotek pohlcujících energii a peníze nasávají suchý pouštní vzduch (níže). Cílový teplotní rozsah je mezi 60 a 82 ° Fahrenheita. Tým společnosti Patchett je tak dobrý v dosahování tohoto cíle, že společnost Prineville se nyní může pochlubit poměrem energetické účinnosti 1, 07, což znamená, že chladicí zařízení, světla a topení - cokoli, co není výpočetním zařízením - spotřebují pouhých 7 procent celkové spotřeby energie v zařízení.

32 iPhone v krabici

Většina chlazení a napájení směřuje ke splnění požadavků serverů, ale některé jsou přesměrovány do poměrně malé místnosti pro testování aplikací s důsledky pro snížení spotřeby energie nejen v Prineville, ale na každém telefonu s aplikací Facebook.

Není žádným tajemstvím, že aplikace Facebook bojovala se správou napájení. Guardian začátkem tohoto roku tvrdil, že aplikace snižuje životnost baterie v telefonech iPhone o 15 procent. Aby se aplikace zefektivnila a snížila se její spotřeba baterií, přinesla společnost do Prineville přibližně 2 000 telefonů iOS a Android, kde jsou instalovány uvnitř krabic ve skupinách po 32.

Každá skříňka má svou vlastní síť Wi-Fi, zahalenou izolovanými stěnami a měděnou páskou, kterou inženýři v ústředí v Silicon Valley používají k dodání baterie testů. Hledají „regrese“ v používání baterie a výkonu způsobené aktualizacemi aplikací Facebook, Instagram, Messenger a WhatsApp. Pokud jeden naleznou ve vlastním kódu Facebooku, opraví ho. Pokud vývojář uvedl neefektivnost, jejich systém automaticky upozorní pachatele e-mailem.

Krabice neobsahují pouze nejnovější iPhone 6 nebo Galaxy S7. Na straně iOS zahrnují mnoho modelů z iPhone 4 a novějších. Na straně Android, kdo ví? Stačí říct, že existuje jeden člověk, jehož úkolem je najít nejasná zařízení Android a přivést je do Prineville.

„Musíme získávat telefony odkudkoli, “ řekla Antoine Reversat, inženýrka, která pomohla vyvinout testovací infrastrukturu a software. Jeho konečným cílem je zdvojnásobit kapacitu stojanů, aby pojaly až 62 telefonů, a vymyslet způsob, jak snížit 20-krokový ruční postup potřebný pro konfiguraci telefonu pro testování na jeden krok. To by mělo potěšit každého, kdo někdy nechal telefon umřít, a přitom aktualizovat své zprávy.

Big Sur: AI mozek Facebooku

Na naší turné se objevily servery umělé inteligence Big Sur, které stejně jako kalifornské pobřeží, pro které jsou pojmenovány, pravděpodobně tvoří nejmalebnější část datového centra. Nemluvíme samozřejmě o zametání tichomořských průhledů, ale místo toho o obrazovce počítače, která zobrazovala to, co se zdálo jako skupina obrazů, obsadil Ian Buck, viceprezident Nvidia pro zrychlené práce s počítačem.

„Vycvičili jsme neuronovou síť, aby rozpoznávala obrazy, “ vysvětlil Buck. "Asi po půl hodině pohledu na obrazy je možné začít vytvářet vlastní."

Ty, které byly vystaveny, připomínaly francouzský impresionismus z 19. století, ale s obratem. Pokud chcete kombinaci ovocného zátiší a říční krajiny, Big Sur to pro vás namaluje ohýbáním jeho 40 petaflop výpočetní síly na server. Je to jeden z několika systémů AI, které používají GPU Nvidia - v tomto případě procesory Tesla M40 na bázi PCI.e - k řešení složitých problémů strojového učení. Projekt zdravotní péče společnosti DeepMind společnosti Google využívá také procesory společnosti Nvidia.

Facebook používá Big Sur ke čtení příběhů, identifikaci obličejů na fotografiích, zodpovídání otázek o scénách, hraní her a učení se rutin mimo jiné úkoly. Je to také open-sourcing softwaru, který nabízí dalším vývojářům plán, jak nastavit vlastní infrastrukturu specifickou pro AI. Hardware zahrnuje osm desek GPU Tesla M40 až do 33 wattů. Všechny komponenty jsou snadno dostupné v zásuvce serveru, aby se zvýšila snadnost upgradů, které určitě přijde, když Nvidia vydá nové verze GPI Tesla GPI včetně PCI, včetně vlajkové lodi P100.

Chladírna pro zapomenuté fotografie

Protože je Prineville prvním datovým centrem Facebooku, má tendenci být místem, kde inženýři testují nápady, jak zefektivnit servery Facebooku. Jedním z nejnovějších nápadů je chladírna nebo vyhrazené servery, které ukládají na Facebook cokoli, co nezískává mnoho názorů - například vaše fotografie z promoakce na střední škole nebo desítky aktualizací stavu, které jste zveřejnili, když Michael Jackson zemřel v roce 2009.

Tajemstvím úspěchu chladicího skladu jsou jeho různé úrovně. První úroveň je tvořena vysoce výkonným podnikovým hardwarem, zatímco nižší úrovně používají levnější komponenty a v některých případech - snad pro ty vaše fotografie se závorkami, které doufáte, že nikdo nikdy nevidí - záložní páskové knihovny. Konečným výsledkem je, že každý stojan pro chladicí úložný server pojme 2 petabajty úložiště nebo ekvivalent 4 000 hromádek haléřů, které sahají až k měsíci.

Budování pro budoucnost

Ačkoli Facebook přinesl Prineville rychlejší internet a další výhody, včetně více než milionu dolarů na dary místním školám a charitativním organizacím, jeho přítomnost není bez kontroverze. Oregon se vzdává spoustě peněz v daňových úlevách společnosti v době, kdy místní ekonomika, stále navíjející se z bubliny na bydlení z roku 2008, sleduje národní průměr.

Přesto by 1, 65 miliard lidí nemělo přístup na Facebook bez této pouštní základny a jejích sesterských datových center. A i když dotváří dokončení své čtvrté budovy Prineville, společnost je na dobré cestě k dokončení pátého centra v Texasu. Ale pokud se tak cítíte provinile za energii, kterou vaše prohlížení na Facebooku spotřebovává, nemělo by to. Podle Patchetta, jediný uživatel, který prochází Facebook po celý rok, spotřebovává méně energie, než je nutné k vytvoření latte. Jinými slovy, můžete se vzdát pouze jedné cesty do Starbucks a procházet svůj zpravodajský kanál k obsahu vašeho srdce.

Jak tato masivní struktura v oregonské poušti udržuje facebook v provozu