Hvordan hyperskala datacentre omformer al it

  • Sep 04, 2023

I en verden, hvor teknologi og miniaturisering ofte betragtes som BFF'er, finder de vigtigste innovationer i det 21. århundrede sted i faciliteter, der kan ses fra rummet.

Se også

  • Internet of Things: Fremskridt, risici og muligheder (gratis PDF)

Udtrykket "datacenter" er, lige i begyndelsen, en formodning. Det minder om en æra, hvor en virksomheds back-office informationssystemer for det meste var afsat til datalagring og blev flettet sammen i én kælder eller et skabssted. "Infrastruktur", som et kloaksystem eller et fundament af en motorvej under hullerne, var noget, ingen skulle se eller være opmærksom på.

I dag er alle disse antagelser blevet omstødt. En virksomheds it-infrastruktur består af computerkraft og tilslutningsmuligheder ud over datalagring. Og ligesom virksomheden selv har den en naturlig tendens til at blive distribueret.

Inde i Facebooks Fort Worth datacenterkompleks.

(Billede: Chad M. Davis for Facebook)

Et hyperskaleret datacenter er mindre som et lager og mere som et distributionshub, eller hvad detailsiden af ​​Amazon ville kalde et "opfyldelsescenter". Selvom disse faciliteter i dag er meget store og drives af meget store tjenesteudbydere, handler hyperskala faktisk ikke om storhed, men snarere skalerbarhed.

Forestil dig et øjeblik en fabrik, hvor hver komponent, der er involveret i fremstillingen af ​​et produkt, inklusive transportbåndet, der bringer delene på samlebåndet, blev modulopbygget til et lille område. Du læste dette rigtigt: et lille område. Forestil dig nu, at funktionaliteten af ​​dette modul bliver så effektiv og så pålidelig, at du kan øge dit udbytte eksponentielt blot ved at forbinde flere af disse moduler sammen i en lineær række. Eller en gård, hvor du, hvis du fordobler dit areal, mere end fordobler dit udbytte.

Hyperscale er automatisering anvendt til en industri, der skulle handle om automatisering til at begynde med. Det handler om organisationer, der tilfældigvis er store, griber dagen og tager kontrol over alle aspekter af deres produktion. Men det handler også om formidling af hyperskaleringspraksis i alle datacenterbygninger -- ikke bare eBays og Amazons i verden, men de mindre spillere, de små fyre, folkene nede gade. Du ved, hvem jeg henviser til: medicinalvirksomheder, finansielle servicevirksomheder og telekommunikationsudbydere.

En leverandør i datacenterudstyrsområdet kaldte for nylig hyperskala "for stor til, at de fleste hjerner kan forestille sig." Skalerbarhed har altid handlet om at skabe muligheder for at gøre små ting ved hjælp af ressourcer, der tilfældigvis omfatter en meget stor vægt.

Skal læses:

  • Datacentre: Fremtiden er software-defineret
  • Har hyperskala, vil rejse: Hvordan den næste datacenterrevolution starter i et værktøjsskur

Hvad betyder "hyper" og "skala"-delene?

Specifikt opnår et hyperskala datacenter følgende:

  • Maksimerer køleeffektiviteten. Den største driftsudgift i de fleste datacentre verden over - mere end at drive serverne - er at forsyne klimakontrolsystemerne. En hyperskalastruktur kan opdeles for at opdele højintensive computerarbejdsbelastninger og koncentrere kølekraften på de servere, der hoster disse arbejdsbelastninger. Til generelle arbejdsbelastninger optimerer en hyperskalaarkitektur luftstrømmen gennem hele strukturen og sikrer, at varm luft flyder i én retning (selvom det er en serpentin) og genvinder ofte varmen fra den udstødningsstrøm til genbrug formål.
  • Tildeler elektrisk strøm i diskrete pakker. I faciliteter designet til at blive besat af flere lejere, er "blokke" tildelt som grunde i et boligbyggeri. Her tildeles de stativer, der optager disse blokke, et bestemt antal kilowatt - eller for nylig, fraktioner af megawatt - fra hovedstrømforsyningen. Når en lejer lejer plads fra en samlokaliseringsudbyder, er denne plads ofte ikke formuleret i form af antal stativer eller kvadratmeter, men kilowatt. Et design, der er mere påvirket af hyperskala, hjælper med at sikre, at kilowatt er tilgængelig, når en kunde har brug for dem.
  • Sikrer elektricitet tilgængelighed. Mange virksomhedsdatacentre er udstyret med redundante strømkilder (ingeniører kalder denne konfiguration 2N), ofte bakket op af en sekundær kilde eller generator (2N + 1). En hyperskala-facilitet kan også bruge en af ​​disse konfigurationer, selvom arbejdsbelastningsstyringssystemer i de senere år har gjorde det muligt at replikere arbejdsbelastninger på tværs af servere, hvilket gjorde arbejdsbelastningerne overflødige i stedet for strømmen, hvilket reducerede elektriske omkostninger. Som følge heraf kræver nyere datacentre ikke al den strømredundans. De kan slippe af sted med kun N + 1, hvilket sparer ikke kun udstyrsomkostninger, men også byggeomkostninger.
  • Balancerer arbejdsbelastninger på tværs af servere. Fordi varme har en tendens til at sprede sig, kan en overophedet server nemt blive til gene for de andre servere og netværksudstyr i dens nærhed. Når arbejdsbelastninger og processorudnyttelse overvåges korrekt, kan de virtuelle maskiner og/eller containere, der rummer højintensive arbejdsbelastninger flyttet til eller fordelt blandt processorer, der er bedre egnede til dets funktioner, eller som simpelthen ikke bliver brugt nær så meget på øjeblik. Jævn fordeling af arbejdsbelastninger korrelerer direkte med temperaturreduktion, så hvordan et datacenter administrerer sin software er lige så vigtigt som hvordan det vedligeholder sine supportsystemer.

Hvor stor er "stor?"

Inde i Facebooks Fort Worth datacenterkompleks

(Billede: Chad M. Davis for Facebook)

Det, der gør et stort anlæg til hyperskalering, er ikke dets størrelse, men snarere hvordan dets design gør det muligt for lejerne at udnytte sine ressourcer optimalt inden for den størrelse. AFCOM, foreningen for datacenterprofessionelle, har udviklet en metrik til at skelne mellem klasser af datacenterfaciliteter. Det tæller antallet af stativer, som anlægget er vært for, og også antallet af kvadratfod (eller kvadratmeter), der kun er afsat til IT-komponenter (dets "hvide rum"). Den matcher derefter begge tal mod diagrammet nedenfor og vælger metrisk navn for tallet på den højeste række. For eksempel vil et anlæg med 120 stativer i 6.000 kvadratfod hvidt rum blive betragtet som "Medium", da 6.000 falder inden for det højeste område.

(Billede: Courtesy AFCOM)

Udvalgte

  • Er Windows 10 for populær til sit eget bedste?
  • 5 måder at finde det bedste sted at starte din karriere på
  • Sådan vil generativ AI ændre koncertøkonomien til det bedre
  • 3 grunde til, at jeg foretrækker denne $300 Android frem for Googles Pixel 6a

For at give dig et benchmark var detailbranchens 2017-estimat af den gennemsnitlige gulvplads for aktive amerikanske supermarkeder omkring 47.000 kvadratfod.

Hvis du nogensinde har set eller deltaget i opførelsen af ​​et supermarked, ved du, at hele pointen med at bygge en større detailfacilitet er at udnytte så mange effektivitetsgevinster som muligt for at maksimere rentabilitet. Det er bestemt ikke billigere at bygge, strømforsyne, køle eller opvarme en stor bygning, men alle disse omkostninger kan være lavere pr. kvadratfod eller kubikfod. De bliver dog ikke lavere, hvis bygningen ikke er bygget med effektivitet og bedste praksis på plads. Med andre ord, hvis du gør bygningen større bare for at blive større, gør du ikke god brug af nogen af ​​de medfødte stordriftsfordele, som en større formfaktor tilbyder.

En fabrik fungerer på samme måde. Hvis du designer et større fabriksareal med effektivitet i tankerne, vil disse effektivitetsgevinster udmønte sig i lavere driftsomkostninger og større rentabilitet for alt, der produceres der.

Et datacenter er en informationsfabrik. Det producerer alle de ressourcer og funktionalitet, som du bruger på den modsatte side af internetforbindelsen fra din browser eller smartphone-app.

Synergy Research Group, som analyserer virksomhederne inden for datacenterserviceområdet, definerer et hyperskala datacenter som et stort kompleks (mindst) der drives af en "hyperscale-udbyder". Med det mener firmaet en organisation, der administrerer sine store faciliteter ved hjælp af de nævnte hyperskalaprincipper over. I januar sidste år anslog firmaet, at verden i slutningen af ​​sidste år havde i alt 430 hyperskala faciliteter, hvoraf omkring 40 procent var placeret i USA.

En kunstners forestilling om bygning 3 af Facebooks Fort Worth-datacenter, når den er færdig.

(Billede: Courtesy Facebook)

Her er selve modellen af ​​et moderne hyperskala datacenter: Beliggende i Fort Worth, Texas-området og officielt åbnet i maj 2017, Facebooks femte hyperscale-faciliteten inkluderer nu den H-formede bygning 3, som er blevet skabelonen for flere byggeprojekter på 10 på hinanden følgende faciliteter i hele verden. Når det er færdigt i midten af ​​2020, vil komplekset ifølge nuværende skøn omfatte fem bygninger med et samlet kollektivt rum, der skulle formørke 2,5 millioner kvadratmeter.

Selvom Facebook ikke har givet et officielt skøn, har journalister, der taler med ingeniører, samlet sig at denne bygning alene strækker sig over 450.000 i alt kvadratfod, hvilket absolut kvalificerer sig som en AFCOM "Mega" anlæg. Selvfølgelig er en brøkdel af den plads til IT-udstyr (white space), mens en anden del er til strøm og support, og centerleddet er kontorlokaler.

Inden for hver søjle af "H" er modulære kombinationer af hovedfordelingsrammer (MDF), også kaldet datahaller. Disse moduler strækker sig i to retninger fra bygningsfordelingsrammen (BDF) i midten og stables på hinanden som sideværts byggeklodser. BDF'en indeholder telekommunikationskablerne, der forbinder disse datahaller med omverdenen.

Standardlayoutet for et segment af "H"et i et Facebook-datacenter i hyperskala.

(Billede: Courtesy Facebook)

Allerede nu kan du se det egentlige formål med hyperskalaarkitektur: At gøre det muligt at administrere fysisk rum, og de fysiske systemer, der bebor det rum, med de samme niveauer af effektivitet og automatisering afsat til styring software.

Skal læses:

  • Facebooks næste generation af datacenternetværk debuterer i Altoona, Iowa

Facebook specificerer hyperskala og omdefinerer datacentret

På ethvert marked er den forbruger, der er i stand til at købe engros, normalt i løs vægt, ofte den, der har den største købekraft. Facebook, Google, Amazon, eBay og Microsoft er anerkendt som de organisationer, der har installeret flest - og i nogle forstand de største - hyperskala datacentre.

Alligevel har Facebook været den mest højlydte og mest selvhævdende kraft til at etablere retningslinjer for, hvad hyperskala skal være, i håb om, at andre vil følge dens spor og hjælpe med at reducere omkostningerne. I 2014 Facebook offentliggjorde sine specifikationer for arkitekturen af ​​de datacentre, det bygger, og samlingen af ​​dets it-udstyr. Den fortalte verden, hvad den køber og hvorfor, så producenterne kunne gå i gang med at bygge den.

Selvom Facebook afholder sig fra at påberåbe sig ordet "hyperscale", er der mange udstyrsleverandører, der foregiver at tilbyde komponenter til hyperskala datacentre, behandle Facebooks erklæring som deres officielle definition. Sådan fungerer Facebooks hyperskala-stof:

  • Netværksswitches er lagdelte og adskilte. Facebooks primære netværksbyggesten er en pod, som erstatter klyngen i typiske konfigurationer. Størrelsen på en pod er begrænset til 48 serverracks -- hverken mere eller mindre -- med hvert rack udstyret med sit sædvanlige top-of-rack switch (TOR), men med alle 48 switche betjenes på skift af 4 enheder på øverste niveau kaldet stof skifter. Det er stoffet, der sikrer, at hver server i poden er ligeligt og redundant forbundet med hele netværket. Dette gør det igen muligt for et ledelsessystem at dirigere arbejdsbelastninger til de servere, der passer bedst til dem.

Et 3D-diagram over Facebooks hyperskala netværkstopologi.

(Billede: Courtesy Facebook)
  • Netværkspods er krydsforbundne. Hver stofafbryder er nummereret (1, 2, 3, 4), og hvert nummer svarer til et højere niveau af kontakter, der danner det, Facebook kalder et rygplan. Her forbindes hver rygsøjlekontakt til 48 stofkontakter - igen, hverken mere eller mindre. Det er denne absolut faste karakter af switch-arrangementet, som sikrer, at intet enkelt punkt i netværket er "overtegnet" - at båndbredden af ​​trafik, der kommer ind er aldrig større end for trafikken, der går ud -- medmindre det administrative system opfatter et kortsigtet behov for en sådan ordning og kan forberede stoffet hensigtsmæssigt.
  • Bygningskonstruktionen og layoutet er baseret på pods. Når datacenteret er bygget, er den fysiske understøttelse af alle netværkskabler og strømforbindelser som pods kræver – såvel som pods, der endnu kan være konstrueret på et senere tidspunkt – er indbygget i BDF. Så et hyperskalaanlæg er en specialbygget komponent i et globalt netværk, som en elektronisk enhed, der tilfældigvis fylder mere end 100.000 kvadratmeter.
  • En server er en server er en server. Inden for dette stof er hver server en blotbenet, forbrugsklods. Som en harddisk i et RAID-array forventes det at fejle, og ingen server er mere speciel end en anden. Når den fejler, eller endda når dens ydeevne falder under pari, bliver den taget offline og udskiftet.

Så hvis en pod har præcis 48 stofafbrydere, og en rygsøjle har præcis 48 af sine egne switche, spørger du måske dig selv, hvor skal denne meget fremhævede skalerbarhed være? Det handler om, hvordan ressourcerne i denne stive, homogeniserede infrastruktur udnyttes.

Hvorfor datacenterautomatisering er ligesom klimaændringer

I et typisk virksomhedsdatacenter eksisterer udstyr, der er 10 år gammelt eller endnu ældre, sammen med friske komponenter fra fabriksgulvet. Som et resultat har dets netværkstopologi en tendens til at opnå en vis "tekstur", hvor nogle segmenter klarer sig bedre end andre.

Læs Har hyperskala, vil rejse: Hvordan den næste datacenterrevolution starter i et værktøjsskur -- den første udgave af ZDNet Scale af Scott Fulton

Dette kan virke som et ikke-relateret emne, men det er det ikke rigtigt: Vores planets klima er lige så vægelsindet, som det er, fordi små ændringer i en del af økosystemet kan have en kaskadende indvirkning på resten af ​​det. En reduktion af ozonlaget på grund af kemiske forurenende stoffer vil således få solen til at opvarme havene i højere grad, hvilket ændrer luftstrømmenes retning og forårsager mere turbulente storme. Virkningerne af nedadgående luft fra Canada og stigende luft fra Den Mexicanske Golf forstørres.

Hvis en datacentertopologi er som overfladen af ​​vores planet, så kan små ændringer i ét aspekt have kaskadeeffekter i hele anlægget. Så hvis visse processorer ser ud til at præstere bedre end andre, for eksempel, kan arbejdsbyrdeorganisatorer foretrække dem frem for processorerne på andre servere. Som et resultat bliver serverne med de foretrukne processorer hurtigere varmere. Luftstrømme i anlægget ændrer sig, da udstødt varmere luft kan blive fanget i lommer, hvor luften ikke cirkulerer så meget. Ironisk nok påvirker disse lokale temperaturstigninger de underudnyttede servere, hvilket gør det sværere for dem at behandle data og udlede varme.

Facebook er blandt de få organisationer, der har købekraften til at specificere præcis, hvordan dens data centre er bygget, konstrueret og drevet, helt ned til den cementkvalitet, der bruges i deres fundamenter.

Men ved at offentliggøre disse specifikationer udnyttede Facebook sin magt som et top-of-mind, globalt anerkendt brand til at sætte reglerne for en hele teknologimarkedet -- et som udelukkende er rettet mod hyperskala datacenteret, og et som ikke vil være eksklusivt til Facebook. På dette marked, hvis du er nogen form for udstyrsleverandør (servere, strømmoduler, netværkskabler, blankingpaneler, gulv fliser, ildslukkere) så må dit udstyr hellere være produceret efter disse specifikationer, ellers risikerer du at blive ignoreret.

Skal læses:

  • Top cloud-udbydere 2019: AWS, Microsoft Azure, Google Cloud; IBM foretager hybride bevægelser; Salesforce dominerer SaaS

Hyperskalering på serverniveau

Det er her, Facebooks magt til at definere markedet, eller i det mindste lede definitionen af ​​det, påvirker den digitale teknologi som helhed. Ikke kun specificerede Facebook arkitekturen og komponenterne til et hyperskala datacenter, men ved at stå i spidsen for oprettelsen af Open Compute Project (OCP), fremsatte den et nyt sæt regler for hyperskala servere -- arbejdshestene i store datacentre overalt.

Husk at Facebook ikke hævede barren for datacenterlederes forventninger. Faktisk var det i det væsentlige meningen at sænke barren. Mens producenter som Dell, HPE, Lenovo og IBM markedsførte deres top-of-line, state-of-the-art systemer som skræddersyet til de mest intensive applikationer - som enterprise-grade supercomputere -- OCP re-cast servere som bit-afspillere i et massivt ensemble. "White box"-servere, som de stadig kaldes, er så udprægede, at det kan diskuteres, at de ikke fortjener mærkenavne.

På det tidspunkt, hvor OCP blev grundlagt, så det ud til, at ingen af ​​disse producenter havde råd til at miste selv en af ​​disse hyperskalaoperatører som sin kunde. Et sådant tab ville udgøre en målbar procentdel af dets omsætning og til gengæld afspejle dets lagerværdi negativt. På den anden side indvilliger man i Facebooks centrale, underforståede argument - at bulk-servere er mere omkostningseffektiv i stor skala -- satte spørgsmålstegn ved disse producenters hele serverværdiforslag for almindelig virksomhed. Hvis en PowerEdge, ProLiant, ThinkSystem eller Power Server kun er et tandhjul i et massivt hjul, hvad ville det så betyde, hvis det var det bedste tandhjul i hele rotationen? Hvor er investeringsafkastet for en præmie, der ikke kan måles?

Et fingerpeg om et svar kommer fra eBay. I 2013 indgik e-handels- og auktionstjenesten en partnerskabsaftale med Dell, hvilket gør det til eBays foretrukne producent af det, der blev kaldt "densitetsoptimerede servere" til eBays hyperskalafaciliteter.

EBays egne brandede servere, der opererer i sit eget datacenter.

(Billede: Courtesy eBay)

Sidste september hævdede imidlertid det presserende behov for at "re-platforme vores infrastruktur" for at muliggøre mere detaljeret arbejdsbelastningsstyring ved hjælp af open source-værktøjer, eBay lavede en U-vending, vælger at være sin egen serverdesigner fra det tidspunkt frem. Nu, som en del af en tre-årig eftersynsplan, implementerer virksomheden sine egne white box-servere, formentlig den eneste tilpassede del er eBays frontplader.

Allerede i 2014 Datacenterviden konstateret at omkostningsforskellene mellem OCP-kompatible white box-servere og de varemærkekomponenter, de ville erstatte, var blive opfattet af virksomheder som ikke nok til at berettige at ofre de tillidsforhold, de har til deres nuværende leverandører. Nu følger eBay Facebooks føring, designer meget standardiserede servere, der passer til deres hyperskalabehov, og outsourcer deres produktion til en original designproducent (ODM). Åbenbart anerkender eBay endnu yderligere omkostningsbesparelser ved at udnytte sin magt som en hyperskala tjenesteudbyder til at implementere sin egen arkitektur i mikroskala såvel som makroskala.

Men det er et niveau af forhandlingsstyrke, der simpelthen ikke nedskaleres. Få virksomhedskunder har ekspertisen klar til selv at træffe beslutninger om serverdesign; det er derfor, de er afhængige af pålidelige producenter, som fortsætter med at promovere "ende-til-ende-løsninger."

Ikke desto mindre insisterer store virksomheder på en form for fleksibilitet i arbejdsbyrdestyring og asset management, som hyperskalere har skabt til sig selv. Det er en af ​​grundene til, at Kubernetes er steget så hurtigt i popularitet; det er et workload orkestreringssystem afledt af "Borg"-systemet, som Googles ingeniører byggede internt.

Så hyperscale design, måske i pasform og starter, har haft en målbar indvirkning på arkitekturen af ​​servere, der markedsføres til andre organisationer end hyperscale serviceudbydere. Men ingeniørers opmærksomhed er for nylig blevet vendt væk fra centraliserede faciliteter, mod distribuerede operationscentre på fjerntliggende steder -- de steder på grænsen til databehandling og levering kaldet "kanten."

Skal læses:

  • Edge computing: Status for den næste it-transformation

Er "hyperskala" bare et andet ord for "hyperkonvergeret?"

Nej. De har det samme præfiks, hvilket er deres primære lighed. Hyperkonvergens (HCI) refererer til evnen for et datacenterinfrastrukturstyringssystem (DCIM) at samle ressourcerne fra flere servere (computer, hukommelse, lagring, netværk) og uddelegere disse ressourcer til individuelle arbejdsbyrder. Det er en måde at tænke på alt, hvad en server bidrager med til datacentret, som om de var væsker, i stedet for at blive låst inde i separate kasser.

Et hyperskala datacenter kan gøre god brug af servere, der tilfældigvis anvender HCI. Men HCI er ikke et absolut krav for at gøre datacentre effektive i deres brug af plads, strøm og køling.

Skal læses:

  • Hvad er hyperkonvergens? Her kan du se, hvordan det fungerer, og hvorfor det er vigtigt

Opbevaring

  • De bedste eksterne harddiske: Dine lagermuligheder sammenlignet
  • Sådan installerede jeg ChromeOS Flex på 30 minutter
  • Must-have PS5 eksterne lagerdrev: Arkivér dine yndlingsspil
  • Sådan tilslutter du nemt en intern SSD til en USB-C-port på din pc eller Mac

Betyder "hyperscale" bare "en stor, stor sky?"

Nej. Indrømmet, en cloud-platform er et middel til at implementere fleksible arbejdsbelastninger på en gruppe af servere, der er klynget sammen. Og ja, ressourcerne på disse servere kan ringes op eller ned, hvilket er en funktion, som hyperskaleringsoperatører efterspørger.

Men en cloud platform som f.eks VMware Cloud Foundation eller OpenStack er gearet til virksomhedsadministratorer til at administrere ressourcekrav (sammen med lejlighedsvise ressourceønsker), der er uforudsete og genstand for hyppige ændringer. Administratorer kan gå ind i systemet og foretage justeringer eller nye leveringsanmodninger efter eget ønske. Et hyperskala miljø er derimod gearet til konsekvent automatisering. Hvis det kører korrekt, er der ingen grund til at "gå ind" og foretage ændringer; det vil håndtere arbejdsbyrder næste år på samme måde, som de bliver administreret i år. Et af den amerikanske regerings krav til en cloud computing-tjeneste, som udgivet af NIST-instituttet i Dept. of Commerce, er, at dets ressourcer kan leveres ved hjælp af en selvbetjeningsportal.

Så selvom Amazons offentlige tjenester bestemt kvalificerer sig som en sky, er dens hyperskala-operationer til styring af denne sky et helt andet stof.

Skal læses:

  • Open Compute Project: Måler dets indflydelse i datacenter, cloud computing-infrastruktur
  • Hvordan Amazon og VMware bygger én sky til begge platforme

Colocation udvider hyperskala til virksomheden

Der var et tidspunkt for ikke så længe siden, hvor et virksomhedsdatacenter formentlig var placeret et sted i virksomheden. For mange organisationer kan et datacenter stadig være centralt placeret på stedet, eller det kan stole på flere faciliteter fordelt på flere filialer.

Men i et moderne erhvervsmiljø er colocation en yderst attraktiv mulighed. En samhusningsaftale er ligesom enhver anden ejendomshandel en lejekontrakt på et areal inden for lejers datacenterfaciliteter. Det gør det muligt for en lejer at installere sit eget udstyr i en bygning, der typisk er stor, meget veldrevet, stærkt sikret og veldrevet og afkølet.

Med sin nærhed til Washington, DC, er Ashburn blevet USA's mest konkurrencedygtige placering for datacentertjenester. I september 2018, Jeg var med til at producere et webinar sammen med Datacenterviden og RagingWire datacentre, som blandt andet bygger colo-faciliteter i Ashburn, Virginia. RagingWire er en colo-udbyder til virksomheder, der har deres egne it-aktiver og har brug for en velsikret lokation med stærk tilslutning for at udnytte dem optimalt.

I dette webinar præsenterede jeg dette diagram over det indre af en af ​​Ashburn-kompleksets nyligt opførte bygninger. Kaldet Ashburn VA3, er det opdelt i såkaldte datahvælvinger, som hver især er gearet til forskellige strøm- og kølekonfigurationer baseret på arbejdsbelastningskrav.

Udskåret udsigt over RagingWires Ashburn, Virginia VA3-anlæg.

(Billede: Courtesy RagingWire Data Centres)

Det er ikke ligefrem Facebook-arkitektur, hvor hele komplekset i det væsentlige er homogeniseret. Og på blot 245.000 kvadratmeter er det ikke helt den kolos, som et stort Facebook "H" kan være. Men i betragtning af, at forskellige lejere vil bringe en række forskellige heterogene udstyr ind, anvender RagingWire en en slags hyperskala-inspireret metode til at kontrollere rummet og automatisere fordelingen af ​​luftstrøm og kraft indenfor disse mellemrum.

Ashburn VA3 og de andre RagingWire-bygninger, der omgiver den, repræsenterer hyperskala-metodologi, der er blevet bragt noget tættere på Jorden. Fordi dets konstruktionsprincipper er stift specificeret og gentagne gange praktiseret, kan virksomheden bygge et anlæg inden for en tidsramme tættere på otte måneder end to eller tre år. Og den ledelsespraksis og -metoder, der gælder for én bygning, kan nemt tilpasses til at gælde for andre.

Så det er her hyperskala arkitektur og principper møder virksomheden, hvilket giver virksomheder en måde at hoste begge deres infrastruktur og deres arbejdsbelastninger på en måde, der er afledt af de standarder, der er fastsat af Facebook, Amazon AWS og de andre i skyen på øverste niveau plads. Selvom vores opmærksomhed ofte er fokuseret på håndholdte enheder som centrum for samtale inden for teknologi i dag, er det faktiske centrum for computeraktivitet er hyperskala datacenter - som både bliver større og mindre. Historien kan endnu registrere hyperskala-anlægget som den enhed, der definerer teknologi i det 21. århundrede.

Datalæk: De mest almindelige kilder

Lær mere -- fra CBS Interactive Network

  • Hvad din virksomhed kan lære om datacentre fra tech-giganterne
  • Hyperscale datacentre fremmer omsætningsvækst for virksomheders lagerleverandører
  • De fleste datacentre er for ineffektive, siger Supermicro

Andre steder

  • Hyperscale Cloud Platforms ændrede datacenterdesign og funktion. Her er hvordan
  • Hvornår og hvordan flydende køling bliver nødvendig i datacenteret
  • Hyperscale Cloud Platforms dominerede datacentersamtalen i 2018