(Sierra-supercomputer på Lawrence Livermore National Laboratory i Californien.)
Mens USA konkurrerer med Kina om at bygge de hurtigste supercomputere, undrer du dig måske over, hvordan disse gigantiske maskiner bliver brugt.
En supercomputer kan indeholde hundredtusindvis af processorkerner og kræve en hel bygning at huse og køle – for ikke at tale om de millioner af dollars, der bruges til at skabe og vedligeholde dem. Men på trods af disse udfordringer vil flere og flere blive sat i drift, efterhånden som USA og Kina udvikler nye “exascale”-supercomputere, som lover en femdobling af ydeevnen i forhold til de nuværende førende systemer.
Så hvem har brug for al denne regnekraft og hvorfor? For at finde ud af det besøgte PCMag Lawrence Livermore National Laboratory i Californien, som er hjemsted for flere supercomputere, herunder verdens næsthurtigste, Sierra. Her fik vi at vide, hvordan systemingeniører vedligeholder maskinerne for at betjene videnskabelige forskere, men også for at teste noget, man måske ikke forventer: atomvåben.
Et klassificeret system
Omkring 1.000 mennesker vedligeholder laboratoriets supercomputere og skaber programmer til dem.
Når du besøger Sierra, vil du bemærke ordene “klassificeret” og “hemmelige, begrænsede data”, der er hængt op på supercomputeren, som består af 240 serverlignende stativer. Advarslerne findes, fordi Sierra behandler data, der involverer USA’s atomvåbenlagre, herunder hvordan våbnene skulle detonere i den virkelige verden.
USA gennemførte sin sidste live-atomvåbentest i 1992. Siden da har landet brugt supercomputere til at hjælpe med at udføre eksperimenterne virtuelt, og Sierra er en del af denne mission. Maskinen blev færdig sidste år primært for at hjælpe den amerikanske regering med at overvåge og teste effektiviteten af landets aldrende atomvåbenarsenal, som rutinemæssigt skal vedligeholdes.
“Den eneste måde, hvorpå et afskrækkelsesmiddel fungerer, er, hvis du ved, at det kan fungere, og at din modstander også ved og tror, at det fungerer,” siger Adam Bertsch, der er systemingeniør for højtydende databehandlingssystemer på laboratoriet.
Eksempler på simuleringer, der er udført på laboratoriets supercomputercenter. Til venstre ses et eksperiment inden for fusionsenergiforskning, der involverer opvarmning og komprimering af et brændselsmål med 192 lasere. Til højre ses en hydrodynamik-relateret simulering af en “triple-point shock interaction.”
Det er ikke overraskende, at simulering af en kerneeksplosion kræver en masse matematik. Grundlæggende principper i videnskaben kan forudsige, hvordan partikler vil interagere med hinanden under forskellige forhold. Den amerikanske regering er også i besiddelse af årtiers data, der er indsamlet fra virkelige atomforsøg. Forskere har kombineret disse oplysninger for at skabe ligninger inde i computermodeller, som kan beregne, hvordan en kerneeksplosion vil gå af og ændre sig over tid.
Væsentligt talt forsøger man at kortlægge en kædereaktion. Så for at gøre modellerne nøjagtige er de blevet designet til at forudsige en nuklear detonation på molekylært niveau ved hjælp af fysik fra den virkelige verden. Udfordringen er, at det kræver mange tal at beregne, hvad alle disse partikler vil gøre.
Looking For Deals On The Latest Tech?
Dette nyhedsbrev kan indeholde reklamer, tilbud eller affilierede links. Ved at abonnere på et nyhedsbrev giver du dit samtykke til vores brugsbetingelser og privatlivspolitik. Du kan til enhver tid afmelde dig igen.
Indtast Sierra. Supercomputeren har 190.000 CPU-processorkerner og 17.000 GPU-kerner. Al denne computerkraft betyder, at den kan tage en enorm opgave, som f.eks. simulering af atomfission, og bryde den ned i mindre stykker. Hver kerne kan så behandle en lillebitte del af simuleringen og kommunikere resultaterne til resten af maskinen. Processen vil gentage sig igen og igen, mens supercomputeren forsøger at modellere en kerneeksplosion fra det ene sekund til det næste.
“Man kan lave en komplet simulering af en kerneenhed i computeren”, tilføjede Bertsch. “Man kan finde ud af, at den virker, præcis hvor godt den virker, og hvilken slags virkninger der ville ske.”
En forskningsmaskine
Kabelklynger hjælper Sierra med at udveksle data. Andre kabler indeholder vand for at holde systemet køligt.
En supercomputers evne til at beregne og modellere partikelinteraktioner er grunden til, at den er blevet et så vigtigt redskab for forskere. På en måde sker der reaktioner overalt omkring os. Det kan omfatte vejret, hvordan en stjerne dannes, eller når menneskelige celler kommer i kontakt med et lægemiddel.
En supercomputer kan simulere alle disse interaktioner. Forskere kan derefter bruge dataene til at få nyttige indsigter, f.eks. om det vil regne i morgen, om en ny videnskabelig teori er gyldig, eller om en kommende kræftbehandling er lovende.
De samme teknologier kan også lade industrier udforske utallige nye designs og finde ud af, hvilke der er værd at afprøve i den virkelige verden. Det er grunden til, at laboratoriet har oplevet en enorm efterspørgsel efter sine to dusin supercomputere.
“Uanset hvor meget computerkraft vi har haft, ville folk bruge den op og bede om mere,” sagde Bertsch.
Det forklarer også, hvorfor den amerikanske regering ønsker en exascale-supercomputer. Den ekstra computerkraft vil give forskerne mulighed for at udvikle mere avancerede simuleringer, som f.eks. at genskabe endnu mindre partikelinteraktioner, hvilket kan bane vejen for nye gennembrud i forskningen. Exascalesystemerne vil også være i stand til at gennemføre igangværende forskningsprojekter på kortere tid. “Det, man tidligere skulle bruge måneder på, vil måske kun tage timer”, tilføjede Bertsch.
En forsker opretter forbindelse til en supercomputer i laboratoriet online via en Linux-pc. Et “job” kan sættes i kø ved blot at bruge et kommandolinjeprogram.
Sierra er en del af et klassificeret netværk, der ikke er forbundet med det offentlige internet, og som er tilgængeligt for omkring 1.000 godkendte forskere i tilknyttede videnskabelige programmer. Omkring 3.000 personer forsker på ikke-klassificerede supercomputere, som er tilgængelige online, forudsat at man har en brugerkonto og de rigtige loginoplysninger. (Beklager, Bitcoin-minere.)
“Vi får folk til at købe sig ind på computeren på anskaffelsestidspunktet,” sagde Bertsch. “Det beløb, du lægger ind, korrelerer med den procentdel af maskinen, du har købt.”
Et planlægningssystem bruges til at sikre din “rimelige andel” med maskinen. “Det forsøger at styre dit forbrug i retning af den procentdel, du har fået tildelt,” tilføjede Bertsch. “Hvis du har brugt mindre end din rimelige andel over tid, stiger din prioritet, og du kører tidligere.”
Simuleringerne kører altid. En supercomputer kan køre tusindvis af opgaver på et hvilket som helst tidspunkt. En maskine kan også behandle det, der kaldes et “hero run”, eller et enkelt job, der er så stort, at det kræver hele supercomputeren at gennemføre det på en rimelig tid.
Keeping It Up And Running
Involdene i en anden supercomputer, Sequoia. Et rack er ikke så forskelligt fra en server.
Sierra er en supercomputer, men maskinen er i vid udstrækning blevet fremstillet med almindelige dele. Processorerne er f.eks. chips i virksomhedskvalitet fra IBM og Nvidia, og selve systemet kører Red Hat Enterprise Linux, et populært operativsystem blandt serverleverandører.
“Dengang var supercomputere disse monolitiske store, esoteriske klumper af hardware,” siger Robin Goldstone, laboratoriets arkitekt for højtydende computerløsninger. “I dag er selv verdens største systemer i det væsentlige bare en masse servere, der er forbundet med hinanden.”
For at maksimere brugen af et system som Sierra skal det være i stand til at udføre forskellige former for forskning. Så laboratoriet satte sig for at skabe en maskine, der kan bruges til alle formål. Men selv en supercomputer er ikke perfekt. Laboratoriet anslår, at Sierra hver 12. time vil blive ramt af en fejl, som kan involvere en hardwarefejl. Det lyder måske overraskende, men tænk på det som at eje 100.000 computere; fejl og reparationer er uundgåelige.
“De mest almindelige ting, der fejler, er nok hukommelses-DIMM’er, strømforsyninger og blæsere”, sagde Goldstone. Heldigvis er Sierra så stor, at den har masser af kapacitet. Supercomputeren opretter også rutinemæssigt hukommelsesbackups i tilfælde af, at en fejl afbryder et projekt.
“Til en vis grad er dette ikke helt som en pc, du har derhjemme, men en smag af det,” tilføjede Goldstone. “Tag de gamere, der er besat af at få den hurtigste hukommelse og den hurtigste GPU, og det er det samme, som vi er besat af. Udfordringen hos os er, at vi har så mange kørende på samme tid.”
Under supercomputerne er der et rørsystem, der sender vand op i stuetemperatur for at holde maskinerne kølige. Sierra er 80 procent vandkølet og 20 procent luftkølet.
Sierra selv sidder i et rum på 47.000 kvadratmeter, som er fyldt med støjen fra ventilatorer, der holder hardwaren kølig. Et niveau under maskinen ligger bygningens vandpumpesystem. Hvert minut kan det sende tusindvis af liter vand ind i rørene, som derefter ledes ind i supercomputerens stativer og cirkulerer vandet ud igen.
På strømfronten er laboratoriet blevet udstyret til at levere 45 megawatt – eller nok elektricitet til en lille by. Omkring 11 af disse megawatt er blevet uddelegeret til Sierra. En supercomputeres strømforbrug kan dog af og til udløse klager fra lokale energiselskaber. Når et program går ned, kan maskinens energiforbrug pludselig falde med flere megawatt.
Energileverandøren “bryder sig slet ikke om det. For de er nødt til at aftage belastning. De betaler for strøm,” sagde Goldstone. “De har ringet til os i telefonen og sagt: “Kan I ikke gøre det mere?””
The Exascale Future
Sidste år blev Sequoia rangeret som den 10. hurtigste supercomputer i verden. Men den vil snart blive erstattet af en kraftigere maskine.
The Lawrence Livermore National Lab er også hjemsted for en anden supercomputer kaldet Sequoia, som kortvarigt regerede som verdens bedste system tilbage i 2012. Men laboratoriet planlægger at pensionere den senere i år for at gøre plads til en større og bedre supercomputer, kaldet El Capitan, som er blandt de exascale-supercomputere, som den amerikanske regering har planlagt.
Formodentlig vil den gå online i 2023. Men den vil ikke være alene. El Capitan vil slutte sig til to andre exascalesystemer, som USA bruger over 1 milliard dollars på at konstruere. Begge vil være færdige i 2021 i separate laboratorier i Illinois og Tennessee.
“På et tidspunkt bliver jeg ved med at tænke: ‘Er det ikke hurtigt nok? Hvor meget hurtigere har vi virkelig brug for, at disse computere skal være?”” Goldstone sagde. “Men det handler mere om at kunne løse problemer hurtigere eller studere problemer med højere opløsning, så vi virkelig kan se noget på molekylært niveau.”
Men supercomputerindustrien vil i sidste ende være nødt til at innovere. Det er simpelthen uholdbart at blive ved med at bygge større maskiner, der sluger mere strøm og fylder mere fysisk plads. “Vi skubber grænserne for, hvad den nuværende teknologi kan gøre,” sagde hun. “Der bliver nødt til at ske fremskridt på andre områder end de traditionelle siliciumbaserede computerchips for at bringe os til det næste niveau.”
I mellemtiden har laboratoriet arbejdet sammen med leverandører som IBM og Nvidia for at løse umiddelbare flaskehalse, herunder at forbedre en supercomputers netværksarkitektur, så den hurtigt kan kommunikere på tværs af de forskellige klynger, samt komponenternes pålidelighed. “Processorhastighed betyder bare ikke længere noget”, tilføjede hun. “Lige så hurtige som processorerne er, er vi begrænset af hukommelsesbåndbredden.”
Laboratoriet vil offentliggøre flere detaljer om El Capitan i fremtiden. Hvad angår den computer, som den erstatter, Sequoia, er systemet på vej mod glemslen.
Af sikkerhedshensyn planlægger laboratoriet at kværne alle dele af maskinen og genbruge resterne af den. Supercomputere kan ende med at køre klassificerede regeringsdata, så det er afgørende, at ethvert spor af disse oplysninger bliver fuldstændig renset ud – også selv om det betyder, at maskinen skal gøres til skrot. Det lyder måske ekstremt, men der kan ske fejl, når man forsøger at slette dataene virtuelt, så laboratoriet skal være helt sikker på, at dataene er permanent væk.