mboost-dp1

DTU - DCSC

DTU’s supercomputer har vokseværk

- Via Version2 - , redigeret af Net_Srak

DTU har i en årrække haft supercomputeren Niflheim, der af flere omgange er blevet udråbt som Danmarks kraftigste supercomputer. Den titel sættes der atter en gang streg under med den seneste udvidelse af kapaciteten.

Med den nyeste opgradering, der netop officielt er blevet indviet, når computeren op på en spidsydelse på 45 teraflops, en ydelse der stammer fra 4.648 processorkerner. Dermed bliver den hidtidige rekord på 18 teraflops, som tilhørte DMI, slået med en stor margin.

Årsagen til den store ydelsesforbedring er investeringen i 412 nye HP DL 160 G6-servere, der hver er udstyret med to Intel Xeon X5570 processorer, som igen har fire kerner hver.

Samlet råder Niflheim nu over 13 terabyte RAM og mere end 91 terabyte harddiskplads. Supercomputeren er placeret i et nybygget serverrum, hvor der har været fokus på at lave det så energibesparende som muligt.

Du kan læse meget mere om Niflheim her.





Gå til bund
Gravatar #1 - Lunxed
23. okt. 2009 12:24
Hold da op, det er da noget af en overhaling.


Inb4 "Men kan den spille crysis?"
Gravatar #2 - f-style
23. okt. 2009 12:26
Can it blend
Gravatar #3 - photonatic
23. okt. 2009 12:30
Still can't make coffee!

Nogen der ved hvordan det administrative virker, hvis man vil have sin kode i serveren? Får man tildelt n cpu-timer, og så stopper de tråden, når det er brugt op? Eller kan man få lov til at køre, indtil man er tilfreds med mængden af output?
Gravatar #4 - Leonhard
23. okt. 2009 12:44
Jep, den er supernice, En udregning der på en typisk computer tager 12-14 timer kan man typsik få kørt igennem på under 30min ved at submitte det til gode gamle Niflheim, men så skal man huske at det nok tager en dag eller to før man kommer igennem køen.

#3 Du submitter bare din kode med et ønsket antal cpu'er, (typisk et pythonscript, da de fleste der bruger den laver DFT udregninger i GPAW, som er DTU's egen implimentering i python), og så venter du til den giver dig dem.

Gravatar #5 - Thinq
23. okt. 2009 12:45
Fint at de fokuserer på det energibesparende, men jeg håber ikke de helt har glemt at tænke lidt på sikkerhed.
Nåh, men der er helt sikkert nogle DFT nørder der bliver glade nu!

Edit: #4 Man kan også være heldig at få et cluster tildelt i en periode så man selv kan sidde og nørkle lidt mere intimt, mener jeg
Gravatar #6 - Decipher
23. okt. 2009 12:56
#4 fra 12-14 timer til 30 minutter lyder nu ikke SÅ imponerende igen, udstyret taget i betragtning. Men mit nørdometer slår alligevel rimelig meget ud..
Gravatar #7 - Leonhard
23. okt. 2009 13:10
#6 Hastigheden afhænger af antallet af cpu'er du bruger, og det er ofte tilfældet at noget der tager 10 min at udregne er umuligt at optimere, fordi du taber ligeså meget tid på at fordele arbejdet som du vinder ved at have flere cpuer, og eksemplet er bare den størrelsesorden jeg selv har oplevet, med mine egne små simuleringer.
Gravatar #8 - Thinq
23. okt. 2009 13:15
Decipher (6) skrev:
#4 fra 12-14 timer til 30 minutter lyder nu ikke SÅ imponerende igen, udstyret taget i betragtning.

Jeg er sikker på at Leonhards eksempel heller ikke inkluderer at han bruger HELE Nilfheim til sin beregning, kun et lille hjørne.
Gravatar #9 - krainert
23. okt. 2009 13:16
#2
*Will it blend?
Yes, everything blends - except Chuck Norris!

Hvad skal de egentlig med så meget processorkraft? Jeg kunne godt komme på nogle forslag, men hvad er det reelt, den bliver brugt til?
Gravatar #10 - Bjarni
23. okt. 2009 13:27
Hvad koster sådan en fætter?
Gravatar #11 - IzeBurn
23. okt. 2009 14:45
#10, hvis man tager udgangspunkt i standardpriser for HP DL160 G6 så er det ca. 30.000,00 ex. moms for 2stkX5570 med 24Gb RAM

Så ganger vi det med 412 og får ca. 12,36 millioner ex. moms

Det er dog formentlig den mindste udgift. Datacenteret (herunder køling, strøm osv.) og infrastruktur (kabling, switche etc.) har formentlig større omkostninger end de 412 1u servere
Gravatar #12 - ECFE11
23. okt. 2009 14:54
#9 Forskning i katalyse. KOrt sagt skal man bruge den til materialesimuleringer. Det er letteret at teste en række modeller end det er at fremstille hvert enkelt materiale.

http://www.case.dtu.dk/
Gravatar #13 - BeLLe
23. okt. 2009 15:47
#4

Hvorfor ville man vente 2-3 dage på at få lavet sin udregning der tager 30 min på supercomputeren hvis man kan lave den på 12-14 timer på en almindelig computer?


Jeg kan ikke få det til at hænge sammen....


Gravatar #14 - Jonasee
23. okt. 2009 15:56
#13

Vil du lade din bærbar blive stådene på skole natten over?
Gravatar #15 - ostebaronen
23. okt. 2009 16:41
Jonasee (14) skrev:
#13

Vil du lade din bærbar blive stådene på skole natten over?


Nu er det jo heller ikke en skole :)
Gravatar #16 - Jonasee
23. okt. 2009 18:02
ostebaronen (15) skrev:
Jonasee (14) skrev:
#13

Vil du lade din bærbar blive stådene på skole natten over?


Nu er det jo heller ikke en skole :)


Ok, ville du lade din bærbar stå naten over på et universitet?
Gravatar #17 - Sommer
23. okt. 2009 23:25
#16: Det grundlag tror jeg ikke på holder. Man kan satme få mange små bokse (som man lige sætter en stikkontakt inden i) for så mange millioner kroner.

Der må være en fordel i form af mange simultane udregninger eller noget. Kender ikke en skid til det, men det kan ikke kun være fordi "folk tager deres computer med hjem" (man kunne jo bare sætte den på standby og lade den stå i soveværelset natten over ;)).

-----------

Jeg tænker dog: 91 terrabyte harddisk plads lyder da ikke af meget? Jeg ville have skudt på at de havde en "petabyte" (eller hvad den næste nu engang hedder)... jeg overvurdere måske lidt hvad sådan nogle resultater fylder...
Gravatar #18 - aspest
24. okt. 2009 00:03
Gad vide om den ville være god med 3dsmax og fumefx partikel beregninger....
og måske en ordentlig spand raytracing opgaver!
Gravatar #19 - AskHL
24. okt. 2009 03:53
[Hvorfor ville man vente 2-3 dage på at få lavet sin udregning der tager 30 min på supercomputeren hvis man kan lave den på 12-14 timer på en almindelig computer?


En beregning kan tage en dags tid på 10-50 CPU'er, og kræve en tilsvarende stor mængde RAM, hvilket diskvalificerer de fleste computere. Plus, man skal måske lave hundredevis af sådanne beregninger. Dertil kommer, at der er mange brugere af supercomputeren. Hvis folk sad med hver sin PC og lavede tilsvarende udregninger, så ville udnyttelse såvel som kapacitet være langt mindre.
Gravatar #20 - luuuuu
24. okt. 2009 09:32
#5

Der var sgu intet sikkerhed mht. den Sun maskine der. Det er en reklameserver DTU fik udleveret gratis, med det krav at den skulle stå til frit skue for enhver der måtte ønske at kigge på den. Og det gjorde den også. :)

Niflheim står lukket væk i et egentligt serverrum (flere faktisk).
Gå til top

Opret dig som bruger i dag

Det er gratis, og du binder dig ikke til noget.

Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.

Opret Bruger Login