mboost-dp1

DTU - DCSC
- Forside
- ⟨
- Forum
- ⟨
- Nyheder
Still can't make coffee!
Nogen der ved hvordan det administrative virker, hvis man vil have sin kode i serveren? Får man tildelt n cpu-timer, og så stopper de tråden, når det er brugt op? Eller kan man få lov til at køre, indtil man er tilfreds med mængden af output?
Nogen der ved hvordan det administrative virker, hvis man vil have sin kode i serveren? Får man tildelt n cpu-timer, og så stopper de tråden, når det er brugt op? Eller kan man få lov til at køre, indtil man er tilfreds med mængden af output?
Jep, den er supernice, En udregning der på en typisk computer tager 12-14 timer kan man typsik få kørt igennem på under 30min ved at submitte det til gode gamle Niflheim, men så skal man huske at det nok tager en dag eller to før man kommer igennem køen.
#3 Du submitter bare din kode med et ønsket antal cpu'er, (typisk et pythonscript, da de fleste der bruger den laver DFT udregninger i GPAW, som er DTU's egen implimentering i python), og så venter du til den giver dig dem.
#3 Du submitter bare din kode med et ønsket antal cpu'er, (typisk et pythonscript, da de fleste der bruger den laver DFT udregninger i GPAW, som er DTU's egen implimentering i python), og så venter du til den giver dig dem.
Fint at de fokuserer på det energibesparende, men jeg håber ikke de helt har glemt at tænke lidt på sikkerhed.
Nåh, men der er helt sikkert nogle DFT nørder der bliver glade nu!
Edit: #4 Man kan også være heldig at få et cluster tildelt i en periode så man selv kan sidde og nørkle lidt mere intimt, mener jeg
Nåh, men der er helt sikkert nogle DFT nørder der bliver glade nu!
Edit: #4 Man kan også være heldig at få et cluster tildelt i en periode så man selv kan sidde og nørkle lidt mere intimt, mener jeg
#6 Hastigheden afhænger af antallet af cpu'er du bruger, og det er ofte tilfældet at noget der tager 10 min at udregne er umuligt at optimere, fordi du taber ligeså meget tid på at fordele arbejdet som du vinder ved at have flere cpuer, og eksemplet er bare den størrelsesorden jeg selv har oplevet, med mine egne små simuleringer.
#10, hvis man tager udgangspunkt i standardpriser for HP DL160 G6 så er det ca. 30.000,00 ex. moms for 2stkX5570 med 24Gb RAM
Så ganger vi det med 412 og får ca. 12,36 millioner ex. moms
Det er dog formentlig den mindste udgift. Datacenteret (herunder køling, strøm osv.) og infrastruktur (kabling, switche etc.) har formentlig større omkostninger end de 412 1u servere
Så ganger vi det med 412 og får ca. 12,36 millioner ex. moms
Det er dog formentlig den mindste udgift. Datacenteret (herunder køling, strøm osv.) og infrastruktur (kabling, switche etc.) har formentlig større omkostninger end de 412 1u servere
#9 Forskning i katalyse. KOrt sagt skal man bruge den til materialesimuleringer. Det er letteret at teste en række modeller end det er at fremstille hvert enkelt materiale.
http://www.case.dtu.dk/
http://www.case.dtu.dk/
Jonasee (14) skrev:#13
Vil du lade din bærbar blive stådene på skole natten over?
Nu er det jo heller ikke en skole :)
#16: Det grundlag tror jeg ikke på holder. Man kan satme få mange små bokse (som man lige sætter en stikkontakt inden i) for så mange millioner kroner.
Der må være en fordel i form af mange simultane udregninger eller noget. Kender ikke en skid til det, men det kan ikke kun være fordi "folk tager deres computer med hjem" (man kunne jo bare sætte den på standby og lade den stå i soveværelset natten over ;)).
-----------
Jeg tænker dog: 91 terrabyte harddisk plads lyder da ikke af meget? Jeg ville have skudt på at de havde en "petabyte" (eller hvad den næste nu engang hedder)... jeg overvurdere måske lidt hvad sådan nogle resultater fylder...
Der må være en fordel i form af mange simultane udregninger eller noget. Kender ikke en skid til det, men det kan ikke kun være fordi "folk tager deres computer med hjem" (man kunne jo bare sætte den på standby og lade den stå i soveværelset natten over ;)).
-----------
Jeg tænker dog: 91 terrabyte harddisk plads lyder da ikke af meget? Jeg ville have skudt på at de havde en "petabyte" (eller hvad den næste nu engang hedder)... jeg overvurdere måske lidt hvad sådan nogle resultater fylder...
[Hvorfor ville man vente 2-3 dage på at få lavet sin udregning der tager 30 min på supercomputeren hvis man kan lave den på 12-14 timer på en almindelig computer?
En beregning kan tage en dags tid på 10-50 CPU'er, og kræve en tilsvarende stor mængde RAM, hvilket diskvalificerer de fleste computere. Plus, man skal måske lave hundredevis af sådanne beregninger. Dertil kommer, at der er mange brugere af supercomputeren. Hvis folk sad med hver sin PC og lavede tilsvarende udregninger, så ville udnyttelse såvel som kapacitet være langt mindre.
#5
Der var sgu intet sikkerhed mht. den Sun maskine der. Det er en reklameserver DTU fik udleveret gratis, med det krav at den skulle stå til frit skue for enhver der måtte ønske at kigge på den. Og det gjorde den også. :)
Niflheim står lukket væk i et egentligt serverrum (flere faktisk).
Der var sgu intet sikkerhed mht. den Sun maskine der. Det er en reklameserver DTU fik udleveret gratis, med det krav at den skulle stå til frit skue for enhver der måtte ønske at kigge på den. Og det gjorde den også. :)
Niflheim står lukket væk i et egentligt serverrum (flere faktisk).
Opret dig som bruger i dag
Det er gratis, og du binder dig ikke til noget.
Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.