mboost-dp1

Oak Ridge National Laboratory
- Forside
- ⟨
- Forum
- ⟨
- Nyheder
Det er utroligt at der er brug for så mange supercomputere og at de enda bliver hurtigere og levered i et konstant flow. Nogen må da have fundet på at lade dem arbejde parallelt over et multi-node fiber netværk.
Jeg tænkte osse at det giver lidt forsinkelse, fordi selv lysets hastighed er ikke hurtig nok med de relativt korte afstande vi har her på Jorden. Men hvis man giver flere af dem tons vis af parallelle opgaver, som så til sidst giver et samlet resultat, tror jeg nok det kan lade sig gøre. Det er jo ikke fordi, de skal skiftens til at udføre en opgave, og så give bolden videre til næste supercomputer.
Her tænker jeg lidt a'la Folding@Home eller SETI@Home. Forskerne er jo oversvømmet med data fra privates computere der knuser de opgaver, og de har ikke engang fiber eller supercomputere. Så jeg tror, at min idé med, at koble dem alle sammen, vil være noget vildt uha-noget.
Her tænker jeg lidt a'la Folding@Home eller SETI@Home. Forskerne er jo oversvømmet med data fra privates computere der knuser de opgaver, og de har ikke engang fiber eller supercomputere. Så jeg tror, at min idé med, at koble dem alle sammen, vil være noget vildt uha-noget.
Der er stor forskel på løst koblede clustre ala Hadoop/BOINC og meget tæt koblede HPC clustre.
De sidste er forbundet med XXX Gbit forbindelser og måler forsinkelser i mikrosekunder.
(og elektriske impulser bevæger sig kun 300 meter på et mikrosekund)
Det gør at de sidste kan løse nogle typer af opgaver langt hurtigere end de første.
For andre typer af opgaver gør det ingen forskel. Og den slags opgaver vil formentligt ikke blive løst på et HPC cluster.
Man skal tænke på et HPC cluster som en enkelt logisk computer.
Reglerne for TOP500 LINPACK benchmark er meget stramme.
https://www.top500.org/resources/frequently-asked-...
D.v.s. at man tager et Fortran program som virker på en enkelt computer og så skal det virke på HPC monstret efter en recompile. Ingen ændringer af koden. Ingen kode med netværks kommunikation.
De sidste er forbundet med XXX Gbit forbindelser og måler forsinkelser i mikrosekunder.
(og elektriske impulser bevæger sig kun 300 meter på et mikrosekund)
Det gør at de sidste kan løse nogle typer af opgaver langt hurtigere end de første.
For andre typer af opgaver gør det ingen forskel. Og den slags opgaver vil formentligt ikke blive løst på et HPC cluster.
Man skal tænke på et HPC cluster som en enkelt logisk computer.
Reglerne for TOP500 LINPACK benchmark er meget stramme.
https://www.top500.org/resources/frequently-asked-...
...
The three benchmarks in the Linpack Benchmark report are
...
The first benchmark is for a matrix of order 100 using the Linpack software in Fortran.
...
The ground rules for running this benchmark are that you can make no changes to the Fortran code, not even to the comments. Only compiler optimization can be used to enhance performance.
...
The Linpack benchmark measures the performance of two routines from the Linpack collection of software. These routines are DGEFA and DGESL
...
D.v.s. at man tager et Fortran program som virker på en enkelt computer og så skal det virke på HPC monstret efter en recompile. Ingen ændringer af koden. Ingen kode med netværks kommunikation.
Opret dig som bruger i dag
Det er gratis, og du binder dig ikke til noget.
Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.