mboost-dp1

Oak Ridge National Laboratory

USA overhaler Kina med ny supercomputer: Skal bruges til AI

- Via Technology Review - , indsendt af arne_v

Kina har siden 2013 haft den kraftigste supercomputer, men nu har USA fået førstepladsen tilbage.

Oak Ridge National Lab har afsløret Summit, der har nok regnekraft til at overhale Kinas tidligere rekordholder, Sunway TaihuLight. Den nye amerikanske supercomputer skal bruges til AI-arbejde.

Summit er 60 procent hurtigere end TaihuLight og kan nå op på en regnekraft på 200 petaflops, hvilket betyder, den kan udføre 200 trilliarder – eller 200 millioner milliarder – udregninger i sekundet.

Supercomputeren fylder to tennisbaner, og der løber mere end 15.000 liter vand pr. minut igennem dens afkølingssystem.

Samtidig fortæller forskerne bag, at Summit er den første supercomputer, der fra begyndelsen er designet til at udføre AI-funktioner som at arbejde med maskinlæring og neurale netværk.

Med dens 27.000 GPU-chips fra NVIDIA skal Summit blandt andet gennemgå store mængder rapporter og billeder for at finde forbindelser mellem bestemte gener og kræft.





Gå til bund
Gravatar #1 - Ufomekaniker
13. jun. 2018 06:57
Det er utroligt at der er brug for så mange supercomputere og at de enda bliver hurtigere og levered i et konstant flow. Nogen må da have fundet på at lade dem arbejde parallelt over et multi-node fiber netværk.
Gravatar #2 - Jim Night
13. jun. 2018 07:00
#1 Hvor stor forsinkelse giver det?
Gravatar #3 - Ufomekaniker
13. jun. 2018 13:21
Jeg tænkte osse at det giver lidt forsinkelse, fordi selv lysets hastighed er ikke hurtig nok med de relativt korte afstande vi har her på Jorden. Men hvis man giver flere af dem tons vis af parallelle opgaver, som så til sidst giver et samlet resultat, tror jeg nok det kan lade sig gøre. Det er jo ikke fordi, de skal skiftens til at udføre en opgave, og så give bolden videre til næste supercomputer.

Her tænker jeg lidt a'la Folding@Home eller SETI@Home. Forskerne er jo oversvømmet med data fra privates computere der knuser de opgaver, og de har ikke engang fiber eller supercomputere. Så jeg tror, at min idé med, at koble dem alle sammen, vil være noget vildt uha-noget.
Gravatar #4 - arne_v
13. jun. 2018 13:52
Der er stor forskel på løst koblede clustre ala Hadoop/BOINC og meget tæt koblede HPC clustre.

De sidste er forbundet med XXX Gbit forbindelser og måler forsinkelser i mikrosekunder.

(og elektriske impulser bevæger sig kun 300 meter på et mikrosekund)

Det gør at de sidste kan løse nogle typer af opgaver langt hurtigere end de første.

For andre typer af opgaver gør det ingen forskel. Og den slags opgaver vil formentligt ikke blive løst på et HPC cluster.

Man skal tænke på et HPC cluster som en enkelt logisk computer.

Reglerne for TOP500 LINPACK benchmark er meget stramme.

https://www.top500.org/resources/frequently-asked-...


...
The three benchmarks in the Linpack Benchmark report are
...
The first benchmark is for a matrix of order 100 using the Linpack software in Fortran.
...
The ground rules for running this benchmark are that you can make no changes to the Fortran code, not even to the comments. Only compiler optimization can be used to enhance performance.
...
The Linpack benchmark measures the performance of two routines from the Linpack collection of software. These routines are DGEFA and DGESL
...


D.v.s. at man tager et Fortran program som virker på en enkelt computer og så skal det virke på HPC monstret efter en recompile. Ingen ændringer af koden. Ingen kode med netværks kommunikation.
Gå til top

Opret dig som bruger i dag

Det er gratis, og du binder dig ikke til noget.

Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.

Opret Bruger Login