mboost-dp1

Oak Ridge National Laboratory

Titan tager tronen for supercomputere

- Via CNN Money - , redigeret af Pernicious , indsendt af arne_v

USA sætter igen trumf på toppen af supercomputerlisten, med en kraftig opgradering af den amerikanske energiministeriums supercomputer Jaguar, der med opgraderingen skifter navn til Titan.

Titan har fået sine 224.256 CPU’er erstattet med 299.008 hurtigere AMD CPU’er samt 18.688 GPU’er fra Nvidia. Dette giver Titan en ydelse på 20 petaflops, hvilket er 4 petaflops hurtigere end den tidligere nummer et på supercomputerlisten Sequoia, der også ejes af det amerikanske energiministerium.

Titan havde før opgraderingen en ydelse på godt 2 petaflops. til trods for det store spring i ydelse, er energiforbruget ikke steget væsentlig, i forhold til de 7 MW Jaguar brugte. Det er specielt GPU’erne, der gør, at ydelsen bliver så høj ved det samme energiforbrug, hvilket er meget vigtigt for at holde driftsomkostningerne nede. Havde man udelukkende brugt CPU’er for at opnå 20 petaflops, ville energiforbruget have steget til 60 MW.

I 2016 regner man med, at Titan skal opgraderes igen, denne gang til 200 petaflops.





Gå til bund
Gravatar #1 - Abech
30. okt. 2012 12:15
I 2016 regner man med, at Titan skal opgraderes igen, denne gang til 200 petaflops. skrev:

200 petaflops!!! Voldsomt.
Gravatar #2 - Nightmare
30. okt. 2012 12:28
Kan godt være jeg stiller et dumt spørgsmål men hvad bruger energiministeriumet så kraftig en satan til??
Gravatar #3 - OxxY
30. okt. 2012 12:31
Nightmare (2) skrev:
Kan godt være jeg stiller et dumt spørgsmål men hvad bruger energiministeriumet så kraftig en satan til??

Bruger energi obviusly...
Gravatar #4 - ignuz
30. okt. 2012 12:50
#2

Energiministeriet skal nok tænkes lidt bredere end man normalt ville gøre.
https://www.llnl.gov/ hører eksempelvis under energiministeriet og derudover skal den også bruges til at beregne klimamodeller
Gravatar #5 - Blazirh
30. okt. 2012 13:13
Men kan den køre minecraft?



Abech (1) skrev:
200 petaflops!!! Voldsomt.


Ja, tør slet ikke tænke på om bare 10.. 15.. 20 år hvor computere er til den tid :)
Gravatar #6 - arne_v
30. okt. 2012 13:33
Nightmare (2) skrev:
Kan godt være jeg stiller et dumt spørgsmål men hvad bruger energiministeriumet så kraftig en satan til??


Måske simulere kernevåben sprængninger.
Gravatar #7 - Valkar
30. okt. 2012 13:55
#2 Scenarie planlægning?

Beregninger af alle konsekvenser ved et terrorangreb eller hacker angreb på en del af forsyningsnettet kan have vidtrækkende konsekvenser. Beregninger af skadesmodeller er vanvittigt resource krævende.

Jeg ved ikke om det er hvad de bruger monstret til, men det er næppe MineCraft :-)
Gravatar #8 - 1000tusind
30. okt. 2012 14:03
Nightmare (2) skrev:
Kan godt være jeg stiller et dumt spørgsmål men hvad bruger energiministeriumet så kraftig en satan til??


download pron

Blazirh (5) skrev:

Ja, tør slet ikke tænke på om bare 10.. 15.. 20 år hvor computere er til den tid :)


Samme som nu. pron pron pron.


Gravatar #9 - Skak2000
30. okt. 2012 14:18
Simulation et økonomisk sammenbrud i EU? Hvordan det vil ramme dem?
Eller hvad de langsigtede konsekvenser bliver af den stigende amerikanske gæld?
Gravatar #10 - LordMike
30. okt. 2012 14:20
Hvorfor Nvidia GPU'er?
ATI's er bedre til beregningsopgaver... Bare se Hash cracking toolsn'e .. ATI's er altid hurtigere.

Der hvor det til gengæld stinker, er tool support - der er NVidia bedre.
Gravatar #11 - Mohr87
30. okt. 2012 14:37
Er GPU'er dyrere end CPU'er? - siden de ikke laver de her supercomputere udelukkende med GPU'er?
Gravatar #12 - Slettet Bruger [2799577134]
30. okt. 2012 14:41
#11
Der skal vel være noget til at styre GPU'erne, lave general purpose delen af deres opgaver. Så vidt jeg ved så kan du ikke lave et OS og køre det direkte på din GPU, du skal have noget til at køre dit OS og så lade dit OS styre hvad din GPU udregner.
Gravatar #13 - LordMike
30. okt. 2012 16:39
#11
Problemet med GPU'er er at de kun har et utroligt begrænset instruktionssæt, som ikke tillader alle former for beregninger. Desuden skal hver stump kode køres på mange processorer af gangen ... f.eks. 32 processorer / kerner. Så hvis du ville simulere en CPU med en GPU, så mister du en faktor 32 af kernerne, for hver kerne CPU.

Dertil kommer at dit program bliver langsommere, da du skal kommunikere med grafikkortet, gennem en channel der er langsommere end den en CPU bruger.

Og langsommere, fordi at du skal simulere instruktioner der ikke findes :P...

GPU'er er gode når man har bunker af ensartet arbejde som skal laves. Her kan du lægge koden ned på GPU'en, og give den et enormt datasæt. Så kan du spørge den efter 2-3 sekunder hvor langt den er nået, og ellers vente.
Gravatar #14 - Gungsternix
30. okt. 2012 20:31
Jeg er sikker på, at det amerikanske energiministerium arbejder sammen med spilfirmaet Blizzard om at have en computer, der nogenlunde kan køre Blizzards kommende MMO, der jo netop også har arbejdstitlen Titan. Man behøver jo blot at lægge 2 og 2 sammen i denne sammenhæng for at regne ud hvad den kraftige computer skal bruges til. Jeg glæder mig som en afsindig til at spille deres kommende spil "Titan". Men jeg forstår bare ikke hvordan Blizzards millioner af fans skal få plads til en så stor computer i deres hjem, hvis man altså kan købe sådan en når den kommer på markedet. Jeg får i hvert fald selv svært ved at få plads til den, men det går nok lige. Man er vel forbruger. Måske er det den amerikanske olieindustri der har en finger med i spillet. De vil vel gerne have at folk har så stor en pc, som på billedet i nyheden her, for så bruger folk mere strøm og så tjener de flere penge. Og måske vil Blizzard ligefrem forære deres fans sådan en computer. Blizzard er jo velhavende, de har sikkert igen en indkomst i omegnen af en 700.000.000 - 800.000.000 kroner om måneden nu da wow subs'ne er steget til ca. 10.000.000 millioner igen her under Mists of Pandaria. Og det blir vel også en pc på den størrelse man skal have sig for at køre det der Titan spil. For jeg forventer en grafik og en verden lidt a la den verden der er i filmen Avatar. Tænk hvis man kunne gå hen til en plante i spillet ligesom hovedpersonen i Avatar gør i starten af filmen og rører ved planten og den så har et defense system. Man vil sikkert kunne gathere sådan en plante og lave en fed mikstur etc. Glæder mig :D
Gravatar #15 - Clauzii
30. okt. 2012 22:24
Yvossen (12) skrev:
#11
Der skal vel være noget til at styre GPU'erne, lave general purpose delen af deres opgaver. Så vidt jeg ved så kan du ikke lave et OS og køre det direkte på din GPU, du skal have noget til at køre dit OS og så lade dit OS styre hvad din GPU udregner.


Og derfor er det interessant at AMD nu både vil have x86 og ARM i 2014. Servere fra AMD med ARM (mulig køber???) og ARM chips med Radeon-kerner. Og så mobile enheder selvfølgelig.

Sounds legit to me.
Gravatar #16 - terracide
31. okt. 2012 10:18
LordMike (10) skrev:
Hvorfor Nvidia GPU'er?
ATI's er bedre til beregningsopgaver... Bare se Hash cracking toolsn'e .. ATI's er altid hurtigere.

Der hvor det til gengæld stinker, er tool support - der er NVidia bedre.


fordi det kkun er n00b der kigger på OpenCL og DirectCompute, læs og lær:

http://www.anandtech.com/show/6421/inside-the-tita...

The GPU decision was just as simple. NVIDIA has been focusing on non-gaming compute applications for its GPUs for years now. The decision to partner with NVIDIA on the Titan project was made around 3 years ago. At the time, AMD didn't have a competitive GPU compute roadmap. If you remember back to our first Fermi architecture article from back in 2009, I wrote the following:

"By adding support for ECC, enabling C++ and easier Visual Studio integration, NVIDIA believes that Fermi will open its Tesla business up to a group of clients that would previously not so much as speak to NVIDIA. ECC is the killer feature there."

At the time I didn't know it, but ORNL was one of those clients. With almost 19,000 GPUs, errors are bound to happen. Having ECC support was a must have for GPU enabled Jaguar and Titan compute nodes. The ORNL folks tell me that CUDA was also a big selling point for NVIDIA.


Jeg har ofte sagt før at NVIDIA er lysår foran på GPGPU området...med deres værktøjer, øko-system og udbredelse.

Nu siger en major player så NØJAGTIGT det samme....men skal vi vædde med at cluesless AMD-nuggets stadig vil benægte fakta? :)
Gravatar #17 - terracide
31. okt. 2012 10:21
Clauzii (15) skrev:
Yvossen (12) skrev:
#11
Der skal vel være noget til at styre GPU'erne, lave general purpose delen af deres opgaver. Så vidt jeg ved så kan du ikke lave et OS og køre det direkte på din GPU, du skal have noget til at køre dit OS og så lade dit OS styre hvad din GPU udregner.


Og derfor er det interessant at AMD nu både vil have x86 og ARM i 2014. Servere fra AMD med ARM (mulig køber???) og ARM chips med Radeon-kerner. Og så mobile enheder selvfølgelig.

Sounds legit to me.


AMD forsøger med en hail mary....men det vil ikke redde dem...ellers ville f.eks Seamicro jo være det nye "sort"...ak ja...men morsomt at se på...AMD følger efter VIA og Cyrix nu...
Gravatar #18 - Slettet Bruger [2231210849]
31. okt. 2012 12:01
arne_v (6) skrev:
Måske simulere kernevåben sprængninger.


Eller kernekraft simuleringer :P ved ikke hvad energiministeriet skal med våben.

LordMike (10) skrev:
Hvorfor Nvidia GPU'er?
ATI's er bedre til beregningsopgaver... Bare se Hash cracking toolsn'e .. ATI's er altid hurtigere.

Der hvor det til gengæld stinker, er tool support - der er NVidia bedre.


Nvidia levere bedre IQ
/terra
Gravatar #19 - terracide
31. okt. 2012 12:03
SlettetBruger (18) skrev:
Eller kernekraft simuleringer :P ved ikke hvad energiministeriet skal med våben.

LordMike (10) skrev:
Hvorfor Nvidia GPU'er?
ATI's er bedre til beregningsopgaver... Bare se Hash cracking toolsn'e .. ATI's er altid hurtigere.

Der hvor det til gengæld stinker, er tool support - der er NVidia bedre.


Nvidia levere bedre IQ
/terra


ECC og CUDA er 2 store årsager...læs nu linkene nerf...

Det er kun AMD fanboys der tror at AMD er foran NVIDIA i GPGPU...Oak Righde er et af beviserne på dette.
Gravatar #20 - Slettet Bruger [2799577134]
31. okt. 2012 12:05
#19
Mit AMD Radeon HD 6310 er hurtigere end NVIDIA GeForce 690 GTX.
Gravatar #21 - arne_v
31. okt. 2012 13:28
SlettetBruger (18) skrev:
Eller kernekraft simuleringer :P ved ikke hvad energiministeriet skal med våben.


http://en.wikipedia.org/wiki/United_States_Departm...


Its responsibilities include the nation's nuclear weapons program, ...
Gravatar #22 - terracide
31. okt. 2012 13:30
Yvossen (20) skrev:
#19
Mit AMD Radeon HD 6310 er hurtigere end NVIDIA GeForce 690 GTX.



Ikke til CUDA....
Gravatar #23 - Slettet Bruger [2799577134]
1. nov. 2012 11:45
#22
Jo, også til CUDA.
Gravatar #24 - PHP-Ekspert Thoroughbreed
1. nov. 2012 14:31
#23
Nej, IKKE TIL CUDA!!!!11!!1!1one!!11!1eleven

- det siger Henrik jo, og Henrik har ret når vi taler Intel vs AMD eller NVIDIA vs ATi
Gå til top

Opret dig som bruger i dag

Det er gratis, og du binder dig ikke til noget.

Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.

Opret Bruger Login