mboost-dp1

Nvidia

NVIDIA vil indtage supercomputerne

- Via TG Daily - , redigeret af Pernicious

Grafikvirksomheden NVIDIA er på banen med en ny serie produkter, der efter selskabets eget udsagn, tager hul på en ny epoke inden for personlige supercomputere.

Intel er den største producent af mikroprocessorer, men NVIDIA mener at kunne gøre indhug i den position med grafikprocessorerne, også kaldet GPU’er.

Nvidias Tesla vil f.eks. kunne hjælpe forskere med at udregne komplicerede beregninger og olieselskaber med at udregne geografiske og seismiske data. Andy Keane, general manager i NVIDIA udtaler:

Hvis du ser på, hvordan en CPU og en GPU fungerer, så er det som en bog, hvor CPU’en starter på side et, mens en GPU vil rive bogen i 1000 stykker og klare prossessen parallelt

Nvidia hævder selv, at de nye produkter kan gøre det 50 gange hurtigere at simulere skyformationer og 100 gange hurtigere at behandle seismiske data, set i forhold til x86 processorer.





Gå til bund
Gravatar #1 - Windcape
25. jun. 2007 11:22
... hvilket gør det til et alternativ ! For andre formål.

Hvilket jo er super nice. Men det er ikke for at erstatte noget, normalt vil du jo netop gerne have resulaterne efterhånden, istedet for at få dem alle samtidigt.

Men *real* 3D here we cooooooooome
Gravatar #2 - hvedehapser2
25. jun. 2007 11:38
#0 Det var da en super fesen analogi at komme med... For hvad er der galt i at starte på første side, hvis man bare gør det hurtigt?

Det sgu ikke dandy andy (sry har ikke sovet i laaang tid)
Gravatar #3 - iluka
25. jun. 2007 12:32
#1
Men det er ikke for at erstatte noget, normalt vil du jo netop gerne have resulaterne efterhånden, istedet for at få dem alle samtidigt.

Hvis jeg læser dig rigtigt så er jeg dybt uenig. Der er masser af beregninger hvor delresultater er meningsløse for brugeren. De fleste af de krævende beregninger jeg kan komme i tanke om at have stødt på (primært diværse analyse opgaver, f.eks. data mining) giver først mening når de er langt i processen eller helt slut. F.eks. clustering analyse i data mining er iterativ, og de føste mange iterationer kan ikke bruges til noget som helst.
Gravatar #4 - Kuruderu
25. jun. 2007 13:19
#2
Tænkte præcis det samme. Og så er det en direkte forkert analogi. En GPU har ikke 1000 simultane tråde kørende...
Gravatar #5 - dummyddd
25. jun. 2007 14:44
#0
Hvorfra læser du at Intel er verdens største producent af mikroprocessorer? Langt størstedelen af alle mikroprocessorer 8 bit mikroprocessorer, hvor jeg tvivler på at Intel er de største, og på supercomputer markedet er Freescale vist de største, så Intels position på desktop markedet er vist ikke helt relevant.

Personligt ser jeg NVidias produkt som et meget interessant tiltag. Godt nok kan vil processoren sandsynligvis ikke kunne branche (og være langt fra Turing komplet), men GPU'er har jo tidligere vist sig som værende meget brugbare til specifikke opgaver, så en GPU lavet med det specifikke mål, og lavet af en af verdens største GPU producenter, skal da nok blive sjovt. Synes dog det er noget interessant at de ikke laver en GPU der understøtter shader model 3.0 (og dermed understøtter branching, til en hvis grad)
Gravatar #6 - sKIDROw
25. jun. 2007 15:05
Imodsætning til Nvidias tilbud, så er CPU'er jo gerne dokumenteret. Så det kunne de jo så passende rette op på, i samme arbejdsgang... ;)
Gravatar #7 - aterra
25. jun. 2007 16:11
Hvorfor er det lige de sammenligner med x86 processorer, det de laver er da nærmere et alternativ til FPGA'er? eller sammenligner de med x86 fordi de mener de har noget der er lige så nemt at kode til?
Gravatar #8 - fidomuh
25. jun. 2007 16:31
#3

Hvis jeg læser dig rigtigt så er jeg dybt uenig. Der er masser af beregninger hvor delresultater er meningsløse for brugeren.


Men delresultaterne er ikke meningsloese for selve programmet?

Det kan give en kaempe forskel i specifikke situationer hvor hvert enkelt delresultat kan bruge for sig selv, men hvis du leder efter et samlet resultat, saa er du noed til at vente paa samtlige delresultater uanset hvad :)
Gravatar #9 - polakatack
25. jun. 2007 16:57
jeg kan da godt se fordelene ved at man regner milisekunder hurtigere, inden for den industrielle verden. men hvad vil det gavne os, ingenting tror jeg! tværtimod, for når de ligger sig på flere hardware dele, vil de ende i at smelte dem sammen ergo: du køber et motherboard fra xxxxx med indbygget nvidia processor og grafikkort! ergo du kan ikke opgradere din pc, på den måde vil nvidia sikre salg af processorer når de hænger sammen med deres hurtige grafik acceleratorer! ergo de vil få et kæmpe udbytte, men det vil bare få en negativ effekt på den normale forbruger!
Gravatar #10 - markjensen
25. jun. 2007 17:21
#9 Måske er det mig der har misforsået det, men det her har da slet ikke noget med "normale brugere" at gøre?! Medmindre du selv har brug for at lave videnskabelige beregninger derhjemme :)
Gravatar #11 - kriss3d
25. jun. 2007 18:01
Jeg gad da godt have et ordenligt cluster array med GPU processore. Til dekryptering bl.a. Der er man jo heller ikke interesseret i mellemresultater. Kun det endelige resultat.
Gravatar #12 - BurningShadow
25. jun. 2007 18:17
seti@home :)
Gravatar #13 - Thinksmart
25. jun. 2007 18:22
GPUen indeholder sikkert nogle snedige metoder til at foretage div. signalbehandlings opgaver. Feks. heftige FIR-fltre og det er er værre. Her kan virkelig hentes noget kraft og saft til både behandling af lyd og billeder - glæder mig til at læse noget dokumentation om sådan en fætter!
Gravatar #14 - aterra
25. jun. 2007 19:10
Nogen der ved hvormange GMACS pr. sek de kan køre op ved hvilken opløsning?
Gravatar #15 - faaret
25. jun. 2007 20:09
#alle der ikke kender begrebet GPGPU

Gå herind og læs gpgpu.org.
Gravatar #16 - The_Real
25. jun. 2007 21:38
#5

Skal ikke kunne sige specifikt angående microprocessors, men hvad angår ICs, har Intel været nummer et i meget lang tid:
http://www.icinsights.com/news/bulletins/bulletins...
Gravatar #17 - cyandk
26. jun. 2007 08:16
#2
“Hvis du ser på, hvordan en CPU og en GPU fungerer, så er det som en bog, hvor CPU'en starter på side et, mens en GPU vil rive bogen i 1000 stykker og klare prossessen parallelt, udtaler Andy Keane, general manager i Nvidia, til Financial Times."

Jeg kan da ikke stå til regnskab og forklarer andre personers udtalelser ? :)

#5
http://www.icinsights.com/news/bulletins/bulletins...

#15
Eller på wiki.
http://en.wikipedia.org/wiki/GPGPU
Gå til top

Opret dig som bruger i dag

Det er gratis, og du binder dig ikke til noget.

Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.

Opret Bruger Login