mboost-dp1

Nvidia

Universitet laver supercomputer af 4 GeForce 9800GX2

- Via Dark Vision Hardware - , redigeret af Emil , indsendt af Mr.DNA

På Antwerpens universitet i Belgien har forskere lavet en supercomputer for blot 30.000 kroner, der er hurtigere end ca. 300 almindelige Core 2 Duo 2,4GHz computere.

Computeren, som de kalder FASTRA, består af et bundkort fra MSI, der kan håndtere 4 grafikkort, hvor forskerne har anvendt 4 stk. Nvidia GeForce 9800GX2. De fire grafikkort anvendes til at beregne billeder fra 3D-tomografi. Billeder, der normalt kan tage uger at beregne, klarer computeren på blot nogle timer.

De avancerede 3D-røntgenbilleder har gerne en opløsning på 1024x1024x1024 punkter, hvilket føre til meget store datamængder.

Bundkortet anvender en AMD Phenom-processor, til trods for at forskerne bruger grafikkort fra Nvidia. Årsagen er, at det AMD-baserede bundkort var det eneste, som kunne håndtere fire grafikkort. Opsætningen kræver ikke SLI, idet de 8 GPU’er tilgås direkte via CUDA-softwareplatformen.

Der kan læses meget mere om FASTRA på universitetets hjemmeside.





Gå til bund
Gravatar #1 - SiniSael
30. maj 2008 13:27
Heh er sq lidt imponeret!!

Men tror lidt Geforce gnider sig lidt i hænderne mens de gnækker - når man tænker på deres udtalelser omkirng CPU'er er på vej i døden :D
Gravatar #2 - ejldk
30. maj 2008 13:27
er jeg den eneste der syntes at overskriften lyder forkert?
når jeg læser at de har lavet den af 4 grafikkort, tænker jeg at de har skildt 4 grafikkort ad, og samlet dem og lavet en computer af dem.
Gravatar #3 - F1skr
30. maj 2008 13:32
#2 den dag der er nogle som kan det så giv lige et link ;D

glæder mig til den slags computere er standard ;D så er det nok ikke 4 gfx men et der bare er rimeligt kraftigt.
Gravatar #4 - nielsbuus
30. maj 2008 13:36
Der burde stå MED og ikke af, og så hedder det "et bundkort" og ikke "en bundkort".

Er der nogle som kan forklare i praksis hvordan man "ser" et "kubikbillede" som dem computeren laver ?
Gravatar #5 - JacobN
30. maj 2008 13:51
#4 Mener at man kan bruge en algoritme kaldet "Marching Cubes"(google for details) til at visualisere data af den type. Kan ikke rigtig forklare det da jeg kun kender den ved navn.

Men er kun et løst gæt, så vil ikke holdes ansvarlig :p
Gravatar #6 - jfs
30. maj 2008 13:56
#1
Du mener vel Nvidia, det er det firma der producerer GeForce chipserien.

#4
Jeg tror der måske er tale om en slags voxel-data.
Man kan også visualisere et solidt 3D-objekt ved at se på en "skive" ad gangen, altså lave et virtuelt snit gennem den og så se hvordan snitfladen ser ud.
Til sidst kan jeg også forestille mig at de bruger en eller anden algoritme der beregner relationer mellem data i hvert af de 2^30 punkter til at skabe en egentlig 3D-model der så viser et bestemt aspekt af scanningen.
Gravatar #7 - JonasThyssen
30. maj 2008 14:01
Super fed idé egentlig. Gad vide om dette også kunne bruiges til at rendere 3d billeder fra eks. 3dsmax?

Edit: jeg skal fandme nærlæse de nyheder inden jeg poster :D
Gravatar #8 - .dot
30. maj 2008 14:18
#7 - Nemlig, fordi du skal bruge Quadro kort, ikke GeForce til at gøre det med :p
Gravatar #9 - Hamstro
30. maj 2008 15:07
#4 Der er en række forskellige måder at visualisere den slags data-kuber på. En meget anvendt måde er at lægge "snit" igennem kuben og vise snitfladen som et 2D-billede. Ved at flytte rundt på snittet, kan man overskue hele voluminet. Der findes adskillige gratis programmer, der kan vise kuber på den måde (søg f.eks. på DICOM viewer). Hvis lysten er der, findes der også databaser tilgængelige på nettet, som indeholder scanninger af bl.a. menneskehoveder (f.eks. her).

Det #5 snakker om er en måde at rekonstruere overflader fra et volumen. Marching cubes algoritmen kan bruges til at ekstrahere f.eks. overfladen af kraniet fra en MR-scanning af hovedet.

Behandlingen af de enorme mængder data, der genereres ved 3D-scanninger, er i øvrigt et meget aktivt forskningsområde, som der ligger mange spændende opgaver i.
Gravatar #10 - jakobdam
30. maj 2008 17:48
Intel postulerede jo her for nyligt at deres processorer "snart" ville yde i en sådan grad at grafikkort ville være overflødige.

Nu: 8 GPU'er banker ydelsen fra 300 Core2Duo'er...

Intel - har I lyst til at ændre udtalelsen eller indrømme at sjov tobak er en fast medarbejderbonus? :)
Gravatar #11 - somme89
30. maj 2008 20:25
#1 Nu er det ikke alle problemer en GPU er god til. Det er kun meget få algoritmer som kan implementeres effektivt på de nuværende GPU'er, så der går nok lige lidt tid før vi kan smide vores x86 processor ud.

#10 Tja intel snakker om at proppe 80 kerne i en processor, det skal nok give noget performance i teorien. Der er bare ikke ret meget software som kan udnytte så mange kerner. Der er også mange problemer med at give en cpu så mange kerner fx. kan den nuværende RAM teknologi næsten ikke følge med de nuværende single core processore, og hvordan skal det så ikke gå med 80 kerner.

Både CPU og GPU producenterne bliver ved med at klemme flere GLOPS ud men det er ikke noget performance som bliver udnyttet ved at skrive et almindeligt lille c-program. Programmører kommer på hårdt arbejde når de nuværende teknologier skal udnyttes fuldt ud. Det var nemmere i gamle dage hvor man bare satte clock frekvensen op, og så kørte alt hurtigere :-).
Gravatar #12 - vandfarve
30. maj 2008 21:11
#11

Apropos det, så har jeg tit gået i mit stille sind og tænkt over, hvorfor vi kun har Dual Channel-understøttelse som det maksimale på vores bundkort.

Jeg kan huske den gang for snart en mulliard år siden, hvor AMD kom frem med teknologien. Det var jo helt vildt, og det er snart et stykke tid siden. Derfor undrer det mig, hvorfor vi ikke har hørt om triple eller måske endda quad channel, da det burde være en relativ nem og billig teknologi at implementere ift. de udviklinger, der sker indenfor nord- og sydbroen for tiden.

På den anden side faldt jeg over denne artikel fra Tom's Hardware, der ikke fandt den store forskel på Single og Dual Channel. Måske er der bare ikke brug for mere?
Gravatar #13 - mee
31. maj 2008 07:30
# 12

Der går rygter om Nahalem vil understøtte triple channel http://en.wikipedia.org/wiki/Nehalem_(microarchite...

# 11
Hvor har du læst at ram teknologien ikke kan følge med?
Gravatar #14 - reefermadness  
31. maj 2008 07:58
#10 - Så er det sku da ved intel man skal søge arbejde :)
Gravatar #15 - somme89
31. maj 2008 08:58
#13 Se memory wall eller bare google memory wall.

Nu er det ikke altid at RAM er flaske halsen. Men det er et kendt problem at CPU'er venter flere hundrede cyckle på data hvis de ikke lige er i den cache. Hvis en applikation udføre simple beregninger på en stor mængde data, så kan den nuværende RAM teknologi ikke levere data hurtigt nok til en CPU'en og den bruger det meste af tiden på at vente. Prøv at forestil jer hvad der sker når 80 kerner skriger på data samtidig. Selvfølgelig er der nogen applikationer som kun kræver en meget lille mængde data og disse vil godt kunne udnytte flere kerner. Det kræver selvfølgelig at man kan finde ud af/har tid til at skrive applikationen så den effektivt udnytter de mange kerner, hvilket også er et meget stort problem.
Gå til top

Opret dig som bruger i dag

Det er gratis, og du binder dig ikke til noget.

Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.

Opret Bruger Login