mboost-dp1

unknown

Dobbelt GeForce 6800 power

- Via HWanalysis - , redigeret af Zero

I de gode gamle 3DFX dage med Voodoo kortene var Voodoo 2 i SLI konfiguration noget af de vildeste, man kunne få. Ved at kombinere to 3D-kort kunne man opnå dobbelt ydelse. Denne ide har Nvidia nu gravet frem fra skuffen til brug med GF 6800 kortet.

Ved at benytte et Scalable Link Interface (SLI) kan to PCI-Express GeForce 6800 kort kobles sammen, så de fungerer som et stort grafikkort. Ydelsen skulle efter Nvidias oplysninger stige med 90%.

Prisen for denne løsning er dog meget dyr. Ikke nok med at der skal benyttes to grafikkort, så findes bundkort med to 16x PCIe sokler kun som Intel Xeon baserede arbejdsstationer. Derfor forventes det også at Nvidia vil markedsføre løsningen sammen med Quadro udgaven af grafikkortet.





Gå til bund
Gravatar #1 - SpaZoiD
28. jun. 2004 14:28
ICH6'en kan max håndtere 20 PCI-E moduler.... lidt en skam når nVidia nu har været så rare at gøre det muligt for os at bruge 32 o.O
Gravatar #2 - Erroneus
28. jun. 2004 14:30
Det bliver såååååååå dyrt :)

Men ok alienware som bruger deres egen dual-teknologi snakker om priser omkring 5,5k$ , men til gengæld kan man bruge hvilken som helst grafikkort :)
Gravatar #3 - The-Lone-Gunman
28. jun. 2004 14:58
Uhh, det kunne jeg godt tænke mig at game Monkey Island 1, 2 og 3 på! ... eller noget

Nu er jeg ikke lige den vilde bruger af vilde grafikkort. Jeg tror ikke engang jeg belaster mit TNT2 kort. Men det er da fedt at man kan smide dem sammen som ét, men kunne en rigtig geek så også smide 3 eller 4 sammen?
Gravatar #4 - henrikmk
28. jun. 2004 15:19
Det er jo rart til spiludviklerne, men nok ikke for så mange andre. Jeg er sikker på det vil være gavnligt under udviklingen af Unreal 3 enginen:

http://unrealtechnology.com/html/technology/ue30.s...
Gravatar #5 - sguft
28. jun. 2004 15:24
#2: Ja, jeg mener de fremviste en dual x800 løsning på E3, right?
Gravatar #6 - Sjakalen|
28. jun. 2004 15:32
Det vil jeg ha!! når Doom3 kommer i næste månedet :o) hvis de holder vad de lover
Gravatar #7 - .dot
28. jun. 2004 16:39
Gravatar #8 - FISKER_Q
28. jun. 2004 16:46
#7 Meget nice som du lige fik det skiftet væk fra et arrogant "Old news?" :D

Anyways der er forskel, i Alienware's metode så tager hver halvdel sig så af skærmbilledet. I Nvidia's tilfælde der har de de en chip der står og balancerer arbejdet.

Hvilket også var lidt derfor jeg sagde i Alienware nyheden at de nok skulle have taget på vertikale linie istedet, da der måske nok var mindre arbejde til toppen end til bunden.

Hvilket Nvidia så løser ved at bruge en chip til at distributere arbejdet.

Og det kan måske sørge for at hvis et kort brænder af så får det ene kort bare automatisk alt workloadet. Dvs at skærmbilledet ikke bliver halveret af at fx et kort brænder(Det er dog kun ren spekulation).

Samtidig så forventes der også op til 90% ekstra performance ved deres metode, og kan ikke lige huske hvor performance niveauet ville stige med alienwares metode.
 
Gravatar #9 - .dot
28. jun. 2004 16:49
#8 - Var vist lidt hurtig på aftrækkeren :) - Læste lige artiklen igennem, og tjaa det var vist alligevel ikke set før...
Gravatar #10 - rpey60
28. jun. 2004 17:10
Forhåbentlig bare et spørgsmål om tid før vi ser et "normalt" bundkort der har 2 PCI-E x16 :-)

Kunne jo være nVidia allerede har udviklet et chipset :D
Gravatar #11 - rpey60
28. jun. 2004 17:30
Gravatar #12 - FISKER_Q
28. jun. 2004 17:38
#11 Så vidt jeg ved ville Nvidia ellers lave noget de kaldte "PCI-Express 20x". Ligesom AGP 16x til deres geforce kort.

Men det er vel ikke fordi det er umuligt at have 2x16x PCI Express. Især ikke hvis det er meningen den der SLI ting skal ind på markedet. Men ville dog stadigvæk forholde en vis skeptisme i forhold til The Inq.
 
Gravatar #13 - stefan_v
28. jun. 2004 18:34
Hmm... Var det nu ikke noget med at det kort slugte en fandens masse strøm? gange 2? BAM! :D

Kunne nu være ret cool alligevel... Sikker på at quake 1 ville køre som en drøm... i Int32.MaxValue x Int32.MaxValue opløsning... BAM!
Gravatar #14 - Gathond
28. jun. 2004 19:37
#13, jo over 100W vidst, hvis det så kombineres med en P4 så er vi så oppe over 300W inden der overhovedet er tænkt bundkort, diske, skærm, tab i strømforsyningen osv.

På den anden side skal der vel findes en eller anden undskyldning for at holde folk der bygger kraftværker beskæftiget:)
Gravatar #15 - Oddj0b
28. jun. 2004 20:21
Det er jo en rimelig dårlig ide.

1. Prisen det kommer til at koste mere end københavn.

2. Strømforbruget vil blive så stort at det sæt skal have sin egen forsygning.

3. Hvornår udkommer quadro så jeg kan få 4 kort sat sammen. For Nvidia kan åbenbart ikke udvikle mere.
Gravatar #16 - Onde Pik
28. jun. 2004 23:29
#8

Samtlige af ATI's Radeon series har understøttet en lignede metode. De har bare ikke forsøgt sig med det ud over teststadiet siden Rage Fury MAXX.

Jeg har ikke læst om alienwares løsning men jeg tror du har misforstået noget. Det giver ringe mening at rendere halvdelen af skærmbilledet på et kort og halvdelen på et andet. Det er ikke ret smart hvis man har lidt styr på hvordan grafik renderes.Hvis ikke der deles om arbejdet (som f.eks en chip beregner den ene havldel af PS effekterne i en scene, og den anden chip beregner den anden halvdel), så kunne jeg godt forstille mig en situation hvor hver kort skiftedes til at rendere et billede. Det giver langt mere mening end at hvert kort rendere halvdelen af skærmen.

Synes heller ikke argumentet om at "Jaa halvdelen af skærmbilledet forsvandt ikke da mit kort brændte af" er nogt særlig godt argument for ikke at bruge den løsning som du mener alienware bruger. Hvis ens ene grafikkort dør, er det sidste man gider at bekymre sig om hvorvidt man bliver nakket i Doom3 fordi man ikke kan se halvdelen af skærmen. Tror faktisk jeg ville være pænt meget mere ked af mit 4000+ kroners grafikkort. Desuden er det jo nok ikke noget man regner med sker særligt ofte.
Gravatar #17 - FISKER_Q
28. jun. 2004 23:55
#16 Det kan da godt være jeg er forkert på den, men i fremvisningen var billederne nogle gange out of sync.

Og så viste de at skærmbilledet blev halveret når de tog stikket ud.
 
Gravatar #18 - Erroneus
29. jun. 2004 06:13
#16 det er muligt det ikke giver mening for dig, men det er altså sådan deres system viser, med hver kort rendere hver sin del.

De har fremvist video er af det, hvor man tydeligt ser at hver kort, står for hver sin del.
Gravatar #19 - C#
29. jun. 2004 07:43
apples nye 30" TFT skærm kræver det nye nvidia kort, hvor hver kort renderer ½ af billedet (vandret), on scene demonstration i keynoten fra WWDC2k4 http://stream.apple.akadns.net/

FED skærm btw :)
(2560x1600 native resolution)

(som jeg ser det ikke dual nvidia kort, men dual dvi indgange til skærmen, hvor hver halvdel har sin egen dvi indgang)
Gravatar #20 - KozmoNaut
29. jun. 2004 09:04
#19 C#

BZZZT wrong. Come again.

Der står på Apples hjemmeside at de anbefaler et GF6800, og at kortet med to DVI udgange kan drive to skærme.
Gravatar #21 - KozmoNaut
29. jun. 2004 09:19
Nu hvor jeg lige tænker over det, så går DVI-standarden vist kun op til 1600x1200, så det kan faktisk godt passe at man skal bruge bege DVI-udgange til en enkelt skærm... Det virker bare lidt usmart.
Gravatar #22 - C#
29. jun. 2004 09:25
"KozmoNaut
BZZZT wrong. Come again."

bzzt selv, referer hvad steve jobs siger i keynoten.
Gravatar #23 - kris77
29. jun. 2004 10:12
Hvorfor går folk altid op i hvor meget strøm der bliver brugt....køb jer et bibbib spil og en pakke billige AA batterier.
Gravatar #24 - Onde Pik
29. jun. 2004 10:32
#17 og 18

Ok rolig så tror jeg på det. Det er bare ikke nogen særlig fiks løsning da den giver en masse redundante beregninger.
Gravatar #25 - FISKER_Q
29. jun. 2004 10:33
#24 Det har jeg aldrig sagt det var :P

Jeg kritiserede også løsningen i den originale nyhed, men det ser jo ud til at nvidia har fundet en løsning endnu bedre end den jeg tænkte på.
 
Gravatar #26 - KozmoNaut
29. jun. 2004 12:06
#22 C#

BZZT. Læs #21 ;)
Gravatar #27 - silkeaben
29. jun. 2004 18:50
#16.

jeg er ikke den store grafikhaj, men jeg mener nu at kunne regne ud, at det du foreslår ikke vil give nogen hastighedsforøgelse overhovedet!!
Hvis man sætter 2 grafikkort i, med samme hastighed og lader dem rendere 1 billede skiftesvis, så er det da det samme, som at rendere med det ene kort. Hvis det ene skal vente på at det andet er færdig, så er der da ingen hastighedsforøgelse!?!!

Noget helt andet er, at jeg tror det bliver for dyrt for os helt almindelig g33ks, som bare spiller lidt engang imellem.
Gravatar #28 - Xp3rt
1. jul. 2004 16:31
#27 nej nej nej... Kortene arbjeder samtidig, det ene den øverste del, og det andet den nederste, så hastigheden bliver dobbel så hurtig. Ca. Kortene skal jo kun udregne det halve af hvad det normalt skal, og derfor bliver frameraten høj...
Gravatar #29 - abnorm
1. jul. 2004 20:33
Jeg kan huske dengang jeg prøvede at sætte de to voodoo2 kort sammen. Der gik ikke særlig lang tid før det ene gik i stykker, og den kloge mand sage at det var noget værre noget at rode med.
Hvis Nvideas udstyr er ligeså følsomt, kan man hurtigt få smidt nogle penge ud af vinduet.
Gå til top

Opret dig som bruger i dag

Det er gratis, og du binder dig ikke til noget.

Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.

Opret Bruger Login