mboost-dp1

unknown

GeForce 7800 GTX overrasker i forhold til 6800 Ultra SLI

- Via Techreport - , redigeret af Pernicious

Techreport har testet det nye Geforce 7800GTX og sammenlignet med Geforce 6800 Ultra og Radeon X850XT PE. Geforce kortene er desuden testet i SLI mode. Som noget nyt er der desuden testet i opløsninger helt op til 2048×1536. I de fleste gængse spil, viser 7800GTX sig at yde en del bedre end sin forgænger, især ved højere opløsninger. I Half-Life 2 er det dog bemærkelsesværdigt, at et enkelt 7800GTX kører næsten dobbelt så hurtigt som to 6800 Ultra i SLI mode, i den højeste opløsning. Faktisk er ydelsen med et enkelt 7800GTX begrænset af CPUen, hvilket ses af at der ikke er nogen gevinst ved at køre SLI på 7800GTX kortet i Half Life 2.

Den danske side EDB-Tidende har lavet lidt beregninger på ydelsen i 2048×1536, og er kommet frem til, at 7800GTX gennemsnitligt yder 7% bedre end to 6800 Ultra i SLI, ved denne opløsning, og samtidig koster et enkelt 7800GTX kun 2/3 af prisen på to stk. 6800 Ultra.





Gå til bund
Gravatar #1 - loadet
18. jul. 2005 23:45
"de fleste gængse spil, viser 7800GTX sig yde en del bedre end sin forgænger"
- sig at yde..
Gravatar #2 - Norton
19. jul. 2005 00:30
SLI bliver jo ikke rigtigt til noget, kan det virkelig betale sig at købe hele 2 grafikkort? De bliver jo ikke ligefrem billigere :/
Gravatar #3 - zurg
19. jul. 2005 00:33
Damn ja GeForce 7800 sparker røv. Læste bla. på Nvedias side at der var kommet features som realtime SSS og HDR shader :O der er virkelig ved at ske noget inde for lys på realtime-grafik fronten..
Gravatar #4 - bjerh
19. jul. 2005 00:40
#2 Det er vel bare et spørgsmål om tid, før man programmerer spillene på en måde, så alle folk kan se, at man ikke kan undvære to kort sat til SLI.
Gravatar #5 - RuFFNeCK
19. jul. 2005 00:48
jae, man er jo på ven imod Dual Core CPUer, så hvorfor ik Dual Core GFX?.. en måde at gøre det er SLi, men det skal nok gøres smartere.. og mere strøm effektivt, er tingene som de er nu ialdfald LANGT FRA..

evt opdele 2D og 3D Chippen, så 3D Chippen er slået fra når den ik skal bruges, og så startes op (med dertil hørende blæser) når noget 3D Skal renderes..

eller gøre sådan core clocker sig ned på 50-100MHz istedet for sine 500-800MHz f.eks.. lidt ala Cool'N'Quiet fra AMD :)

f.eks! ;)
Gravatar #6 - amokk
19. jul. 2005 01:18
#5 "eller gøre sådan core clocker sig ned på 50-100MHz istedet for sine 500-800MHz f.eks."

det sker allerede på mange kort, især i laptops.

men moderne operativsystemer bruger flere og flere af grafikkortets funktioner bare for at vise brugerfladen (transparency, overlay og andet sjov), og i longhorn skulle det hele blive 3D renderet eller noget i den stil, så der vil være konstant load på grafikkortet
Gravatar #7 - Silentkill
19. jul. 2005 06:40
"og samtidig koster et enkelt 7800GTX kun 2/3 af prisen på to stk. 6800 Ultra"

Ja, det er jo næsten billigt... not.
Gravatar #8 - ZnabelA
19. jul. 2005 07:39
Når grafikkortet budgeteres til ca. 1/3 af den totale værdi på en computer, processoren er også 1/3 og der så er den sidste stump af lagkagen til 2Gb DDR2 ram, 160Gb harddisk, bundkort, lydkort, fladskærm ... hvor er det så lige vi er på vej hen?
Gravatar #9 - goAMinD
19. jul. 2005 15:19
#8 Da alle vil have fede 3D spil følger markedet bare behovet, og skruer priserne unødvendigt op. Jeg gi'r ikke en klaphat for det, at man mener det er dyrere at udvikle og producere grafikkort (læst på andre fora). Det er efterspørgslen der sætter tanker i gang i forretningshjernen ude ved producenterne. Kunderne skal nok betale.
Gravatar #10 - amokk
19. jul. 2005 16:26
#9 vi kan nok godt blive enige om at det ikke er dyrere at producere grafikkort end det er at producere så meget andet. men det er egentlig også irrelevant.

sagen er jo, at grafikkort er det område hvor udviklingen går allerhurtigst. samtidig er der ikke ret mange kunder, hvis man sammenligner med CPU markedet, over 90% af alle computere har jo et billigt grafikkort, evt. onboard.

så hvor intel og AMD kan udvikle en ny CPU, og vide at den kan holde sig på markedet i 3-4 år og der er 100 millioner potentielle købere, må ATI og nVIDIA nøjes med at vide, at den GPU de udvikler, kan være på markedet i 1 år og der er 10 millioner potentielle købere. - tallene er fiktive

så siger det jo sig selv, at købere af GPUer betaler en større del af udviklingsomkosningerne, end købere af CPUer gør.
det giver sig jo også udslag i, at et grafikkort efter 2 år på markedet falder til ca. 10% af den pris det havde ved introduktionen, simpelthen fordi man efter så lang tid kun betaler produktionsomkosninger og ikke udvikling.
Gå til top

Opret dig som bruger i dag

Det er gratis, og du binder dig ikke til noget.

Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.

Opret Bruger Login