mboost-dp1

Guru 3D
- Forside
- ⟨
- Forum
- ⟨
- Nyheder
Sådan som nVidia pakke deres kort ind, ser de da ikke meget lys..
--
nVidia har altid været lidt a la V8ere. Er den ikke hurtig nok - gør det større, dyrere og mere effektforbrugende...Bare vi er de hurtigste! At kortet så bruger næsten 300Watt er vel nærmest grænsende til det latterlige..
Jeg tror ikke ATI skal frygte noget der ikke sælger mere end 10 stk. :D
--
nVidia har altid været lidt a la V8ere. Er den ikke hurtig nok - gør det større, dyrere og mere effektforbrugende...Bare vi er de hurtigste! At kortet så bruger næsten 300Watt er vel nærmest grænsende til det latterlige..
Jeg tror ikke ATI skal frygte noget der ikke sælger mere end 10 stk. :D
Hvad så med den nye GT300 chip, på 40nm der kommer i 1. halvår ligeledes?
det er lidt ligesom 9800gtx+, som blev løsladt omtrendt samme tid som 200gt.
måske skal man holder hænderne nede indtil vi hører mere om gt300 chippen, hvis man vil have det ypperste...
det er lidt ligesom 9800gtx+, som blev løsladt omtrendt samme tid som 200gt.
måske skal man holder hænderne nede indtil vi hører mere om gt300 chippen, hvis man vil have det ypperste...
#15) Nej det er kun kortet, derfor jeg har losset en 900watt PSU i min PC til at trække 6 diske hvor 4 er SSD og 2 SATA2, 1 CDrom og en OC'et CPU + stort gfx kort, dog tror jeg godt ne 500 til 600watt kunne klare det men min elmålere takker mig hvergang jeg slukker min pc ;0)
Og så skal man lgie huske på hvad der skete for dem der hoppede på 7950GX2..."lykken" var kort og så kom 8800 serien...derefter kom 9800GX2...og kort tid efter kom 2x0 serien og gjorde GX2 til skamme.
Multi-GPU har altid været en stopgap løsning...og altid slået af den næste generation GPU.
Multi-GPU har altid været en stopgap løsning...og altid slået af den næste generation GPU.
Hvis prisen kommer til at ligger på $499 ($20 over 4870X2) så bliver nvidia en god konkurrent. Som det ser ud er de ikke et meget bedre valg for 1600x1200 opløsningen som nok er den opløsning de fleste bruger. Uden alt deres AF og AA slået til i maks, så sker nogle gode argumenter til at købe et kort der er ret meget dyrer.
... Og så lige min standard kommentar, der er ikke meget ved at have et super duper hurtigt kort, hvis driveren er noget ustabilt hø. Så håber igen på at de har fået gjort noget ved deres driverproblemer.
... Og så lige min standard kommentar, der er ikke meget ved at have et super duper hurtigt kort, hvis driveren er noget ustabilt hø. Så håber igen på at de har fået gjort noget ved deres driverproblemer.
#20:
Jeg troede 3870x2'eren brugte max. 240W... Men lyder da som en 'lille' god maskine dér :)
--
Og inden hænderne kommer alt for højt må man jo påregne at ATI er på vej med deres RD800, som efter sigende vil være 1/2 gang hurtigere end HD4870 med en samlet (teoretisk) regnekraft på ~1,5 TeraFLOPS.
Jeg troede 3870x2'eren brugte max. 240W... Men lyder da som en 'lille' god maskine dér :)
--
Og inden hænderne kommer alt for højt må man jo påregne at ATI er på vej med deres RD800, som efter sigende vil være 1/2 gang hurtigere end HD4870 med en samlet (teoretisk) regnekraft på ~1,5 TeraFLOPS.
#25:
Det undrer mig egntlig at man på det link #19 henviste til ikke havde Crysis under kniven?
Synes foriøvrigt ikke at nVidia kortet som sådan brillierer i de højeste opløsninger ift. 4870 X2 kortet, der rent faktisk, nærmest anonymt, følger pænt med.
nVidiakortet bliver svært at prissætte lavt som et ATI da der er 2 print og en temmelig voldsom sandwich konstruktion, der unægteligt må være en del dyrere at producere end ATI's ene printkort.
Men lad os se når flere tests dukker op, og prisen bliver endelig.
Det undrer mig egntlig at man på det link #19 henviste til ikke havde Crysis under kniven?
Synes foriøvrigt ikke at nVidia kortet som sådan brillierer i de højeste opløsninger ift. 4870 X2 kortet, der rent faktisk, nærmest anonymt, følger pænt med.
nVidiakortet bliver svært at prissætte lavt som et ATI da der er 2 print og en temmelig voldsom sandwich konstruktion, der unægteligt må være en del dyrere at producere end ATI's ene printkort.
Men lad os se når flere tests dukker op, og prisen bliver endelig.
Clauzii (26) skrev:#25:
Det undrer mig egntlig at man på det link #19 henviste til ikke havde Crysis under kniven?
You might be wondering where some of the staple benchmarks are in our review like Crysis (or Crysis: Warhead), Bioshock, GRID and others - they are coming. NVIDIA didn't give us much time with this card so I went with the most recent and relevant titles sitting closest at hand on our test bench. I think that our four real-world gaming examples and 3DMark Vantage can paint a pretty clear picture of what the GeForce GTX 295 can produce in terms of gaming experiences and the results are impressive.
Clauzii (26) skrev:#25:
Det undrer mig egntlig at man på det link #19 henviste til ikke havde Crysis under kniven?
Crysis Warhead:
http://enthusiast.hardocp.com/article.html?art=MTU...
http://www.guru3d.com/article/geforce-gtx-295-prev...
UPS, sorry. Det er hvad der sker når man laver noget andet imens man læser ;)
Deres konklusion om at Vantage skulle være brugbar som målestok, da et nyt spil som f.eks. FarCry 2 er absolut uafgjort i højeste opløsning, selvom vantage skulle pege mod ~30% højere ydelse fra GTX 295. Med mindre Crysis er endnu mere krævende end FarCry 2, hvilket det visuelle IKKE siger mig, men hvem ved; måske kræver Crysis så sindsygt meget, at der ikke findes en GPU der kører 100+ FPS før Crysis er afløst af en to'er, der så starter nede ved 5 FPS igen ;)
Deres konklusion om at Vantage skulle være brugbar som målestok, da et nyt spil som f.eks. FarCry 2 er absolut uafgjort i højeste opløsning, selvom vantage skulle pege mod ~30% højere ydelse fra GTX 295. Med mindre Crysis er endnu mere krævende end FarCry 2, hvilket det visuelle IKKE siger mig, men hvem ved; måske kræver Crysis så sindsygt meget, at der ikke findes en GPU der kører 100+ FPS før Crysis er afløst af en to'er, der så starter nede ved 5 FPS igen ;)
neonman (20) skrev:#15) Nej det er kun kortet, derfor jeg har losset en 900watt PSU i min PC til at trække 6 diske hvor 4 er SSD og 2 SATA2, 1 CDrom og en OC'et CPU + stort gfx kort, dog tror jeg godt ne 500 til 600watt kunne klare det men min elmålere takker mig hvergang jeg slukker min pc ;0)
min computer med c2d E6850, 2gb ddr3 ram, 4hdd, 1 dvd brænder, et par add-on korts trækkr ca 300w i full load... for hele systemet!
ifølge tomshardware skulle prisen ligge imellem 450$ og 499$. Ydelsen skulle være en del bedre end 4870x2, og strømforbruget skulle være mindre (10W ved idle og 50W ved load)
Nu er det selvfølgelig ik til at sige hvordan prisen blir i DK, men hvis vi bare omregner beløbet blir det mellem 2400 og 2600, og så skal de sikkert have 1000 oveni fordi det er Danmark
Så synes alt-i-alt det slet ik er så dårligt som jeg havde gættet på det ville blive.
Nu er det selvfølgelig ik til at sige hvordan prisen blir i DK, men hvis vi bare omregner beløbet blir det mellem 2400 og 2600, og så skal de sikkert have 1000 oveni fordi det er Danmark
Så synes alt-i-alt det slet ik er så dårligt som jeg havde gættet på det ville blive.
meinder (11) skrev:hvad sluger mine 2 x 280 i sli så ???
236W pr. kort = 472W total.
Kilde:
http://www.nvidia.com/object/product_geforce_gtx_2...
neonman (9) skrev:#8) skal lige siges mit 3870X2 kort fra ATI benytter 150watt Idle og 350watt Load ;0) så watt slugere store kort altsåer,
Hvad taler du om?!
Hvis det er et helt system, kan jeg forstå det -mit system bruger 160w idle og ekstra 70-80w per kerne spillet bruger fra gfx-kortet, altså ca 230 eller 300w ialt....!
Club3d Radeon 3870X2
C2D E8200
Gigabyte GA 965P DS4
2 HDD
Kan nu godt se nu at det var en fejl at få det x2 kort. Det er ganske godt, men en del spil bruger ikke begge kerner og der er nada support i linux(!!)...
Hmm... Skal man så ikke til at skifte til 64 Bit OS?
Så vidt jeg ved er max ram for hele systemet 4 GB.
Det betyder at med 4 GB DDR2 RAM, og 1792 MB grafikkort.
Så det ram der er tilbage til OS skulle være 4096-1792 = 2304 mb.
HVis man bruger det grafikkort betyder at Windows udnytter 2,3 GB RAM ud af 4 GB? eller tager jeg fejl ?
Så vidt jeg ved er max ram for hele systemet 4 GB.
Det betyder at med 4 GB DDR2 RAM, og 1792 MB grafikkort.
Så det ram der er tilbage til OS skulle være 4096-1792 = 2304 mb.
HVis man bruger det grafikkort betyder at Windows udnytter 2,3 GB RAM ud af 4 GB? eller tager jeg fejl ?
Skak2000 (37) skrev:Hmm... Skal man så ikke til at skifte til 64 Bit OS?
Så vidt jeg ved er max ram for hele systemet 4 GB.
Det betyder at med 4 GB DDR2 RAM, og 1792 MB grafikkort.
Så det ram der er tilbage til OS skulle være 4096-1792 = 2304 mb.
HVis man bruger det grafikkort betyder at Windows udnytter 2,3 GB RAM ud af 4 GB? eller tager jeg fejl ?
Svjv så er det kun det effektive ram for gfxkortet, dvs. 896MB som indgår i de totale 4GB Windows max. Så det vil nærmere være 4096 - 896 = 3200MB :)
Ikke fordi det ændrer på at det bedre kan betale sig med 64bit...
Det er osse derfor jeg kun købte 3GB i sin tid, for at undgå spild og jeg gider ikke have 64bit, før det er mere eller mindre nødvendigt.
Opret dig som bruger i dag
Det er gratis, og du binder dig ikke til noget.
Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.