mboost-dp1

Advanced Micro Devices, Inc.
- Forside
- ⟨
- Forum
- ⟨
- Nyheder
Det er jo helt vildt at sådan en bandit bruger 161W og 71W i idle... Mit 7900GTX bruger 82W i peak og 31 i idle... Og med et strømforbrug der ligger langt over nvidias, så ved jeg da godt hvilken hest der skal spilles på :-D
Men nvidias AF er noget dårligere end ATI's... men alligevel
Men nvidias AF er noget dårligere end ATI's... men alligevel
#1
"Men nvidias AF er noget dårligere end ATI's"
ikke hvis du læser HardCOP test ! AMD/ATI har ikke lavet noget ændringer på ders AF siden x1xxx serien
http://enthusiast.hardocp.com/article.html?art=MTM...
"Men nvidias AF er noget dårligere end ATI's"
ikke hvis du læser HardCOP test ! AMD/ATI har ikke lavet noget ændringer på ders AF siden x1xxx serien
http://enthusiast.hardocp.com/article.html?art=MTM...
#2 Det var vist også mig der havde fået byttet rundt på de screens, så nvidia er bedre end ati... sådan kan det jo gå, når man har for mange tabs åbne :-D
http://www.xbitlabs.com/articles/video/display/r60...
Selvom ATI kort er hurtigt, så har det nogle minuser der gør, at jeg synes nvidia kort er langt at foretrække, selvom jeg synes det er vildt, at strømforbruget er skudt sådan i vejret. Lad os håbe at næste generation, hvor dx10 begynder at blive interessant også byder på nogle lidt federe kort, for synes ikke rigtigt, at man får hvad man betaler for. Specielt idle, med de timer min computer køre kommer de til at kunne ses på el regningen og jeg tænker da også lidt på miljøet, det bliver man jo nødt til...
http://www.xbitlabs.com/articles/video/display/r60...
Selvom ATI kort er hurtigt, så har det nogle minuser der gør, at jeg synes nvidia kort er langt at foretrække, selvom jeg synes det er vildt, at strømforbruget er skudt sådan i vejret. Lad os håbe at næste generation, hvor dx10 begynder at blive interessant også byder på nogle lidt federe kort, for synes ikke rigtigt, at man får hvad man betaler for. Specielt idle, med de timer min computer køre kommer de til at kunne ses på el regningen og jeg tænker da også lidt på miljøet, det bliver man jo nødt til...
#4
Jeg har det med [H]ardocp som jeg havde det med Ole Michelsen fra Bogart (da det stadig kørte) - det er ikke altid jeg er enig med dem, men jeg har en nogenlunde fornemmelse af produktet efter at have læst deres anmeldelser :)
Med det sagt, er det klart Anandtech og Beyond3D jeg har mest tillid til. [H] er for subjektiv, IMO.
Jeg har det med [H]ardocp som jeg havde det med Ole Michelsen fra Bogart (da det stadig kørte) - det er ikke altid jeg er enig med dem, men jeg har en nogenlunde fornemmelse af produktet efter at have læst deres anmeldelser :)
Med det sagt, er det klart Anandtech og Beyond3D jeg har mest tillid til. [H] er for subjektiv, IMO.
jeg kan virkelig godt lide den måde de har bygget det op på, da det virkelig gør det meget mere fleksibelt. selv om det lader til at koste lidt håber jeg også Nvidia, da det på denne måde bliver meget mere brugbart når man ikke spiller da det på en nemmere måde kan benyttes til andre ting.
desuden ser det også ud til at denne GPU passer meget godt ind i AMD fremtid, med hensyn til at smelte GPU GPU mm sammen og derved udvikle en meget mere fleksibel løsning, hvilket er noget som manege håber på snart at se.
desuden ser det også ud til at denne GPU passer meget godt ind i AMD fremtid, med hensyn til at smelte GPU GPU mm sammen og derved udvikle en meget mere fleksibel løsning, hvilket er noget som manege håber på snart at se.
#6
'Smelter sammen' er måske et meget passende udtryk... :) Nej, jeg har stor respekt for ATI & AMDs arbejde, men denne GPU bruger alt for meget strøm ifht. ydelsen, og kommer lidt for sent på markedet ifht. konkurrenten.
Det er helt sikkert et mere fleksibelt grafikkort, især dens finmaskede shaders er spændende, men problemet er, at high-end grafikkortene primært vil blive brugt til spil, og der skuffer kortet pt. ved ikke at være hurtigere end Nvidias 6 mdr. gamle kort.
At jeg så tror at arkitekturen har stort potentiale på sigt - evt. efter en hardware revision der kan sætte strømforbruget ned og dermed sætte hastigheden op - gør det kun mere ærgeligt at kortet kun næsten når i mål ydelsesmæssigt.
HD 2600 XT og HD 2400 XT kunne dog godt blive nogle spændende kort for den almindelige køber. Det må vi vente med at se til de er blevet ordentligt testet.
'Smelter sammen' er måske et meget passende udtryk... :) Nej, jeg har stor respekt for ATI & AMDs arbejde, men denne GPU bruger alt for meget strøm ifht. ydelsen, og kommer lidt for sent på markedet ifht. konkurrenten.
Det er helt sikkert et mere fleksibelt grafikkort, især dens finmaskede shaders er spændende, men problemet er, at high-end grafikkortene primært vil blive brugt til spil, og der skuffer kortet pt. ved ikke at være hurtigere end Nvidias 6 mdr. gamle kort.
At jeg så tror at arkitekturen har stort potentiale på sigt - evt. efter en hardware revision der kan sætte strømforbruget ned og dermed sætte hastigheden op - gør det kun mere ærgeligt at kortet kun næsten når i mål ydelsesmæssigt.
HD 2600 XT og HD 2400 XT kunne dog godt blive nogle spændende kort for den almindelige køber. Det må vi vente med at se til de er blevet ordentligt testet.
R600's primære problem er det lave antal af texture units, hvilket xbitlabs også skriver. Reelt er det vel også et lidt sært valg af ATI / AMD, men måske giver det pote i spil som Crysis, Bioshock og Alan Wake (når de engang kommer). Det er ihvertfald tydeligt at HD2900XT bliver begrænset temmelig kraftigt af dette valg, ihvertfald i langt de fleste nuværende spil (og endda i nogle syntetiske shader tests). Der er dog også titler hvor kortet ser noget bedre ud ydelses mæssigt, bla. Rainbow Six: Vegas, Testdrive Unlimited og Company of Heroes. I disse titler følger det med 8800GTX.
Hvis jeg stod og skulle købe et kort i 3000.- klaseen ville jeg nok vælge HD2900XT. Det virker til at have noget større potentiale end 8800GTS 640mb.
Mht. strømforbrug betyder det øgede forbrug, altså meget lidt for både miljø og elregning. Der hvor det betyder noget er mht. køling, mere varme giver teoretisk set også mere støj fra køleløsningen.
Hvis jeg stod og skulle købe et kort i 3000.- klaseen ville jeg nok vælge HD2900XT. Det virker til at have noget større potentiale end 8800GTS 640mb.
Mht. strømforbrug betyder det øgede forbrug, altså meget lidt for både miljø og elregning. Der hvor det betyder noget er mht. køling, mere varme giver teoretisk set også mere støj fra køleløsningen.
Opret dig som bruger i dag
Det er gratis, og du binder dig ikke til noget.
Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.