mboost-dp1

bit-tech.net
- Forside
- ⟨
- Forum
- ⟨
- Nyheder
Loke76 (3) skrev:Hvordan er strømforbrug så på kortene?
200W TDP for 6950.
250W TDP for 6970.
AMD har åbenbart lagt noget strøm styring ind, så det er max værdier.
Jvf: anandtech...
Og hvor er Terra ... Jeg havde lidt håbet på et langt rant om hvor meget bedre <insæt NV kort her> er :(
spejlkugle (5) skrev:200W TDP for 6950.
250W TDP for 6970.
AMD har åbenbart lagt noget strøm styring ind, så det er max værdier.
Jvf: anandtech...
Og hvor er Terra ... Jeg havde lidt håbet på et langt rant om hvor meget bedre <insæt NV kort her> er :(
han er endnu ikke færdig med at sodomisere et Radeon 6970 kort
#5:
No need to state the obvious.
AMD har valgt at låse sig fast på en fixed diesize og det begynder nu at bide dem i røven:
- Ringere AF (hardware issue...det sker når man svinger kniven på ens kerner)
- Ringere ydelse (husk på vi snakker high-end, ikke mormors PC)
- Lavere I.Q. settings som standard.
Så nu er både NVIDIA's og AMD's refresh ude...GTX580 at bestille :D
No need to state the obvious.
AMD har valgt at låse sig fast på en fixed diesize og det begynder nu at bide dem i røven:
- Ringere AF (hardware issue...det sker når man svinger kniven på ens kerner)
- Ringere ydelse (husk på vi snakker high-end, ikke mormors PC)
- Lavere I.Q. settings som standard.
Så nu er både NVIDIA's og AMD's refresh ude...GTX580 at bestille :D
blaaoejet (6) skrev:spejlkugle (5) skrev:200W TDP for 6950.
250W TDP for 6970.
AMD har åbenbart lagt noget strøm styring ind, så det er max værdier.
Jvf: anandtech...
Og hvor er Terra ... Jeg havde lidt håbet på et langt rant om hvor meget bedre <insæt NV kort her> er :(
han er endnu ikke færdig med at sodomisere et Radeon 6970 kort
Langt fra alle tænder på kerner under forhuden...mig selv inklusive.
Og LOL!!!!
AMD's powertune, kan ikke lide spil der presser GPU'en:
http://www.anandtech.com/show/4061/amds-radeon-hd-...
Of the dozen tests, only two triggered PowerTune: FurMark as expected, and Metro 2033."
Så hvordan kan man kende i n00b i dag?
Nemt, n00b'en siger:
But will it play Crysis?
Hvorimod dem med bare en smule viden ville sige:
But will it play Metro2033?
AMD's powertune, kan ikke lide spil der presser GPU'en:
http://www.anandtech.com/show/4061/amds-radeon-hd-...
Of the dozen tests, only two triggered PowerTune: FurMark as expected, and Metro 2033."
Så hvordan kan man kende i n00b i dag?
Nemt, n00b'en siger:
But will it play Crysis?
Hvorimod dem med bare en smule viden ville sige:
But will it play Metro2033?
#10
Læs nu det hele inden du ranter :)
De skriver jo lige netop også, at der faktisk ikke var noget forskel på ydelsen, selv om PowerTune clockede kortet ned i perioder.
Og i øvrigt at du bare selv kan sætte grænsen for PowerTune op (så den rammer stort set samme power envelope som 580'eren), hvilket effektivt disablede den ;)
Læs nu det hele inden du ranter :)
De skriver jo lige netop også, at der faktisk ikke var noget forskel på ydelsen, selv om PowerTune clockede kortet ned i perioder.
Og i øvrigt at du bare selv kan sætte grænsen for PowerTune op (så den rammer stort set samme power envelope som 580'eren), hvilket effektivt disablede den ;)
Hovsa ...
"Stort set ingen forskel i Metro2033" burde der have stået.
Temmelig stor forskel i FurMark :)
"Stort set ingen forskel i Metro2033" burde der have stået.
Temmelig stor forskel i FurMark :)
Er det bare mig, eller har AMD total fucked deres nummerserie op ?
burde 6970 ikke have heddet 6870... og 6870 have heddet 6770 ?
burde 6970 ikke have heddet 6870... og 6870 have heddet 6770 ?
#1... jep men dit kort koster 1000 kr mere :D og køre kun en brøkdel hurtigere
alternativ... køb 2x 6870 og få bedre ydelse end 1x 580 til næsten samme pris.
+ Eyefinity
alternativ... køb 2x 6870 og få bedre ydelse end 1x 580 til næsten samme pris.
+ Eyefinity
#16:
Det køre imellem 5-30% hurtigere...og så har jeg flere features, så som GPU fysik(noget AMD stadig drømmer om at få), bedre I.Q...det var 3 gode grunde til at holde sig fra A;D....hvorfor skulle jeg ofre det for at bruge mindre watt? :s
Terra - Svensk el er billigt...
PS. Og læg mærke til, igen, at AMD halter bagefter i tessellation...den vigtigste feature i DX11...gæt hvilke kort der holder længst? :p
Det køre imellem 5-30% hurtigere...og så har jeg flere features, så som GPU fysik(noget AMD stadig drømmer om at få), bedre I.Q...det var 3 gode grunde til at holde sig fra A;D....hvorfor skulle jeg ofre det for at bruge mindre watt? :s
Terra - Svensk el er billigt...
PS. Og læg mærke til, igen, at AMD halter bagefter i tessellation...den vigtigste feature i DX11...gæt hvilke kort der holder længst? :p
Vel det ser ud til at det er et meget tæt løb. De to anmeldelser jeg har læst Tomshardware og Anandtech giver ingen klar vinder mellem GTX 570 og de to nye radeon kort. Det virker til at man skal vælge ud fra:
1. Hvor meget går man op i strømforbrug (AMD vinder klart)
2. Hvilket tilbud kan man drage fordel af lige nu
3. Hvor meget tror man på at AMD's arkitektur er mere fremtidssikret (Anand virker lidt i tvivl om hvor meget man kan stole på det)
4. Hvilke butikker har det rent faktisk på hylden
5. Gør som #16 foreslår og køb to kort af enten nvidia eller AMD's sidste generation nu, da de er ved at tømme lagrene.
6. Er der kun et spil man selv spiller, så kan man med fordel købe lige netop det kort der er bedst til det
Jeg tror personligt jeg venter på et godt tilbud når jeg alligevel skal købe sandy bridge i starten af det nye år.
Det er dog en skam der ikke er mere forskel, så vi kunne få endnu mere pris-konkurrence.
Ad 1. Er der nogle der hurtig kan slynge et tal ud på hvor meget man vil spare ved køb af AMD's model overfor 570GTX, og man spiller i gennemsnit 3-4 timer WoW hver dag over et år? ;)
1. Hvor meget går man op i strømforbrug (AMD vinder klart)
2. Hvilket tilbud kan man drage fordel af lige nu
3. Hvor meget tror man på at AMD's arkitektur er mere fremtidssikret (Anand virker lidt i tvivl om hvor meget man kan stole på det)
4. Hvilke butikker har det rent faktisk på hylden
5. Gør som #16 foreslår og køb to kort af enten nvidia eller AMD's sidste generation nu, da de er ved at tømme lagrene.
6. Er der kun et spil man selv spiller, så kan man med fordel købe lige netop det kort der er bedst til det
Jeg tror personligt jeg venter på et godt tilbud når jeg alligevel skal købe sandy bridge i starten af det nye år.
Det er dog en skam der ikke er mere forskel, så vi kunne få endnu mere pris-konkurrence.
Ad 1. Er der nogle der hurtig kan slynge et tal ud på hvor meget man vil spare ved køb af AMD's model overfor 570GTX, og man spiller i gennemsnit 3-4 timer WoW hver dag over et år? ;)
#17
med DX11 får du jo alle de ting som NVidia har nu:
- CUDA (DX11 DC)
- PhysX (DX11 DC)
- Video Encoding (DX11 DC)
dog er ATI langt bagefter på de punkter, idet NV har været igang længe med CUDA og PhysX...
vil give dig ret i at 1 kort er bedst på mange punkter...
Men jeg køber sku ikke et NVidia igen - ikke før de får styr på blæserstøj og watt forbrug
med DX11 får du jo alle de ting som NVidia har nu:
- CUDA (DX11 DC)
- PhysX (DX11 DC)
- Video Encoding (DX11 DC)
dog er ATI langt bagefter på de punkter, idet NV har været igang længe med CUDA og PhysX...
vil give dig ret i at 1 kort er bedst på mange punkter...
Men jeg køber sku ikke et NVidia igen - ikke før de får styr på blæserstøj og watt forbrug
#22:
Du er da lidt lost ikke?
- CUDA er lysår foran Direct Compute...madre mia.
- PhysX er middleware, ikke en API...lær at kende forskel før du poster igen. DirectCompute er IKKE en fysik motor.
- Igen at sammeligne CUDA med DirectCompute er til grin.
Og du skulle måske læse lidt op på nogle GTX580 reviews, for udvidenheden bare oser ud af dig...og så regne på hvad den lille forskel rent faktisk betyder...
Du er da lidt lost ikke?
- CUDA er lysår foran Direct Compute...madre mia.
- PhysX er middleware, ikke en API...lær at kende forskel før du poster igen. DirectCompute er IKKE en fysik motor.
- Igen at sammeligne CUDA med DirectCompute er til grin.
Og du skulle måske læse lidt op på nogle GTX580 reviews, for udvidenheden bare oser ud af dig...og så regne på hvad den lille forskel rent faktisk betyder...
#24:
Masser, men ikke særligt "signede" da DX10 kort jo enten køre med reduceret I.Q eller ydelse i forhold til et DX11 kort i DX11 spil...og DX11 er jo hvad det hele handler om fremadrettet.
Skal du have en et fikspunkt så er et GTX460 1GB en smule bedre end et GTX285.
Masser, men ikke særligt "signede" da DX10 kort jo enten køre med reduceret I.Q eller ydelse i forhold til et DX11 kort i DX11 spil...og DX11 er jo hvad det hele handler om fremadrettet.
Skal du have en et fikspunkt så er et GTX460 1GB en smule bedre end et GTX285.
#27
Alright, så fordi vi alle sammen spiller lige netop dette ene spil så er CUDA relevant... eller?
Og at PhysX tilfædigvis bruger CUDA bagved er meget flot, men folk efterspørger ikke et CUDA fra AMD, men en PhysX. Og skulle den så eventuelt køre via OpenCL eller whatever betyder jo ikke noget.
Så skal vi ikke bare tage CUDA ud af ligningen.
Alright, så fordi vi alle sammen spiller lige netop dette ene spil så er CUDA relevant... eller?
Og at PhysX tilfædigvis bruger CUDA bagved er meget flot, men folk efterspørger ikke et CUDA fra AMD, men en PhysX. Og skulle den så eventuelt køre via OpenCL eller whatever betyder jo ikke noget.
Så skal vi ikke bare tage CUDA ud af ligningen.
#29
Så i det tilfælde at blot et spil anvendte OpenCL eller DirectCompute eller et tredje API, som virker bedst eller udelukkende på AMD kort så vil dette ene spil gøre API'et til et argument for AMD kort?
Og dette kommer fra manden der ikke vil overveje multi-gpu der trods alt virker på adskillige spil.
Så i det tilfælde at blot et spil anvendte OpenCL eller DirectCompute eller et tredje API, som virker bedst eller udelukkende på AMD kort så vil dette ene spil gøre API'et til et argument for AMD kort?
Og dette kommer fra manden der ikke vil overveje multi-gpu der trods alt virker på adskillige spil.
terracide (23) skrev:#22:
Du er da lidt lost ikke?
- CUDA er lysår foran Direct Compute...madre mia.
- PhysX er middleware, ikke en API...lær at kende forskel før du poster igen. DirectCompute er IKKE en fysik motor.
- Igen at sammeligne CUDA med DirectCompute er til grin.
Og du skulle måske læse lidt op på nogle GTX580 reviews, for udvidenheden bare oser ud af dig...og så regne på hvad den lille forskel rent faktisk betyder...
er du totalspasser eller hvad ?
DX11 DC er GPGPU som køre via DX11 API'et - som derfor virker på både Nvidia og ATI GPU'er (som er DX11 compatible)
PhysX køre på NVidia via CUDA - derfor kan PhysX (eller bedre) implementeres i DC og derved køre på både ATI og Nvidia...
desuden er DC et bedre APi end CUDA - netop fordi det er generisk (DX11)
OpenCL er så pendenten til DX11 og derfor endnu bedre at bruge (hvis ellers de understøttede ligeså mange hardware features som DX11)
terracide (29) skrev:#28:
Læs dog op:
DX11 Ocean
der findes også raytracers og alle de andre ting som man kan i CUDA...
vil væde med at de fleste teknikker som findes på CUDA-Zone er igang med at blive oversat til DX11...
Det ironiske er, at på min skærm 1920x1080, der betyder AA ikke en døjt. Det er simpelthen så sjældent at jeg lægger mærke til forskellen, især hvis det er spil, hvor der er hurtig bevægelse.
Til nød, sætter jeg den på 2x AA, og mere end det, får jeg simpelthen ikke noget ud af.
Så AMD for min pengepungs skyld, hver gang.
Dem har jeg heller aldrig haft problemer med, hvad angår video-afspilning, modsat Nvidia...
Til nød, sætter jeg den på 2x AA, og mere end det, får jeg simpelthen ikke noget ud af.
Så AMD for min pengepungs skyld, hver gang.
Dem har jeg heller aldrig haft problemer med, hvad angår video-afspilning, modsat Nvidia...
#34 Synes generelt ikke man lægger mærke til AA såfremt man kører spillet i samme opløsning som sin skærm, undtagen på screenshots. Er fuldstændigt enig med dig i at så længe der er bevægelse i billedet (lidt mere end sneglefart selvfølgelig), så lægger man ikke rigtigt mærke til det.
Fatter ikke folk der konstant bruger dårlige drivere som grundlag for beslutning. Jeg har altid skiftet mellem Nvidia og ATI (har nvidia kort nu) og jeg har aldrig oplevet problemer med drivere, af nogen stor betydning. Har aldrig haft flere problemer med mine ATI kort end jeg har haft med mine Nvidia kort og modsat.
Jeg regner dog med at hoppe på amd vognen næste gang, mest bang for the buck atm :)
Jeg regner dog med at hoppe på amd vognen næste gang, mest bang for the buck atm :)
Folk der ikke kan se forskel på 1xAA og 4xAA bør gå til læge...
Jeg vil skide på AMD's tomme snak (Hint: både OpenCL og Direct Compute kører bedre på NVIDIA kort, men igen de er begge så langt bag efter CUDA at det er irrelevant.)
Og jeg gider netop ikke multi-GPU pg.a af de spil hvor det netop ikke virker...eller virker som en de-cellerator...
Så vis mig alt der virker...og ikke bare tom snak...og med bedre ydelse end via CUDA.
Laveste fællesnævner er for idioter....eller AMD fans :)
Vis mig det...uden ydelsestab...eller jeg afskriver dig som mr. Tom-PR-snak...
100% idioti...jeg gentager:
Laveste fællesnævner er for idioter...skulle jeg ofre ydelse, bare fo at du kan lege med...glem det.
DirectCompute, OpenCL og CUDA er det samme..næsten.
CUDA er bare år foran de andre og tilbyder meget mere.
LupusGrey (30) skrev:#29
Så i det tilfælde at blot et spil anvendte OpenCL eller DirectCompute eller et tredje API, som virker bedst eller udelukkende på AMD kort så vil dette ene spil gøre API'et til et argument for AMD kort?
Og dette kommer fra manden der ikke vil overveje multi-gpu der trods alt virker på adskillige spil.
Jeg vil skide på AMD's tomme snak (Hint: både OpenCL og Direct Compute kører bedre på NVIDIA kort, men igen de er begge så langt bag efter CUDA at det er irrelevant.)
Og jeg gider netop ikke multi-GPU pg.a af de spil hvor det netop ikke virker...eller virker som en de-cellerator...
Montago (31) skrev:
er du totalspasser eller hvad ?
DX11 DC er GPGPU som køre via DX11 API'et - som derfor virker på både Nvidia og ATI GPU'er (som er DX11 compatible).
Så vis mig alt der virker...og ikke bare tom snak...og med bedre ydelse end via CUDA.
Laveste fællesnævner er for idioter....eller AMD fans :)
PhysX køre på NVidia via CUDA - derfor kan PhysX (eller bedre) implementeres i DC og derved køre på både ATI og Nvidia...
Vis mig det...uden ydelsestab...eller jeg afskriver dig som mr. Tom-PR-snak...
desuden er DC et bedre APi end CUDA - netop fordi det er generisk (DX11)
100% idioti...jeg gentager:
Laveste fællesnævner er for idioter...skulle jeg ofre ydelse, bare fo at du kan lege med...glem det.
OpenCL er så pendenten til DX11 og derfor endnu bedre at bruge (hvis ellers de understøttede ligeså mange hardware features som DX11)
DirectCompute, OpenCL og CUDA er det samme..næsten.
CUDA er bare år foran de andre og tilbyder meget mere.
Gid AMD ville kører med Physx også, så ville det bare være 110% win. et 6970 til 2000kr eller et 570 gtx til 3000kr eller 580 gtx til 4000kr, ja det er jo ikke lige frem et svært valg.
AMD sparker virkelig røv med deres priser :D savner bare physx, ville skide gerne lege med den der Rocket Sledge demo der.
AMD sparker virkelig røv med deres priser :D savner bare physx, ville skide gerne lege med den der Rocket Sledge demo der.
terracide (38) skrev:Folk der ikke kan se forskel på 1xAA og 4xAA bør gå til læge...
Nægter at tro på at du kan se forskel på 0xAA og 16xAA i et FPS-spil. Og nej, jeg mener ikke at du skal stå stille og kigge det samme sted hen, for så kan du selvfølgelig godt se forskellen. Men det at stå stille og glo det samme sted er ikke en situation der opstår i et FPS-spil, og så er AA jo fuldstændigt ligegyldigt. Nægter at tro på at dine øjne kan fange så små detaljer i pixels der flyttes relativt hurtigt. Det ville være ligesom at sige at du kan se alle streger på dine hænder mens du vifter dine hænder så hurtigt som du overhovedet kan.
terracide (38) skrev:Jeg vil skide på AMD's tomme snak (Hint: både OpenCL og Direct Compute kører bedre på NVIDIA kort, men igen de er begge så langt bag efter CUDA at det er irrelevant.)
Way to miss the target. For det første snakkede jeg slet ikke om hvad AMD lover og hvad de ikke lover. Jeg spurgte helt specifikt hvorvidt et andet API ville blive relevant blot ved at et enkelt spil brugte det ligesom CUDA?
terracide (38) skrev:Og jeg gider netop ikke multi-GPU pg.a af de spil hvor det netop ikke virker...eller virker som en de-cellerator...
Hvad så med de 99.9% spil der ikke benytter CUDA? Eller er det eneste spil du spiller Just Cause 2?
terracide (38) skrev:100% idioti...jeg gentager:
Laveste fællesnævner er for idioter...skulle jeg ofre ydelse, bare for at du kan lege med...glem det.
Spiludvikler: Skal jeg bruge dobbelt udviklingstid bare for at du kan få lidt ekstra ydelse? Glem det. nVidia fanboys, vi sender en kiks med i pakken i kan tørre jeg øjne med. Det er billigere.
JesperZ (40) skrev:Nægter at tro på at du kan se forskel på 0xAA og 16xAA i et FPS-spil. Og nej, jeg mener ikke at du skal stå stille og kigge det samme sted hen, for så kan du selvfølgelig godt se forskellen. Men det at stå stille og glo det samme sted er ikke en situation der opstår i et FPS-spil, og så er AA jo fuldstændigt ligegyldigt. Nægter at tro på at dine øjne kan fange så små detaljer i pixels der flyttes relativt hurtigt. Det ville være ligesom at sige at du kan se alle streger på dine hænder mens du vifter dine hænder så hurtigt som du overhovedet kan.
Søg øjnelæg straks...
(Hint: der er ikke noget der hedder 0xAA, det hedder 1xAA...)
LupusGrey (42) skrev:Way to miss the target. For det første snakkede jeg slet ikke om hvad AMD lover og hvad de ikke lover. Jeg spurgte helt specifikt hvorvidt et andet API ville blive relevant blot ved at et enkelt spil brugte det ligesom CUDA?
Civ5 (som lider af konsolittis) bruger DirectCompute...og NVIDIA yder bedre der...like I said.
Hvad så med de 99.9% spil der ikke benytter CUDA? Eller er det eneste spil du spiller Just Cause 2?
Hvad har det med multi-GPU at gøre?
Du væver nu.
Spiludvikler: Skal jeg bruge dobbelt udviklingstid bare for at du kan få lidt ekstra ydelse? Glem det. nVidia fanboys, vi sender en kiks med i pakken i kan tørre jeg øjne med. Det er billigere.
Google TWIMTBP...det virker ret godt og udviklerene ville grine af dit postulat...for det er et tomt postulat.
TErra -AMD fanboys...now grapsing for straws...
Det er lidt ironisk, at Terra (som jeg ikke svarer - som vanen tro - hvis han kommentere denne kommentar på vanelig idiotisk og nedladende vis), kan påråbe, at halvdelen herinde skal søge øjenlæge, mens han tilsyndeladende selv er blind. Ikke blot for egne fejl og manglende kommunikationsevne, men også overfor hvordan den menneskelige hjerne virker.
Utallige forsøg har netop vist, at vi har en yderst dygtig hjerne, der er god, til at fylde manglende dele af et billede ud. Dvs. kigger vi efter kvalitet på et renderet billede, så betyder AA i høj grad noget, men kigger vi på et spil, hvor det handler om bevægelse og hastighed, så har AA ingen betydning, fordi det vi kigger efter er flydende gameplay og detaljer der ikke har med skønhed at gøre med nøjagtighed, alt efter om vi skal køre en bil, skyde en modstander osv.
Så Terra, læs nogle bøger omkring hjernen, så kunne det være, at DU kunne lære noget nyttigt, ud over at være den herinde der har flest indlæg rated som flamebait! ;)
Utallige forsøg har netop vist, at vi har en yderst dygtig hjerne, der er god, til at fylde manglende dele af et billede ud. Dvs. kigger vi efter kvalitet på et renderet billede, så betyder AA i høj grad noget, men kigger vi på et spil, hvor det handler om bevægelse og hastighed, så har AA ingen betydning, fordi det vi kigger efter er flydende gameplay og detaljer der ikke har med skønhed at gøre med nøjagtighed, alt efter om vi skal køre en bil, skyde en modstander osv.
Så Terra, læs nogle bøger omkring hjernen, så kunne det være, at DU kunne lære noget nyttigt, ud over at være den herinde der har flest indlæg rated som flamebait! ;)
LupusGrey (49) skrev:#44
Du mener at CUDA er relevant alene på grundaf et spilNVIDIA har designed det. DirectCompute er ikke relevanttil trods for at der også er et spil der benytter detfordi NVIDIA ikke har designet det. Adskillige spil understøtter multi-gpu, som du helt fraskriver. Kan du give en forklaring på det?
Fixed that Terra style for ya ;)
Opret dig som bruger i dag
Det er gratis, og du binder dig ikke til noget.
Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.