mboost-dp1

AMD
- Forside
- ⟨
- Forum
- ⟨
- Nyheder
cordion (2) skrev:jeg hænger mig lidt på detaljen at det koster 399€ som burde blive til omkring 3000,- når tilgængeligheden vokser... så vil der ikke være så stor forskel. jeg forventer også at de falder lidt hurtigere i pris end et nvidia kort
Well..
Så kommer der jo lige moms oveni :)
Nesdunk (1) skrev:Damn, så skal man da godt nok være fan-boy af Nvidia, hvis man køber et Titan kort, som koster ca 2500,- bobs mere og som yder det samme tilsynesladende...
Tjaa, Tjooo
Hvis man f.eks bruger applikationer, som er afhænige af CUDA så vil valget jo altid falde på Nvidia. Det samme, hvis du gerne vil have den ekstra ydelse du får med PhysX.
Og sidst men ikke mindst, hvis du har en skærm der er G-Sync kompatibel, så ville man nok også vælge Nvidia.
INB4 XorpiZ og Terracide.
Jeg kan desuden ikke finde nogen benchmarks nogensteder? er det mine DDG skills der er elendige? eller findes der kun dé benchmarks fra AMD selv?
Jeg kan desuden ikke finde nogen benchmarks nogensteder? er det mine DDG skills der er elendige? eller findes der kun dé benchmarks fra AMD selv?
chris (3) skrev:Tjaa, Tjooo
Hvis man f.eks bruger applikationer, som er afhænige af CUDA så vil valget jo altid falde på Nvidia. Det samme, hvis du gerne vil have den ekstra ydelse du får med PhysX.
Og sidst men ikke mindst, hvis du har en skærm der er G-Sync kompatibel, så ville man nok også vælge Nvidia.
= fan-boy af Nvidia :)
#4
http://www.tomshardware.com/reviews/radeon-r9-290x...
Link til en vel-skrevet artikel, og benchmark med div. programmer/spil
http://www.tomshardware.com/reviews/radeon-r9-290x...
Link til en vel-skrevet artikel, og benchmark med div. programmer/spil
#7
Jeg er IKKE imponeret.
I betragtning af hvor hurtigt udviklingen er inden for IT, så er det på ingen måder imponerende at AMD først kan levere et kort, der levere den samme ydelse, ½ år efter Nvidia kom med Titan.
[ontopic]
Og angående prisen... Mon ikke Nvidia har hold prisen oppe på deres top produkt, simpelthen fordi de kunne?? Der var jo ingen konkurrent. Så jeg er overbevist om at Nvidia snart sænker prisen.
Jeg er IKKE imponeret.
I betragtning af hvor hurtigt udviklingen er inden for IT, så er det på ingen måder imponerende at AMD først kan levere et kort, der levere den samme ydelse, ½ år efter Nvidia kom med Titan.
[ontopic]
Og angående prisen... Mon ikke Nvidia har hold prisen oppe på deres top produkt, simpelthen fordi de kunne?? Der var jo ingen konkurrent. Så jeg er overbevist om at Nvidia snart sænker prisen.
Hvor lang tid det er siden Titan kom ud er ligegyldigt, spørgsmålet er hvornår det næste entusiast kort fra N-drengene kommer.
780Ti ?
780Ti ?
chris (3) skrev:Og sidst men ikke mindst, hvis du har en skærm der er G-Sync kompatibel, så ville man nok også vælge Nvidia.
Jeg har ikke kunnet finde et citat som siger at GSync KUN virker med NVidia ... så vidt jeg forstår GSync, er det en skærm teknologi og ikke en del af grafikkortet.
er der nogen der kan uddybe (med citat / kilde reference)
Hold da op! En seriøs konkurrent til de nyeste Nvidia kort og så til sådan en fed pris. Jeg må være ærlig at sige at dette gør mig rigtig glad da det vil trække prisen ned på high-end kort samt at der endelig er noget positivt oven på deres "fiasko" med deres lancering af FX kerner (hvilket de har forbedret lidt med 2. gen FX).
Jeg kunne snildt overveje at købe det kort til at erstatte mit 560ti da priser virkelig bare er attraktiv.
Tjah det bliver jo nok 760 Ti hvis de skal følge det de har gjort med de sidste 2 generationer hvor Ti kort har været midrange "bang-for-the-buck-kort".
Edit: Ah jo Nvidia har jo lige lanceret at de vil lave 780 Ti. Cool :D
Jeg kunne snildt overveje at købe det kort til at erstatte mit 560ti da priser virkelig bare er attraktiv.
SlettetBruger (10) skrev:Hvor lang tid det er siden Titan kom ud er ligegyldigt, spørgsmålet er hvornår det næste entusiast kort fra N-drengene kommer.
780Ti ?
Tjah det bliver jo nok 760 Ti hvis de skal følge det de har gjort med de sidste 2 generationer hvor Ti kort har været midrange "bang-for-the-buck-kort".
Edit: Ah jo Nvidia har jo lige lanceret at de vil lave 780 Ti. Cool :D
#1
Eller ogsaa skal du vaere Linux bruger.
Jeg begyndte at bruge Linux for ca. 8 aar siden, for et par aar siden besluttede jeg mig for at koebe et AMD grafikkort til omkring 1,000 kroner, for at spille lidt Heroes of Newerth.
Jeg kunne knap starte spillet og det hakkede, pga. AMDs ufattelige daarlige Linux driver. Jeg solgte kortet med et tab paa 300 kroner, og koebte et Nvidia kort til ca. 1200-1300. Paa papiret ca. samme ydelse som mit AMD kort. Med Nvidia kortet koerte spillet flydende (og jeg undgik en masse andre underlige AMD glitches der fandtes dengang).
Jeg vil til ENHVER tid glaedeligt betale mere for et paa papiret 'ens' Nvidia grafikkort, fordi jeg ved ydelsen vil vaere langt bedre i Linux.
Med det sagt, saa ville jeg aldrig koebe et kort i den her prisklasse for at spille spil i Linux, da udvalget af spil simpelthen ikke kraever noget saa 'vildt', og jeg laver ikke andre der ting der som saadan nyder godt af en fed GPU.
#Off topic
Et Intel grafikkort i den klasse ville dog vaere endnu federe i Linux. Intels driver fungerer langt bedre end baade Nvidia og AMDs. En skam vi ikke faar det at se.
Edit: Jeg vil tro tingene ser lidt bedre ud for AMDs driver i dag, end den gjorde den gang, det var trods alt AMD kort Valve brugte til test af Steam til Linux, og der kunne de jo fremvise fine tal bl.a. i deres Left for Dead benchmark. Men jeg tror stadig ikke det er paa niveau med Nvidia.
Eller ogsaa skal du vaere Linux bruger.
Jeg begyndte at bruge Linux for ca. 8 aar siden, for et par aar siden besluttede jeg mig for at koebe et AMD grafikkort til omkring 1,000 kroner, for at spille lidt Heroes of Newerth.
Jeg kunne knap starte spillet og det hakkede, pga. AMDs ufattelige daarlige Linux driver. Jeg solgte kortet med et tab paa 300 kroner, og koebte et Nvidia kort til ca. 1200-1300. Paa papiret ca. samme ydelse som mit AMD kort. Med Nvidia kortet koerte spillet flydende (og jeg undgik en masse andre underlige AMD glitches der fandtes dengang).
Jeg vil til ENHVER tid glaedeligt betale mere for et paa papiret 'ens' Nvidia grafikkort, fordi jeg ved ydelsen vil vaere langt bedre i Linux.
Med det sagt, saa ville jeg aldrig koebe et kort i den her prisklasse for at spille spil i Linux, da udvalget af spil simpelthen ikke kraever noget saa 'vildt', og jeg laver ikke andre der ting der som saadan nyder godt af en fed GPU.
#Off topic
Et Intel grafikkort i den klasse ville dog vaere endnu federe i Linux. Intels driver fungerer langt bedre end baade Nvidia og AMDs. En skam vi ikke faar det at se.
Edit: Jeg vil tro tingene ser lidt bedre ud for AMDs driver i dag, end den gjorde den gang, det var trods alt AMD kort Valve brugte til test af Steam til Linux, og der kunne de jo fremvise fine tal bl.a. i deres Left for Dead benchmark. Men jeg tror stadig ikke det er paa niveau med Nvidia.
Nesdunk (1) skrev:Damn, så skal man da godt nok være fan-boy af Nvidia, hvis man køber et Titan kort, som koster ca 2500,- bobs mere og som yder det samme tilsynesladende...
Eller man upgradede for + 8 måender siden...hvor AMD intet havde der kunne matche....men kudos til AMD for at endelig cære med i gamet igen.
Bare en skam deres køling er så subpar, at kortet ikke kan holde boost:
http://tpucdn.com/reviews/AMD/R9_290X/images/analy...
http://tpucdn.com/reviews/AMD/R9_290X/images/analy...
Så ydelsen efter +1 time gaming...vil ikke være som i benchamrks ^^
Og jeg er ligeglad med temp/støj, perf(watt og alle andre mystiske metrics...som jeg altid har været...men vil vædde med at AMD-fans nu siger det samme som mig....modsat før ^^
Eye of the fanboy is very floating ^^
Men rart at se jeg kan vente på Maxwell...uden at få lyst til at sidegrade ;)
Oh...btw...lad os høre hvor mange herinde der kører 4K? :D
Men kiggerman på real worling gaming:
http://hardocp.com/article/2013/10/23/amd_radeon_r9_290x_video_card_review/16#.UmlCJ3DU99M skrev:The R9 290X is performance comparable to the GeForce GTX TITAN at 2560x1600 (1600p) and lower (1080p.) In every game we played we were able to match the same gameplay experience as the GeForce GTX TITAN. That means that every game played the same between both video cards, the same performance, same in-game settings, and same smoothness. Performance in terms of frames per second was either right under, or right at TITAN FPS performance. The performance differences were so insignificant that those did not translate to any noticeable gameplay differences at all
Not suc much a titan killer ;)
MEdmindre man nu mener at under og op til...er hurtigere ^^^
/que GTX780 Ti
Det eneste jeg endnu har kunne finde var en kommentar til et review, hvor personen skriver der stadig er markante framedrops på dette nye 290X (ligesom resten af AMDs gfx serie), men at det ikke er helt ligeså slemt som tidligere kort.
Er der nogen der er stødt på en test hvor de rent faktisk undersøger om det stadig er et reelt problem, eller er alle hardware sitesne gået tilbage til at bruge FPS som værende det der skal måles?
Er der nogen der er stødt på en test hvor de rent faktisk undersøger om det stadig er et reelt problem, eller er alle hardware sitesne gået tilbage til at bruge FPS som værende det der skal måles?
luuuuu (19) skrev:Det eneste jeg endnu har kunne finde var en kommentar til et review, hvor personen skriver der stadig er markante framedrops på dette nye 290X (ligesom resten af AMDs gfx serie), men at det ikke er helt ligeså slemt som tidligere kort.
Er der nogen der er stødt på en test hvor de rent faktisk undersøger om det stadig er et reelt problem, eller er alle hardware sitesne gået tilbage til at bruge FPS som værende det der skal måles?
Siderne måler average FPS over et stykke tid inde i spillene. Hvis der er framdrops på AMD kortene, specielt merkante, så må deres average uden disse drops være meget højere.
Jeg har et 7870 pcs+, og jeg har ikke problemer med framedrops. Dog er få spil dårlig optimeret, så der kan være 50 fps ved at kigge den ene vej og 100 den anden. Det problem er dog kun få spil og mest af alt console ports.
Mit 5850 havde heller ikke dette problem, faktisk har jeg ikke oplevet det på et AMD kort siden 1900xtx. Men efter mit 1900xtx var jeg hos nvidia indtil mit 5850. Så måske har problemet lagt i serierne op til dette kort.
Men nej, jeg kender desværre ingen tests på dette. Kun crossfire og sli problem tests.
Desuden ser kortet lovende ud, en god pris. Men jeg forventede dog mere af denne serie, da jeg ikke havde forudset rebrands fra den leakede information i tiden op til. Det lader til, at den information er blevet udsat til grafikkort serien efter. Jeg venter desværre videre, selvom jeg havde håbet på at opgraderer for omkring 2000 kr til battlefield 4.
#18
Hvis nu man lige ventede til der kom en Asus DirectCU version af R9 290X, kunne man få en version med en ordentlig køler som heller ikke larmer.
og hvis du foretrækker at købe et Nvidia Titan for 7000 kr i stedet for et Radon 290X for 4000 kr må du da være komplet idiot.
det kan godt være at Nvidia har været 8 måneder foran med at lave verdens hurtigste grafikkort - men hvad kan man ikke bygge for 7000 kr med AMD grej ?
fx kan man købe 2x 7970 som performer lige så godt:
http://tpucdn.com/reviews/NVIDIA/GeForce_GTX_Titan...
Hvis nu man lige ventede til der kom en Asus DirectCU version af R9 290X, kunne man få en version med en ordentlig køler som heller ikke larmer.
og hvis du foretrækker at købe et Nvidia Titan for 7000 kr i stedet for et Radon 290X for 4000 kr må du da være komplet idiot.
det kan godt være at Nvidia har været 8 måneder foran med at lave verdens hurtigste grafikkort - men hvad kan man ikke bygge for 7000 kr med AMD grej ?
fx kan man købe 2x 7970 som performer lige så godt:
http://tpucdn.com/reviews/NVIDIA/GeForce_GTX_Titan...
#14:
Yes... men det svare ikke på om teknologien KUN virker med Nvidia kort.
det ER jo som sagt en skærm-teknologi
Yes... men det svare ikke på om teknologien KUN virker med Nvidia kort.
det ER jo som sagt en skærm-teknologi
Montago.NET (22) skrev:#18
Hvis nu man lige ventede til der kom en Asus DirectCU version af R9 290X, kunne man få en version med en ordentlig køler som heller ikke larmer.
og hvis du foretrækker at købe et Nvidia Titan for 7000 kr i stedet for et Radon 290X for 4000 kr må du da være komplet idiot.
det kan godt være at Nvidia har været 8 måneder foran med at lave verdens hurtigste grafikkort - men hvad kan man ikke bygge for 7000 kr med AMD grej ?
fx kan man købe 2x 7970 som performer lige så godt:
http://tpucdn.com/reviews/NVIDIA/GeForce_GTX_Titan...
Da jeg købte mit Titan så billedet sådan her ud:
http://www.hardocp.com/article/2013/02/21/nvidia_g...
Du må være en idiot hvis du mener du kan ignorere min købsdato:
FEBRUAR 2013!!!
Men du mener måske at jeg skal sælge mit Titan for at lavere ydelse i mit favorite spil ARMA3? ^^
http://hardocp.com/article/2013/10/23/amd_radeon_r...
Logik og AMD fans...ikke gode venner.
jeg har i 8 måneder nydt godt af ydelse og I.Q som AMd fans kun kunne drømme om...og nu næsten har...men det betyder intet nu...LOL
Besides så vil jeg ikke undvære PhysX...eller CUDA...og igen...i 8 måender har du siddet misundelig...og frådet over prien på Titan...mens jeg har gamet på livet løs...nu er du der nsæten...go så mener du at mine 8 måender intet betyder...funny...rage on n00b ;)
terracide (24) skrev:
Da jeg købte mit Titan så billedet sådan her ud:
http://www.hardocp.com/article/2013/02/21/nvidia_g...
Du må være en idiot hvis du mener du kan ignorere min købsdato:
FEBRUAR 2013!!!
Jaa ??.. og ?...
du kunne da stadig have købt 2x 7970 som der bliver testet i artiklen ???
de kostede 3300 pr stk fra starten af
#22:
Prøv at google microstutter...siden du er så retarderet du anbefaler Crossfire...kan jeg kun grine af dig ^^
Og den er stadig gal:
http://anandtech.com/show/7457/the-radeon-r9-290x-...
Men skal i AMD faggots ikke snakke om perf/watt som i altid plejer?
I det mindste er jeg konsistent...modsat jer ^^
Prøv at google microstutter...siden du er så retarderet du anbefaler Crossfire...kan jeg kun grine af dig ^^
Og den er stadig gal:
http://anandtech.com/show/7457/the-radeon-r9-290x-...
Men skal i AMD faggots ikke snakke om perf/watt som i altid plejer?
I det mindste er jeg konsistent...modsat jer ^^
#27
ifølge Anandtech er microstutter kun et problem hvis du får under 60 FPS... dvs - man lægger kun mærke til det ved <60 fps
med 2x 7970 burde man kunne få FPS nok..
ifølge Anandtech er microstutter kun et problem hvis du får under 60 FPS... dvs - man lægger kun mærke til det ved <60 fps
med 2x 7970 burde man kunne få FPS nok..
#26:
Kun hvis jeg ville smide pengene ud af vinduet:
http://techreport.com/review/21516/inside-the-seco...
http://techreport.com/review/24703/amd-radeon-hd-7...
Kun en ægte AMD faggot ville smid penge ud på Crossfire...for nummer 2 GPU er værdiløs...men du vil vel begynde at benægte fakta som SårPis nu? ^^
Kun hvis jeg ville smide pengene ud af vinduet:
http://techreport.com/review/21516/inside-the-seco...
http://techreport.com/review/24703/amd-radeon-hd-7...
Kun en ægte AMD faggot ville smid penge ud på Crossfire...for nummer 2 GPU er værdiløs...men du vil vel begynde at benægte fakta som SårPis nu? ^^
Montago.NET (28) skrev:#27
ifølge Anandtech er microstutter kun et problem hvis du får under 60 FPS... dvs - man lægger kun mærke til det ved <60 fps
med 2x 7970 burde man kunne få FPS nok..
Fuck da dig AM faggot, vi snakker om 7970, ikke R280...faggot:
http://www.pcper.com/reviews/Graphics-Cards/Frame-...
Har du mere mundlort? :D
Sjovt som fakta skal benægtes på newz.dk ^^
terracide (30) skrev:Montago.NET (28) skrev:#27
ifølge Anandtech er microstutter kun et problem hvis du får under 60 FPS... dvs - man lægger kun mærke til det ved <60 fps
med 2x 7970 burde man kunne få FPS nok..
Fuck da dig AM faggot, vi snakker om 7970, ikke R280...faggot:
http://www.pcper.com/reviews/Graphics-Cards/Frame-...
Har du mere mundlort? :D
Sjovt som fakta skal benægtes på newz.dk ^^
#offtopic
Personligt synes jeg det er mere morsomt hvor fantastisk lavt dit sprog synker ned når du snakker til andre.
Mere morsomt er dog at du umiddelbart selv synes det er nødvendigt.
/#offtopic
Nu hvor du selv har linket til Hardocp, Husk lige at bladre videre specielt til side 14.
Jeg venter gerne mens du læser.
klar?
And i do believe we are done.
#31:
Jeg har ikke fladskærme(jeg holder af I.Q...og fladskærme og I.Q....hænger bare ikke sammen)...og medmindre du selv sidder på 4K...så kan jeg kun grine endnu højere ^^
Og vil du vædde en hund på at G-sync får mere at sige de næste 2 år end 4K? ^^
Og så en sjov sidenote...der bliver fusket overalt for at få AMD's GPU til at virke bedre end de reelt er:
http://www.3dmark.com/3dm11/7363757
Hånden op alle 4K brugere? :D
Jeg har ikke fladskærme(jeg holder af I.Q...og fladskærme og I.Q....hænger bare ikke sammen)...og medmindre du selv sidder på 4K...så kan jeg kun grine endnu højere ^^
Og vil du vædde en hund på at G-sync får mere at sige de næste 2 år end 4K? ^^
Og så en sjov sidenote...der bliver fusket overalt for at få AMD's GPU til at virke bedre end de reelt er:
http://www.3dmark.com/3dm11/7363757
Your result has the following problem(s):
I. Benchmark tessellation load modified by AMD Catalyst driver, result invalid. Check your video driver settings. (What is this?)
II. Graphics driver is not approved (What is this?)
Hånden op alle 4K brugere? :D
terracide (25) skrev:Og ARMA ]|[ med OGSSAA æder RAM som ind ******...men fuck det ser så sweet ud ^^
En skam AMD kun har 4 GB...better luck next time ;)
Kan du tage nogen screenshots? Gamer-porno er altid nice.
Naed (31) skrev:Nu hvor du selv har linket til Hardocp, Husk lige at bladre videre specielt til side 14.
Hvorfor er det jeg ikke kan finde en side 14 i nogen af de links?
terracide (32) skrev:Jeg har ikke fladskærme(jeg holder af I.Q...og fladskærme og I.Q....hænger bare ikke sammen)...og medmindre du selv sidder på 4K...så kan jeg kun grine endnu højere ^^
whaaaaaat ?
Image Quality.
Men det er ikke nemt at finde dokumentation på hans påstand, der er langt imellem dem.
Men det er ikke nemt at finde dokumentation på hans påstand, der er langt imellem dem.
#32
Okay, HVILKEN CRT-skærm kan klare 4K? Link, TAK!
Btw, så kører jeg 2560x1440 på en skærm, ikke helt 4K, men sikkert bedre end dig alligevel.
Okay, HVILKEN CRT-skærm kan klare 4K? Link, TAK!
Btw, så kører jeg 2560x1440 på en skærm, ikke helt 4K, men sikkert bedre end dig alligevel.
SlettetBruger (33) skrev:Kan du tage nogen screenshots? Gamer-porno er altid nice.
Hvorfor er det jeg ikke kan finde en side 14 i nogen af de links?
Kan da godt prøve...men ARMA3 gør sig bedre i bevægelse pga. den måde de rendere lys på.
side 14:
http://hardocp.com/article/2013/10/23/amd_radeon_r...
PHP-Ekspert Thoroughbreed (36) skrev:#32
Okay, HVILKEN CRT-skærm kan klare 4K? Link, TAK!
Hvem snakker du til?
Citat tak...så kan vi se hvor lidt du forstår ;)
Btw, så kører jeg 2560x1440 på en skærm, ikke helt 4K, men sikkert bedre end dig alligevel.
Shite contrast, no true black...yeah....cluess as ever.
#40
du kan skudda ikke spille FPS med 2 skærme ?
dvs du kun gamer i 1600x1200 ?? HAHAHAH
og det skal du bruge et Titan til 7000 kr til ??
BTW.. 4K = 12 Mpixel såe 3-4x mere end de 2 skærm setups
du kan skudda ikke spille FPS med 2 skærme ?
dvs du kun gamer i 1600x1200 ?? HAHAHAH
og det skal du bruge et Titan til 7000 kr til ??
BTW.. 4K = 12 Mpixel såe 3-4x mere end de 2 skærm setups
Montago.NET (41) skrev:#40
du kan skudda ikke spille FPS med 2 skærme ?
dvs du kun gamer i 1600x1200 ?? HAHAHAH
og det skal du bruge et Titan til 7000 kr til ??
BTW.. 4K = 12 Mpixel såe 3-4x mere end de 2 skærm setups
Det var en sjov måde at sige at du tager fejl på...og prøv at google OGSSAA...så ved du hvorfo jeg går efter så meget GPU RAM ^^
Og tak fordi du bekræfter min pointe om 4K...aka en meget lille promille har det ^^
PHP-Ekspert Thoroughbreed (36) skrev:#32
Okay, HVILKEN CRT-skærm kan klare 4K? Link, TAK!
Btw, så kører jeg 2560x1440 på en skærm, ikke helt 4K, men sikkert bedre end dig alligevel.
Hvis man kan "nøjes" med 2048x1536, findes der en del der kunne/kan i 60Hz, uden at de kostede en bondegård. (I dag ville man nok kunne BYGGE en bondegård af CRTs, hvis man ellers havde tid til at hente dem man får smidt i nakken).
Selvom jeg (også) har opgivet at diskuterer fornuftigt med Hr. Terrorcider, er der én ting omkring skærme, jeg er 100% enig med ham i:
/Jeg ved det godt, men det ´for sent nu :P
En CRT-skærm er væsentlig bedre til at vise kontrast og farveovergange ift. selv meget dyrere og/men gængse fladskærme. Og alle farveovergange opdateres lige hurtigt på en CRT (gråtoner og hvid generelt ER bedre!!), så der ikke er brug for noget billed-DSP, til at "glatte" ud, hvilket jeg synes man kan se på en del LCDere.
/Det er indtil nu (på newz) også det absolut eneste jeg giver ham/dig ret i!!
OnT:
Det interessante på nye grafikkortsserier, er ikke nødvendigvis et 100% gennemført reference-design, hvad kølersystemet angår. Det skal selvfølgelig virke og i en henseende som GPU-producenten har tænkt sig, men mere er egentlig heller ikke nødvendigt.
Med det store antal grafikkorts-producenter, AMD har samarbejde med (noget som iøvrigt har været vigtigt, helt tilbage fra dengang det hed ATI), betyder at der vil komme et hav af forskellige designs som helt sikkert også vil indbefatte typer med så god køling, at 290x (måske) ikke drosler, og være i stand til at holde GPUen på f.eks. maks. 85 grader., hvilket kunne muliggøre decideret OC.
--
Det ser rimeligt godt ud, synes jeg. Og prisen er jo 'latterlig' ift 780 og Titan.
Det interessante på nye grafikkortsserier, er ikke nødvendigvis et 100% gennemført reference-design, hvad kølersystemet angår. Det skal selvfølgelig virke og i en henseende som GPU-producenten har tænkt sig, men mere er egentlig heller ikke nødvendigt.
Med det store antal grafikkorts-producenter, AMD har samarbejde med (noget som iøvrigt har været vigtigt, helt tilbage fra dengang det hed ATI), betyder at der vil komme et hav af forskellige designs som helt sikkert også vil indbefatte typer med så god køling, at 290x (måske) ikke drosler, og være i stand til at holde GPUen på f.eks. maks. 85 grader., hvilket kunne muliggøre decideret OC.
--
Det ser rimeligt godt ud, synes jeg. Og prisen er jo 'latterlig' ift 780 og Titan.
terracide (40) skrev:Og jeg tog lige lommeregnerne frem
1600x1200(x2) = 3.840.000 pixels
2560x1440 = 3.686.400 pixels
3.840.000 > 3.686.400
Så du tog sørme (surprise, surprise ^^) fejl igen :D
Tog fejl? Hvad snakker du om?
Du viser mig to skærme der kører 1600 x 1200, og hvad så? Jeg kan hurtigt købe en skærm mere og så køre 2560x1440 (x2) = 7.372.800 pixels
To skærme vil jo altid være bedre end en skærm ...
terracide (38) skrev:
Hvem snakker du til?
Citat tak...så kan vi se hvor lidt du forstår ;)Btw, så kører jeg 2560x1440 på en skærm, ikke helt 4K, men sikkert bedre end dig alligevel.
Shite contrast, no true black...yeah....cluess as ever.
1: Du snakker om 4K - og så vidt jeg ved, så kører du med CRT-skærme, right? I de 2 minutter jeg gad bruge på det kunne jeg ikke finde en 4K skærm, altså en skærm med 3.800 pixels horisontalt - 3.840 × 2.160 for at være præcis (Eller 8,3 Megapixels om man vil)
2: Shitty kontrast? Ingen sort? Hvilken skærm taler vi om her, ved du hvilken jeg har?
Det er muligt at den ikke kan matche CRT (faktisk derfor jeg fik et fladskærms TV så "sent", CRT er bare godt) - MEN, den skærm jeg taler om, er absolut ikke fra Aldi eller lignende....
-- EDIT --
EDB Priser kan finde EEN skærm med 4K opløsning...
http://www.edbpriser.dk/skaerm/asus-pq321qe-sort-i...
En Asus fladskærm på 31" til 26.000 kr
#48:
Hvis og hvis min røv er spids...fakta er du har mindre pixels og ringere I.Q....ergo du tog og tager stadig fejl.
Du citere lige mig hvor jeg snakker om CRT på 4K...fatsvage fucktard ^^
Og nu ved du hvorfor 4K er irrelevant de næste par år...26K for en skærm...når de kommer ned i en pris der gør de bliver udbredt...så er R290X blevet irrelevant ^^
Hvis og hvis min røv er spids...fakta er du har mindre pixels og ringere I.Q....ergo du tog og tager stadig fejl.
Du citere lige mig hvor jeg snakker om CRT på 4K...fatsvage fucktard ^^
Og nu ved du hvorfor 4K er irrelevant de næste par år...26K for en skærm...når de kommer ned i en pris der gør de bliver udbredt...så er R290X blevet irrelevant ^^
#49
Mindre pixels = ringere I.Q.
Hahahahahahahahahahahahahahahahahahahahahahahahahahahahahahahahahahahahahahahaha .... Hhhhhhhhhh .... Hahahahahahahahahahahahahahahahahahahahahahahahahahahahahahahahahahahahahahahaha
Henny, kære Henny. Jeg har mindre pixels end dig, ja. Men at du har to skærme gør sguda ikke dit billede pænere? Skærmen bliver ikke bedre af, at du har to.
Som sagt kan jeg købe en skærm mere, og have flere pixels end dig? Det kræver fandme kun en 19" 4:3 skærm på 1.280 x 1.024, så får jeg 1.310.720 pixels mere, det vil sige at jeg får 4.997.120.
4.997.120 > 3.840.000
- EDIT -
Inden 4K skærme er nede i et fornuftigt prisleje, så har AMD og NVidia sgu nok spyttet nogle nye kort ud. Så kan ikke helt se dit problem med R290x og 4K skærme
Mindre pixels = ringere I.Q.
Hahahahahahahahahahahahahahahahahahahahahahahahahahahahahahahahahahahahahahahaha .... Hhhhhhhhhh .... Hahahahahahahahahahahahahahahahahahahahahahahahahahahahahahahahahahahahahahahaha
Henny, kære Henny. Jeg har mindre pixels end dig, ja. Men at du har to skærme gør sguda ikke dit billede pænere? Skærmen bliver ikke bedre af, at du har to.
Som sagt kan jeg købe en skærm mere, og have flere pixels end dig? Det kræver fandme kun en 19" 4:3 skærm på 1.280 x 1.024, så får jeg 1.310.720 pixels mere, det vil sige at jeg får 4.997.120.
4.997.120 > 3.840.000
- EDIT -
Inden 4K skærme er nede i et fornuftigt prisleje, så har AMD og NVidia sgu nok spyttet nogle nye kort ud. Så kan ikke helt se dit problem med R290x og 4K skærme
Opret dig som bruger i dag
Det er gratis, og du binder dig ikke til noget.
Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.