mboost-dp1

No Thumbnail

ATI Crossfire: max 1600×1200@60 Hertz

- Via The Inquirer - , redigeret af peter_m

ATI’s Crossfire grafikkort skuffer i refresh rate ved 1600×1200. Det bliver heller ikke bedre jo højere opløsningen kommer op. Ved 1920×1200 er refresh raten på 52 Hertz.

The inquirer kom med nyheden forleden, og en masse brugere sendte vrede emails om, at de skulle have deres facts straight.

Men det havde de altså. ATI kortene med SiI 1161 DVI-chippen, blev ikke lavet med dual grafik i tankerne, hvilket Nvidias kort er, så nu har Nvidia en klar fordel.





Gå til bund
Gravatar #1 - r3cor
20. sep. 2005 10:51
Lad os alle sige i kor.. ROFLCOPT
Gravatar #2 - .dot
20. sep. 2005 10:52
Ja tak... http://www.penstarsys.com/#upd_xfire

First off the Sil 1161 receiver simply receives the pixel data from the slave board. That data is sent to the compositing engine, which then takes the final frame/s and sends it to either its built in TMDS transmitter or the RAMDAC, both of which can handle 2048x1536 @ 85 Hz. The Sil 1161 has NOTHING to do with the refresh rate of the screen that is connected to the master card.
Gravatar #3 - Azuria
20. sep. 2005 10:53
at de skulle have deres facts straight

Vil du skrive dansk eller engelsk?
Gravatar #4 - amokk
20. sep. 2005 10:53
well, det er nu ik så slemt IMHO.

60 Hz er jo rigeligt selv til spil, så længe man får over 60 FPS konstant, også i komplekse scener med røg og reflektsioner, er det jo fint - kan ærligt talt ikke forstå hysteriet, DVI interfacet på en normal TFT skærm kører jo også med 60 Hz...

BTW er der nogen der ved hvornår man begynder at kunne købe Crossfire extension kort i DK?
Gravatar #5 - PikkeMand
20. sep. 2005 10:55
"så nu har Nvidia en klar fordel"

- ja hvis man altså opnåede bedre performance/cost ratio ved dual grafikkort. Det gør man i øjeblikket hverken med kort fra Nvidia eller ATi.
Gravatar #6 - DemonSpawn
20. sep. 2005 11:05
post slettet
Gravatar #7 - .dot
20. sep. 2005 11:09
#4 - Tror mest af alt det er fordi at folk nu tror at kortet ikke kan vise HDTV opløsninger. Men kan den jo sagtens som beskrevet i #2
Gravatar #8 - Onde Pik
20. sep. 2005 11:17
Problemet består jo i at ATI er nødt til at bruge et DVI kabel imellem de to kort. Nvidias løsning bygger jo på en slags bro der sidder direkte mellem de 2 kort uden om DVI portene.
Gravatar #9 - bjerh
20. sep. 2005 11:28
#8 Tjaa.. Så længe det ikke koster ekstra, syntes jeg da ikke, det er så galt. :\
Gravatar #10 - Onde Pik
20. sep. 2005 11:47
Nu skal vi også lige huske at det er Inq selv der bekræfter deres egen historie. ;)

Der er nogle der mener at de nye crossfire kort vil benytte SiL 1171 chippen. Som skulle løse problemet.

Det ville jo betyde at begrænsningen kun påvirker "ældre" kort. (Pre-R520) Og så kan man jo sammenligne med Nvidia hvor pre-SLI kort slet ikke har muligheden for at benyttes på den her måde.
Gravatar #11 - demolition
20. sep. 2005 11:50
#4: På en TFT betyder den begrænsning ikke rigtigt noget, men på en CRT skærm er det bare ikke særligt fedt at skulle se på at skærmen blinker med 60 Hz.
Gravatar #12 - necrogore
20. sep. 2005 11:51
60 Hz er jo rigeligt selv til spil,


Virkelig?! Og for folk der kører CRT?
Gravatar #13 - jchillerup
20. sep. 2005 12:00
Til fladskærme er 60hz acceptabelt. Min flimrer en lille smule ved 60hz, men det kan jeg godt holde ud - dog brænder mine øjne når jeg sidder ved en CRT på 60Hz. Dét er slemt.
Gravatar #14 - wald15
20. sep. 2005 12:04
ved min 19" crt kører jeg med 1600x1200@85 Hz

jeg kunne sku ikke holde ud at have 60 Hz

ved sku ikke lige hvad ati tænker på der
godt at jeg har gf
Gravatar #15 - .dot
20. sep. 2005 12:11
#14 - Det jo ikke mellem grafikkortet og skærmen den er gal. Men mellem Master og slave kortet. Du vil sagtens kunne komme højere op end 1600x1200@60Hz...
Gravatar #16 - Mobay
20. sep. 2005 12:15
Så kan alle de ATI fan boys lære det!
Gravatar #17 - bbdk
20. sep. 2005 12:39
#16
Forsvind trold. Du er jo ikke interesseret i en rationel diskussion/omtale af emnet. Hvorfor så poste?

Jeg har iøvrigt et 6800GT.
Gravatar #18 - BranDBorG
20. sep. 2005 12:40
#13 Hvordan flimre din fladskærm?
Hvis din fladskærm flimre så vil jeg nok sende den ind til ombytning hvis jeg var dig...
En Fladskærm refresher hver enkelt pixel når der er brug for det, og ikke somen crt hvor en lyskanon køre hen over alle punkter hele tiden (og derved skaber en opdaterings frekvens)
Gravatar #19 - bbdk
20. sep. 2005 12:43
...Og ville være ked af at se ATI's Crossfire fejle, da det desværre vil give ammunition til nVidia's propagandamaskine. 2 halvstore firmaer er altid bedre end et kæmpestort firma, både for forbrugerens og innovationens skyld.

Men lad os nu se om det har basis i virkeligheden. The Inquirer er ikke ligefrem berømt for kildekritik.
Gravatar #20 - necrogore
20. sep. 2005 12:54
Så må man bare håbe R580 vil sparke fra (hmm.. Hvorfor er det lige 520 kommer før 580 når denne blev først færdig?).
Gravatar #21 - f-style
20. sep. 2005 14:03
#16 det ændrere stadigvæk ikke på nvidas forretningsmetoder ;)
Gravatar #22 - huleboer
20. sep. 2005 14:44
Som #2 også gør opmærksom på.

Det er en storm i et glas vand det her. Det har absolut intet på sig.
Alle "in your face ATI" og "Så kan alle de ATI fan boys lære det!" burde nok læse artiklen #2 linker til inden de ytrer sig yderligere.
Gravatar #23 - Norrah
20. sep. 2005 16:16
12#
kan da fint klare mig med 60Hz på min CRT skærm, hvad er det I mumler over...??

køre 1920x1440 og 60hz... intet problem, what so ever.... Kan man ikke klare at se på det så er det nok noget helt andet der er galt..? bliver i tit søsyge? eller køresyge? kan i ikke klare at læse bøger i en bil? bare lige for at checke...
Gravatar #24 - amokk
20. sep. 2005 16:29
Til jer der taler om 60Hz på CRT skærme: Hvor tit er det i ser en CRT med DVI indgang? Mon ikke RAMDACen i master kortet kan finde ud af at sende flere billeder afsted pr sekund, end den modtager fra slave-kortet? det er jo ikke svært at køre 90Hz og så sende hvert andet billede 2 gange, i hvert fald ikke noget der skaber synlige problemer

#23 det ER ubehageligt at kigge på en CRT skærm der kører mindre end 85 Hz - hvis du er i tvivl, så prøv at skifte din refrash rate op, og se forskellen - langt mere behageligt at sidde ved maskinen - dog ikke så behageligt som at sidde ved en TFT
Gravatar #25 - jlor
20. sep. 2005 18:26
Det kan vel være ligemeget med refresh raten i 1600x1200 .. Grunden til at man vil have høj refresh rate er vel for at man ikke får ondt i hovedet af at bruge computeren, og når man kommer op i 1600x1200, så får man alligevel ondt i hovedet fordi skriften er så lille.

Jeg har generelt ikke brug for højere end 1400x1050 (laptop), eller 1600x1200 x2 på workstations (dual-monitor stationær).
Bliver opløsningen højere (eller er d et mindre..?) så det f.eks. bliver 1920x1200 så sidder jeg med fjæset inde i skærmen for at kunne læse skriften.. Og så får man for alvor ondt i knolden :-)

Så er det ikke lidt dumt at pege fingre af dette - og kalde det et "problem". Der er vel ingen der seriøst BRUGER de opløsninger??
Gravatar #26 - amokk
20. sep. 2005 18:27
#25 det kommer vel an på hvor stor en skærm man har. Du kan ikke sammenligne 14-15" notebooks med 1400x1050, med 20" skærme på 1600x1200
Gravatar #27 - jlor
20. sep. 2005 18:32
Nej, men jeg bruger som regel 2 19" skærme med 1600x1200 - og der er det allerede lidt for lille skrift for min smag.

Selvfølgelig kan man ikke sammenligne, men bruger folk normalt > 20" skærme idag? Jeg kan ikke se hvorfor man skal få storheds vanvid over det her.. Jeg mener, jeg kan se at en højere opløsning end 1600x1200 kan være nødvendig, hvis du kører 21" eller højere - men jeg tvivler da på at der er mange der gør det.. De fylder jo som bare pokker, og så er de også en smule pebberede (i hvert fald hvis det ikke er CRT).
Gravatar #28 - amokk
20. sep. 2005 18:37
#19 nu er der altså også en del forskel på en 19" CRT (gætter jeg på du har) og 20" TFT - diagonalen er 2-3 tommer større på en 20" TFT. Desuden er det nemmere at læse småt tekst på en TFT da den af naturlige årsager altid vil vise teksten skarpt i sin native opløsning, hvor det er umuligt at undgå en vis udtværing på en CRT skærm
Gravatar #29 - jlor
20. sep. 2005 18:40
Det er rigtigt, men selvfølgelig.. Hvis man har penge til et crossfire, så har man vel også penge til overs til at bruge på 2x20" TFT istedet for 2x19" CRT ell. 2x20" CRT...
Gravatar #30 - amokk
20. sep. 2005 18:45
det er jo så ikke specielt relevant i denne sammenhæng, det er ret få spil der understøtter 2 skærme, mens stort set alle nye understøtter multi gpu - 2 skærme er som regel fordi man arbejder med mange ting ad gangen, hvilket ikke nødvendigvis betyder at man er gamer som behøver hurtig 3D grafik
Gravatar #31 - jlor
20. sep. 2005 18:46
Både og.. Men ja, jeg tænkte ikke videre på spil sammenhænge. Havde lige glemt at det var et gamer-forum :\
Gravatar #32 - amokk
20. sep. 2005 18:49
#32 eller måske at topic i denne tråd var dual grafikkort (ifm. gaming)?!?
Gravatar #33 - jlor
20. sep. 2005 18:50
Point taken :-) Så må alle læserne have mig undskyldt, jeg vidste ikke det handlede om dual-grafikkort.
Gravatar #34 - Coma
20. sep. 2005 19:53
29> Jeg køre nu 2048x1536@85 på min 21 tommer det er dejligt med så meget plads :)

og til alle de nvidia fanboys osv.. ta nu lige og læs hva der står i nr 2!
Gravatar #35 - TYBO
21. sep. 2005 06:33
Coma: Det er jo fucking småt at se på. Selv på min 22" er det mega småt.
1600*1200 kan lige gå.
Mit ATI 850XT PE har ingen problemer der. Jeg kører med 100Hz i 1600*1200.
Gravatar #36 - Pingu
21. sep. 2005 07:15
Bare for at være krakilsk, men siger det ikke sig selv, at man ikke får bedre udseende, jo højere man kommer op?
Gravatar #37 - Azjo
21. sep. 2005 07:48
Nu er jeg selv gamer og jeg spiller ret meget UT2004.
Efter jeg købte GF6800 har jeg kørt med 1600x1200 i spil (indtil videre er det kun FEAR der har tvunget mig til lavere res) og jeg føler jeg rammer meget bedre nu pga. den højere resolution.
Hvis jeg så skulle leve med kun 60 hertz, så ville det jo som sagt ødelægge mine øjne.
Enhver gamer skulle helst vide hvor stor en bagdel dette giver, så jo, NVIDIA har en klar fordel nu.
Det har jo ret meget at sige, disse hertz, så mange af de potentielle kunder vil sikkert vælge noget andet eller vente.
Gravatar #38 - .dot
21. sep. 2005 08:27
#37 - Læs hvad jeg skriver i #2, det har intet med skærmens refresh rate at gøre overhovedet.
Gravatar #39 - Azjo
21. sep. 2005 10:01
#38
Rigtigt (drop øjnene som argument :p) men refresh raten i selve spil er jo reel nok?
Så mange spil vil man slet ikke kunne spille med en fps som crossfire sagtens burde kunne tage men simpelthen ikke kan.
Som gamer ville jeg stadig ikke tage det.
Quake3 med 60 i refresh rate? nej tak.
Gravatar #40 - .dot
21. sep. 2005 10:14
#39 - Hvad snakker du om? Du kan jo sagtens få højere fps (gætter på det er det du mener) end 60. Sådan som jeg forstår det så sker begrænsningen først når du køre 3200x1200 eller 1600x2400 (dual monitor), der er vel ingen der køre spil i de opløsninger???
Gravatar #41 - ratio
21. sep. 2005 11:42
"Det bliver heller ikke bedre jo højere opløsningen kommer op."

[sarkasme] Ja hvis refresh rate steg med opløsningen, ville det da være underligt :)
Gravatar #42 - Azjo
21. sep. 2005 12:45
#40 - Såvidt jeg har forstået er det bare på en skærm.
Pointen er jo at få mere kraft til spillene.
Gravatar #43 - .dot
21. sep. 2005 14:19
#42 - En anden måde at forklare det på er. Hvis du køre et spil i 1600x1200px er der jo kun 800x600px der køres på hvert kort.
Gravatar #44 - nezz_dk
21. sep. 2005 21:43
#43 vil nu mene at hvert kort skulle køre 1600x600px minimum for at køre 1600x1200px totalt ellers ville der hvis være lidt for mange sorte områder på skærmen ;-)
Gravatar #45 - amokk
21. sep. 2005 22:11
#43 tillykke, du har lige vundet en tur tilbage i folkeskolens lektioner i multiplikation/division...

#44 det kan ikke sætte så firkantet på - der er mange måder at fordele rendering arbejdet på, 3DFX lod hvert kort rendere hver anden linje i deres SLI og blandede så VGA-signalet fra begge kort og sendte det til skærmen.

nVIDIAs SLI renderer enten en frame på hvert kort skiftevis, eller analyserer scenen, og deler billedet op i 2 ca. lige komplicerede dele...

Og endelig kan man inddele billedet i tilpas små "fliser", hvor hver GPU så tager en ny flise hver gang det er færdigt med den første - så sparer man en del administration som i nVIDIAS løsning

er dog ik sikker på hvordan CrossFire har gjort det, men gætter på det ligner nvidias løsning
Gravatar #46 - .dot
22. sep. 2005 06:28
#44 - 800px til eller fra, gør vel ikke så meget :P

#45 - :rolleyes:
Gravatar #47 - amokk
22. sep. 2005 07:06
#46 lad nu være med at forsvare dig med argumenter som slår endnu mere fast, at du ikke kan regne :-p

800x600= ca. ½ megapixel, 1600x1200= ca. 2 megapixel... når du fordobler størrelsen af en firkant bliver dens areal 4 gange større
Gravatar #48 - .dot
22. sep. 2005 08:30
#47 - Ja uha, jeg laver en regnefejl, big deal. Faktum er jo at overskriften er misvisende da du sagtens kan køre højere end 1600x1200 60Hz.

Og desuden burde du nok ikke irettesætte andre folk, taget i af tidligere hændelser... (Ja det nok fejt at jeg indrager det, men jeg gider ikke folk der arrogant irrettesættet mig)
Gravatar #49 - Azjo
22. sep. 2005 10:22
#48
Han fortæller dig jo bare faktum :)
Han ved tydeligvis mere end dig (og mig) så selvfølgelig burde han fortælle os de rigtige fakta.
Det er hans pligt som medborger på internettet ;)
Gravatar #50 - amokk
22. sep. 2005 10:48
#48 der var en grund til min smiley :-p

uden denne havde mit indlæg godt kunne opfattes som arrogant
Gå til top

Opret dig som bruger i dag

Det er gratis, og du binder dig ikke til noget.

Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.

Opret Bruger Login