mboost-dp1

No Thumbnail
- Forside
- ⟨
- Forum
- ⟨
- Nyheder
#1 det var tider dengang ;) det indikerede ligsom at man havde det vildste hardware.
Noget jeg så ikke helt forstår, hvorfor laver de ikke så deres grafik kort render hveranden linjen.. jeg istedet for at inddele det hele i forskellige områder.. der er jo aldrig lige meget aktivitet fordelt på hele skærmen.
Noget jeg så ikke helt forstår, hvorfor laver de ikke så deres grafik kort render hveranden linjen.. jeg istedet for at inddele det hele i forskellige områder.. der er jo aldrig lige meget aktivitet fordelt på hele skærmen.
#2, tror ikke det vil være optimalt med at tage hver 2. Linie, tror nærmere at man skulle gå ind og se hvor objekterne lå og så opdele sådan at de fik højden på et objekt eller lignende, tror det andet ville ende med at give for meget spildt.
- Og man kunne forestille sig at de har testet det meste igennem ;P
Men det lyder da til at være halvsejt.
- Og man kunne forestille sig at de har testet det meste igennem ;P
Men det lyder da til at være halvsejt.
#2 de områder er dynamiske, altså at de deler billedet op i lige store opgaver!
Jeg var egentlig ret begejstret for Crossfire-teorien, fordi den har en bedre default fallback understøttelse af spil - og ikke i samme grad kræver brugerindstilling af spil, som Nvidias SLI kan kræve til de mere perifære titler.
Men efter Crossfire løsningen nu er blevet testet og skærmopløsning- og opdateringslimit'en er blevet bekræftet, må jeg indrømme at meget af idéen med en CF løsning går lidt af det.
Ganske vist er CF stadig ganske brugbart på TFT-skærme (op til 1600*1200) men mange CRT skærme kan udemærket klare 1600*1200@70+ Hz, og med de 'usikre' responstider der tidligere har været på TFT-skærme kan jeg sagtens forestille mig at en masse gamere stadig sidder med de gode gamle CRT skærme.
De er nu 'låst' til 60 Hz i 1600*1200 (opløsninger under giver ikke rigtig mening med CF, IMHO).
Der går rygter om, ar R520 GPU'erne skulle kunne klare bedre opløsninger og opdateringshastigheder end R420-serien i CF (via en bedre receiver-chip - den nuværende X800-serie var egentlig ikke bygget til at køre i crossfire); men indtil videre er jeg lidt skuffet over ATIs dual-GPU løsning. Også selvom hastighedsforbedringerne med 2 ATI kort er ganske pæne (f.eks. i Doom3, NFSUII, Battlefield 2 m.m.)
Det kan dog blive spændende at se hvordan X1800-serien kommer til at yde; både som 'singlekort', men også i Crossfire, og om de kort har de samme restriktioner som X800-serien i CF.
Men efter Crossfire løsningen nu er blevet testet og skærmopløsning- og opdateringslimit'en er blevet bekræftet, må jeg indrømme at meget af idéen med en CF løsning går lidt af det.
Ganske vist er CF stadig ganske brugbart på TFT-skærme (op til 1600*1200) men mange CRT skærme kan udemærket klare 1600*1200@70+ Hz, og med de 'usikre' responstider der tidligere har været på TFT-skærme kan jeg sagtens forestille mig at en masse gamere stadig sidder med de gode gamle CRT skærme.
De er nu 'låst' til 60 Hz i 1600*1200 (opløsninger under giver ikke rigtig mening med CF, IMHO).
Der går rygter om, ar R520 GPU'erne skulle kunne klare bedre opløsninger og opdateringshastigheder end R420-serien i CF (via en bedre receiver-chip - den nuværende X800-serie var egentlig ikke bygget til at køre i crossfire); men indtil videre er jeg lidt skuffet over ATIs dual-GPU løsning. Også selvom hastighedsforbedringerne med 2 ATI kort er ganske pæne (f.eks. i Doom3, NFSUII, Battlefield 2 m.m.)
Det kan dog blive spændende at se hvordan X1800-serien kommer til at yde; både som 'singlekort', men også i Crossfire, og om de kort har de samme restriktioner som X800-serien i CF.
Det skal lige siges, at hvis man ser bort fra opløsnings og opdaterinshastighedsproblemerne (der, såvidt jeg har forstået, mere har noget at gøre med X800-seriens receiver-chip) , skulle Crossfire bundkortene være meget stabile entusiast-bundkort.
Anandtech har lavet en anmeldelse af kortene, set ud fra deres rent bundkortmæssige egenskaber:
http://www.anandtech.com/cpuchipsets/showdoc.aspx?...
Anandtech har lavet en anmeldelse af kortene, set ud fra deres rent bundkortmæssige egenskaber:
http://www.anandtech.com/cpuchipsets/showdoc.aspx?...
3dFX Scan Line Interleave (Hver anden linie var delt mellem hvert grafikkort)
Nvidia Scalable Link Interface (Framen bliver delt op så den ca. bliver fordelt ligligt på hvert gfx, nr. 2 løsning graffik kortene skiftes til at beregne en frame hver)
Nvidia købte en del af 3dFX dødsboet, så jeg går udfra de har patent på det meste.
Devalgte SLI navnet men man bliver damn forviret af det, når folk skriver om det.
Nvidia Scalable Link Interface (Framen bliver delt op så den ca. bliver fordelt ligligt på hvert gfx, nr. 2 løsning graffik kortene skiftes til at beregne en frame hver)
Nvidia købte en del af 3dFX dødsboet, så jeg går udfra de har patent på det meste.
Devalgte SLI navnet men man bliver damn forviret af det, når folk skriver om det.
#10
Det er rigtigt at begge kortene bliver nødt til at have alt data, men der passer nu ikke at de skal rendere det samme. Hver pixel traces hver for sig, så selvom det kan virke somom at de to kort næsten renderer det samme er det ikke tilfældet.
Desuden er der ulemper ved alle implementationer. Den "nye" SLI metode der deler billedet op i 2 dele vil komme ud for situationer hvor den ene del af billedet indeholder meget mere arbejde end den anden. Forestil dig at spille Farcry eller et andet FPS spil, hvor ligger der mest renderarbejde. I øverste halvdel (himmel) eller nederste (landskab, personer, fartøjer)?
Nu har Nvidia dog forsøgt at komme dette problem til livs ved heletiden at holde øje med hvilket kort der laver mindst arbejde i hver billede. Og udfra dette regulere hvor mange linier hver kort skal rendere i det efterfølgende billede.
Det er rigtigt at begge kortene bliver nødt til at have alt data, men der passer nu ikke at de skal rendere det samme. Hver pixel traces hver for sig, så selvom det kan virke somom at de to kort næsten renderer det samme er det ikke tilfældet.
Desuden er der ulemper ved alle implementationer. Den "nye" SLI metode der deler billedet op i 2 dele vil komme ud for situationer hvor den ene del af billedet indeholder meget mere arbejde end den anden. Forestil dig at spille Farcry eller et andet FPS spil, hvor ligger der mest renderarbejde. I øverste halvdel (himmel) eller nederste (landskab, personer, fartøjer)?
Nu har Nvidia dog forsøgt at komme dette problem til livs ved heletiden at holde øje med hvilket kort der laver mindst arbejde i hver billede. Og udfra dette regulere hvor mange linier hver kort skal rendere i det efterfølgende billede.
Opret dig som bruger i dag
Det er gratis, og du binder dig ikke til noget.
Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.