mboost-dp1

No Thumbnail

ATI’s Crossfire åbner krydsild mod Nvidia’s SLI

- Via ExtremeTech - , redigeret af Net_Srak

På ATI’s hjemmeside, kan man følge nedtællingen, til udgivelsen af ATI’s næste generation af grafikchip. For dem som ikke kan vente, har ATI i mellemtiden, langt om længe lanceret deres Crossfire teknologi.

Ligesom Nvidia’s SLI, gør Crossfire det muligt at dele renderingsbyrden mellem to grafikkort.

Konceptet er det samme, men der er nogle vigtige forskelle. I øjeblikket kræver Crossfire lige som SLI, at bundkortet bygger på et chipset fra henholdsvis ATI og Nvidia, men i fremtiden vil det være muligt, at benytte Crossfire med bl.a. Intel chipsets.

Crossfire tilbyder tre forskellige renderingsmetoder. Den ene er magen til den metode som SLI bruger, hvor hvert billede deles i to dele, der hver bliver renderet på hvert sit kort. Derudover tilbyder Crossfire “supertiling”, der deler billedet op i en række tiles, der skiftes til at blive renderet af de to kort. Sidste metode er AFR, hvor kortene skiftes til at rendere billeder.

Hvor SLI kræver at de to kort er identiske, tillader Crossfire at bruge forskellige kort, så længe de er fra samme serie. For eksempel kan X800, X800 Pro, X800XL og X800XT alle virke med et Crossfire-kort fra X800 serien.

Foreløbige tests viser også at Crossfire, er en anelse bedre til at udnytte to kort end SLI er.

Der er dog også nogle ulemper ved Crossfire. Løsningen bruger en dongle til at kombinere de to kort, ligesom SLI på de gamle Voodoo kort gjorde. Det er ikke særlig pænt og det medfører også som tidligere beskrevet, en begrænsning på opdaterings raten ved høje opløsninger.

Denne begræsning menes kun at gælde X8xx serien af grafikkort. ATI’s nye serie grafikkort der kommer om en uges tid, burde ikke lide under dette problem.

En anden vigtig detalje ved Crossfire, er at folk som allerede har et X800 kort i PCIe udgave, stadig kan bruge dette, og blot behøver at købe et tilsvarende kort i en Crossfire-udgave.





Gå til bund
Gravatar #1 - El_Coyote
27. sep. 2005 06:55
hehe jeg kan huske da det var vildt gejlt at have sådan en dongle til at forbinde sit voodoo kort bag på computeren
Gravatar #2 - Herskegut
27. sep. 2005 06:58
#1 det var tider dengang ;) det indikerede ligsom at man havde det vildste hardware.

Noget jeg så ikke helt forstår, hvorfor laver de ikke så deres grafik kort render hveranden linjen.. jeg istedet for at inddele det hele i forskellige områder.. der er jo aldrig lige meget aktivitet fordelt på hele skærmen.
Gravatar #3 - mELIeha
27. sep. 2005 07:03
#2, tror ikke det vil være optimalt med at tage hver 2. Linie, tror nærmere at man skulle gå ind og se hvor objekterne lå og så opdele sådan at de fik højden på et objekt eller lignende, tror det andet ville ende med at give for meget spildt.
- Og man kunne forestille sig at de har testet det meste igennem ;P

Men det lyder da til at være halvsejt.
Gravatar #4 - AndersAndersson
27. sep. 2005 07:43
#2 de områder er dynamiske, altså at de deler billedet op i lige store opgaver!
Gravatar #5 - AenimA
27. sep. 2005 07:55
Jeg var egentlig ret begejstret for Crossfire-teorien, fordi den har en bedre default fallback understøttelse af spil - og ikke i samme grad kræver brugerindstilling af spil, som Nvidias SLI kan kræve til de mere perifære titler.

Men efter Crossfire løsningen nu er blevet testet og skærmopløsning- og opdateringslimit'en er blevet bekræftet, må jeg indrømme at meget af idéen med en CF løsning går lidt af det.
Ganske vist er CF stadig ganske brugbart på TFT-skærme (op til 1600*1200) men mange CRT skærme kan udemærket klare 1600*1200@70+ Hz, og med de 'usikre' responstider der tidligere har været på TFT-skærme kan jeg sagtens forestille mig at en masse gamere stadig sidder med de gode gamle CRT skærme.
De er nu 'låst' til 60 Hz i 1600*1200 (opløsninger under giver ikke rigtig mening med CF, IMHO).

Der går rygter om, ar R520 GPU'erne skulle kunne klare bedre opløsninger og opdateringshastigheder end R420-serien i CF (via en bedre receiver-chip - den nuværende X800-serie var egentlig ikke bygget til at køre i crossfire); men indtil videre er jeg lidt skuffet over ATIs dual-GPU løsning. Også selvom hastighedsforbedringerne med 2 ATI kort er ganske pæne (f.eks. i Doom3, NFSUII, Battlefield 2 m.m.)

Det kan dog blive spændende at se hvordan X1800-serien kommer til at yde; både som 'singlekort', men også i Crossfire, og om de kort har de samme restriktioner som X800-serien i CF.
Gravatar #6 - Herskegut
27. sep. 2005 08:54
#4
Ok, det giver jo lidt mere mening :)
Gravatar #7 - AenimA
27. sep. 2005 09:42
Det skal lige siges, at hvis man ser bort fra opløsnings og opdaterinshastighedsproblemerne (der, såvidt jeg har forstået, mere har noget at gøre med X800-seriens receiver-chip) , skulle Crossfire bundkortene være meget stabile entusiast-bundkort.

Anandtech har lavet en anmeldelse af kortene, set ud fra deres rent bundkortmæssige egenskaber:
http://www.anandtech.com/cpuchipsets/showdoc.aspx?...
Gravatar #8 - Lobais
27. sep. 2005 09:56
Virker det på Linux? Ellers er det uinteressant. Nvidia var godt nok også lidt langsomme med sli til linux, men det er jo rettet nu.
Gravatar #9 - ano
27. sep. 2005 13:27
3dFX Scan Line Interleave (Hver anden linie var delt mellem hvert grafikkort)

Nvidia Scalable Link Interface (Framen bliver delt op så den ca. bliver fordelt ligligt på hvert gfx, nr. 2 løsning graffik kortene skiftes til at beregne en frame hver)

Nvidia købte en del af 3dFX dødsboet, så jeg går udfra de har patent på det meste.

Devalgte SLI navnet men man bliver damn forviret af det, når folk skriver om det.
Gravatar #10 - TullejR
27. sep. 2005 15:10
#2:

hvis du deler op med hver anden linje skal kortene have det samme i ram og grundlæggende rendre det samme. det er et sindsygt spild du foreslår, det ville formentligt ikke gå hurtigere på den måde ;)
Gravatar #11 - Onde Pik
27. sep. 2005 16:40
#10

Det er rigtigt at begge kortene bliver nødt til at have alt data, men der passer nu ikke at de skal rendere det samme. Hver pixel traces hver for sig, så selvom det kan virke somom at de to kort næsten renderer det samme er det ikke tilfældet.

Desuden er der ulemper ved alle implementationer. Den "nye" SLI metode der deler billedet op i 2 dele vil komme ud for situationer hvor den ene del af billedet indeholder meget mere arbejde end den anden. Forestil dig at spille Farcry eller et andet FPS spil, hvor ligger der mest renderarbejde. I øverste halvdel (himmel) eller nederste (landskab, personer, fartøjer)?

Nu har Nvidia dog forsøgt at komme dette problem til livs ved heletiden at holde øje med hvilket kort der laver mindst arbejde i hver billede. Og udfra dette regulere hvor mange linier hver kort skal rendere i det efterfølgende billede.
Gravatar #12 - T.A
27. sep. 2005 23:17
Idag da renderingen er så kompleks og hvor de forskellige objekter har indflydelse på de resterende ville det være komplet ondsvagt at skulle rendere hver anden linie per GPU.

ved deling af skærmen i 2 områder blive det kritiske punkt "kun" lige det område hvor skille linien ligger.
Gå til top

Opret dig som bruger i dag

Det er gratis, og du binder dig ikke til noget.

Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.

Opret Bruger Login