mboost-dp1

unknown
- Forside
- ⟨
- Forum
- ⟨
- Nyheder
Man kunne vel også sige at det var Nvidia der fulgte i ATI's fodspor. ATI udviklede en dualchip (multichip faktisk) teknologi tilbage inden årtusindskiftet der ligeledes benyttede sig af AFR. Det første (og eneste kort) der anvendte teknologien var Rage Fury MAXX der udkom i 1999.
Det interessante er vel, om de nye kort overhovedet har relevans?
Hvis de nye "dual-kort" ikke er "bedre" end allerede eksisterende kort, er det så bare et spørgsmål om at møde et "hyped-demand" fra forbrugerne?
Hvis de nye "dual-kort" ikke er "bedre" end allerede eksisterende kort, er det så bare et spørgsmål om at møde et "hyped-demand" fra forbrugerne?
#8 det er så ikke helt korrekt. Ja, ATI Rage Fury MAXX stank med den driver det blev udgivet med. Den anden og eneste opdaterede driver fiksede faktisk de problemer der var med det. Man nåede desværre bare ikke at høre så meget om netop den driver osv. da løbet for ATI allerede var tabt ved at de fik udgivet kortet mens driverne ikke var parate.
Denne diskussion om Fury MAXX minder lidt om det problem de havde med Radeon 8500 tilbage da det blev udgivet. Der var driverne også langt fra parat til markedet. Det var først efter ca. 6 måneder at de der fik udbedret de fleste af problemerne med det kort.
For lige så gøre mit indlæg bare en lille smule relevant i forhold til denne diskussion, så vil jeg da lige sige at jeg synes det er fedt at de begynder at tænke på at smide fysikberegningerne over på en sekundær grafikchip i stedet for at man skal ud og købe et PCI kort ved siden af til dette. Jeg ser det dog lidt som et problem i længden at de forskellige grafikkort producenter begynder at lave deres egne API'er til denne fysikberegning, for det vil gøre, som det ser ud nu, at spilproducenterne skal sidde og udvikle til en masse forskellige API'er. Synes det er dejligt at se at Microsoft er ved at smide en Physics API ind i DirectX 10, så vi kan holde os til en standard.
Denne diskussion om Fury MAXX minder lidt om det problem de havde med Radeon 8500 tilbage da det blev udgivet. Der var driverne også langt fra parat til markedet. Det var først efter ca. 6 måneder at de der fik udbedret de fleste af problemerne med det kort.
For lige så gøre mit indlæg bare en lille smule relevant i forhold til denne diskussion, så vil jeg da lige sige at jeg synes det er fedt at de begynder at tænke på at smide fysikberegningerne over på en sekundær grafikchip i stedet for at man skal ud og købe et PCI kort ved siden af til dette. Jeg ser det dog lidt som et problem i længden at de forskellige grafikkort producenter begynder at lave deres egne API'er til denne fysikberegning, for det vil gøre, som det ser ud nu, at spilproducenterne skal sidde og udvikle til en masse forskellige API'er. Synes det er dejligt at se at Microsoft er ved at smide en Physics API ind i DirectX 10, så vi kan holde os til en standard.
Og så husker vi lige på at GPU kun kan lave EFFECT-physcis...IKKE gameplay physcis.
Når først data er kommet ind i pixel-pipes kan du ikke læse eller skrive data til det.
Så det er kun en slags "fire-and-forget" fysik...
Modsat hvad AGEIA's PhysX can lave:
Joint Task Froce - True Gameplay Physics
Terracide - Træt at ATI/NVIDIA/HavokFX's PR-FUD...
Når først data er kommet ind i pixel-pipes kan du ikke læse eller skrive data til det.
Så det er kun en slags "fire-and-forget" fysik...
Modsat hvad AGEIA's PhysX can lave:
Joint Task Froce - True Gameplay Physics
Terracide - Træt at ATI/NVIDIA/HavokFX's PR-FUD...
11# Ageia's ppu er præcis det samme som en gpu, fordi det er hvad det er ageia's ppu er et Geforce 5600 ultra tilført gddr3 ram. så agias kort er altså bare en langsommere udgave af ATI/Nvidia model. Efter som at en ppu og en gpu erdet samme kan de også udføre den samme handling, Men lige nu bliver tingene gjordt på en forskellig måde men det bliver forhåbentligt rettet op på med directx 10
#12:
Du skal vist læse lidt op og holde op med at sluge PR-FUD råt ;)
PhysX Pysics Processor Unit (PPU) Architechture
Med mindre du påstår at en GeForce 5600 har 2 Terabits internal bandwith og muligheden for at læse og skrive til data inde i pixel pipelines?!
Og prøver du at sammenligne 2 forskellige arkitekture på baggrund af GFlops alene, så skulle en P4 være dobbelt så effektiv som en AMD64...
Terracide - Lær at kende forskel på effect-physics(eye-candy) og gameplay(interaktivt) physics...
Du skal vist læse lidt op og holde op med at sluge PR-FUD råt ;)
PhysX Pysics Processor Unit (PPU) Architechture
Med mindre du påstår at en GeForce 5600 har 2 Terabits internal bandwith og muligheden for at læse og skrive til data inde i pixel pipelines?!
Og prøver du at sammenligne 2 forskellige arkitekture på baggrund af GFlops alene, så skulle en P4 være dobbelt så effektiv som en AMD64...
Terracide - Lær at kende forskel på effect-physics(eye-candy) og gameplay(interaktivt) physics...
Opret dig som bruger i dag
Det er gratis, og du binder dig ikke til noget.
Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.