mboost-dp1

unknown
- Forside
- ⟨
- Forum
- ⟨
- Nyheder
Ja, ville også være lidt bitter hvis ikke jeg kunne spille HL2 med mit GeForceFX 5900 kort :) kostede trodsalt en bondegård...
Måske man snart skulle finde pengepungen frem igen... :-) Men tror også jeg venter til TomsHardware har gennemtestet/tæsket de nye drivere ;) - Det kan jo også være at jeg vil se lignene forbedringer på mit gf4mx460...
Det er rygter. Og givent at der også er rygter om at nvidia helt er smidt af udviklings holdet. Så tror vi skal lade den stå inden vi får for mange arme oppe i vejret.
Bare lidt dårligt at vi nu skal til at have codepath til både ati og nvidia uden at følge den oprindelige dx9 standard fremlagt af microsoft.
Tror dog det kan være sandt nok. Det har jo været rygtet de vil vente med DX10 for at "puste ud". Så hvis DX 9.1 holder til nvidia kort så er der bedre chance for en ordenlig priskrig.
Bare lidt dårligt at vi nu skal til at have codepath til både ati og nvidia uden at følge den oprindelige dx9 standard fremlagt af microsoft.
Tror dog det kan være sandt nok. Det har jo været rygtet de vil vente med DX10 for at "puste ud". Så hvis DX 9.1 holder til nvidia kort så er der bedre chance for en ordenlig priskrig.
#9
Ja men ikke den originale standard.
Microsoft sattte en standard ingen af dem vil følge. Men brugte så ati's. Så mens det officielt er DX9, så er det rent faktisk ikke den rigtige dx9 specifikation som Microsoft udgav.
Selvfølgelig kan der så være tale om, om det så var pga ati's rent faktisk var bedre. eller om de bare fulgte den.
Men ellers så har du ret.
Ja men ikke den originale standard.
Microsoft sattte en standard ingen af dem vil følge. Men brugte så ati's. Så mens det officielt er DX9, så er det rent faktisk ikke den rigtige dx9 specifikation som Microsoft udgav.
Selvfølgelig kan der så være tale om, om det så var pga ati's rent faktisk var bedre. eller om de bare fulgte den.
Men ellers så har du ret.
HAH! 1-0 til geforce over radeon (:
Ej, men jeg sys' da det er godt nyt for os geforce elskere :)
r12dk
Ej, men jeg sys' da det er godt nyt for os geforce elskere :)
r12dk
Jeg fatter det ikke helt ... hvordan kan noget software rette op på den decideret hardware fejl ... !??
Hvis FX kortene med dx9 ikke kan køre Pixelshader v2.0, hvorfor skulle den så kunne med dx9.1 ...
problemet med FX kortene er jo at ingenørene dummede sig gevaldigt, og sparrede rimelig meget på Pixel shaderen, og det resulterede i at der opstod en kæmpe flaskehals ... hvordan fjerner man lige en fysisk flaskehals ved hjælp af software ... !??
Ja det kan da godt være at geforce FX kortene kan køre 32bit pixel shader, og at ati kortene ikke kan, men hvad hjælper det hvis det køre så langsomt at man aligevel ikke kan få brugbare FPS ...
Hvis FX kortene med dx9 ikke kan køre Pixelshader v2.0, hvorfor skulle den så kunne med dx9.1 ...
problemet med FX kortene er jo at ingenørene dummede sig gevaldigt, og sparrede rimelig meget på Pixel shaderen, og det resulterede i at der opstod en kæmpe flaskehals ... hvordan fjerner man lige en fysisk flaskehals ved hjælp af software ... !??
Ja det kan da godt være at geforce FX kortene kan køre 32bit pixel shader, og at ati kortene ikke kan, men hvad hjælper det hvis det køre så langsomt at man aligevel ikke kan få brugbare FPS ...
Og alt skal gøres med offentligheden indkluderet?
Det næste du vil sige er vel også at Longhorn ikke er betatestet endnu.
Edit: Desuden er det heller ikke, så vidt jeg ved, nævnt at udviklingen af DX9.1 er gået i gang endnu.
Og hvis det passer at de vil tage en pause før DX10 så kan det skam godt være at vi kan vente et par måneder før DX9.1 kommer.
Det næste du vil sige er vel også at Longhorn ikke er betatestet endnu.
Edit: Desuden er det heller ikke, så vidt jeg ved, nævnt at udviklingen af DX9.1 er gået i gang endnu.
Og hvis det passer at de vil tage en pause før DX10 så kan det skam godt være at vi kan vente et par måneder før DX9.1 kommer.
Fisker_Q, nej, for jeg er udemærket klar over at Longhorn er i betatest. Er (desværre) ikke selv tester på det, men ved at mange af de andre dx testere også tester Longhorn med mere.
Med hensyn til at at inkludere offentligheden vil jeg lade det stå for din egen regning, da jeg dels ikke er helt klare over hvad du i den forbindelse lægger i ordet "offentligheden", og dels har på fornemmelsen du forsøger at lægge mig ord i munden.
Lad mig blot sige at betaplace so far er blevet brugt i forbindelse med tidligere major så vel som sub-releases af DX (med undtagelse af enkelte -a/b opdateringer).
Med hensyn til at at inkludere offentligheden vil jeg lade det stå for din egen regning, da jeg dels ikke er helt klare over hvad du i den forbindelse lægger i ordet "offentligheden", og dels har på fornemmelsen du forsøger at lægge mig ord i munden.
Lad mig blot sige at betaplace so far er blevet brugt i forbindelse med tidligere major så vel som sub-releases af DX (med undtagelse af enkelte -a/b opdateringer).
#10 - jo, den oprindelige standard. der er nogle enkelte pereferi funktioner, som hverken ait eller nvidia understoetter. men da de er saa godt som ligegyldige, er de gaaet ud af dx9.
#11 - ja woohoo. nu mangler de sa bare at understoette dx9, samt lave nogle driverer der er stabile, og har bedre end middlemaadig billedekvalitet. saa vil nvisia naesten have indhentet ati igen.
det er aldrig klogt at vaere ubetinget fan af et firma. det er et indlaeg som dit et tydeligt eksempel paa.
#12 - grunden til at de kan opnaa hastighedesforbedringer, skyldes at fx kortene behandler data'ene i 32bit, og derved spilder en masse busbrede, da 32bit sjaeldent bliver brugt.
derfor vil det i hoejere grad, koere som nvidia oensker det, hvis dx9.1 behandler shaderpraecision som 32bit.
okay, det er skrevet lidt kringlet, og nok ikke hele sandhenden, men noget derhen af.
/stone
#11 - ja woohoo. nu mangler de sa bare at understoette dx9, samt lave nogle driverer der er stabile, og har bedre end middlemaadig billedekvalitet. saa vil nvisia naesten have indhentet ati igen.
det er aldrig klogt at vaere ubetinget fan af et firma. det er et indlaeg som dit et tydeligt eksempel paa.
#12 - grunden til at de kan opnaa hastighedesforbedringer, skyldes at fx kortene behandler data'ene i 32bit, og derved spilder en masse busbrede, da 32bit sjaeldent bliver brugt.
derfor vil det i hoejere grad, koere som nvidia oensker det, hvis dx9.1 behandler shaderpraecision som 32bit.
okay, det er skrevet lidt kringlet, og nok ikke hele sandhenden, men noget derhen af.
/stone
#20
"#10 - jo, den oprindelige standard. der er nogle enkelte pereferi funktioner, som hverken ait eller nvidia understoetter. men da de er saa godt som ligegyldige, er de gaaet ud af dx9."
Er ikke helt med der. Jeg snakker hele standarden. Microsoft fremladge deres standard af DirectX9. den var hverken ATI eller Nvidia med på. Så lavede ATI en som microsoft så var med på, men Nvidia ikke var.
Grunden til de nok valgte den standard ati bruger er nok blandt andet deres 24bit præcision. da det ikke er muligt at se den store forskel mellem 24 og 32 bit.
Jeg må indrømme det ser ud til at de har ramt jackpot med deres nye 52.13(mener jeg de hedder).
De ældre 5x.xx drivere blev beskyldt for at ændre i directx.
Men de gamle var jo heller ikke særligt gode.
Nu har de så lavet nogle der er bedre og tilsyneladende uden snyd eller dårligere billedkvalitet, kan det være de første spor af DX9.1 vi ser her?.
"#10 - jo, den oprindelige standard. der er nogle enkelte pereferi funktioner, som hverken ait eller nvidia understoetter. men da de er saa godt som ligegyldige, er de gaaet ud af dx9."
Er ikke helt med der. Jeg snakker hele standarden. Microsoft fremladge deres standard af DirectX9. den var hverken ATI eller Nvidia med på. Så lavede ATI en som microsoft så var med på, men Nvidia ikke var.
Grunden til de nok valgte den standard ati bruger er nok blandt andet deres 24bit præcision. da det ikke er muligt at se den store forskel mellem 24 og 32 bit.
Jeg må indrømme det ser ud til at de har ramt jackpot med deres nye 52.13(mener jeg de hedder).
De ældre 5x.xx drivere blev beskyldt for at ændre i directx.
Men de gamle var jo heller ikke særligt gode.
Nu har de så lavet nogle der er bedre og tilsyneladende uden snyd eller dårligere billedkvalitet, kan det være de første spor af DX9.1 vi ser her?.
Øhm, nu er jeg ikke helt med.
Sådan som jeg har forstået det, så var det NETOP på grund af 24bit og 32bit shaders som standard i DirectX 9.0 at nVidia havde problemer, da deres hardware er lavet til 12bit og 16bit præcision med hensyn til Pixel Shader 2.0. Radeon kører 24bit og 32bit uden problemer, hvilket også er en af standarderne i DX9.
#14, jo det er en hardware "fejl". Men (næsten) alle hardware fejl kan rettes med software.
==
Sådan som jeg har forstået det, så var det NETOP på grund af 24bit og 32bit shaders som standard i DirectX 9.0 at nVidia havde problemer, da deres hardware er lavet til 12bit og 16bit præcision med hensyn til Pixel Shader 2.0. Radeon kører 24bit og 32bit uden problemer, hvilket også er en af standarderne i DX9.
#14, jo det er en hardware "fejl". Men (næsten) alle hardware fejl kan rettes med software.
==
====
GD: John, we've found that NVIDIA hardware seems to come to a crawl whenever Pixel Shader's are involved, namely PS 2.0..
Have you witnessed any of this while testing under the Doom3 environment?
"Yes. NV30 class hardware can run the ARB2 path that uses ARB_fragment_program, but it is very slow, which is why I have a separate NV30 back end that uses NV_fragment_program to specify most of the operations as 12 or 16 bit instead of 32 bit."
John Carmack
==
findes der ikke et alternativ til dx9? hvis det fortsætter sådan her ender det jo med at m$ får monopol på graphxkort standarder :0(
Tjooo...der er jo OpenGL, og så er der nogle mindre standarder som wickedGL, Glide(3dfx) osv!!
Personligt fatter jeg ikke hvorfor nVidia ikke valgte at udvikle videre på glide, da de havde fået nallerne i 3dfx.
Hovedparten af tekniken ligger her i hardwaren og kun symbolsk i softwaren. Og hardwaren havde sin helt egen Glide-del, lavet og optimeret kun til glide, så man kunne nå maximale fps.
Personligt fatter jeg ikke hvorfor nVidia ikke valgte at udvikle videre på glide, da de havde fået nallerne i 3dfx.
Hovedparten af tekniken ligger her i hardwaren og kun symbolsk i softwaren. Og hardwaren havde sin helt egen Glide-del, lavet og optimeret kun til glide, så man kunne nå maximale fps.
Er det sådan ikke ca. sådan det hænger sammen:
ATi: 24-bit sampling
Nvidia: 32- eller 16-bit sampling
DX 9.0 (PS 2.0) kræver kun 24 bit sampling hvilket vil sige at Nvidia kører langsommere da de bliver nød til at afvikle 24-bit gennem 32-bit. Op til PS 1.4 kræves kun 16-bit hvilket vil sige at for at udnytte Nvidia kort optimalt skal man definere om en PS skal køre 16 eller 32 bit. Hos ATi bliver alle PS kørt gennem 24-bit og det giver åbenbart en bedre performance.
Man kan vel forestille sig at valget mellem 16 og 32 bit giver nogle problemer. Det kunne være derfor at John Carmack blev nød til specifikt at sætte en operation til at køre 16 el. 32 bit.
Kan det tænkes at DX 9.1 (hvis den ikke er en and) indeholder nogle funktioner der gør GeFX i stand til at håndtere 32 og 16 bit langt bedre.
ATi: 24-bit sampling
Nvidia: 32- eller 16-bit sampling
DX 9.0 (PS 2.0) kræver kun 24 bit sampling hvilket vil sige at Nvidia kører langsommere da de bliver nød til at afvikle 24-bit gennem 32-bit. Op til PS 1.4 kræves kun 16-bit hvilket vil sige at for at udnytte Nvidia kort optimalt skal man definere om en PS skal køre 16 eller 32 bit. Hos ATi bliver alle PS kørt gennem 24-bit og det giver åbenbart en bedre performance.
Man kan vel forestille sig at valget mellem 16 og 32 bit giver nogle problemer. Det kunne være derfor at John Carmack blev nød til specifikt at sætte en operation til at køre 16 el. 32 bit.
Kan det tænkes at DX 9.1 (hvis den ikke er en and) indeholder nogle funktioner der gør GeFX i stand til at håndtere 32 og 16 bit langt bedre.
#27
Jeg fandt en artikel omkring Pixel Shader 2.0 og den fokuserer ret kraftigt på 32bit, så jeg tror (stadig) problemet er at nVidia bedst kan "lide" 12/16bit og ATI leger bedst med 24/32bit.
http://www.digit-life.com/articles2/ps-precision/
Men det forklarer ikke rigtigt det rygte omkring DirectX 9.1.
Måske har Microsoft, under pres af nVidia, tilføjet 12/16bit til Pixel Shader 2.0 standarden i DirectX 9.1. Husk at selvom Pixel Shader 2.0 kører i 16bit mode, så er det næsten umuligt at se forskel på det og 32bit, så for den normale gamer er det totalt ligemeget.
Hardwaretidende.dk har også haft en artikel omkring det for et stykke tid siden:
http://www.hardwaretidende.dk/hard/artikel/03/09/0...
Jeg fandt en artikel omkring Pixel Shader 2.0 og den fokuserer ret kraftigt på 32bit, så jeg tror (stadig) problemet er at nVidia bedst kan "lide" 12/16bit og ATI leger bedst med 24/32bit.
http://www.digit-life.com/articles2/ps-precision/
Men det forklarer ikke rigtigt det rygte omkring DirectX 9.1.
Måske har Microsoft, under pres af nVidia, tilføjet 12/16bit til Pixel Shader 2.0 standarden i DirectX 9.1. Husk at selvom Pixel Shader 2.0 kører i 16bit mode, så er det næsten umuligt at se forskel på det og 32bit, så for den normale gamer er det totalt ligemeget.
Hardwaretidende.dk har også haft en artikel omkring det for et stykke tid siden:
http://www.hardwaretidende.dk/hard/artikel/03/09/0...
Hmmm. Der er mange der skriver om noget som de åbenbart kun har perifært kendskab til. Jeg vil i det følgende mene 9700/9800 Pro når jeg skriver ATI og FX5900 når jeg skriver nVidia.
1. DX 9.0 foreskriver 24bit pixel shaders. ATIs GPUer benytter netop 24bit. nVidias FX5900 benytter 16 og 32bit. Da 32bit kræver noget mere af båndbredde og intern arkitektur er det naturligt nok langsommere end 'native' DX 9.0 24bit. Dette leder hen til punkt 2, som omhandler artiklens indhold.
2. DX 9.1 er da sikkert en forbedring, hvis rygtet altså taler sandt. Men I skal jo lige huske at nVidia altså kun har halvt så mange pixel pipelines som ATI at gøre godt med. Klart fejlskøn af nVidias ingeniører (En af efterhånden mange fra nVidia). At rette op på det i software (Drivere) må være et spørgsmål om at tro på et højere væsen der, vupti, tilføjer 4 pipelines på alle kundernes kort.
3. 24bit er ikke en hovsaløsning som blev foretaget for at genere nVidia som halvt blev foreslået af en anden kommentator. Der var tværtimod fra start flertal for at benytte 24bit. At nVidia så ville spille med musklerne, lege med ilden dengang, er deres eget problem. Det er ikke et spørgsmål om at MS og ATI gik sammen om at få nVidia ned med nakken. nVidia havde regnet lidt galt på udviklingen og ville derfor have deres egen proprietære standard indført. Alle andre var uenige med dem og nVidia brændte nallerne.
DX 9.1 vil IKKE komme til at behandle shaders i 32bit. Det er først planlagt til DX 10. Den nuværende hardware som KAN gøre det kan ikke gøre det med acceptable framerates, så jeg tvivler på at 32bit shaders bliver fremskyndet til DX 9.1. Der bliver til gengæld nok bedre understøttelse at CineFX.
Altså: Direct3D vil se nogen forbedringer. OpenGL... Det løb er vist kørt med FX serien.
Efter at have skrevet en del mere end jeg havde planlagt :) vil jeg lige udtrykke min harme over nVidias seneste driver fiaskoer. At udgive en driver der snyder med fog i OpenGL, så MIT yndlings online spil (Medal of Honor) bliver komplet ødelagt er utilgiveligt. Et så populært spil burde have været testet inden deres drivere ryger ud af huset. *suk*
1. DX 9.0 foreskriver 24bit pixel shaders. ATIs GPUer benytter netop 24bit. nVidias FX5900 benytter 16 og 32bit. Da 32bit kræver noget mere af båndbredde og intern arkitektur er det naturligt nok langsommere end 'native' DX 9.0 24bit. Dette leder hen til punkt 2, som omhandler artiklens indhold.
2. DX 9.1 er da sikkert en forbedring, hvis rygtet altså taler sandt. Men I skal jo lige huske at nVidia altså kun har halvt så mange pixel pipelines som ATI at gøre godt med. Klart fejlskøn af nVidias ingeniører (En af efterhånden mange fra nVidia). At rette op på det i software (Drivere) må være et spørgsmål om at tro på et højere væsen der, vupti, tilføjer 4 pipelines på alle kundernes kort.
3. 24bit er ikke en hovsaløsning som blev foretaget for at genere nVidia som halvt blev foreslået af en anden kommentator. Der var tværtimod fra start flertal for at benytte 24bit. At nVidia så ville spille med musklerne, lege med ilden dengang, er deres eget problem. Det er ikke et spørgsmål om at MS og ATI gik sammen om at få nVidia ned med nakken. nVidia havde regnet lidt galt på udviklingen og ville derfor have deres egen proprietære standard indført. Alle andre var uenige med dem og nVidia brændte nallerne.
DX 9.1 vil IKKE komme til at behandle shaders i 32bit. Det er først planlagt til DX 10. Den nuværende hardware som KAN gøre det kan ikke gøre det med acceptable framerates, så jeg tvivler på at 32bit shaders bliver fremskyndet til DX 9.1. Der bliver til gengæld nok bedre understøttelse at CineFX.
Altså: Direct3D vil se nogen forbedringer. OpenGL... Det løb er vist kørt med FX serien.
Efter at have skrevet en del mere end jeg havde planlagt :) vil jeg lige udtrykke min harme over nVidias seneste driver fiaskoer. At udgive en driver der snyder med fog i OpenGL, så MIT yndlings online spil (Medal of Honor) bliver komplet ødelagt er utilgiveligt. Et så populært spil burde have været testet inden deres drivere ryger ud af huset. *suk*
Jeg er lidt spændt på, hvor XGI havner henaf. Men emget tyder på at de har fulgt ATi's spor. Men i de 3Dmarks test der har været fremme, tyder det på, at et er lidt sløvt i pixelshaders.
#32 kommer med en klar og detaljeret beskrivelse af situationen, så jeg vil blot nøjes med at tilføje: Hvordan kan nogen dog tro at de får højere performance ud af at deres kort behandler data i 32 bit? ja du får bedre billedkvalitet men det er da altid på bekostning af performance, når dobbelt så meget data skal behandles....
Så nvidia's kort kører selvfølgelig hurtigst i 16 bit og langsommere når der skal mere præcision til, det skulle vel være klart nok?
Så nvidia's kort kører selvfølgelig hurtigst i 16 bit og langsommere når der skal mere præcision til, det skulle vel være klart nok?
jeg har forstået det sådan: at geforceFX prøver at behandle 24bit shaders med 32bit, hvilket gør gfx-kortet langsommere.
FX kan slet ikke køre 24bit, og jeg mener og ha set et sted, at det kun er FX5600/5200 der køre ned i 16/12bit shaders!! (men kan selvfølgelig ikke huske hvor henne)
FX kan slet ikke køre 24bit, og jeg mener og ha set et sted, at det kun er FX5600/5200 der køre ned i 16/12bit shaders!! (men kan selvfølgelig ikke huske hvor henne)
#36 ... sandheden er at FX kortene er lavet til at kunne behandle Pixelshader med 32bit ... men problemet er at ingeniørene som har designet chippen, har dummet sig ... båndbreden er nemlig slet ikke stor nok til at behandle datane i 32bit ...
Så derfor bruger Valve (HL2) som nødløsning Pixel shader v1,4 .. altså kun 16bit (Dx8.1)... for overhoved at kunne køre spillet på FX grafikkort...
Og jeg kan stadig ikke se hvordan et kort skulle blive hurtigere af at blive tvunget til at køre med højere præcisions pixelshader... det eneste det forudsager er at ingen af de nuværende grafikkort kan køre med brugbare frame rates...
Så derfor bruger Valve (HL2) som nødløsning Pixel shader v1,4 .. altså kun 16bit (Dx8.1)... for overhoved at kunne køre spillet på FX grafikkort...
Og jeg kan stadig ikke se hvordan et kort skulle blive hurtigere af at blive tvunget til at køre med højere præcisions pixelshader... det eneste det forudsager er at ingen af de nuværende grafikkort kan køre med brugbare frame rates...
#32
"Efter at have skrevet en del mere end jeg havde planlagt :) vil jeg lige udtrykke min harme over nVidias seneste driver fiaskoer. At udgive en driver der snyder med fog i OpenGL, så MIT yndlings online spil (Medal of Honor) bliver komplet ødelagt er utilgiveligt. Et så populært spil burde have været testet inden deres drivere ryger ud af huset. *suk*"
nu var de drivere, det var et problem i, BETA drivere og ikke udgivet endnu, så jeg kan ikke se dit problem her :P
såvid jeg kan huske er det kun 2 af nvidias pixelshader pipelines der er dedikeret til ps2.0 mens ATi kan køre ps2.0 på alle piplines. det giver jo også en forskæl
"Efter at have skrevet en del mere end jeg havde planlagt :) vil jeg lige udtrykke min harme over nVidias seneste driver fiaskoer. At udgive en driver der snyder med fog i OpenGL, så MIT yndlings online spil (Medal of Honor) bliver komplet ødelagt er utilgiveligt. Et så populært spil burde have været testet inden deres drivere ryger ud af huset. *suk*"
nu var de drivere, det var et problem i, BETA drivere og ikke udgivet endnu, så jeg kan ikke se dit problem her :P
såvid jeg kan huske er det kun 2 af nvidias pixelshader pipelines der er dedikeret til ps2.0 mens ATi kan køre ps2.0 på alle piplines. det giver jo også en forskæl
#38
"nu var de drivere, det var et problem i, BETA drivere og ikke udgivet endnu, så jeg kan ikke se dit problem her :P"
Det var ganske rigtigt BETA drivere, men som jeg skrev så røg de altså ud af huset og rigtigt mange bruger dem den dag idag. Uanset om nVidia officielt har udgivet dem eller ej har de ødelagt MoH, da ingen anticheat programmer kan fange det. Man kan se det på public servere, når man er spectator på en person der bruger det. Han kan skyde folk som ikke engang kan ses, fordi de er for langt væk. Desværre må man jo ikke spectate det andet hold i clan-wars. I clan-wars kan man bare forbande nVidia langt væk for at have udsendt disse "optimerede" drivere hver gang man ser et af disse lang-distance kills. Det er derfor ganske ligegyldigt om de er officielle drivere eller "kun" udsendt i deres BETA-program. nVidia bærer den fulde skyld for at have ødelagt netop mit spil!!
Heldigvis er det, så vidt jeg ved, kun FX5900 den er gal med (Ret endelig den opfattelse, hvis du ved mere) og FX5900 er der nok ikke så mange, der kan finde på at købe mere ;)
"nu var de drivere, det var et problem i, BETA drivere og ikke udgivet endnu, så jeg kan ikke se dit problem her :P"
Det var ganske rigtigt BETA drivere, men som jeg skrev så røg de altså ud af huset og rigtigt mange bruger dem den dag idag. Uanset om nVidia officielt har udgivet dem eller ej har de ødelagt MoH, da ingen anticheat programmer kan fange det. Man kan se det på public servere, når man er spectator på en person der bruger det. Han kan skyde folk som ikke engang kan ses, fordi de er for langt væk. Desværre må man jo ikke spectate det andet hold i clan-wars. I clan-wars kan man bare forbande nVidia langt væk for at have udsendt disse "optimerede" drivere hver gang man ser et af disse lang-distance kills. Det er derfor ganske ligegyldigt om de er officielle drivere eller "kun" udsendt i deres BETA-program. nVidia bærer den fulde skyld for at have ødelagt netop mit spil!!
Heldigvis er det, så vidt jeg ved, kun FX5900 den er gal med (Ret endelig den opfattelse, hvis du ved mere) og FX5900 er der nok ikke så mange, der kan finde på at købe mere ;)
#32
2:
Ja det er jo så ikke helt rigtigt at NV3x har halvt så mange pixelpipelines i praksis. Det er jo et diffinitons spørgsmål hvad præcis skal være opfyldt for at kan har en "pipeline", det var indtil NV3x rimelig underforstået at en pixelpipeline var en bunke logik der kunne spytte 1 pixel ud per clock. Men da NV3x kom blev der pludselig noget uklarhed. Det er jo ikke en standard 4x2 konfiguration (som GF4) men er dog heller ikke 8x1 på linie med R3xx. Nvidias hardware er en eller anden pseudo løsning der kan producere 8 pixels per clock under nogle forhold, stencil og dybde operationer uden farve operationer. Hvis der skal udføres farve beregninger kan deres pipeline kun producere 4 pixels per clock.
Generelt kan man sige at man hvor gerne man end vil, ikke kan trække en eller anden pipeline konfiguration ned over alle GPUer. Som 8x1 eller 4x2. Rent logisk på chippen er det jo heller ikke helt sådan det forholder sig, men hvordan skal man ellers beskrive det??? Ja... deeeeet....
Til artiklen.
Det er så morsomt hvodan vi så mange gange har hørt om en eller anden ny driver eller refreshprodukt der ville få NV3x til at skinne. Tag det med et gran salt, en chip kan altså ikke levere mere end dens teoretiske max. Det er muligt der er et tabt potentiale i NV3x, men jeg tivler på at vi ser en så drastisk ændring i ydelsen. Især i intense PS scener hvor der er mange farve operationer.... og husk nu på at NV3x skal stadig behandle enten 16 eller 32 bit. 16bit er Fugly og 32bit er nok stadig overkill når man ser på tabt ydelse.
2:
Ja det er jo så ikke helt rigtigt at NV3x har halvt så mange pixelpipelines i praksis. Det er jo et diffinitons spørgsmål hvad præcis skal være opfyldt for at kan har en "pipeline", det var indtil NV3x rimelig underforstået at en pixelpipeline var en bunke logik der kunne spytte 1 pixel ud per clock. Men da NV3x kom blev der pludselig noget uklarhed. Det er jo ikke en standard 4x2 konfiguration (som GF4) men er dog heller ikke 8x1 på linie med R3xx. Nvidias hardware er en eller anden pseudo løsning der kan producere 8 pixels per clock under nogle forhold, stencil og dybde operationer uden farve operationer. Hvis der skal udføres farve beregninger kan deres pipeline kun producere 4 pixels per clock.
Generelt kan man sige at man hvor gerne man end vil, ikke kan trække en eller anden pipeline konfiguration ned over alle GPUer. Som 8x1 eller 4x2. Rent logisk på chippen er det jo heller ikke helt sådan det forholder sig, men hvordan skal man ellers beskrive det??? Ja... deeeeet....
Til artiklen.
Det er så morsomt hvodan vi så mange gange har hørt om en eller anden ny driver eller refreshprodukt der ville få NV3x til at skinne. Tag det med et gran salt, en chip kan altså ikke levere mere end dens teoretiske max. Det er muligt der er et tabt potentiale i NV3x, men jeg tivler på at vi ser en så drastisk ændring i ydelsen. Især i intense PS scener hvor der er mange farve operationer.... og husk nu på at NV3x skal stadig behandle enten 16 eller 32 bit. 16bit er Fugly og 32bit er nok stadig overkill når man ser på tabt ydelse.
@32: Altså: Direct3D vil se nogen forbedringer. OpenGL... Det løb er vist kørt med FX serien.
Det forstår jeg ikke? Hvilket løb er kørt med FX-serien? OpenGL er da fint uderstøttet på fx-kort, og der er da også rig mulighed for at vælge præcision i gl's vertex/fragment programmer?
OpenGL forsvinder ikke lige med det første - alle større effekt-studier (films) er skiftet til linux, og der kører DirectX ikke. Og det skal vi nok være glade for, for ellers stod vi pludselig 3D-grafik der kørte på windows alene. Dette er en af grundene til, at jeg håber, at enten #1. Nvidia overlever. #2 ATi tager sig sammen og skriver ordentlige OpenGL-drivere.
En lille sidebemærkning til folks maniske halflife2-kommentarer: Spillet er ikke udgivet endnu. Og det tyder på, at vi heller ikke ser det lige med det første. Så som sagt tidligere af utallige personer: Lad os nu vente til der foreligger en final, og vurdere grafikkort til den tid.
Verden ser helt anderledes ud i morgen.
\\hornet
Det forstår jeg ikke? Hvilket løb er kørt med FX-serien? OpenGL er da fint uderstøttet på fx-kort, og der er da også rig mulighed for at vælge præcision i gl's vertex/fragment programmer?
OpenGL forsvinder ikke lige med det første - alle større effekt-studier (films) er skiftet til linux, og der kører DirectX ikke. Og det skal vi nok være glade for, for ellers stod vi pludselig 3D-grafik der kørte på windows alene. Dette er en af grundene til, at jeg håber, at enten #1. Nvidia overlever. #2 ATi tager sig sammen og skriver ordentlige OpenGL-drivere.
En lille sidebemærkning til folks maniske halflife2-kommentarer: Spillet er ikke udgivet endnu. Og det tyder på, at vi heller ikke ser det lige med det første. Så som sagt tidligere af utallige personer: Lad os nu vente til der foreligger en final, og vurdere grafikkort til den tid.
Verden ser helt anderledes ud i morgen.
\\hornet
Nu ikke for at kværulere, men 16bit er altså det halve af 32bit. Værdien af 16bit er derimod, som det korrekt bliver anført det halve af 17bits værdi ;)
#40
Ja jeg er mest bange for at nVidia måske har skudt sig selv i foden endnu engang. Men lad os nu se. Måske tryller de noget frem. Så æder jeg gerne mine ord igen.
#40
Ja jeg er mest bange for at nVidia måske har skudt sig selv i foden endnu engang. Men lad os nu se. Måske tryller de noget frem. Så æder jeg gerne mine ord igen.
00000100 - Værdien er 32
00001000 - værdien er 16
11111111 11111111 11111111 11111111 - 32 bit sat
11111111 11111111 00000000 00000000 - 16 bit sat, altså det halve antal
Godt nok? :)
00001000 - værdien er 16
11111111 11111111 11111111 11111111 - 32 bit sat
11111111 11111111 00000000 00000000 - 16 bit sat, altså det halve antal
Godt nok? :)
I alle interessante sammenhænge er 16bit det halve af 32bit. Det er fordi præcisionen er halvt så stor - ganske simpelt fordi, der er halvt så mange pladser at gemme tallet i. Det største tal der kan repræsenteres er uinteressant - floating-point løser dette problem ved at have også at gemme en potens af 10 tallet skal opløftes til. 145.98 hedder således 1.4598e2.
\\hornet
\\hornet
Opret dig som bruger i dag
Det er gratis, og du binder dig ikke til noget.
Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.