mboost-dp1

unknown
- Forside
- ⟨
- Forum
- ⟨
- Nyheder
Forkert...
Man skal ikke kaste med sten, når man selv er et reagensglasbarn ?
Eller man skal ikke skyde med elastik når man selv har badehætte på?
Man skal ikke kaste med sten, når man selv er et reagensglasbarn ?
Eller man skal ikke skyde med elastik når man selv har badehætte på?
Man skal ikke accelerere objekter af geologisk oprindelse i ballistisk bane hvis man respirer i transparent domicil.
Jeg kan ikke se problemet!
Man har aldrig kunne bruge en benchmark til andet en end rette snor... De har aldrig givet det endelige svar på hvad der er bedst.
Hvis disse optimeringer ikke går ud over billedkvaliteten men blot for det til at køre hurtigere, så er det jo kun en fordel. Hvorfor skal man slå disse optimeringer fra når man tester?
Det svare lidt til de (undskyld mit sprog) totalt hjerne døde tumper, unden virkeligheds fornemmeles, der testede en underklokkede Pentium 4 mod en Pentium 3 eller en Athlon, så de havde samme klok frekvens, for at vise hvor dårligt en Pentium 4 var??? Når du ikke udnytter et produkt fuld ud, vil det naturligvis være dårligere! Intel valgt en ny stratigi, til at få høj ydelse på deres CPU'er, en stratigi, der betød den ydede dårligere pr Mhz... og hvad så? At den så suger vild meget strøm på den statigi, der resultere i dårlig udnyttelse af resurserne, alså spild af strøm, men det er et tradoff som så mange andre (Et lidt stort tradoff efter min mening, der kunne tyde på dårlig design, men det er en anden histori).
Hele pointen er, at der er forskellige stratigiere til at få et godt resultat, disse skal udnyttes når der sammenlignes (så længe der ikke bliver lavet beskidte knæb, der giver ringere kvalitet, mod gode resultater i en benchmark)
Man har aldrig kunne bruge en benchmark til andet en end rette snor... De har aldrig givet det endelige svar på hvad der er bedst.
Hvis disse optimeringer ikke går ud over billedkvaliteten men blot for det til at køre hurtigere, så er det jo kun en fordel. Hvorfor skal man slå disse optimeringer fra når man tester?
Det svare lidt til de (undskyld mit sprog) totalt hjerne døde tumper, unden virkeligheds fornemmeles, der testede en underklokkede Pentium 4 mod en Pentium 3 eller en Athlon, så de havde samme klok frekvens, for at vise hvor dårligt en Pentium 4 var??? Når du ikke udnytter et produkt fuld ud, vil det naturligvis være dårligere! Intel valgt en ny stratigi, til at få høj ydelse på deres CPU'er, en stratigi, der betød den ydede dårligere pr Mhz... og hvad så? At den så suger vild meget strøm på den statigi, der resultere i dårlig udnyttelse af resurserne, alså spild af strøm, men det er et tradoff som så mange andre (Et lidt stort tradoff efter min mening, der kunne tyde på dårlig design, men det er en anden histori).
Hele pointen er, at der er forskellige stratigiere til at få et godt resultat, disse skal udnyttes når der sammenlignes (så længe der ikke bliver lavet beskidte knæb, der giver ringere kvalitet, mod gode resultater i en benchmark)
5# enig.... Ingen respekt fra ATi, når de brokker sig over optimeringer, når de selv har lavet nogle!!
som #7 skrev "nå ja, i ved jo ikke hvad i taler om"
Nvidia's "optimering" gik i dramatisk grad ud over billedkvaliteten. med den deraf følgende hastigheds forbedring.
ATI's optimering er en adaptiv algorithme som over tid "ved vedvarened arbejde med samme type opgave" vil øge hastigheden UDEN at det giver dårligere billed kvalitet. som de også skriver er denne form for optimering normalt tilladt. DOG gør det at man, som der igen også står skrevet, dårligt kan sammenligne forskellige (x)pu'er (vpu, gpu eller hvad de vælger at kalde dem nu)
.Hack
Nvidia's "optimering" gik i dramatisk grad ud over billedkvaliteten. med den deraf følgende hastigheds forbedring.
ATI's optimering er en adaptiv algorithme som over tid "ved vedvarened arbejde med samme type opgave" vil øge hastigheden UDEN at det giver dårligere billed kvalitet. som de også skriver er denne form for optimering normalt tilladt. DOG gør det at man, som der igen også står skrevet, dårligt kan sammenligne forskellige (x)pu'er (vpu, gpu eller hvad de vælger at kalde dem nu)
.Hack
#5 Jamen de bruger lige netop ikke samme trick, hvis nvidia gad at lave globale optimeringer som ikke forværrede IQ så ville det da også være fint nok.
Men det eneste de har kunne præstere indtil videre af optimeringer er programspecifik "snyd" eller lavere IQ.
ATi's er global og mister ikke IQ(Eller det kan man jo ikke rigtigt vide da ATi har den bedste IQ).
Men det eneste de har kunne præstere indtil videre af optimeringer er programspecifik "snyd" eller lavere IQ.
ATi's er global og mister ikke IQ(Eller det kan man jo ikke rigtigt vide da ATi har den bedste IQ).
??? Nu ved jeg ikke hvad jeg skal købe... Jeg havde ellers tænk mig at købe ATI X800XT når den kommer. Nu viser det sig at ATI snyder.
Nu er det sådan at nvidia 6800 GT/Ultra har Vertex Shader 3.0 hvor i ATI har Vertex Shader 2.0.
sååå hvad nu? Hvad vil i anbefalde?
Nu er det sådan at nvidia 6800 GT/Ultra har Vertex Shader 3.0 hvor i ATI har Vertex Shader 2.0.
sååå hvad nu? Hvad vil i anbefalde?
10>
ATI snyder ikke, da der ikke mistes noget kvalitet ved denne optimering! Jeg vil stadig vælge ATI´s kort, da den har en ny texture compresion funktion! Og da ps3.0 spil stadig er lagt væk, og det er svært at se forskeld på 2.0 og 3.0 vil jeg vælge ATI´s kort! Der ud over har ATI´s kort faktisk 2.0b og ikke bare 2.0!
ATI snyder ikke, da der ikke mistes noget kvalitet ved denne optimering! Jeg vil stadig vælge ATI´s kort, da den har en ny texture compresion funktion! Og da ps3.0 spil stadig er lagt væk, og det er svært at se forskeld på 2.0 og 3.0 vil jeg vælge ATI´s kort! Der ud over har ATI´s kort faktisk 2.0b og ikke bare 2.0!
Det er da klart at ATI også "optimerer" til sine egne tests, det gør alle andre jo også. Så no big deal!
Jep de her optimering har været her siden radeon 9600, og ATI har selv sagt at hvis nogen kan finde eksempler på at de foringer billedkvaliteten vil de gerne høre om det så de kan reproducere og rette dette.
Indtil videre er det ikke sket, på trods af mange forsøg ;)
Indtil videre er det ikke sket, på trods af mange forsøg ;)
#13 - Hvad mener du? - Det har jeg ikke noget at gøre med ATI's egne tests, men derimod en global (legal) optimering i driveren!
Hmm, nu håber jeg på at folk (nVidia fans) ikke begynder på at sige på diverse forums, at ATi også snyder (hvilket ATi ikke har gjort). nVidia fans siger stadig den dag i dag, at ATi's drivere er dårlige, hvilket ikke er et faktum længere.
Hmm, nu håber jeg på at folk (nVidia fans) ikke begynder på at sige på diverse forums, at ATi også snyder (hvilket ATi ikke har gjort). nVidia fans siger stadig den dag i dag, at ATi's drivere er dårlige, hvilket ikke er et faktum længere.
Bryder mig ikke om overskriften. Som der udmærket angives i teksten, så træder ATi sine egne fodspor.
Som nævnt flere steder i tråden, er ATi's optimering ikke en forringelse af produktet. Tværtimod. Det er en klar forbedring. Dog bevirker optimeringen at kortets "hastighed" ikke kan måles korrekt af en benchmark. (NVidias optimering var en forringelse af produktet, idet billedkvaliteten blev dårligere).
Som nævnt flere steder i tråden, er ATi's optimering ikke en forringelse af produktet. Tværtimod. Det er en klar forbedring. Dog bevirker optimeringen at kortets "hastighed" ikke kan måles korrekt af en benchmark. (NVidias optimering var en forringelse af produktet, idet billedkvaliteten blev dårligere).
Jeg er enig med Kolben.
En ydelsesoptimering er ikke snyd, så længe det ikke forringer oplevelsen i et spil eller lignende. Hvis en optimering giver en generelt højere ydelse uden at kunne ses, jamen så fred være med det, det går jo ikke ud over spilleren.
Optimeringer der kun kan ses i benchmarks og lign. er derimod intet værd, idet det ikke længere giver et realistisk billede af ydelsen i et spil. Det eneste der dur er realtime spil- og applikationstests.
Benchmarks er døde, da de ikke kan forblive objektive, og kan kun bruges af producenterne i salgsøjemed.
En ydelsesoptimering er ikke snyd, så længe det ikke forringer oplevelsen i et spil eller lignende. Hvis en optimering giver en generelt højere ydelse uden at kunne ses, jamen så fred være med det, det går jo ikke ud over spilleren.
Optimeringer der kun kan ses i benchmarks og lign. er derimod intet værd, idet det ikke længere giver et realistisk billede af ydelsen i et spil. Det eneste der dur er realtime spil- og applikationstests.
Benchmarks er døde, da de ikke kan forblive objektive, og kan kun bruges af producenterne i salgsøjemed.
De har begge to været ude på et sidespor med deres optimeringer. hvis folk husker tilbage var en af de slemmeste jo ATI's Quake/quack "optimering" der overskrev brugerens valg at Texture quality med en ringere for at få flere FPS.
Men vi kan vist blive enige om at skjulte optimeringer som brugeren ikke kan slå fra et noget skidt.
Men vi kan vist blive enige om at skjulte optimeringer som brugeren ikke kan slå fra et noget skidt.
#22
Ja de fleste husker forkert.
Quake/quack var resultatet af en bug i ATI's optimeringer. En bug der gjorde kvaliteten af texturene grimmere ja. Men hvad folk glemmer er at den driver hvori buggen var faktisk gav dårligere performance end den driver der udkom kort efter hvor buggen var fixet og texturene blev renderet korrekt.
Ja de fleste husker forkert.
Quake/quack var resultatet af en bug i ATI's optimeringer. En bug der gjorde kvaliteten af texturene grimmere ja. Men hvad folk glemmer er at den driver hvori buggen var faktisk gav dårligere performance end den driver der udkom kort efter hvor buggen var fixet og texturene blev renderet korrekt.
Forskellen på Nvidia's snyd og så dette ATI "snyd" er at Nvidia gik ind og fuskede med driveren så den performede bedre med eet specifikt benchmark program ved ikke at rendere alt det den fik besked på men kun det der kunne ses og det ATI her gør giver samme resultat som hvis de IKKE gjorde det..
Hvad er der galt med at optimere..
Svarer lidt til 2 firmaer der laver kompressions programmer, det ene laver et som hvis det er et specielt test program lader som om det har lavet kompressionen men i virkeligheden kun lavet lige netop det som checkes mens det andet laver et perfekt resultat bare optimeret..
Sgu lidt søgt at Nvidia klager over at ATI optimerer deres drivere. Lol, jamen det er sguda også træls at ATI har nogle mere skilled programmører..
XxX
Hvad er der galt med at optimere..
Svarer lidt til 2 firmaer der laver kompressions programmer, det ene laver et som hvis det er et specielt test program lader som om det har lavet kompressionen men i virkeligheden kun lavet lige netop det som checkes mens det andet laver et perfekt resultat bare optimeret..
Sgu lidt søgt at Nvidia klager over at ATI optimerer deres drivere. Lol, jamen det er sguda også træls at ATI har nogle mere skilled programmører..
XxX
#15 .dot
Jo, ATI's drivere er stadig skod. Havde selv et 9600 til låns i et par uger, og det virkede af røv, ligemeget hvilken driver-version jeg brugte. I Windows kunne det lige gå an, men i Linux var der intet at gøre.
Så længe nVidia laver de bedste drivere til både Windows, Linux og *BSD, så bliver jeg ved med at købe nVidia-kort. Man får intet ud af at købe et monsterkort hvis ikke driverne lever op til det. Hvis ATI får taget sig sammen og skrevet nogle drivere der rent faktisk kan bruges til noget, så vil jeg med glæde købe et X800.
Jo, ATI's drivere er stadig skod. Havde selv et 9600 til låns i et par uger, og det virkede af røv, ligemeget hvilken driver-version jeg brugte. I Windows kunne det lige gå an, men i Linux var der intet at gøre.
Så længe nVidia laver de bedste drivere til både Windows, Linux og *BSD, så bliver jeg ved med at købe nVidia-kort. Man får intet ud af at købe et monsterkort hvis ikke driverne lever op til det. Hvis ATI får taget sig sammen og skrevet nogle drivere der rent faktisk kan bruges til noget, så vil jeg med glæde købe et X800.
#29 Onde Pik
Muligvis, men for os der sætter pris på variation i vores computerbrug duer det bare ikke.
Og "dårlig" dækker ikke deres Linux-drivere. Det er en oplevelse på linie med spidsrod at få dem til at virke, og når de så endelig virker nogenlunde er ydelsen under 50% af hvad den er i Windows.
Desuden er ATI's understøttelse af OpenGL stadig under al kritik. Det kan simpelthen ikke passe at det ikke kan køre bedre end det gør, når det sagtens kan på et nVidia-kort.
Muligvis, men for os der sætter pris på variation i vores computerbrug duer det bare ikke.
Og "dårlig" dækker ikke deres Linux-drivere. Det er en oplevelse på linie med spidsrod at få dem til at virke, og når de så endelig virker nogenlunde er ydelsen under 50% af hvad den er i Windows.
Desuden er ATI's understøttelse af OpenGL stadig under al kritik. Det kan simpelthen ikke passe at det ikke kan køre bedre end det gør, når det sagtens kan på et nVidia-kort.
#30
Og hvor længe var nVidia om at lave en respektabel driver til Linux? ATi er tidsmæssigt bagud, men deres momentum er langt højere end nVidias nogensinde har været. Det har ikke noget at gøre med hvad man kan og ikke kan. Det har noget at gøre med hvor langt man er nået. Der kommer en ordentlig driver inden verden går under. Desuden er nVidias Windows drivere ikke bedre end ATis.
Og hvor længe var nVidia om at lave en respektabel driver til Linux? ATi er tidsmæssigt bagud, men deres momentum er langt højere end nVidias nogensinde har været. Det har ikke noget at gøre med hvad man kan og ikke kan. Det har noget at gøre med hvor langt man er nået. Der kommer en ordentlig driver inden verden går under. Desuden er nVidias Windows drivere ikke bedre end ATis.
#26
Det er meget muligt at de siger det var en bug, men facts er at driveren undersøgte om det var quake den skulle rendere (og om det var benchmark mode!!) og hvis det var brugte den modificeret medium textures og ikke Hi textures selv om den blev bedt om.
Hvis man snød driveren ved at omdøbte .exe filen kørte den spillet i High textures, der så betød at den fik en dårligere score i benchmark.
#27
De har begge brugt "optimeringer" der foringede kvaliteten på grafikken. Nå du siger at det gør en forskel fordi Nvidia lavede deres fusk på et benchmark program og ATI "kun" gjorde det på et spil, skal du lige huske på at på den tid var Q3 nok det mest brugte program til test af grafikkort.
(Jeg er selv ATI bruger fordi at da jeg købte det var det uden tvivl det bedste kort til pengene)
Det er meget muligt at de siger det var en bug, men facts er at driveren undersøgte om det var quake den skulle rendere (og om det var benchmark mode!!) og hvis det var brugte den modificeret medium textures og ikke Hi textures selv om den blev bedt om.
Hvis man snød driveren ved at omdøbte .exe filen kørte den spillet i High textures, der så betød at den fik en dårligere score i benchmark.
#27
De har begge brugt "optimeringer" der foringede kvaliteten på grafikken. Nå du siger at det gør en forskel fordi Nvidia lavede deres fusk på et benchmark program og ATI "kun" gjorde det på et spil, skal du lige huske på at på den tid var Q3 nok det mest brugte program til test af grafikkort.
(Jeg er selv ATI bruger fordi at da jeg købte det var det uden tvivl det bedste kort til pengene)
#31
Hvor længe de var er vel sådanset ligegyldigt, faktum er at Nvidia fik driveren på markedet på et godt tidspunkt, og Nvidia er hele årsagen til at Linux gaming markedet faktisk har klaret sig okay i et stykke tid, uden nvidia var der ikke noget marked for 3d accelerede kommercielle spil til Linux.
Hvis jeg var ATI ville jeg slå mig selv længe og hårdt oven i hovedet, for jeg tror det har været et dyrt fejltrin for ATI ikke at få lavet nogle ordentlige drivere for længe siden. Mit gæt er at Nvidia har solgt over en million kort som ATI muligvis kunne have fået del i hvis de havde haft nogle erdentlige drivere.
Jeg ville gerne prøve at købe et ATI kort, men har aldrig ejet et, fordi ATI kort performer under halvdelen af Nvidia kort, og før ATI kommer den kløft efter, er der ikke rigtigt noget at gøre...
Hvor længe de var er vel sådanset ligegyldigt, faktum er at Nvidia fik driveren på markedet på et godt tidspunkt, og Nvidia er hele årsagen til at Linux gaming markedet faktisk har klaret sig okay i et stykke tid, uden nvidia var der ikke noget marked for 3d accelerede kommercielle spil til Linux.
Hvis jeg var ATI ville jeg slå mig selv længe og hårdt oven i hovedet, for jeg tror det har været et dyrt fejltrin for ATI ikke at få lavet nogle ordentlige drivere for længe siden. Mit gæt er at Nvidia har solgt over en million kort som ATI muligvis kunne have fået del i hvis de havde haft nogle erdentlige drivere.
Jeg ville gerne prøve at købe et ATI kort, men har aldrig ejet et, fordi ATI kort performer under halvdelen af Nvidia kort, og før ATI kommer den kløft efter, er der ikke rigtigt noget at gøre...
#28 Jo, ATI's drivere er stadig skod.
Enig. Men nVidia driverne er jo heller ikke perfekte. Jeg synes det kunne være overordentligt interessant at se hvilke forbedringer der kom, hvis en af producenterne havde nosser til at frigive sourcekoden. Jeg har selv en maskine med ATI grafik, og ATIs driver siger bare, at den ikke kan finde nogen ATI chip. Ikke at det er noget stort problem for mig, maskinen er ikke købt til at lave 3D grafik. Det er bare utroligt, at jeg får at bedre resultat på en anden maskine med i810 og en CPU, der er fire gange langsommere, fordi ATIs drivere er så ringe.
Enig. Men nVidia driverne er jo heller ikke perfekte. Jeg synes det kunne være overordentligt interessant at se hvilke forbedringer der kom, hvis en af producenterne havde nosser til at frigive sourcekoden. Jeg har selv en maskine med ATI grafik, og ATIs driver siger bare, at den ikke kan finde nogen ATI chip. Ikke at det er noget stort problem for mig, maskinen er ikke købt til at lave 3D grafik. Det er bare utroligt, at jeg får at bedre resultat på en anden maskine med i810 og en CPU, der er fire gange langsommere, fordi ATIs drivere er så ringe.
Så kan alle de smare "wise-guys" der svinede Nvidia til lære det!!
I er ikke selv en meter bedre!! HAHAHA Jeg sover godt i nat!!
Best News evah!! :P
I er ikke selv en meter bedre!! HAHAHA Jeg sover godt i nat!!
Best News evah!! :P
Nu har jeg hørt op til flere sige at det er i orden at ATI optimere deres drivere, og jeg syntes i grunden selv at de har lavet en fin optimering.
Men ATI har prøvet at skjule optimeringen, ved ikke at bruge den når der er tale om farvede mipmaps. Det er altså IKKE en global optimering, da den netop i de situationer der skulle kunne afsløre optimeringen er blevet forsøgt skjult.
Og derefter har ATI vidende at de brugte optimeringen, forsøgt at få anmeldere til at slå den selv samme optimering fra på Nvidia kort, så at de i en sammenligning ville se bedre ud.
Sandheden er at man ikke kan stole på nogen af de to firmaer, de snyder og bedrager os forbrugere, så længe det ser ud som om at de kan tjene mere end den dårlige omtale eller de følgende retssager kommer til at koste dem.
Men ATI har prøvet at skjule optimeringen, ved ikke at bruge den når der er tale om farvede mipmaps. Det er altså IKKE en global optimering, da den netop i de situationer der skulle kunne afsløre optimeringen er blevet forsøgt skjult.
Og derefter har ATI vidende at de brugte optimeringen, forsøgt at få anmeldere til at slå den selv samme optimering fra på Nvidia kort, så at de i en sammenligning ville se bedre ud.
Sandheden er at man ikke kan stole på nogen af de to firmaer, de snyder og bedrager os forbrugere, så længe det ser ud som om at de kan tjene mere end den dårlige omtale eller de følgende retssager kommer til at koste dem.
#32
Ja, og TNT-kortet blev produceret i (et hurtigt gæt) 97-98? Hvad er din pointe? At ATi har indtil 2006 til at lave en ordentlig driver?
#33
Du glemmer at medregne hvor mange kort ATi har solgt ved at optimere Windows-driverne. Hvor dit gæt er helt ud af det blå vil jeg også lave et. Mit gæt er at ATi har solgt 5 millioner kort mere end de ellers ville have givet Windows-optimeringerne. Så de er nok flade af grin på vej til banken over at du slår dig selv på deres vegne.
I glemmer også at folk, der køber ATi ofte har andre behov en powergaming. NVidias kort er store, de larmer, og bortset fra 3D-chippen performer de aldeles middelmådigt. Så "for os der sætter pris på variation i vores computerbrug duer det bare ikke".
Jeg har købt ATi-kort, fordi de (dem jeg har købt) har passiv køling, bedre billedkvalitet og super god TV-out support sammelignet med nVidia. Jeg har også haft en del nVidia-kort, men jeg regner ikke med at skifte tilbage, før revolutionen.
Ja, og TNT-kortet blev produceret i (et hurtigt gæt) 97-98? Hvad er din pointe? At ATi har indtil 2006 til at lave en ordentlig driver?
#33
Du glemmer at medregne hvor mange kort ATi har solgt ved at optimere Windows-driverne. Hvor dit gæt er helt ud af det blå vil jeg også lave et. Mit gæt er at ATi har solgt 5 millioner kort mere end de ellers ville have givet Windows-optimeringerne. Så de er nok flade af grin på vej til banken over at du slår dig selv på deres vegne.
I glemmer også at folk, der køber ATi ofte har andre behov en powergaming. NVidias kort er store, de larmer, og bortset fra 3D-chippen performer de aldeles middelmådigt. Så "for os der sætter pris på variation i vores computerbrug duer det bare ikke".
Jeg har købt ATi-kort, fordi de (dem jeg har købt) har passiv køling, bedre billedkvalitet og super god TV-out support sammelignet med nVidia. Jeg har også haft en del nVidia-kort, men jeg regner ikke med at skifte tilbage, før revolutionen.
#39
Hvorfor skulle ATI sælge flere kort igennem Windows optimering? I miss your point, mener du at hvis Nvidia ikke havde fokuseret på Linux drivere så ville de have bedre Windows drivere idag? Mener du at hvis ATI havde udviklet bedre Linux drivere så havde deres Windows drivere været dårligere?
Som jeg ser det er det lige omvendt, Nvidia kører i høj grad med fælles kode til deres Windows og Linux drivere, og det betyder alt andet end lige at deres kode bliver mere finjusteret, da de skal virke på begge platforme.
Jeg kan ikke rigtigt se hvordan ATI skulle have gjort noget smart, ved at kun fokusere på Windows, men det er måske bare mig.
P.S. Håber det var mit indlæg du svarede på, selvom der stor #33...
Hvorfor skulle ATI sælge flere kort igennem Windows optimering? I miss your point, mener du at hvis Nvidia ikke havde fokuseret på Linux drivere så ville de have bedre Windows drivere idag? Mener du at hvis ATI havde udviklet bedre Linux drivere så havde deres Windows drivere været dårligere?
Som jeg ser det er det lige omvendt, Nvidia kører i høj grad med fælles kode til deres Windows og Linux drivere, og det betyder alt andet end lige at deres kode bliver mere finjusteret, da de skal virke på begge platforme.
Jeg kan ikke rigtigt se hvordan ATI skulle have gjort noget smart, ved at kun fokusere på Windows, men det er måske bare mig.
P.S. Håber det var mit indlæg du svarede på, selvom der stor #33...
#40
ATi har været (og er) i hård konkurrence med nVidia og langt de fleste high-end computerbrugere i verden, benytter Windows. For at vække deres interesse (og holde den fast), skal man levere det bedste. Og helst det bedste til prisen. Det er uansvarligt at kaste sig over optimeringer/nye tiltag, der ikke er rettet mod den primære målgruppe, før man er sikker på at have fanget den. Og havde ATis drivere været bare et my langsommere, havde ATi måske skulle sælge kortene i en lavere prisklasse, for at være sikre på at få dem afsat. Det ville samtidig betyde at de ikke ville have et kort, der kunne matche nVidias daværende enterprise. Og det er en dårlig situation at stå i. Især hvis den skyldes en dårlig driver.
På et tidspunkt bliver driverne dog så gode, at optimeringer bliver mindre relevante. Og der er det måske et godt tidspunkt at lave et opsamlingsheat, og få den sidste procent med. Men hvornår den tid kommer, tror jeg ikke at man som udenforstående kan fortælle meget om.
ATi har været (og er) i hård konkurrence med nVidia og langt de fleste high-end computerbrugere i verden, benytter Windows. For at vække deres interesse (og holde den fast), skal man levere det bedste. Og helst det bedste til prisen. Det er uansvarligt at kaste sig over optimeringer/nye tiltag, der ikke er rettet mod den primære målgruppe, før man er sikker på at have fanget den. Og havde ATis drivere været bare et my langsommere, havde ATi måske skulle sælge kortene i en lavere prisklasse, for at være sikre på at få dem afsat. Det ville samtidig betyde at de ikke ville have et kort, der kunne matche nVidias daværende enterprise. Og det er en dårlig situation at stå i. Især hvis den skyldes en dårlig driver.
På et tidspunkt bliver driverne dog så gode, at optimeringer bliver mindre relevante. Og der er det måske et godt tidspunkt at lave et opsamlingsheat, og få den sidste procent med. Men hvornår den tid kommer, tror jeg ikke at man som udenforstående kan fortælle meget om.
#41
Optimeringer ER det der gør drivere gode. Ideen vil altid være at udføre de grafiske beregninger med færrest mulige clockcycles, dels ved at bruge algoritmer der afgører den bedste måde at anvende clockcycles på, og dels ved at udnytte de forskellige processor typer på bedst vis, og benytter maskinens egen cpu på den mest muligt effektive måde.
At sige at gode drivere ikke indeholder optimeringer er jo grimt...
Men, jeg ser stadigvæk ikke din pointe, og såvidt jeg kan se har det dobbelte fokus givet nvidia en ekstra indtægt som de har kunnet bruge på Linux driver kodere. Den delte kodebase har uden tvivl ført til mange optimeringer af tidligere nævnte grunde, at sige at fokus ville være forsvundet fra deres windows drivere er jo latterligt og ikke korrekt. Det jeg prøver at pointere er at ATI IKKE vandt kunder på ikke at have Linux drivere, men at de simpelthen bare tabte et stykke marked, plus at ATI kommer til at bruge lang tid på at komme ind på markedet for grafikkort på Linux/Unix platformen.
Tror det bliver dyrt for ATI, men glæder mig da til de engang tilføjer ny konkurrence på Linux grafikkort markedet.
Optimeringer ER det der gør drivere gode. Ideen vil altid være at udføre de grafiske beregninger med færrest mulige clockcycles, dels ved at bruge algoritmer der afgører den bedste måde at anvende clockcycles på, og dels ved at udnytte de forskellige processor typer på bedst vis, og benytter maskinens egen cpu på den mest muligt effektive måde.
At sige at gode drivere ikke indeholder optimeringer er jo grimt...
Men, jeg ser stadigvæk ikke din pointe, og såvidt jeg kan se har det dobbelte fokus givet nvidia en ekstra indtægt som de har kunnet bruge på Linux driver kodere. Den delte kodebase har uden tvivl ført til mange optimeringer af tidligere nævnte grunde, at sige at fokus ville være forsvundet fra deres windows drivere er jo latterligt og ikke korrekt. Det jeg prøver at pointere er at ATI IKKE vandt kunder på ikke at have Linux drivere, men at de simpelthen bare tabte et stykke marked, plus at ATI kommer til at bruge lang tid på at komme ind på markedet for grafikkort på Linux/Unix platformen.
Tror det bliver dyrt for ATI, men glæder mig da til de engang tilføjer ny konkurrence på Linux grafikkort markedet.
#42
Lad være med at belære om algoritmer og whatnot. Det er off topic og chancen er at mange ved mere om det end dig. Og det gør ikke dine skumle påstande mere rigtige.
Det er ikke en pose nødder, der sidder hos ATi. Havde det været økonomisk ansvarligt at sætte større fokus på linux, så havde de gjort det. Som firma kan du ikke bare double dine resourcer, som man knipser med fingrene, og driverne skriver ikke sig selv, fordi du som chef beder dem om det. Der skal en investering til, og kører man allerede på pumperne (hvilket ATi gør/har gjort...deres succes er rimeligt ny), kan det ikke lade sig gøre at optage en ny investering. Så må man gøre godt med hvad man har, og skære hvor det gør mindst ondt. Hvis valget stod mellem at vinde 1 million linuxkunder og 5 millioner windowskunder, så tror jeg godt jeg ved hvad jeg havde valgt. Og det er lige netop min pointe. Havde ATi tilladt sig at bruge færre resourcer på windows-driverne (hvilket udvikling af linuxdrivere uden en ny investering ville have medført), så havde de mistet samtlige windowskunder, givet at nVidia på det punkt bare var bedre. Præcis som tilfældet er på linux-siden idag. Kunderne vælger ATi fra, fordi nVidias drivere bare er bedre. Men ATi kan leve med det, fordi ATi gjorde stort (kæmpe stort...mere end nogen ville have drømt om) indhug i nVidias markedsandele på Windows-siden. Fordi de fokuserede på windows driverne. Desuden var nVidia også førende/etableret på windows-siden før de kastede sig over linux-driverne, men det er en anden historie. Konkurrencen var minimal, idet 3DFx gav op rimeligt hurtigt.
Og så snakker du om synergi mellem kodebaserne. Den kan sådan set sagtens være der alligevel, i og med at Windows driverne er rigtig gode og mange rutiner måske kan genbruges. Hvis du starter fra scratch begge steder samtidig, risikerer du bare at opfinde den dybe tallerken to gange. For den ene programmør kigger ikke på hvad den anden laver, mens han arbejder.
Lad være med at belære om algoritmer og whatnot. Det er off topic og chancen er at mange ved mere om det end dig. Og det gør ikke dine skumle påstande mere rigtige.
Det er ikke en pose nødder, der sidder hos ATi. Havde det været økonomisk ansvarligt at sætte større fokus på linux, så havde de gjort det. Som firma kan du ikke bare double dine resourcer, som man knipser med fingrene, og driverne skriver ikke sig selv, fordi du som chef beder dem om det. Der skal en investering til, og kører man allerede på pumperne (hvilket ATi gør/har gjort...deres succes er rimeligt ny), kan det ikke lade sig gøre at optage en ny investering. Så må man gøre godt med hvad man har, og skære hvor det gør mindst ondt. Hvis valget stod mellem at vinde 1 million linuxkunder og 5 millioner windowskunder, så tror jeg godt jeg ved hvad jeg havde valgt. Og det er lige netop min pointe. Havde ATi tilladt sig at bruge færre resourcer på windows-driverne (hvilket udvikling af linuxdrivere uden en ny investering ville have medført), så havde de mistet samtlige windowskunder, givet at nVidia på det punkt bare var bedre. Præcis som tilfældet er på linux-siden idag. Kunderne vælger ATi fra, fordi nVidias drivere bare er bedre. Men ATi kan leve med det, fordi ATi gjorde stort (kæmpe stort...mere end nogen ville have drømt om) indhug i nVidias markedsandele på Windows-siden. Fordi de fokuserede på windows driverne. Desuden var nVidia også førende/etableret på windows-siden før de kastede sig over linux-driverne, men det er en anden historie. Konkurrencen var minimal, idet 3DFx gav op rimeligt hurtigt.
Og så snakker du om synergi mellem kodebaserne. Den kan sådan set sagtens være der alligevel, i og med at Windows driverne er rigtig gode og mange rutiner måske kan genbruges. Hvis du starter fra scratch begge steder samtidig, risikerer du bare at opfinde den dybe tallerken to gange. For den ene programmør kigger ikke på hvad den anden laver, mens han arbejder.
#43
Hvis ATI havde sat 2 udviklere ind på at udvikle linux drivere i sin tid, så ku de hurtigt have et virksomt driversæt, der i løbet af et par år ville være på niveau med nvidias.
Jeg tror såmænd sandheden er at ATI ikke læste udviklingen, og det koster dem idag, og kommer til at koste mere i fremtiden.
ATI har gjort meget rigtigt, men deres linux strategi har været forkert, desuden ligger ATI's succes ligesåmeget i at deres kort simpelthen har været bedre designet på hardware fronten. Såvidt jeg kan se førede Nvidia helt frem til deres TI 4200 kort, og efter det kort var det ATI åd af markedet, fordi deres efterfølgende kort ikke kunne følge med ATIs, og fordi de var kluntede.
Jeg tror såmænd ATIs bankkonto ville være endnu mere spændende idag hvis de havde Linux drivere, og Nvidias ville være mindre spændende. En ting er hvor mange der kører Linux, en anden ting er hvor mange der af og til leger med linux, det er nok en 5%, hvoraf 4/5 sandsynligvis vil købe Nvidia kort.
Hvis ATI havde sat 2 udviklere ind på at udvikle linux drivere i sin tid, så ku de hurtigt have et virksomt driversæt, der i løbet af et par år ville være på niveau med nvidias.
Jeg tror såmænd sandheden er at ATI ikke læste udviklingen, og det koster dem idag, og kommer til at koste mere i fremtiden.
ATI har gjort meget rigtigt, men deres linux strategi har været forkert, desuden ligger ATI's succes ligesåmeget i at deres kort simpelthen har været bedre designet på hardware fronten. Såvidt jeg kan se førede Nvidia helt frem til deres TI 4200 kort, og efter det kort var det ATI åd af markedet, fordi deres efterfølgende kort ikke kunne følge med ATIs, og fordi de var kluntede.
Jeg tror såmænd ATIs bankkonto ville være endnu mere spændende idag hvis de havde Linux drivere, og Nvidias ville være mindre spændende. En ting er hvor mange der kører Linux, en anden ting er hvor mange der af og til leger med linux, det er nok en 5%, hvoraf 4/5 sandsynligvis vil købe Nvidia kort.
2 udviklere på Linux drivere havde betydet 2 færre på Windows drivere. To færre på Windows drivere kunne have kostet dem windows-markedet.
Hvor svært kan det være at forstå? :)
Hvor svært kan det være at forstå? :)
#28 - Hvilken driver suite og hvilken version har du prøvet? At du påstår at nVidia laver de klart bedste drivere til Windows, har jeg svært ved at forstå. Du bygger din påstand på din egen erfaring. Som jeg ser det kun er sket for dig... én gang.
#35 - Jeg ville vælge Omega, da de er optimeret efter
billedkvalitet ikke hastighed som Catalyst gør. Men, hvis de går efter hastigheden så vælg DMA (Jeg har dog ikke selv prøvet dem)
#35 - Jeg ville vælge Omega, da de er optimeret efter
billedkvalitet ikke hastighed som Catalyst gør. Men, hvis de går efter hastigheden så vælg DMA (Jeg har dog ikke selv prøvet dem)
Opret dig som bruger i dag
Det er gratis, og du binder dig ikke til noget.
Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.