mboost-dp1

Nvidia
- Forside
- ⟨
- Forum
- ⟨
- Nyheder
Nåja. De låser jo allerede PhysX af hvis man blander AMD og Nvidia kort som det ér. Det hér er ikke nyheder for mig. :/
AlienDK (2) skrev:PhysX bruger CPU'en, ikke GPU'en (f.eks. Nvidia GTX 295).
Nej.
PhysX kan køren enten på CPU'en eller på GPU'en (kun Nvidia GPU'er) eller på et af de dedikerede gamle Ageia PhysX kort.
Pointen er netop at Nvidia kun optimere det til at køre på GPU'en og bevidst handicapper det når det skal køre på CPU'en.
AMD vs. Nvidia
Den ældgamle krig er startet igen
skønt......det kan næsten betyde bedre grafik til forbrugerne
og nu til topic:
Syntes det er åndsvagt at Nvidia handicapper Physx så det har sværre ved at kører på CPU'en. Jeg tager måske fejl, men betyder det ikke at man skal have e kraftigere grafikkort, for at kører spil på en computer ordenligt?
Den ældgamle krig er startet igen
skønt......det kan næsten betyde bedre grafik til forbrugerne
og nu til topic:
Syntes det er åndsvagt at Nvidia handicapper Physx så det har sværre ved at kører på CPU'en. Jeg tager måske fejl, men betyder det ikke at man skal have e kraftigere grafikkort, for at kører spil på en computer ordenligt?
Nu har jeg ikke nogen dyb indsigt i emnet, men jeg er automatisk skeptisk når det er en konkurrent der sviner Nvidia til..
tomas1991 (8) skrev:...Jeg tager måske fejl, men betyder det ikke at man skal have e kraftigere grafikkort, for at kører spil på en computer ordenligt?
Det er præcis det er der AMD's pointe. Hvis man ikke har et hurtigt NVidia grafikkort, så kører fysik motoren ifølge AMD langsommere, også selvom der er masser af CPU kraft i computeren.
Jeg kan kun gentage havd jeg har sagt på andre sites:
Time for Huddy to shut the fuck up!
Jeg købte min første PPU i 2006 og jeg har ALDRIG set AGIEA køre multikernet CPU-fysik....i hvkeren demos eller spil.
PR FUD fra AMD side af.
Men hvad med at snakke om AMD der LOVEDE de ville levere GPU-fysik i 2006...via HavokFX?
(Men det vælger folk at ignorer fordi det er på "mode" at hade NVIDIA)
EDIT:
Og så spiller han på folks uvidenhed...fysik skalerer ikke linært med antallet af CPU-kerner..madre mia.
Terra - Skræmmer "fermi" virkelig AMD så meget?
Time for Huddy to shut the fuck up!
Jeg købte min første PPU i 2006 og jeg har ALDRIG set AGIEA køre multikernet CPU-fysik....i hvkeren demos eller spil.
PR FUD fra AMD side af.
Men hvad med at snakke om AMD der LOVEDE de ville levere GPU-fysik i 2006...via HavokFX?
(Men det vælger folk at ignorer fordi det er på "mode" at hade NVIDIA)
EDIT:
Og så spiller han på folks uvidenhed...fysik skalerer ikke linært med antallet af CPU-kerner..madre mia.
Terra - Skræmmer "fermi" virkelig AMD så meget?
Er nød til at give Terracide ret her, efter at have læst Nvidia's svar må man antage at ham Richard Huddy fra AMD taler ud af røven.
I følge Nvidia bestemmes alt multi-thread af applikationen og giver et eksempel
One of the best examples is 3DMarkVantage which can use 12 threads while running in software-only PhysX.
Hvis ikke dette var sandt ville enhver der havde arbejdet med PhysX i spil, kunne skyde Nvidia's forklaring ud af vandet.
Tvivler på at Nvidia's ville stille op til et så let frispark til kuglerne.
#1
Nej, AMD beskylder Nvidia for ikke at understøtte - rent faktisk skulle Nvidia angiveligt have fjernet understøttelsen - af multikernede CPUer (f.eks. Core i5, Phenom etc.) med PhysX. GTX295 er en GPU.
Hvorvidt det er sandt, står jeg mere tvivlende overfor. Jeg tror mere, at man kan sige at PhysX ikke er blevet videreudviklet med CPU'en som hovedprioritet efter Nvidias opkøb. Det er ikke helt det samme.
#generelt om PhysX
Jeg er mildest talt skeptisk overfor PhysX 'standarden', fordi den er ejet direkte af én interessehaver istedet for en organisation (af interessehavere) eller en overordnet platform (der tager hensyn til alle platformens brugere). Nvidia kan, på nuværende tidspunkt, "lukke for det varme vand" (og have en interesse i det), hvis AMD brugte standarden - og det er selvfølgelig derfor AMD ikke ønsker at understøtte standarden.
For at tage en sammenligning med en mere universel standard, så er det derfor DirectX har været succesfuld for (bl.a.) 3D grafik for (windows)PC'en - MS har ingen interesse i at lukke grafikkortsfabrikanterne ude (da grafikkortsfabrikanterne ikke er konkurrenter, men med til at understøtte platformen), og laver i vid udstrækning retningslinier der er ens for alle fabrikanter, så de kan konkurrere på samme grundlag.
#7
Tak for linket - det kan være en god idé at tjekke kommentarerne til Nvidias modsvar. Der er andre brugere der har fundet uregelmæssigheder i PhysX standarden - inkl. Toms Hardware selv - som man kan se på flg. link
Nej, AMD beskylder Nvidia for ikke at understøtte - rent faktisk skulle Nvidia angiveligt have fjernet understøttelsen - af multikernede CPUer (f.eks. Core i5, Phenom etc.) med PhysX. GTX295 er en GPU.
Hvorvidt det er sandt, står jeg mere tvivlende overfor. Jeg tror mere, at man kan sige at PhysX ikke er blevet videreudviklet med CPU'en som hovedprioritet efter Nvidias opkøb. Det er ikke helt det samme.
#generelt om PhysX
Jeg er mildest talt skeptisk overfor PhysX 'standarden', fordi den er ejet direkte af én interessehaver istedet for en organisation (af interessehavere) eller en overordnet platform (der tager hensyn til alle platformens brugere). Nvidia kan, på nuværende tidspunkt, "lukke for det varme vand" (og have en interesse i det), hvis AMD brugte standarden - og det er selvfølgelig derfor AMD ikke ønsker at understøtte standarden.
For at tage en sammenligning med en mere universel standard, så er det derfor DirectX har været succesfuld for (bl.a.) 3D grafik for (windows)PC'en - MS har ingen interesse i at lukke grafikkortsfabrikanterne ude (da grafikkortsfabrikanterne ikke er konkurrenter, men med til at understøtte platformen), og laver i vid udstrækning retningslinier der er ens for alle fabrikanter, så de kan konkurrere på samme grundlag.
#7
Tak for linket - det kan være en god idé at tjekke kommentarerne til Nvidias modsvar. Der er andre brugere der har fundet uregelmæssigheder i PhysX standarden - inkl. Toms Hardware selv - som man kan se på flg. link
#15
der er havok fysik motor tilrådighed, som ikke skelner hvilket hardware den bliver brugt på. dog bliver den kun rendered på cpu niveau (x86, 64bit, singlecore, multicore, ppc osv) da havok fx som skulle kunne renderes på gpu niveau ser ud til at blive aflyst eller kraftig forsinket uden at få info
der er havok fysik motor tilrådighed, som ikke skelner hvilket hardware den bliver brugt på. dog bliver den kun rendered på cpu niveau (x86, 64bit, singlecore, multicore, ppc osv) da havok fx som skulle kunne renderes på gpu niveau ser ud til at blive aflyst eller kraftig forsinket uden at få info
Det kan vel ikke være meget værre end en eller anden tester FutureMark med og uden PhysX? Så vidt jeg forstår på det, så har Nvidia ikke noget med begrænsningerne og gøre, men derimod spil producenterne som skal optimere deres spil til multicore kodning for at arbejde ordentlig sammen med GPU og CPU.
Det virker lidt som uholdbare ord AMD fyrer af :/
Det virker lidt som uholdbare ord AMD fyrer af :/
#14:
Det er værre end dét.
Huddy giver folk det falske indtryk at AGEIA's PhysX havde bedre multikerne understøttelse end NVIDIA's PhysX ikke har.
Det kan jeg så ikke nikke genkendene til...og det er ikke fordi jeg ikke har ejet 2 PhysX PPU kort og har alt hvad man kan få af PhysX software, fra DSK til demos til spil...selv AGIEA's "Realitymark" køre PhysX i singlethread mode.
Det er værre end dét.
Huddy giver folk det falske indtryk at AGEIA's PhysX havde bedre multikerne understøttelse end NVIDIA's PhysX ikke har.
Det kan jeg så ikke nikke genkendene til...og det er ikke fordi jeg ikke har ejet 2 PhysX PPU kort og har alt hvad man kan få af PhysX software, fra DSK til demos til spil...selv AGIEA's "Realitymark" køre PhysX i singlethread mode.
terracide (19) skrev:#15:
Jeg vil hellere have noget proprietært end intet "free for all"
Nu findes der gratis (Og open source) alternativer til PhysX, feks ODF. Men jeg er nu ikke af den mening at det er bedre at det er Open Source end at det er kommercielt. Tværtimod så bliver der ofte investeret flere penge (Og dermed flere folk) i det kommercielle produkt, fordi pengene er et incitament til at forbedre det.
#15
Ja det ser underligt ud det spil de tester med, men hverken Toms, AMD eller Nvidia for den sags skyld har nogen indsigt i hvordan det program er lavet så man kan på ingen måde konkluderer at det er PhysX API'en der gennetvinger en dårlig udnyttelse.
Hvis det som Nvidia skriver er rigtigt at håndtering af multi-threads er program styret og ikke styret af PhysX.
Hvis det er løgn hvad Nvidia skriver så er der sikkert en langhåret spil-programmør et sted i verden der kan jorde dem med den kommentar og lave en fiks lille "proff of concept".
Lidt som den gang hvor producenterne havde fusket med drivers og fuskede performance op ved at sænke kvalitet, når man kørte Unreal.
Det tog ikke lang tid før nogle havde lavet et proff of concept og der blev delt prygl ud.
Ja det ser underligt ud det spil de tester med, men hverken Toms, AMD eller Nvidia for den sags skyld har nogen indsigt i hvordan det program er lavet så man kan på ingen måde konkluderer at det er PhysX API'en der gennetvinger en dårlig udnyttelse.
Hvis det som Nvidia skriver er rigtigt at håndtering af multi-threads er program styret og ikke styret af PhysX.
Hvis det er løgn hvad Nvidia skriver så er der sikkert en langhåret spil-programmør et sted i verden der kan jorde dem med den kommentar og lave en fiks lille "proff of concept".
Lidt som den gang hvor producenterne havde fusket med drivers og fuskede performance op ved at sænke kvalitet, når man kørte Unreal.
Det tog ikke lang tid før nogle havde lavet et proff of concept og der blev delt prygl ud.
#21
Jeg er enig i, at det ikke behøver at være en open source standard, men directX kan udemærket bruges... Hvis man kigger på DirectX11 udgaven af Dirt 2 er der allerede GPU fysik-agtige effekter i det spil - som feks. realistisk brydning/sprøjten af vand og "cloth" effekter. Det kan lade sig gøre via DirectX 11s Compute Shader (og via tessellation), der åbner op for flere muligheder for at accellerere mere kompliceret kode gennem GPU'ens shadere.
Dirt2 directx11 vs. directx 9
Men det er ikke et færdigt fysiksystem som PhysX, mere en mulighed - så hvis man ville, er rammerne dannet for fysikaccelleration gennem DirectX11... Det kræver bare en anden aktør (dvs. ikke ATI el. Nvidia) med tilstrækkelig interesse til at lave noget generaliseret middleware for GPU fysikaccelleration.
Ellers står vi igen med standard, kun ca. halvdelen af GPU ejerne kan bruge, ligesom vi delvist gjorde det under 3dFX dagene, eller med Creatives EAX standard. Og hvis PC'en skal klare sig bedre som platform, er der efter min bedste overbevisning ikke brug for flere standardkrige... eller rettere, vi har brug for en relativ hurtig løsning af fysikstandarden.
Og der kan AMD, af gode grunde, ikke selv lave standarden - men hvis nu ATI/AMD, Nvidia, MS og Intel satte sig ned, og løste problemet uden Nvidia gik sologang, som sidst de forsøgte, så kan det være det kan lykkedes.
Jeg er enig i, at det ikke behøver at være en open source standard, men directX kan udemærket bruges... Hvis man kigger på DirectX11 udgaven af Dirt 2 er der allerede GPU fysik-agtige effekter i det spil - som feks. realistisk brydning/sprøjten af vand og "cloth" effekter. Det kan lade sig gøre via DirectX 11s Compute Shader (og via tessellation), der åbner op for flere muligheder for at accellerere mere kompliceret kode gennem GPU'ens shadere.
Dirt2 directx11 vs. directx 9
Men det er ikke et færdigt fysiksystem som PhysX, mere en mulighed - så hvis man ville, er rammerne dannet for fysikaccelleration gennem DirectX11... Det kræver bare en anden aktør (dvs. ikke ATI el. Nvidia) med tilstrækkelig interesse til at lave noget generaliseret middleware for GPU fysikaccelleration.
Ellers står vi igen med standard, kun ca. halvdelen af GPU ejerne kan bruge, ligesom vi delvist gjorde det under 3dFX dagene, eller med Creatives EAX standard. Og hvis PC'en skal klare sig bedre som platform, er der efter min bedste overbevisning ikke brug for flere standardkrige... eller rettere, vi har brug for en relativ hurtig løsning af fysikstandarden.
Og der kan AMD, af gode grunde, ikke selv lave standarden - men hvis nu ATI/AMD, Nvidia, MS og Intel satte sig ned, og løste problemet uden Nvidia gik sologang, som sidst de forsøgte, så kan det være det kan lykkedes.
#23:
De gange jeg har siddet og rodet inde i PhysX's DSK(både AGEIA's og NVIDIA's) har man selv skulle sætte flag til alt
#24:
Cloth var muligt allerede i 2006...det er bare bedre i PhysX end DX11...for under PhysX kan du have tearable cloth....held og lykke med det under DX11 ;)
Så DX11 (Dirt2) er ikke engang oppe på det niveau som f.eks. CellFactor viste i 2006:
De gange jeg har siddet og rodet inde i PhysX's DSK(både AGEIA's og NVIDIA's) har man selv skulle sætte flag til alt
#24:
Cloth var muligt allerede i 2006...det er bare bedre i PhysX end DX11...for under PhysX kan du have tearable cloth....held og lykke med det under DX11 ;)
Så DX11 (Dirt2) er ikke engang oppe på det niveau som f.eks. CellFactor viste i 2006:
#26 Præcis... Men vi alle ved jo, at der er gemt en kæmpe Nvidia-fanboy gemt i terracide..
morgen - Er nvidia godt nok SÅ dyrt ?
morgen - Er nvidia godt nok SÅ dyrt ?
Opret dig som bruger i dag
Det er gratis, og du binder dig ikke til noget.
Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.