mboost-dp1

AMD
- Forside
- ⟨
- Forum
- ⟨
- Nyheder
Få nu lavet en emulering af Physx eller jeres egen version, ville skifte til AMD med det samme hvis de gjorte det:S Gidder ikke være dårligere stillet bare fordi jeg køber et andet mærke..
#1 - Mht. til PhysX, hvad er Havok så? :) Så vidt jeg ved er det en software fysik-emulering, der understøttes af ATI/AMD.
#2 - Er Nvidias drivere da stabile? Har oplevet flere gange, hvor et backroll eller en ventetid på en ny driver har været nødvendigt for at spille X spil, eller emulere X grafik.
Så er AMD heller ikke værre.
#2 - Er Nvidias drivere da stabile? Har oplevet flere gange, hvor et backroll eller en ventetid på en ny driver har været nødvendigt for at spille X spil, eller emulere X grafik.
Så er AMD heller ikke værre.
#3:
Havok er ejet af Intel, derfor AMD/ATi har droppet deres snak om Havok.
De roder nu med OpenBullet...men det er stadig kun snak...som det har været fra dem siden 2006...hvor de først lovede GPU fysik.
Og få mig ikke startet på AMD's "hotfixes"...
#4:
Jeg har nydt PhysX siden 2006 (CellFactor) og nyder det pt. i 2010 i Mafia II...verden er fysik...vil du emulere den virkelgie verden, skal du bruge fysik.
Jeg er træt af døde inaktive verdener...det er så præ 2005.
Og hvad video så er der ikke forskelle store nok til t man kan sige den ene er bedre end den anden.
Dog rykket NVIDIA fra AMD hvad angår GPGPU...som i sidste ende også vil få betydning for videoafsplining.
Havok er ejet af Intel, derfor AMD/ATi har droppet deres snak om Havok.
De roder nu med OpenBullet...men det er stadig kun snak...som det har været fra dem siden 2006...hvor de først lovede GPU fysik.
Og få mig ikke startet på AMD's "hotfixes"...
#4:
Jeg har nydt PhysX siden 2006 (CellFactor) og nyder det pt. i 2010 i Mafia II...verden er fysik...vil du emulere den virkelgie verden, skal du bruge fysik.
Jeg er træt af døde inaktive verdener...det er så præ 2005.
Og hvad video så er der ikke forskelle store nok til t man kan sige den ene er bedre end den anden.
Dog rykket NVIDIA fra AMD hvad angår GPGPU...som i sidste ende også vil få betydning for videoafsplining.
#4
Som terracide nævner bliver PhysX brugt i en del spil efterhånden, og har gjort det i en del år.
Efter at have brugt det flittigt i spil som har understøttet det de seneste par år, ville jeg nødig være det foruden den dag i dag.
Du kan eventuelt se en liste af nævneværdige titler som understøtter det her
Som terracide nævner bliver PhysX brugt i en del spil efterhånden, og har gjort det i en del år.
Efter at have brugt det flittigt i spil som har understøttet det de seneste par år, ville jeg nødig være det foruden den dag i dag.
Du kan eventuelt se en liste af nævneværdige titler som understøtter det her
#1 : Man kunne også vende den om og bede spiludviklerne om at tage sig sammen og lave en fælles fysikmotor standard.
De har da lige så stor en interesse i at udvikle et "levende" produkt, som Terra skriver.
#2 : Jeg syntes da at nVidia har vist sig at have mindst ligeså ustabile drivere som ATI. Pt. har mit 5770 kørt klippestabilt med den nyeste beta driver.
De har da lige så stor en interesse i at udvikle et "levende" produkt, som Terra skriver.
#2 : Jeg syntes da at nVidia har vist sig at have mindst ligeså ustabile drivere som ATI. Pt. har mit 5770 kørt klippestabilt med den nyeste beta driver.
#7:
Det er ikke spiludviklernes "bord" at lave en fælles fysik standard...og ville nok også være umuligt da mange bruger engines, som er vidt forskelligt bygget op og har forskellige tilgange til hvordan ting skal laves.
Hvis nogle skulle gøre det skulle det være Microsoft, men de har pt. ingen interesse.
Hvad AMD skulle gøre er at lette røven og få deres løsning på markedet.
for så ville NVIDIA smide en OpenCL PhysX version på gaden...og så har vi en standard der er lysår foran de andre løsninger...som basalt kun består af techdemos.
PhysX/APEX er i en klasse for sig og "hullet" bliver kun større jo længere de andre nøler...
Terra - Der ikke kan huske sidste crash på hans GTX285...til trods for daglig gaming.
Det er ikke spiludviklernes "bord" at lave en fælles fysik standard...og ville nok også være umuligt da mange bruger engines, som er vidt forskelligt bygget op og har forskellige tilgange til hvordan ting skal laves.
Hvis nogle skulle gøre det skulle det være Microsoft, men de har pt. ingen interesse.
Hvad AMD skulle gøre er at lette røven og få deres løsning på markedet.
for så ville NVIDIA smide en OpenCL PhysX version på gaden...og så har vi en standard der er lysår foran de andre løsninger...som basalt kun består af techdemos.
PhysX/APEX er i en klasse for sig og "hullet" bliver kun større jo længere de andre nøler...
Terra - Der ikke kan huske sidste crash på hans GTX285...til trods for daglig gaming.
terracide (8) skrev:#7:
Hvad AMD skulle gøre er at lette røven og få deres løsning på markedet.
for så ville NVIDIA smide en OpenCL PhysX version på gaden...og så har vi en standard der er lysår foran de andre løsninger...som basalt kun består af techdemos.
Kunne være Intel skulle starte med at åbne op Havok til OpenCL? kunne være ret smart.
terracide (8) skrev:
Terra - Der ikke kan huske sidste crash på hans GTX285...til trods for daglig gaming.
Godt for dig, jeg husker ikke at ha' haft et ATI kort der er crashet, trods dagligt "rape".
#5
I stand corrected. Jeg har dog ikke haft nogen gener ved ikke at have PhysX på mit seneste setup, og savner det ikke fra tidligere. Jeg mener derfor ikke at fordelen ved PhysX er så stor, at Nvidia per automatik overtrumfer alt ATI laver.
Jeg har aldrig haft problemer som #2 nævnte, og det er selvom jeg har et kort, der er berygtet for driverfejl (4890). Måske er jeg heldig.
I stand corrected. Jeg har dog ikke haft nogen gener ved ikke at have PhysX på mit seneste setup, og savner det ikke fra tidligere. Jeg mener derfor ikke at fordelen ved PhysX er så stor, at Nvidia per automatik overtrumfer alt ATI laver.
Jeg har aldrig haft problemer som #2 nævnte, og det er selvom jeg har et kort, der er berygtet for driverfejl (4890). Måske er jeg heldig.
Jeg har også spillet mange PhysX spil med mit udelukkende AMD setup, men jeg aldrig rigtig oplevet noget problem.
Desuden foretrækker jeg også CPU fysik frem for GPU fysik. GPU'en skal bare levere grafik og jeg har alligevel ofte to CPU kerner der ikke laver noget.
Desuden foretrækker jeg også CPU fysik frem for GPU fysik. GPU'en skal bare levere grafik og jeg har alligevel ofte to CPU kerner der ikke laver noget.
#7 skrev:
Det er ikke spiludviklernes "bord" at lave en fælles fysik standard...og ville nok også være umuligt da mange bruger engines, som er vidt forskelligt bygget op og har forskellige tilgange til hvordan ting skal laves.
men de samme ka for det meste alle bruge physX så nej det ik en forhindring for at lave en standard på det område
og mange leaser også deres engines ud så andre ka lave spil på dem etc unreal engine
og nej skulle fandme ik være ms der sætter sig på enu en ting til graffik som tager 25år at port til linux
#11 ang med det intel havok og nvidia physx eller hvordan nu hænger sammen... nej tror ik det var deres mål men de burde ik ha haft lov til det da det er resultatet
#12 samme her men der er fordele i gpu fysik
ontopic: sider stadig med mit 3850 -.- så rar nyhed ka være man får råd til opgradering snart
LupusGrey (12) skrev:Jeg har også spillet mange PhysX spil med mit udelukkende AMD setup, men jeg aldrig rigtig oplevet noget problem.
Desuden foretrækker jeg også CPU fysik frem for GPU fysik. GPU'en skal bare levere grafik og jeg har alligevel ofte to CPU kerner der ikke laver noget.
Din CPU er håbløst bagud til at lave SIMD i forhold til din GPU, du vil aldrig kunne kører f.eks. tearable cloth der ikke ligner slideshow...har testet på min i7 920 @ 3.5 GHz...der giver det 9800GT jeg har i min spand om PhysX GPU (mit primære GPU til grafik er et GTX285) en ydelse der er over 10 gange højere...
Tror du også din CPU kan køre grafik med en ydelse der bare minder om det en GPU kan sprake ud...samme problemstilling...
Det bliver fedt at se, hvordan de nye Radeon kort kommer til at spille med musklerne. Jeg har selv et ATI Radeon 5870 HD, så jeg har ingen planer om at opgradere lige foreløbig. Jeg venter til slutningen af næste år, for at se hvem der står stærkest (AMD eller nVidia). Der er folk som sværger religiøst til det ene firma eller det andet, men jeg er personlig kun interesseret i den bedste ydelse.
Jeg glæder mig til at se nVidias Maxwell konkurrere mod AMDs næste-generationschip :D.
Med hensyn til drivere, så må jeg indrømme at mit sidste nVidia kort blev voldtaget af driveren lige da Windows 7 var kommet ud.
Ellers har jeg ikke haft de store problemer med nVidias drivere, og jeg har endnu ikke oplevet et problem med AMDs drivere, så jeg tror de er lige gode/dårlige.
Det er selvfølgelig en skam at AMD ikke kan bruge PhysX, fordi det er da en saftig ting at have til sit grafikkort. Det blev da også brugt for mig med mit sidste nVidia kort, og ser også lidt sjovere ud. Det var et ret smart move da nVidia opkøbte det originale firma, og videreudviklede produktet. Jeg har kun brugt nVidia kort indtil nu, så jeg har været glad for PhysX; men når man står med et Radeon kort, så ville man ønske at der stadig var et fysisk PhysX kort man stak i numsen på motherboardet :D.
Jeg glæder mig til at se nVidias Maxwell konkurrere mod AMDs næste-generationschip :D.
Med hensyn til drivere, så må jeg indrømme at mit sidste nVidia kort blev voldtaget af driveren lige da Windows 7 var kommet ud.
Ellers har jeg ikke haft de store problemer med nVidias drivere, og jeg har endnu ikke oplevet et problem med AMDs drivere, så jeg tror de er lige gode/dårlige.
Det er selvfølgelig en skam at AMD ikke kan bruge PhysX, fordi det er da en saftig ting at have til sit grafikkort. Det blev da også brugt for mig med mit sidste nVidia kort, og ser også lidt sjovere ud. Det var et ret smart move da nVidia opkøbte det originale firma, og videreudviklede produktet. Jeg har kun brugt nVidia kort indtil nu, så jeg har været glad for PhysX; men når man står med et Radeon kort, så ville man ønske at der stadig var et fysisk PhysX kort man stak i numsen på motherboardet :D.
Lidt læsning til folk der IKKE har sat sig ind i GPU-fysik politikken:
http://scalibq.spaces.live.com/Blog/cns!663AD9A4F9...
Terra - Do read up...
http://scalibq.spaces.live.com/Blog/cns!663AD9A4F9...
Terra - Do read up...
#14
Nu kan GPU'en ikke både lave grafik og fysik på en gang, så hvis GPU'en også skal lave fysik så tager den ydelse fra grafikken. Og som sagt så har jeg to CPU kerner der bare står og triller tommelfingre, så hellere bruge dem.
En GPU er uden tvivl hurtigere til fysik end en CPU, ligesom den er meget hurtigere til grafik. Pointen er at jeg hellere vil udnytte en del af hardwaren som pt. ikke hjælper til end at jeg vil belaste noget der allerede er belastet.
Quad cores er ikke svære at skaffe længere, lad os få de to sidste kerner med i kampen.
Nu kan GPU'en ikke både lave grafik og fysik på en gang, så hvis GPU'en også skal lave fysik så tager den ydelse fra grafikken. Og som sagt så har jeg to CPU kerner der bare står og triller tommelfingre, så hellere bruge dem.
En GPU er uden tvivl hurtigere til fysik end en CPU, ligesom den er meget hurtigere til grafik. Pointen er at jeg hellere vil udnytte en del af hardwaren som pt. ikke hjælper til end at jeg vil belaste noget der allerede er belastet.
Quad cores er ikke svære at skaffe længere, lad os få de to sidste kerner med i kampen.
#17:
Du skulle måske regne lidt på det...min gamle PCI AGEIA PPU slår en quad-core CPU.
En CPU stinker midlest talt til SIMD.
Kan prøve at pille mit 9800GT ud når jeg kommer hjem og teste hvor meget ydelse.
#18:
Du skulle måske liiiiige kigge lidt bedre i NV's CP.
Du kan lave lige den opløsning/frekvns du har brug for...fejl 40 detected.
Du skulle måske regne lidt på det...min gamle PCI AGEIA PPU slår en quad-core CPU.
En CPU stinker midlest talt til SIMD.
Kan prøve at pille mit 9800GT ud når jeg kommer hjem og teste hvor meget ydelse.
#18:
Du skulle måske liiiiige kigge lidt bedre i NV's CP.
Du kan lave lige den opløsning/frekvns du har brug for...fejl 40 detected.
#2 Det er mange årsiden jeg sidst har oplevet ustabile drivere til radeon kort... 2004 var vist det herrens år :-D
Nu er det jo ikke ATI/AMD's skyld, hvis du køber en dårligt/for billigt hardware, psu osv. :-D
#0 Det ser ud til at nvidia begynder at blive lidt presset, måske vi igen ser billige grafikkort... Synes HD4870 til en lanceringspris på under 2.000,- var et godt tiltag :-D
Nu er det jo ikke ATI/AMD's skyld, hvis du køber en dårligt/for billigt hardware, psu osv. :-D
#0 Det ser ud til at nvidia begynder at blive lidt presset, måske vi igen ser billige grafikkort... Synes HD4870 til en lanceringspris på under 2.000,- var et godt tiltag :-D
Jeg har prøvet lidt af hvert.. GTX285 samt GTX295.. Har desuden også prøvet 4870 og 4870x2 .. Alle kortene har jeg også prøvet i SLI/Crossfire med samme slags kort..
Jeg vil sige det sådan her.. Jeg startede på nVidia og faldt tilbage på nVidia.. Jeg ville prøve Radeon pga bedre yddelse for pengene. De gør det skam også godt, men der er bareb nogle ting ved dem der gør at de ikke fungere ligeså godt som nVidia. Med hensyn til OC f.eks. er ATi's kort nVidia overlegn, i mit tilfælde.. nVidias drivere går mere ned under OC end ATi's..
Tilgengæld så har jeg langt færre fejl i spil med nVidia kort end med ATi kort!
Også LARMEDE de ati kort jeg havde som en i helvede! Skiftede kun køler på ati kortene pga de larmede sindsygt meget og alligevel blev herre varme! Artic cooling virker forøvrigt bare ;D
Kører pt med ét enkelt GTX295.. Det spiller bare.. Jeg har langt færre fejl med det end jeg havde med ATi kortene.. Jeg prøvede 4 forskellige ATi kort, der havde grafik fejl og nedbrud på PC'en af og til, men efter der kom et nVidia kort i spiller det bare.. Og nej Ati kortene fejlede ikke spor, det var simpelthen bare problemer mellem driveren og de spil jeg spillede..
Jeg vil sige det sådan her.. Jeg startede på nVidia og faldt tilbage på nVidia.. Jeg ville prøve Radeon pga bedre yddelse for pengene. De gør det skam også godt, men der er bareb nogle ting ved dem der gør at de ikke fungere ligeså godt som nVidia. Med hensyn til OC f.eks. er ATi's kort nVidia overlegn, i mit tilfælde.. nVidias drivere går mere ned under OC end ATi's..
Tilgengæld så har jeg langt færre fejl i spil med nVidia kort end med ATi kort!
Også LARMEDE de ati kort jeg havde som en i helvede! Skiftede kun køler på ati kortene pga de larmede sindsygt meget og alligevel blev herre varme! Artic cooling virker forøvrigt bare ;D
Kører pt med ét enkelt GTX295.. Det spiller bare.. Jeg har langt færre fejl med det end jeg havde med ATi kortene.. Jeg prøvede 4 forskellige ATi kort, der havde grafik fejl og nedbrud på PC'en af og til, men efter der kom et nVidia kort i spiller det bare.. Og nej Ati kortene fejlede ikke spor, det var simpelthen bare problemer mellem driveren og de spil jeg spillede..
Nvidia er først for nyligt kommet med deres fulde 4xx serie på markedet, så de har produkter i alle prisklasser.
Hvis HD6xxx serien formået at at forbedre ydelsen i alle segmenter, med nogenlunde samme perf/watt, kan Nvidia komme godt på hælene eftersom deres næste grafikkortsserie tidligst kommer i 2011, uden nogen klar indikation af hvornår i 2011. Nvidia Roadmap
#24
Og jeg har kun gode oplevelser med mit HD5770 kort, og dets drivere. Men går man på div. driver forums for begge firmaer, kan man finde lange klagesange der går i begge retninger. Jeg tror det er svært at finde en endegyldig konklusion på driverkvaliteten, der ikke bunder i gamle oplevelser og det indtryk de gav.
Hvis HD6xxx serien formået at at forbedre ydelsen i alle segmenter, med nogenlunde samme perf/watt, kan Nvidia komme godt på hælene eftersom deres næste grafikkortsserie tidligst kommer i 2011, uden nogen klar indikation af hvornår i 2011. Nvidia Roadmap
#24
Og jeg har kun gode oplevelser med mit HD5770 kort, og dets drivere. Men går man på div. driver forums for begge firmaer, kan man finde lange klagesange der går i begge retninger. Jeg tror det er svært at finde en endegyldig konklusion på driverkvaliteten, der ikke bunder i gamle oplevelser og det indtryk de gav.
cnx (23) skrev:Hvad skulle det forhindre udviklerne i at lave og implementere det på den "normale" måde via deres engine/framework.
PhysX er og bliver 80+% salgs gas.
cnx: Du fisser Terra. phewe
Prøv igen på dansk...her er endnu et link til ignorante tåber:
http://www.hardwarecanucks.com/forum/hardware-canu...
.oO(Sjovt at AMD og Intel begge presser på for at vise deres "salggas")
http://www.gamephys.com/2010/09/21/havok-physics-d...
Kæd det samme med AMD's løben rundt, først efter Havok...som Intel nappede...og nu Bullet.
Og nævn OpenCL og jeg dør af grin, har postet linket før, men det siver åbenbart ikke ind ved de træge:
http://scalibq.spaces.live.com/Blog/cns!663AD9A4F9...
Men jeg er ganske rolig, når AMD engang får GPU-fysik...så vil visse typer ændre holdning og så betyder GPU-fysik lige pludselig noget...alligevel *host*
http://www.gamephys.com/2010/09/21/havok-physics-d...
Kæd det samme med AMD's løben rundt, først efter Havok...som Intel nappede...og nu Bullet.
Og nævn OpenCL og jeg dør af grin, har postet linket før, men det siver åbenbart ikke ind ved de træge:
http://scalibq.spaces.live.com/Blog/cns!663AD9A4F9...
Men jeg er ganske rolig, når AMD engang får GPU-fysik...så vil visse typer ændre holdning og så betyder GPU-fysik lige pludselig noget...alligevel *host*
#27 Eller måske ikke... Ting der er super fede plejer også at vinde indpas, fysik acc har efterhåneden levet så lang tid, at jeg tvivler på det bliver ret meget større... Lidt ligesom med EAX... Fedt? - Tjoo, det er der måske nogle der vil mene, jeg slåer mit fra og gfx wise vil jeg hellere bruge ydelsen til andre ting.
Så kommer det til mit amd kort bliver det ikke slået fra ligesom med EAX på mit lydkort :-D
Så kommer det til mit amd kort bliver det ikke slået fra ligesom med EAX på mit lydkort :-D
Rart at se AMD ikke går helt i stå, på trods af alle Nvidias Fermi problemer.
5xxx serien har længe givet mere bang for the buck end Nvidias kort og har langt tidligere nået ned i sub 1.200 kroners prislejet, så selv folk som mig har en chance for at have råd til dem. Folk der vil have god grafik har haft mulighed for at købe DX11 hardware i god tid før DX 11 spillene kom ud takket være AMD's gode planlægning.
Sjovt folk klager lidt over AMD drivere, men hurtigt glemmer Nvidias problemer med Vista. Offentligjorde Microsoft ikke en undersøgelse i 2007 der viste at 30% af alle Vista systemnedbrud var forårsaget af Nvidia drivere? Var der ikke for nyligt en Nvidia driver der kogte kortene?
Kvaliteten af driverne og kortene svinger vel med tiden og både AMD og Nvidia laver brølere en gang imellem, lad os bare håbe begge firmaer kæmper om vores gunst mange år endnu, så vi købe billige og hurtige kort.
5xxx serien har længe givet mere bang for the buck end Nvidias kort og har langt tidligere nået ned i sub 1.200 kroners prislejet, så selv folk som mig har en chance for at have råd til dem. Folk der vil have god grafik har haft mulighed for at købe DX11 hardware i god tid før DX 11 spillene kom ud takket være AMD's gode planlægning.
Sjovt folk klager lidt over AMD drivere, men hurtigt glemmer Nvidias problemer med Vista. Offentligjorde Microsoft ikke en undersøgelse i 2007 der viste at 30% af alle Vista systemnedbrud var forårsaget af Nvidia drivere? Var der ikke for nyligt en Nvidia driver der kogte kortene?
Kvaliteten af driverne og kortene svinger vel med tiden og både AMD og Nvidia laver brølere en gang imellem, lad os bare håbe begge firmaer kæmper om vores gunst mange år endnu, så vi købe billige og hurtige kort.
#26 Hoooold da op et flot link :D haha
Synes nu ikke det du snakker om er så mærkbart?
Og tilmed ser man at APEX i realworld yder stort set det samme med CPU og GPU?
"but the eight-thread Intell processor is actually able to keep up with the GTX 460 with APEX set to high."
Kan da godt se at der er en lille forskel, men for satan hvor er den forskel dog lille?
Der ligger lidt grus på jorden efter han har skudt en søjle, ellers ser det stort set ens ud. Han tøj ser ca. 2% mere realistisk ud, ellers er det ens.
Forstår slet ikke hvad det er du mener? Du arbejder vel ikke for Nvidia eller sådan noget vel? :P
Svar til #27
Når AMD engang får GPU fysik så betyder det måske også mere fordi at det vil blive mere og bedre integreret. Idag synes jeg sgu bare at det er noget PR stunt og endnu en af de der "Se hvad vi har som konkurenten ikke har"
Synes nu ikke det du snakker om er så mærkbart?
Og tilmed ser man at APEX i realworld yder stort set det samme med CPU og GPU?
"but the eight-thread Intell processor is actually able to keep up with the GTX 460 with APEX set to high."
Kan da godt se at der er en lille forskel, men for satan hvor er den forskel dog lille?
Der ligger lidt grus på jorden efter han har skudt en søjle, ellers ser det stort set ens ud. Han tøj ser ca. 2% mere realistisk ud, ellers er det ens.
Forstår slet ikke hvad det er du mener? Du arbejder vel ikke for Nvidia eller sådan noget vel? :P
Svar til #27
Når AMD engang får GPU fysik så betyder det måske også mere fordi at det vil blive mere og bedre integreret. Idag synes jeg sgu bare at det er noget PR stunt og endnu en af de der "Se hvad vi har som konkurenten ikke har"
#0:
Ja, for der er ikke brugt advancerde effekter så som interactive fluids eller tearable cloth...prøv Cryostasis...igen udvidenhed er et dårligt fundament.
Eller prøv at finde clips med interactive smoke....igen, igen udvidenehd er et dårligt fundament...
Og tror på at AMD som ikke gang har noget der bare virker interessant på OpenCL eller det faktum at de mangler de værktøjer som NVIDIA har til developers....hvad bliver det næste...magic pixie-fairies?
Ja, for der er ikke brugt advancerde effekter så som interactive fluids eller tearable cloth...prøv Cryostasis...igen udvidenhed er et dårligt fundament.
Eller prøv at finde clips med interactive smoke....igen, igen udvidenehd er et dårligt fundament...
Og tror på at AMD som ikke gang har noget der bare virker interessant på OpenCL eller det faktum at de mangler de værktøjer som NVIDIA har til developers....hvad bliver det næste...magic pixie-fairies?
#31 Jeg må indrømme, at jeg ikke deler din entusiasme i forhold til fysik acceleration :-D
Jeg er tilfreds med at AMD fokusere på andre, og i mine øjne vigtigere ting, end fysik acc, som jeg alligevel ikke tænker over en the heat of the moment :-D
Det er jo også et konkurrenceparamenter at koncentere sig om at levere fysik acc og nedprioritere andre ting, så kan vi andre vælge produkter med de prioriteter fra.
Jeg er tilfreds med at AMD fokusere på andre, og i mine øjne vigtigere ting, end fysik acc, som jeg alligevel ikke tænker over en the heat of the moment :-D
Det er jo også et konkurrenceparamenter at koncentere sig om at levere fysik acc og nedprioritere andre ting, så kan vi andre vælge produkter med de prioriteter fra.
terracide (31) skrev:#0:
Ja, for der er ikke brugt advancerde effekter så som interactive fluids eller tearable cloth...prøv Cryostasis...igen udvidenhed er et dårligt fundament.
Eller prøv at finde clips med interactive smoke....igen, igen udvidenehd er et dårligt fundament...
Og tror på at AMD som ikke gang har noget der bare virker interessant på OpenCL eller det faktum at de mangler de værktøjer som NVIDIA har til developers....hvad bliver det næste...magic pixie-fairies?
Ud fra deres tech demo af det spil (nsm_Cryostasis_SideBySide_H264.mov) vil jeg nu umiddelbart mene, at de nok burde have smidt lidt mere energi efter at få grafikken til at se pæn ud (ie. bedre shadere, texture mapping etc) frem for at hælde det hele efter en IMO temmelig tvilvsom fysik implementation.
Det ser da fint ud med kasserne .. men regnen er direkte grim.
Desuden ser det jo ikke rigtigt ud til, at den extra fysik har nogen reel funktion i spillet.....
At skidtet så oven i købet er ~2 år gammelt gør det ikke bedre - men der er måske ikke lavet noget siden ?
Du må komme med bedre eksempler ......
-N- (32) skrev:Jeg er tilfreds med at AMD fokusere på andre, og i mine øjne vigtigere ting, end fysik acc, som jeg alligevel ikke tænker over en the heat of the moment :-D
Skriver du at der er detaljer du ikke bemærker, når du nyder et spil, BLASFEMI!!!! Du skal kun købe spil for at sidde og glo på flot grafik og vilde fysik effekter!!!!
Et spils kvalitet hænger jo direkte sammen med grafikken og effekterne, derfor er der ingen der har købt eller spiller bras som Plants vs. Zombies eller Portal. Kom nu ind i kampen med de seje hypede sukkerfyldte unger og spil Crysis og Operation Flashpoint Dragon Rising.
Pokkers til tabere der ikke aner en skid om hvordan man spiller computerspil, som rent faktisk tror at man skal have det sjovt i stedet for at kigge på et virtuelt stykke stof der blafrer i den virtuelle vind.
EDIT:
I tilfælde af nogen tager mig seriøst, så hedder der sarkasme.
Opret dig som bruger i dag
Det er gratis, og du binder dig ikke til noget.
Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.