mboost-dp1

unknown
- Forside
- ⟨
- Forum
- ⟨
- Nyheder
Lyder interesant, og glæder mig meget til at se om det virkelig kan komme op på højde med PhysX kortet fra Ageia.
Men uanset så er det nok en udvikling vi snart vil se meget mere til, da kravene til spil og simulation om at efterligne virkeligheden, kræver nogle ret ekstreme beregninger.
Edit [der kan læses en glimrende artikel om PhysX hos edbtidende]
Men uanset så er det nok en udvikling vi snart vil se meget mere til, da kravene til spil og simulation om at efterligne virkeligheden, kræver nogle ret ekstreme beregninger.
Edit [der kan læses en glimrende artikel om PhysX hos edbtidende]
Udviklingen med at lade grafikkort, lydkort og andre enheder varetage deres egen workload, får mig til at glæde mig over at Amigaen heldigvis ikke har levet forgæves.
Jeg er spændt på at se, hvor denne udvikling tager os hen.
Teoretisk kan dygtige hackere, vel programmere en GPU omtrendt som han vil?. Uden dog at kende til hverken programmering, eller hvordan sådan et svin fungere internt. Men al den regnekraft må vel i pricippet, kunne programmeres som man vil?.
Jeg er spændt på at se, hvor denne udvikling tager os hen.
Teoretisk kan dygtige hackere, vel programmere en GPU omtrendt som han vil?. Uden dog at kende til hverken programmering, eller hvordan sådan et svin fungere internt. Men al den regnekraft må vel i pricippet, kunne programmeres som man vil?.
Jeg synes at det er en lidt "forhastet" udvikling der er igang for GPUer i øjeblikket. De bliver hurtigere og hurtigere for hver generation, men bruger efterhånden også ret meget strøm.
Det virker som om performance stadig er den eneste gældende faktor for GPU producenter, hvorimod CPU producenterne også kigger på strømforbrug.
Bruger en normal GPU alle de samme teknikker som en moderne CPU? Med SOI, strained silicon og hastighedsregulering efter byrde?
Det virker som om performance stadig er den eneste gældende faktor for GPU producenter, hvorimod CPU producenterne også kigger på strømforbrug.
Bruger en normal GPU alle de samme teknikker som en moderne CPU? Med SOI, strained silicon og hastighedsregulering efter byrde?
Hvorfor er det altid spil der bliver fokuseret på?
Prøv at forestille jer et GUI der kunne laves...
hvis man tager den grundlæggende ide fra MS-Bob (helt tilbage fra Windows 3.11 og 95), og så tilpasser den brugerne idag...
Ok, der er da også mindre praktiske ting, ved sådan et GUI. Det ville f.eks. ikke være så cool at skulle bruge tid på at sejle over en sø med realistisk udseenet vand, for derefter at hoppe i et bål med realistisk udseenet ild, for at starte Nero Burning Rom :-D
Prøv at forestille jer et GUI der kunne laves...
hvis man tager den grundlæggende ide fra MS-Bob (helt tilbage fra Windows 3.11 og 95), og så tilpasser den brugerne idag...
Ok, der er da også mindre praktiske ting, ved sådan et GUI. Det ville f.eks. ikke være så cool at skulle bruge tid på at sejle over en sø med realistisk udseenet vand, for derefter at hoppe i et bål med realistisk udseenet ild, for at starte Nero Burning Rom :-D
Jeg må jo indrømme at jeg er mere til et seperat kort til Fysik, syntes det kunne være for fedt at havde så meget regnekraft i min maskine, men igen, det ville jo blive røv besværligt for folkene der lavere spillende at skulle tage højde for det enten ikke er der eller er der? det er jo ikke nemt at lave et spil som har mange praktiske anvendelser i at der er 50.000 objekter som forholder sig til fysik på en logisk måde, og så stadig ha spillet til at fungere hos folk som kun kan klare 100.... Det skaber jo problemer ved at lave et spil der har denne feature, hvis det ikke er alle der kan køre det, for hvordan fjerner man lige det? eller gør det mindre??....
det er i mine øjne den eneste ulempe ved et eksternt kort i stedet for integreret i grafikortet eller cpu.
Men jeg ser charmen i en PPU, sidder faktisk en gang i mellem og leger med Ageias Rocket. Morer mig...
lige en ting, såvidt jeg ved så er ageias system integeret i Unreal Engine 3, så jeg går stærkt ud fra at kortet kommer på markedet, på samme tid som enginen's første spil gør, der er simpelthen ikke tid til at nå at få det fixet ind i en GPU. (ved jo ikke om Amd/intel/IBM/nvidia/ati/matrox... er igang :))
dog tror jeg multi Cpu har en fordel intilvidere... :) (Ps3 - xbox 360)
det er i mine øjne den eneste ulempe ved et eksternt kort i stedet for integreret i grafikortet eller cpu.
Men jeg ser charmen i en PPU, sidder faktisk en gang i mellem og leger med Ageias Rocket. Morer mig...
lige en ting, såvidt jeg ved så er ageias system integeret i Unreal Engine 3, så jeg går stærkt ud fra at kortet kommer på markedet, på samme tid som enginen's første spil gør, der er simpelthen ikke tid til at nå at få det fixet ind i en GPU. (ved jo ikke om Amd/intel/IBM/nvidia/ati/matrox... er igang :))
dog tror jeg multi Cpu har en fordel intilvidere... :) (Ps3 - xbox 360)
GPU'en kan foretage en hvilken som helst type udregninger, jo, men er specialiseret i udregninger der har med grafik at gøre. Det er den dedikeret til og super hurtig til, og er møg langsom til alt andet. Til gengæld er normale CPUer enormt langsomme til det den laver. Således skal der en dedikeret 1.4GHz Athlon processor til bare for at lave det samme rent grafisk og med samme hastighed som VooDoo 1 serien. Synes altid ATi kommer frem med alle mulige utopiske ideer om hvad GPUer kan og ikke kan bruges til. De bliver bare aldrig til noget. Fysikudregninger er lige så særgegne og komplekse i natur som grafikudregninger og vil kræve en specialiseret processor lige som med grafikkortene for at køre optimalt. Bevares, grafikkortene skal da nok kunne foretage nogle få af udregningerne hurtigere end CPUen, men det vil belaste den enormt, og vil være uendeligt langsomt ift. den hastighed en specialiseret, dedikeret PPU kan trække samme skidt med. Holder personligt på de nye PPUer, hvis de bare ville tage at komme snart. Black & White 2's fysiksystem skriger jo allerede efter en. Damn det er tungt...
#2 Ja, en moderne GPU kan programmeres til at beregne hvad man vil. Se fx. på http://gpgpu.org/
Det er dog langt fra alt der egner sig til beregning på GPU, dvs. går hurtigere. Men nogle ting kan beregnes hurtigere på en moderne GPU end på en moderne CPU.
Det er dog langt fra alt der egner sig til beregning på GPU, dvs. går hurtigere. Men nogle ting kan beregnes hurtigere på en moderne GPU end på en moderne CPU.
#11
Det kommer vel an på hvem man spørger. Ifølge THG bruger den mere:
http://graphics.tomshardware.com/graphic/20051006/...
Findes der grafikchips der ligesom pentium M er specielt designede til bærbare?
Det kommer vel an på hvem man spørger. Ifølge THG bruger den mere:
http://graphics.tomshardware.com/graphic/20051006/...
Findes der grafikchips der ligesom pentium M er specielt designede til bærbare?
#13
Ifølge nvidia har de vist gjort noget ved dem, som har betydning. Det går vist under betegnelsen powermizer 6.0.
pcper skriver for eksempel noget om det, ift. geforce 7800gtx go.
Ifølge nvidia har de vist gjort noget ved dem, som har betydning. Det går vist under betegnelsen powermizer 6.0.
pcper skriver for eksempel noget om det, ift. geforce 7800gtx go.
While the features in the GeForce Go 7800 GTX remain mostly unchanged from the desktop part, there are some special optimizations that were done to the mobile GPUs in order to make them more adapted to the mobile market. NVIDIA has gone through some great lengths to improve the power management of the Go GPU so that mobile users can still get great performance, lower heat and a longer batter life.
First, NVIDIA implemented dynamic clock scaling on the Go 7800 GTX which allows it to change its clock rate based on the amount of work the GPU is being given. This GPU can run at speeds as low as 16 MHz if needed. The engine, memory and pixel clocks can all be adjusted in this way.
In addition to scaling, clock gate is heavily used in the mobile product, even more so than in the desktop parts for obvious reasons. Gating allows the GPU to turn off certain parts of the GPU (such as the video system) when it is not in use, effectively lowering the clock frequency to 0 for that section resulting in more power savings.
Voltage scaling was the third feature that NVIDIA implemented and was made possible by the use of the 0.09 micron process. The Go 7800 can run at voltages lower than any other mobile performance part.
In addition, NVIDIA is using a link management system that allows it to switch between x1 and x16 lanes of PCI Express for the GPU depending on the bandwidth required.
Opret dig som bruger i dag
Det er gratis, og du binder dig ikke til noget.
Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.