mboost-dp1

unknown

GPU kan blive til PPU

- Via X-bit labs - , redigeret af Net_Srak

Det skabte mange ringe i vandet da firmaet Ageia annoncerede, at de havde udviklet en chip (PPU), der udelukkende skal stå for beregninger, af fysiske forhold i f.eks. spil.

Nu udtaler en ledende udvikler hos ATI, Raja Kodouri, at avancerede DX9 GPU’er, som har eksisteret siden lanceringen af Radeon 9700, kan varetage samme opgaver som en dedikeret PPU. Årsagen er at måden en PPU arbejder på, minder meget om den måde en GPU benytter sine pixelshaders.

I fremtiden er tendensen, at grafikchip-producenterne går efter at lave unified shaders, altså shader-enheder der både kan udføre vertex og pixel beregninger, som det ses i Xbox 360 GPU’en. Disse vil forholdsvist nemt kunne udføre fysikberegninger. Kodouri vil dog ikke komme med nogen oplysninger, om hvor meget man kan aflaste Cpu’en, ved at lade GPU’en gøre arbejdet.





Gå til bund
Gravatar #1 - gentox
8. okt. 2005 10:46
Lyder interesant, og glæder mig meget til at se om det virkelig kan komme op på højde med PhysX kortet fra Ageia.

Men uanset så er det nok en udvikling vi snart vil se meget mere til, da kravene til spil og simulation om at efterligne virkeligheden, kræver nogle ret ekstreme beregninger.

Edit [der kan læses en glimrende artikel om PhysX hos edbtidende]
Gravatar #2 - sKIDROw
8. okt. 2005 10:53
Udviklingen med at lade grafikkort, lydkort og andre enheder varetage deres egen workload, får mig til at glæde mig over at Amigaen heldigvis ikke har levet forgæves.

Jeg er spændt på at se, hvor denne udvikling tager os hen.

Teoretisk kan dygtige hackere, vel programmere en GPU omtrendt som han vil?. Uden dog at kende til hverken programmering, eller hvordan sådan et svin fungere internt. Men al den regnekraft må vel i pricippet, kunne programmeres som man vil?.
Gravatar #3 - drbravo
8. okt. 2005 11:22
Jeg synes at det er en lidt "forhastet" udvikling der er igang for GPUer i øjeblikket. De bliver hurtigere og hurtigere for hver generation, men bruger efterhånden også ret meget strøm.

Det virker som om performance stadig er den eneste gældende faktor for GPU producenter, hvorimod CPU producenterne også kigger på strømforbrug.

Bruger en normal GPU alle de samme teknikker som en moderne CPU? Med SOI, strained silicon og hastighedsregulering efter byrde?
Gravatar #4 - BurningShadow
8. okt. 2005 11:34
Hvorfor er det altid spil der bliver fokuseret på?

Prøv at forestille jer et GUI der kunne laves...
hvis man tager den grundlæggende ide fra MS-Bob (helt tilbage fra Windows 3.11 og 95), og så tilpasser den brugerne idag...

Ok, der er da også mindre praktiske ting, ved sådan et GUI. Det ville f.eks. ikke være så cool at skulle bruge tid på at sejle over en sø med realistisk udseenet vand, for derefter at hoppe i et bål med realistisk udseenet ild, for at starte Nero Burning Rom :-D
Gravatar #5 - Kadann
8. okt. 2005 11:44
#4 -

Fordi der er penge i spil og hardware til spil, må vel være svaret. :)
Gravatar #6 - AenimA
8. okt. 2005 11:51
Det store spørgsmål er vel (i spilsammenhænge), om det ikke vil gå ud over - og i hvor høj grad - hastigheden på 3D grafikken, hvis grafikkortet skal beregne fysik samtidigt..
Begge udregningopgavers parallele natur taget i betragtning.
Gravatar #7 - Bundy
8. okt. 2005 12:28
#6 : Præcis. Hvad er fordelen ved at aflaste CPU'en hvis man bare smider mere workload på GPU'en.
Gravatar #8 - Norrah
8. okt. 2005 12:30
Jeg må jo indrømme at jeg er mere til et seperat kort til Fysik, syntes det kunne være for fedt at havde så meget regnekraft i min maskine, men igen, det ville jo blive røv besværligt for folkene der lavere spillende at skulle tage højde for det enten ikke er der eller er der? det er jo ikke nemt at lave et spil som har mange praktiske anvendelser i at der er 50.000 objekter som forholder sig til fysik på en logisk måde, og så stadig ha spillet til at fungere hos folk som kun kan klare 100.... Det skaber jo problemer ved at lave et spil der har denne feature, hvis det ikke er alle der kan køre det, for hvordan fjerner man lige det? eller gør det mindre??....

det er i mine øjne den eneste ulempe ved et eksternt kort i stedet for integreret i grafikortet eller cpu.

Men jeg ser charmen i en PPU, sidder faktisk en gang i mellem og leger med Ageias Rocket. Morer mig...

lige en ting, såvidt jeg ved så er ageias system integeret i Unreal Engine 3, så jeg går stærkt ud fra at kortet kommer på markedet, på samme tid som enginen's første spil gør, der er simpelthen ikke tid til at nå at få det fixet ind i en GPU. (ved jo ikke om Amd/intel/IBM/nvidia/ati/matrox... er igang :))

dog tror jeg multi Cpu har en fordel intilvidere... :) (Ps3 - xbox 360)
Gravatar #9 - gom
8. okt. 2005 12:59
GPU'en kan foretage en hvilken som helst type udregninger, jo, men er specialiseret i udregninger der har med grafik at gøre. Det er den dedikeret til og super hurtig til, og er møg langsom til alt andet. Til gengæld er normale CPUer enormt langsomme til det den laver. Således skal der en dedikeret 1.4GHz Athlon processor til bare for at lave det samme rent grafisk og med samme hastighed som VooDoo 1 serien. Synes altid ATi kommer frem med alle mulige utopiske ideer om hvad GPUer kan og ikke kan bruges til. De bliver bare aldrig til noget. Fysikudregninger er lige så særgegne og komplekse i natur som grafikudregninger og vil kræve en specialiseret processor lige som med grafikkortene for at køre optimalt. Bevares, grafikkortene skal da nok kunne foretage nogle få af udregningerne hurtigere end CPUen, men det vil belaste den enormt, og vil være uendeligt langsomt ift. den hastighed en specialiseret, dedikeret PPU kan trække samme skidt med. Holder personligt på de nye PPUer, hvis de bare ville tage at komme snart. Black & White 2's fysiksystem skriger jo allerede efter en. Damn det er tungt...
Gravatar #10 - grath
8. okt. 2005 13:03
#2 Ja, en moderne GPU kan programmeres til at beregne hvad man vil. Se fx. på http://gpgpu.org/
Det er dog langt fra alt der egner sig til beregning på GPU, dvs. går hurtigere. Men nogle ting kan beregnes hurtigere på en moderne GPU end på en moderne CPU.
Gravatar #11 - Onde Pik
9. okt. 2005 01:28
#3

ATI's X1800 XT bruger mindre strøm end deres forrige flagskib X850 XT.
Gravatar #12 - drbravo
9. okt. 2005 09:53
#11

Det kommer vel an på hvem man spørger. Ifølge THG bruger den mere:
http://graphics.tomshardware.com/graphic/20051006/...

Findes der grafikchips der ligesom pentium M er specielt designede til bærbare?
Gravatar #13 - Spand
9. okt. 2005 11:55
#12

nvidia har en gforce go serie til bærbare men om der er lavet noget om på dem af betydning.. tja.. jeg tvivler men det er da muligt.
Gravatar #14 - drbravo
9. okt. 2005 12:04
#13

Svarer det mon ikke til pentium 4 M? Som ikke er specielt god til bærbare ting?
Gravatar #15 - ZOPTIKEREN
9. okt. 2005 12:05
#13
Ifølge nvidia har de vist gjort noget ved dem, som har betydning. Det går vist under betegnelsen powermizer 6.0.

pcper skriver for eksempel noget om det, ift. geforce 7800gtx go.
While the features in the GeForce Go 7800 GTX remain mostly unchanged from the desktop part, there are some special optimizations that were done to the mobile GPUs in order to make them more adapted to the mobile market. NVIDIA has gone through some great lengths to improve the power management of the Go GPU so that mobile users can still get great performance, lower heat and a longer batter life.

First, NVIDIA implemented dynamic clock scaling on the Go 7800 GTX which allows it to change its clock rate based on the amount of work the GPU is being given. This GPU can run at speeds as low as 16 MHz if needed. The engine, memory and pixel clocks can all be adjusted in this way.

In addition to scaling, clock gate is heavily used in the mobile product, even more so than in the desktop parts for obvious reasons. Gating allows the GPU to turn off certain parts of the GPU (such as the video system) when it is not in use, effectively lowering the clock frequency to 0 for that section resulting in more power savings.

Voltage scaling was the third feature that NVIDIA implemented and was made possible by the use of the 0.09 micron process. The Go 7800 can run at voltages lower than any other mobile performance part.

In addition, NVIDIA is using a link management system that allows it to switch between x1 and x16 lanes of PCI Express for the GPU depending on the bandwidth required.
Gravatar #16 - Mr.DNA
10. okt. 2005 13:26
Salgstrik fra ATi, ikke at det ikke vil kunne lade sig gøre, men sandsynligheden for at det bliver brugbart for menigmand er minimal.
Gå til top

Opret dig som bruger i dag

Det er gratis, og du binder dig ikke til noget.

Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.

Opret Bruger Login