mboost-dp1

unknown

Nyt programmeringssprog til GPU’er

- Via NewScientist - , redigeret af hfp

Ved Los Alamos National Laboratory har man udviklet programmeringssproget “Scout”, til afvikling af videnskabelige opgaver på de GPU’er, der er på moderne grafikkort.

Forskerne har brugt Scout til at simulere en supernova, men kan også bruges til at simulere og visualisere havstrømninger og dannelsen af galakser.

Hastigheden for de GPU baserede beregninger er op til 12 gange hurtigere end udført med en almindelig CPU. Det er dog kun meget specialiserede opgaver, der virker godt på en GPU.





Gå til bund
Gravatar #1 - Hack4Crack
15. jun. 2005 09:02
ret vildt, 12 gange hurtigere end en CPU. den kan sq få genereret nogle data...
Gravatar #2 - zumo
15. jun. 2005 09:10
Ved ikke om video encoding er "specialiseret" nok, men det kunne være rart hvis man kunne få GPU'en til at lave dette, så man kan bruge computeren til noget andet imens. Det ville bestemt heller ikke gøre noget hvis det kom til at gå hurtigere :)
Gravatar #3 - cj2003
15. jun. 2005 09:23
Det ville være en dejlig verden hvis (når?) diverse distribuerede regneopgaver som Seti@Home, proteinfoldning eller United Devices (kræft) og det bare knokler løs på grafikkortet mens jeg arbejder i Word....
Gravatar #4 - icewalker
15. jun. 2005 09:27
#2
Det der gør en GPU så effektiv er primært at den er optimeret til vektorberegninger og at den kører flere samtidige beregner i paralel.
Kompression af video er velegnet til paralelle beregninger, men vil næppe have så stor gavn af optimerede vektorrutiner.
Gravatar #5 - amokk
15. jun. 2005 09:41
#3 nu er det (som der står) meget specielle regneopgaver, som en GPU er hurtig til...
Gravatar #6 - cj2003
15. jun. 2005 09:56
#5, just præcis - som der står i artiklen

"Schröder adds that the approach is particularly well suited to "anything that has high floating-point needs with low communication needs" – in other words intensive mathematical calculations that can be easily split up into individual portions."

For mig lyder det godt når man tænker på distribueret regnearbejde!

Du kan f.eks. her - http://forum.grid.org/phpBB/viewtopic.php?t=16266 - se en diskussion om selvsamme problemstilling, der er desværre ikke et klart svar på om det er muligt
Gravatar #7 - sh0dan
15. jun. 2005 10:31
#3,4: Der er elementer i videoenkodning, der kan optimeres vha. 3D-accelleration. Den del, der kan optimeres er beregninger der ændrer selve billedet. Det kan være:

* Resizing, støjreduktion, deinterlacing, farvekorrektion og konvertering. Videokort kan også delvist bruges til dekodning af materiale (specifikt "motion compensation").

Desværre er der også elementer der ikke kan optimeres i enkodningsprocessen. Det handler primært om den mest CPU-krævende del, "motion estimation" og afgørelser omkring frametypes.

Det betyder at videoen skal frem og tilbage over AGP/PCI-E bussen to gange - og lige netop den del tager ofte en hel del af fordelene ved GPU-beregninger.

Jeg har selv lavet tests med det, og det kan være en fordel, hvis de beregninger man foretager i forvejen ta'r lang tid. Lidt links til doom9:

fft3dGPU. Et støjreduktionsfilter der kører på GPU.

Japanese GPU filters. Nogle generelle filtre.

AviShader Released!. Et experimentielt filter der kan udføre arbitrære .fx filtre.
Gravatar #8 - Mr.DNA
15. jun. 2005 12:20
Når så Agiea's PhysX PPU kommer på markedet kan man få lavet endnu flere parallel beregninger
Gå til top

Opret dig som bruger i dag

Det er gratis, og du binder dig ikke til noget.

Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.

Opret Bruger Login