mboost-dp1

unknown

GPU som matematisk coprocessor

- Via Ars Technica - , redigeret af peter_m , indsendt af ZOPTIKEREN

Både ATI/AMD og NVIDIA har lavet udviklingssoftware, der gør det muligt at bruge deres GPU’er som matematiske coprocessorer. NVIDIA har netop frigivet en beta version af deres C compiler for Compute Unified Device Architecture (CUDA).

Med compileren følger en række extensions, der gør det muligt at skrive til GPU’en, ved at bruge almindelige C programmering. En speciel CUDA driver, sørger for at OS’et kan se GPU’en som en matematisk coprocessor.

ATI/AMD’s tilgang er lidt anderledes, da de ikke satser på et højniveau sprog, men satser på assembler programmering. Dette er væsentligt sværere, men giver udviklere mulighed for selv at lave højniveau værktøjer, der ikke er specificerede i funktioner som NVIDIAS er det.





Gå til bund
Gravatar #1 - Man in Black
20. feb. 2007 11:36
Ja, der er virkelig muligheder i det!

Det virker også lidt tosset at have alle de resurcer i en højtydende grafikprocessor, som kun bliver udnyttet når man spiller eller kører andre grafiktunge apps.

Den bør udnyttes så meget som muligt!
Gravatar #2 - Cyrack
20. feb. 2007 11:45
Kommer vi ikke efterhånden tættere og tættere på Amigaens design igen? De enkelte enheders CPUer kunne svjh også bruges til andet end deres oprindelige opgave? Anyone?

Synes dog at det er en skam at de ikke kan lave det som en transparent udvidelse til et OS, så programmører ikke behøver tage højde for muligheden af nVidia eller ATI kort (ydermere kræver det velsagtens to forskellige API og så gider de færreste nok bruge det, medmindre man har _stort_ behov for ekstra udregninger).
Gravatar #3 - Xill
20. feb. 2007 11:58
#2 .. ja det bliver nok kun til programmer som 3D max og måske til nogen XviD og DivX Converter og andet der bruger rigtig meget CPU, uden kun at være beregnet til supercomputere
Gravatar #4 - jakobdam
20. feb. 2007 12:19
De færreste får udnyttet deres CPU-kraft nu om dage - især FPU'en (der i "gamle dage" var en separat coprocessor) udnyttes slet ikke hos langt de fleste.

Folk der bruger intensive 3D-programmer, laver vejrmeldinger, hårde fysik-beregninger og lignende, kan få noget ud af dette - disse folk bruger typisk alt hvad den kan trække.

Men selv folk der kompresserer video og audio får nok begrænset ud af det - idet harddisken jo også skal kunne følge med, ligesom at tilgangen til RAM ikke må være flaskehals, selve RAM'enes timings ikke må være flaskehals, bundkortets chipsæt osv...


Dermed ikke sagt at det ikke er en spændende udvikling der er gang i - jeg bruger selv 3DSMAX, og glæder mig da meget til at se hvor om dette er noget jeg vil kunne drage nytte af.

Men - NVidia QUADRO og AMD/ATi FireGL grafikkort til workstations, hjælper jo allerede også processoren under 3D-rendering som det er nu - det har de så vidt jeg ved, altid gjort.
Gravatar #5 - Cossins
20. feb. 2007 12:24
#4
*komprimerer :-)

#0
Interessant, men ikke banebrydende på andet end *høh*-stadiet. Det kan højst blive anvendeligt i integrerede systemer, som f.eks. den mobile platform som NVIDIA for nyligt præsenterede.
Gravatar #6 - Wassini
20. feb. 2007 13:38
#2 DirectCO?
Gravatar #7 - Thinksmart
20. feb. 2007 14:51
Alt hvad kan lade sig gøre vil blive gjort. Og mulighden i at benytte GPUen som ekstra regne kraft er formenligt bare første skridt i en ny retning. Der er helt sikker for tidligt at kloge sig på om det er dødfødt ide.
Gravatar #8 - Pephers
20. feb. 2007 16:29
#2 Det samme med SLI. En groft sagt genopfundet teknologi :)
Gravatar #9 - NBV83
20. feb. 2007 16:39
#1: "Det virker også lidt tosset at have alle de resurcer i en højtydende grafikprocessor, som kun bliver udnyttet når man spiller eller kører andre grafiktunge apps."

Du mener Windows Vista? :-D
Gravatar #10 - iluka
20. feb. 2007 19:46
ATI's indfaldsvinkel er klart den mest dynamiske. Hvis der er nogen der har brug for ekstra regnekræft til et eller andet specielt, og ikke vil begrænses af de funktioner som nVidia har valgt at lade indgå i deres C api, så kan de selv lave en compiler til ATI's assembler.
Gravatar #11 - denladeside
21. feb. 2007 11:38
#2 "...Synes dog at det er en skam at de ikke kan lave det som en transparent udvidelse til et OS, så programmører ikke behøver tage højde for muligheden af nVidia eller ATI kort..."

Du kan jo bare opgradere din windows til en OS X. Der er der en del "core libs", der er nemme at bruge for udviklere til alle mulige signalbehandlingsting (og sager ;-) ). Fra OS X 10.5 skulle OS'et selv finde ud af at fordele ressourcer mellem GPU'en og de to 64-bit-kerner (Core2Duo). Når man nu også kan køre windows i et sikkert miljø (virtuelt på mac'en)., så den kan få smæk når den crasher eller får virus, er der vel ingen grund til at vælge andet (med mindre, man ikke er til nice design ;-) ).
Gå til top

Opret dig som bruger i dag

Det er gratis, og du binder dig ikke til noget.

Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.

Opret Bruger Login