mboost-dp1

No Thumbnail

Intel: 3D-grafikkort bliver unødvendige

- Via TG Daily - , redigeret af Emil , indsendt af hmn

I et interview med Ron Fosner, der tidligere har været spiludvikler, men nu er ansat i Intels afdeling for grafik og spil, kommer han ind på, hvordan udviklingen af multi-kerne-processorer vil påvirke fremtiden.

Med det stadig stigende antal af kerner i processorer, så får spiludviklere flere og flere ressourcer til rådighed, ressourcer der vil være oplagt at anvende til grafik.

Grafik beregnes i dag oftest af dedikerede GPU’er, der er specialiserede til at kunne udføre shader- og pixel-operationer meget hurtigt. Fosner mener, at netop det faktum at grafikkort skal programmeres i f.eks. DirectX er ekstra arbejde. Ifølge ham vil det give mere mening kun at programmere til en CPU og så lade den klare det hele.

I fremtiden spår han derfor, at dedikerede grafikkort lige så langsomt vil forsvinde, efterhånden som processorerne bliver kraftigere og kraftigere.





Gå til bund
Gravatar #1 - Sikots
4. apr. 2008 09:32
Og i fremtiden vil applikationer og spil blive mere og mere krævende hvilket vil sætte større og større krav til cpu og gpu.

For mig at se er det da en tosset spådom...
Gravatar #2 - Holger_dk
4. apr. 2008 09:34
hm.. synes ikke den "smoke" demo var så imponerende at jeg kunne sige at de har ret... deres raytraced idé er lidt mere imponerende imo, men stadig alt for langsom og giver alt for lidt i forhold til hvad grafikken kan i dag...

men altid godt med nogle der prøver at presse teknologien og konkurrenterne
Gravatar #3 - neiro
4. apr. 2008 09:47
det er noget vrøvl det der ovenfor!
Check evt også interviews med 3drealms og .. kan ikke huske hvad den anden hedder ... på tomshardware for nylig.
De er ikke enige med hinanden heller, men de mener begge at fremtiden er uden cpu ; enten via direkte skriven til gpu f.eks. via cuda (nvidia) eller ved at gøre ppu, gpu og cpu til samme produkt. I grund og bund - unified shaders gør cpu'en overflødig, ikke omvendt. Men ja, man kan spare resourcer ved at gå udenom directx, hvilket er grunden til de større annerkendte spiludviklere spor dx10 som den sidste relevante directx version
Gravatar #4 - henne
4. apr. 2008 09:49
Det er da meget normalt at Intel vil pushe deres processor-teknologi, og MS vil pushe noget DX ned i halsen af os.
Hver især vil de jo mene deres eget shite er det bedste.
Gravatar #5 - Izaaq
4. apr. 2008 10:06
To korte kommentarer:

Effektforbruget af CPUer er nogenlunde stagneret på det sidste men effektforbruget af GPUer er steget markant de sidste 5 år. Hvordan vil man smide funktionaliteten fra en CPU og en (eller flere) GPUer ned i samme chip uden at den koger over?

Flaskehalsen i grafiksystemer er ofte hukommelsesbåndbredde. Idag har man en dual DDR bus til systemets dedikerede hukommelse mens GPUen har en meget bred databus til dedikeret GDDR hukommelse, som har klokfrekvenser langt over systemets. Hvordan vil man nogensinde få plads på overfladen af chippen til at lave pads nok til at kunne få samme sammenlagte båndbredde til RAM, hvis altså både GPUens og CPUens hukommelse skal smeltes sammen i samme klods.

Det lyder lidt som et fint projekt til at lave low end eller office-systemer, men ikke til gaming.
Gravatar #6 - EmailFX
4. apr. 2008 10:29
Graffikkort er jo begyndt at blive produceret med flere og flere RAM. Måske vælger man at droppe DDR-RAM og lade hele computeren og også graffikkortet bruge GDDR-RAM og dens båndbreddeteknologi.

Et klart problem er dog at udviklingen af graffikkort stadig er accellererende, og flere skifter graffikkort uden at skifte resten af computeren.

Et bundkort til GDDR-RAM og med to sokler; en til CPU og en til GPU kunne være interesseant.

Så kan vi måske også komme op på en Überkiller-Extended-ATX-standard med hele 28 eller 30 pins, til at føde de ekstra komponenter.

/EmailFX
Gravatar #7 - Oddj0b
4. apr. 2008 10:30
Der kan man da tale om at prøve at påvirke markedet, ellers har intel noget i ærmet ingen har set før. Jeg tror bare der er tale om at redde deres eget skind på fra total udryddelse.
Gravatar #8 - nazcov
4. apr. 2008 10:35
#6

Man bruger jo satiske til grafikkort så vidt jeg har forstået og dynamiske ram til selve computeren i og med den håndterer nye oplysninger oftere - Så det vil vel ikke være så smart? Eller har jeg bare misforstået det hele? :)
Gravatar #9 - ShadowGrace
4. apr. 2008 10:38
Jeg må sige at være meget enig i deres spåning af fremtiden. Når kernerne stiger i antal og ydelse vil det blive unødvendigt at have en GPU dedikerert til grafik.
Med hensyn til den manglenede båndbredte har NEC haft gang i en helt ny type ram hvor det skulle blive det sidste af problemerne.
Vil tro at man indenfor 10-15 år kan få one-piece computere der består af Motherboard hvor CPU hvor ram etc ligger "onboard" og alt er optimeret til at køre sammen hvor vi istedet for de normale printplader har lysledere el. lign istedet for.
vi kan jo også se fra posten igår - eller dagen før - hvordan lydkort ligeså stille kan blive en fordomstid, da der ikke længere er brug for en dedikeret del til at trække audio.

Og angående varmeudvikling må vi jo huske at transitorne heletiden bliver mindre fysisk og langt mindre varmeudviklende - vi husker nok alle tilbage til den tid med den højt elskede tordenfugl? :)

Men folkens, om i er enige eller ej, se hva der er sket i løbet af de sidste 10-15 år med computeren, og prøv så at sige at det ikke er en mulighed? ;)
Gravatar #10 - Scapegoat
4. apr. 2008 10:45
Er jeg den eneste som tænker "Hvorfor SKAL det hele være X86?"
Helt ærligt, vi har kørt med samme arkitektur alt for lang tid snart, vi var tæt på at være nået til bristepunktet af udviklingen (Pentium-4 dagene), med så går Intel et skridt tilbage og laver Pentium-III om til Pentium-M, og så havde vi lige pludselig fundament til Core-generationen.

Det er alt sammen meget godt, men det er stadig optimering af hardware fra efterhånden mange årtier siden. Man skifter ikke bare arkitektur sådan her-og-nu, det ved selv den største tosse. Men jeg tror at når vi alligevel snakker "Skal vi fjerne GPU/CPU" så kan vi vel lige så godt starte helt forfra. "Hvordan ville det være smartest at håndtere hukommelse hvis jeg skulle udregne noget, og skal bruge noget data..... osv."

Jeg hørte for noget tid siden noget om at Intel ville prøve netop dette, men syntes ikke at have hørt noget til det.

Det er lidt i princippet det man kan med en konsol, fordi vi netop har EN type maskine, så ændringen sker over hele rækken. Men ved PC'en skal vi altid have bagudkompatibilitet.
Det kunne være fedt med en ny arkitektur, så kan vi altid emulere X86 med noget software.
Gravatar #11 - ShadowGrace
4. apr. 2008 10:54
Vil lige tilføje - det er ingen der har sagt noget om her og nu - eller imorgen eller om 5 år.. Det er en spådom = fremtid.. Er meget enig i at arkitektur ændringer ikke er noget der sker henover natten..
Men lad os nu se om der ikke sker noget sjovt i fremtiden.. :)
Gravatar #12 - AlienDarkmind
4. apr. 2008 10:56
Det lyder for mig som en undskyldning for deres elendige on moard grafikkort!! tror ikke det vil blive den ene eller den anden i mange år endnu (ingen kan sige noget om tingende om 20 år)..
Personligt kan jeg godt lide det som det er nu, det at det ikke kun er en ting der køre hele lortet passer mig fing da varmeudviklingen ville være en lidt anden ellers!! (ved godt at man bare kan tage vandkøling, men stoler sku ikke på at have et badekar i min pc)!!:D
Gravatar #13 - illishar
4. apr. 2008 11:37
#10 Der er massere af computere der ikke er bygget på x86 arkitektur. Cell'en der bl.a. bliver brugt i PS3 er et meget godt eksempel. Og de fleste supercomputere er heller ikke x86. Personligt synes jeg ikke at vi går glip af noget.

On topic:
At 3D-grafikkort skulle forsvinde, er et meget godt bud. Spillene er allerede begyndt at implementere mere og mere global illumination. Hvilket er omstændigt at lave via GPU'en. GPU'erne er gode til at udregne matricer, men global illumination laves bedst (flottest/mest korrekt) via raytracing/photon mapping, som der ikke er oplagte matrice-beregninger. Derudover lider hardware-accelererede algoritmer tit af at være skizofrene, da halvdelen af beregningerne skal sendes til grafikkortet i form af vertex shaders, som så derefter skal modtages som bitmaps. Det er mildest talt en trættende form.
Færre grafikkort tak.
Gravatar #14 - zin
4. apr. 2008 11:52
Jeg kunne forestille mig, at graffikkort ikke helt forsvinder, men bliver indbygget i CPU'en - f.eks. har man 16 kerner så kunne 4 af disse være så GPU-dedikerede, og have en hvis pøl af RAM for sig selv (måske nogle specielle RAM med høje hastigheder eller designede til at indeholde andre former for data).
Gravatar #15 - ShadowGrace
4. apr. 2008 12:36
#14
Det er jo også det de skriver i topic - at CPU'ens cores vil overtage grafikkortenes jobs? :)
Gravatar #16 - Izaaq
4. apr. 2008 12:37
En spændende udvikling kunne være, at lave delvist reprogramerbare hardwareenheder på CPUen. FPGA-teknologi er nu så langt fremme, at FPGAer følger ASICs tæt i hælene hastighedsmæssigt.

Hvis man lavede områder i CPUen med FPGA-agtig logik, eller bare switchbaseret reprogramérbar logik, så ville et program kunne reprogrammere logikken til at være en kerne, som kan udføre en specifik funktion for programmet meget hurtigere end den almindelige CPU.

Eksempelvis kunne man forestille sig, at man ville lave en gigantisk multiply-accumulate på en frygteligt masse data, og dataene er struktureret i træer. Her kunne programmet være skrevet til først at omprogrammere FPGA-området til at være en n*m enhed bred MAC-funktion og en anden del kunne lave accumulate eller limit / overflow detect på andet af dataene.

Dette område ville også kunne bruges til at lave grafik. Programmet kunne indeholde en definition af en GPU-pipeline, og så kunne programmet instantiere så mange pipes, som der nu var FPGA-område nok til.
Gravatar #17 - zin
4. apr. 2008 12:41
#15: Mere eller mindre - jeg mener at omtalte 4 kerner overhovedet intet ville lave ud over GPU-arbejde, hvor f.eks. integrerede grafikkort i dag jo bruger af "hvad der er"-CPU kraft - både den, der skal til at håndtere data som den der skal til at håndtere grafik, som jeg synes er lidt rodet.
Gravatar #18 - fidomuh
4. apr. 2008 12:44
Umiddelbart saa lyder det meget som det de har forsoegt med Cell og PS3'en ?

Der er sikkert nogen der kan uddybe langt bedre med de SPU'er som ligger i Cell arkitekturen, men som jeg forstaar det, saa er PS3'en fordel klart at man kan programmere de ekstra kerner som man lyster.

Jeg ser klart dette som en stor mulighed i fremtiden, omend vi jo ikke snakker om 3-5 aar, men nok naermere 15-20 aar :)

#17

Ideen, som jeg forstaar det, er jo netop at have kerner som er reprogrammerbare "on the fly", hvormed det er 100% ligemeget om en kerne er dedikeret eller ej..
Hvis du nu ikke lige spiller Universe of Warcraft(tm), saa kunne det jo vaere meget fedt at du kan bruge nogle af de 1024kerner til processering af std. data :)
Gravatar #19 - RMJdk
4. apr. 2008 13:44
Det er jo meget godt, men måske de skulle tage sig sammen og bare udnytte 2 og 4 kerne optimal, før de vil af med grafikkort. hehe.
Gravatar #20 - zin
4. apr. 2008 16:38
#18: Muligvis - det ville være utrolig smart.
Gravatar #21 - iamjesse
4. apr. 2008 18:02
#19: Ja det skulle de. Faktisk skulle de stoppe med at udgive nye grafikkort til man fik mest muligt ud af dem, lidt ala det der er sket med PS2, den har jo kun 433 mhz processor eller sådan noget.
Gravatar #22 - Daniel.S
4. apr. 2008 19:06
Hvis DX ikke længere er nødvendigt, så ville det jo immervæk fjerne en at de største grunde til ikke at skifte til Linux?
Gravatar #23 - mvoigt27
4. apr. 2008 19:24
Lyder meget interresant, men tænk lidt over det her, hvor bliver så udbuddet af, skal en hardcore gamer så til at købe en totalt kraftig processor for at kunne køre sine spil da den skal stå for graffik, og så til office brug en slap processor, det vil blive svært at servicere de forskellige markeds segmenter.......
Gravatar #24 - terracide
4. apr. 2008 19:44
Måske man skulle lytte lidt til Tim Sweeny:
http://www.tomshardware.com/2008/03/11/tim_sweeney...

Han spår også at GPU dør over CPU tager over...og han er ikke hr. hvem som helst inden for spil...
Gravatar #25 - ScumBag
5. apr. 2008 00:31
#21

PS2 specs
CPU 128-bit "Emotion Engine" csom kører 294 MHz
GPU "Graphics Synthesizer" som kører 147 MHz
Gravatar #26 - runeks
5. apr. 2008 23:37
1 skrev:
Og i fremtiden vil applikationer og spil blive mere og mere krævende hvilket vil sætte større og større krav til cpu og gpu.

Lige mine tanker! Go point.

Det plejer at gå hånd i hånd.
Gravatar #27 - fidomuh
6. apr. 2008 10:13
#26

Det er reelt ligemeget om der kommer flere og stoerre krav til CPU og GPU, da det egentligt er to sider af samme sag.

Begge dele er, omend skraeddersyet forskelligt, en slags CPU.
Netop med udviklingen af fx Cell-processoren har man fundet ud af at man sagtens kan lave "general purpose" kerner, som kan programmeres til at koere enten GPU eller CPU, eller et mix..

Plus, som det ser ud idag, saa bruger man typisk meget af GPU'en, mens CPU'en ikke bliver brugt vildt meget, saa det vil fordele kraefterne bedre at bruge flere kerner af samme "CPU" :)
Gå til top

Opret dig som bruger i dag

Det er gratis, og du binder dig ikke til noget.

Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.

Opret Bruger Login