mboost-dp1

Intel

Intel promoverer CPU’en frem for GPU’en ved GDC 2009

- Via CNET News - , redigeret af johnny_newz , indsendt af Karthas

Intels Tick Tock-strategi går fint for deres CPU’er, således følges planen for både udgivelse af nye arkitekturer og anvendelsen af stadig mindre produktionsprocesser.

Intels seneste processor, Core i7, vil snart udkomme i en udgave med otte kerner, men de fleste programmer har stadig problemer med blot at udnytte to kerner. På den kommende spilkonference GDC 09 (Games Developers Conference) vil Intel ikke have fokus på GPU’er, men i stedet deres CPU’er.

Intel mener, at spilbranchen bør overlade mere af det grafiske arbejde til processoren, og vil til konferencen demonstrere forskellige eksempler på beregninger, der med fordel kan udføres af deres CPU’er.

Ud over grafiske effekter vil Intel også fremhæve, at fysikberegninger og bedre kunstig intelligens er et område, hvor multi-kerne-processorer vil kunne hjælpe.





Gå til bund
Gravatar #1 - Izaaq
4. feb. 2009 07:55
At producere grafik er en svært parallel opgave. Det er fjollet, at Intel insisterer på at lade CPUen overtage grafikken. Hvis man ønsker maksimal grafisk performance per watt, så er grafikkort meget overlegne, og kan bygges på en måde, der reducerer effekten væsentligt ifm. brug i bærbare.

Jeg tror, Intel har et forklaringsproblem, når kunderne spørger "Jamen hvad skal vi bruge 4 (eller 8 eller 16...) kerner til, når vi kun bruger 1 idag?". Så er det nemme svar jo bare at bilde folk ind, at grafikken, som er den tungeste opgave beregningsmæssigt, i fremtiden vil afvikles på CPUen.

Hvis jeg var udviklings-diktator hos Intel, så ville jeg få udviklingsafdelingen til at lave nogle mere spændende CPUer i stedet. F.eks. kunne man lave en chip med fire kerner. En standard CPU-kerne, som vi kender den, og dertil en vektor-processor som kan konfigureres til at være en 1x128bit processor eller 2x64... eller 8x16 bit vektorprocessor. Det vil booste applikationer som Matlab og lignende. Hertil vil jeg få udviklet en fuldt konfigurerbar CPU, som kører ved lavere clockfrekvens, men som har nogle prædefinerbare og komplicerede instruktioner. Altså at CPUen kan lave meget mere arbejde per cycle, men ved lavere frekvens. Sidste kerne kunne være en ultra low power kerne, som kunne styre de andre samt køres helt ned i frekvens, så man kan have sin PC til at idle på under 1 W (jaja lidt optimistisk måske).

Intels "Kom lad os fylde vores CPUer op med en røvfuld ens kerner og så bilde kunderne et eller andet ind" er slet ikke vejen frem imho.
Gravatar #2 - Mort
4. feb. 2009 07:56
Jeg synes da også at det vil være mest praktisk at lade alle regneoperationer foregå et enkelt sted, men før det bliver praktisk muligt kræver det jo lige at de kan opnå samme performance som de GPUer som der findes.

Det at have en GPU til at foretage en delmængde af beregningerne minder mig lidt om dengang man havde en coprocessor til at foretage matematik beregningerne.
Gravatar #3 - Izaaq
4. feb. 2009 08:03
#2 Der er dog nogle forskelle mellem GPU og CPU som ikke er forenlige. CPUer har brug for stor cache og for hurtig adgang til data. Kode, der afvikles på en CPU, hopper og springer ofte rundt i adresserne, hvilket sætter store krav til latenstiden i hukommelsessystemet. GPUer bruger oftest hukommelsen til datalager, og der bulk-overføres store mængder data hele tiden. Her er det klart båndbredden, der er begrænsningen. Derfor har GPUer ofte en meget bred databus til RAM, mens en CPU kan nøjes med en smallere bus (da IO-wait tiden går med at fremfinde data og ikke overføre dem).

Hvis man smækker de to regneopgaver sammen i een chip, så vil chippen både kræve hurtig adgang til RAM, stor cache og samtidig stor båndbredde. Det er uhyre svært hardwaremæssigt at lave en meget hurtig bus, som også er meget bred, og det er endnu sværere at lave en memory manager, der både kan forsyne GPU-delen med x GB per sek og samtidig ikke bremse CPU-delen når den vil hente x mio random banker i sekundet.
Gravatar #4 - spazoid
4. feb. 2009 08:05
Lur mig om ikke Intel har deres Larrabee platform i tankerne når de kommer med sådan et udspil. Kode der er skrevet til afvikling på en CPU vil jo uden tvivl være nemmere at tilpasse Larrabee, og samtidigt vil udviklerne kunne få noget erfaring som vil komme Intel til gode når(hvis) Larrabee bliver lanceret.
Gravatar #5 - TrolleRolle
4. feb. 2009 08:11
Intel vil nu nok ende med at få ret.

3D grafik i dag er jo stadig "snyd" og drejer sig om at smække teksturer på nogle figurer, og derefter lave bumpmapping og shading osv. for at efterligne divs. effekter. Fordelen for GPUen er at der er tale om en begrænset mængde funktioner som chippen skal kunne.

Fremtidens grafik kunne meget vel være bygget mere på raytracing, og jo mere præcis og kompleks man vil have den jo mere kompliceret vil GPU skulle være.

Opgaven er naturligvis stadig meget parallel, men det er ikke længere blot nogle simple beregninger som skal foretages.

Allerede i dag er det svært at se forskel på CPU og GPU... så det Intel og Nvidia/ATI skændes om for tiden er vel egentlig næsten kun navnet.
Gravatar #6 - Holger_dk
4. feb. 2009 09:17
#5:
hm.. vil nu ikke lige sige det er svært at se forskel på CPU og GPU genereret grafik (altså i spil etc).

godt nok har intel lavet noget lækkert med q2 & q3 og raytracing... men det kører ikke specielt hurtigt, selv på mange kerner.

en gpu bruger en masse optimiserede metoder til at lave noget lignende raytracing, men som er meget billigere (ressource mæssigt).

John Carmack (som må siges at være dygtig) og Pixar (der ud over at lave deres egne film, laver Renderman til at rendere 3d scener, og den har meget begrænset raytracing... de begyndt vist først at bruge lidt raytracing i Cars) taler ikke for Raytracing.

men det kan være det kommer og fordelene ved raytracing er at en scene kan deles op i x antal "kasser" som hver kan laves i sin egen kerne og matematikken bag raytracing er "simpel" i forhold til de krumspring som der bliver gjort for at simluere det i andre renderinger.
Gravatar #7 - luuuuu
4. feb. 2009 09:28
#6 / #1

DirectX 11 har jo bl.a. den der fancy feature til at udføre grafisk arbejde på CPUen frem for GPUen, vel og mærke til at drive Aero og andre features, men som Microsoft jo så snildt beviste så kan det jo køre Crysis.

Sådan som landet ligger nu, så er CPUen jo ustyrlige mængder under GPUen i forhold til hvor meget strøm der bruges, så for at være helt ærlig, så skulle det virkelig ikke undre mig hvis Intel begynder for alvor at slås med nVidia om bare et par år.
Gravatar #8 - Naed
4. feb. 2009 10:56
spazoid (4) skrev:
Lur mig om ikke Intel har deres Larrabee platform i tankerne når de kommer med sådan et udspil. Kode der er skrevet til afvikling på en CPU vil jo uden tvivl være nemmere at tilpasse Larrabee, og samtidigt vil udviklerne kunne få noget erfaring som vil komme Intel til gode når(hvis) Larrabee bliver lanceret.


Det ville absolut ikke være umuligt at det er de tanker de selv har :)


Offtopic:

jeg vil dog lige sige, "damn, det er første gang at jeg har set en interessant nyhed, uden offtopic chit-chat" :D
Gravatar #9 - Clauzii
4. feb. 2009 11:47
Når intel har en kommercielt tilgængelig CPU på bare én Teraflop, kan vi snakke om det. Indtil dét sker kører ATI og nVidia deres eget ræs, hvor den ene Teraflop også snart er historie.

Jeg kan godt se at man i fremtiden vil have CPUer der banker nutidens PCer tilbage til stenalderen, men det sker ikke lige fra den ene dag til den anden..

Indtil da må vi 'nøjes' med de 50 GFlops, nutidens hurtige CPUer er i stand til. Men laaangt fra 1000 GFlops...
Gravatar #10 - hmeco
4. feb. 2009 13:07
luuuuu (7) skrev:
#6 / #1

DirectX 11 har jo bl.a. den der fancy feature til at udføre grafisk arbejde på CPUen frem for GPUen, vel og mærke til at drive Aero og andre features, men som Microsoft jo så snildt beviste så kan det jo køre Crysis.


kan og kan, de har vist at man var i stand til spille med ca 10 fps. på en cpu til 8000 kr, det vil jeg ikke kalde at man kunne, men at man var i stand til.

10 fps = doom på en 386´er

- meco
Gravatar #11 - gensplejs
4. feb. 2009 13:10
hmeco (10) skrev:
luuuuu (7) skrev:
#6 / #1

DirectX 11 har jo bl.a. den der fancy feature til at udføre grafisk arbejde på CPUen frem for GPUen, vel og mærke til at drive Aero og andre features, men som Microsoft jo så snildt beviste så kan det jo køre Crysis.


kan og kan, de har vist at man var i stand til spille med ca 10 fps. på en cpu til 8000 kr, det vil jeg ikke kalde at man kunne, men at man var i stand til.

10 fps = doom på en 386´er

- meco

faktisk mener jeg kun de fik 3.7 fps i crysis.
Gravatar #12 - TrolleRolle
4. feb. 2009 14:55
#6 Nu mente jeg nu heller ikke at de to var ens i forhold til det grafik man kan se på skærmen. :-D

Men tillad mig at skære det ud i pap:
Begge er computerchips :-D
Begge kan i dag køre programmer.
Begge har i dag deres egen ram/strømforsyning/køling.
Begge har i dag mange cores.
Begge kan tegne grafik.
Begge kan lave videnskabelige beregninger som intet har med grafik at gøre.


Nogle steder bruger man endda GPU'er som CPU'er i nogle specielle serversystemer.

Vi har altså at gøre med to fabrikanter som konkurrerer i at lave chips som kan regne. Om de så kalder det GPU eller CPU.. det kan egentlig være ligemeget.


Gravatar #13 - mikethk
4. feb. 2009 16:50
#1

Jeg er ik enig i det du siger.... Intels årsag er nok at hvis du eks. kigger på spil benchmarks idag kan Intel ikke trække fra.... Deres i7 trækker ikke fra de andre CPU'er på Spil området. Det er fordi der er for meget grafikkort arbejde indover. Hvis CPU'en fik lov at vise sit sande jeg, sammen med et godt grafikkort så ville i7 være rigtigt god.

Jeg er sikker på at i7 ik kan blive udnyttede nok i FPS spil osv. for så snart der er tale om strategi spil hvor der pludselig (i mange tilfælde), såsom Total War kræves meget CPU kraft tilmed, så er i7 stærkest.

Så snart man kører nemme programmer som Winrar osv. så er Intels i7 jo sygo vinder. Altså det mest basale simple program der kan udnytte CPU fuld tryk, never ending story.... Hvis denne power ku blive bygget ind i spil på en bedre måde, ville det være klar fordel for Intel som tingene står lige pt.
Gravatar #14 - Magten
4. feb. 2009 17:00
#10
Hvis man er i stand til noget, så kan man det vel også? Du tog sådan set bare et nyt ord med samme betydning, og satte ind :)
Gravatar #15 - erchni
5. feb. 2009 16:37
#12 du har en pointe i at de alle prøver at lave en chip som kan køre alle beregningerne i computeren. Men lige nu er der stor forskel på en CPU og en GPU. En CPU er god til mange typer af beregninger hvor en GPU er specialiseret til grafiske beregninger. Det gør at en CPU er meget langsommere end en GPU til grafiske beregninger men at den er hurtigere end til nærmest alt andet. Så hvis de skal byges sammen kræver det nok nogle programærbare eller flere slags kerner i en. Men som det var diskuteret med hukommelse båndbrede er det svært at integrere. Men hvis man har en der kan det hele så kunne det være vildt smart især i bærbare.
Gå til top

Opret dig som bruger i dag

Det er gratis, og du binder dig ikke til noget.

Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.

Opret Bruger Login