mboost-dp1

Nvidia

Nvidia mener at processorens dage er talte

- Via The Inquirer - , redigeret af Net_Srak , indsendt af bonna

Først på måneden meddelte Intel, at grafikprocessorer (GPU’er) ville være ligegyldige om nogle år, når processorer fik så mange kerner, at de ville kunne klare alt det arbejde, en GPU foretager i dag. Det fik Nvidias direktør til at lange kraftig ud efter Intel og påpege, at Intel var langt bagefter Nvidia.

Nu går en ledende medarbejder fra Nvidia, Roy Taylor, skridtet videre og vender Intels udtalelse 180 grader, idet han mener, at det er CPU’en, der snart vil være forældet og forsvinde.

Ifølge Taylor så er Intel ved at gå i panik, da de fleste af de ting, den normale forbruger anvender en computer til, i højere og højere grad kan laves bedre i en GPU end en CPU.





Gå til bund
Gravatar #1 - TWFH
28. apr. 2008 09:20
"når Intel siger grimme ting vi ikke kan lide, og som vi finder stødende, siger vi grimme ting som Intel ikke kan lide, og som de finder stødende".
Gravatar #2 - neiro
28. apr. 2008 09:27
Det lyder meget mere sansynligt end intels vision. Hvad fremtiden bringer må vi vente og se på, men nvidia og spil udviklere er da i det mindste enige .... så om intel eller spil industrien er på det rette spor må vi se ...
Gravatar #3 - vision-dk
28. apr. 2008 09:27
Tjaa.... godt nok at de holder fronterne trukket skarpt op, der er ikke noget så fremmende for udviklingen, som konkurrence.
Gravatar #4 - BurningShadow
28. apr. 2008 09:35
Har ham nVidia gutten ikke overset noget? Ikke alle computerbrugere er gamere!
Ret mig endelig hvis jeg tager fejl, men der er da ikke så skide meget man kan bruge en GPU til, i det virkelige liv...
Gravatar #5 - Bermann
28. apr. 2008 09:41
Tror nu både intel og nvidia tar fejl - ja, begge dele kan overtage store dele af den andens opgave hvis de er kraftige nok (processoren/gpu'en) men spørgsmålet er så om det en kan overtage 100% - og selv hvis den kan det ser jeg ikke nogen fordel i det. Hvad jeg lige kan tænke mig til så ville en gpu der ku klare gpu'en og processorens opgave nok være dyrere end hvis man delte opgaverne over i to (som det er nu).

Jeg baserer dette på absolut intet (ud over egen spekulation indenfor teknologi: ydelse/pris) :P

Som gamer er jeg glad for stærke gpu'er - tilgengæld sys jeg det er noget så fikst at spare strømforbrug på den bærbare når man arbejder (der hjælper flere kerner i processoren mere, og nu kraftigere dit grafikkort er nu mer strøm sluger det)
Gravatar #6 - xahur
28. apr. 2008 09:42
#4 Ret mig hvis jeg tager fejl, men man kan da ikke bruge en CPU til meget i det virkelige liv..

Du bruger måske din CPU til at betale for busturen, eller skrælle kartofler med?
Gravatar #7 - ibyte_dk
28. apr. 2008 09:42
Så vidt jeg ved, så er der ingen tvivl om at det privat marked vil, hvis det ikke allerede har overgået, det professionelle marked i PC hardware salg. Deraf navnet: Personal Computer.

Jeg kender ikke nogen der ikke her en PC og de fleste op til 2-5 stykker og en laptop oveni. Jeg kender derimod adskillelige arbejdspladser, der kun ejer en enkelt oldnordisk PC, der kun bruges en gang i måneden til regnskab.

Ja, jeg ved godt der er ngoet der hedder servere, men de bruger jo heller ikke GPU vel, så der er lidt irrelevant for PC diskutionen.

Men at GPU'en ikke bruges mere, til alt mulig sjovt, det skyldes vel mest styresystmet eller mangel på programmer, der gør det muligt. Jeg ville da utorligt gerne bruge mit GF7900GTX kort til video rendering sammen med min processor, men det lader sig ikke gøre i programmet.
Gravatar #8 - Softy
28. apr. 2008 09:47
Forskellen mellem en CPU og en GPU er bl.a. at en CPU er meget mere multipurpose end en GPU. En GPU er supersej til nogle opgaver, men sutter for vildt til andre. Jeg er ikke uenig i at GPU og CPU kan smelte sammen på et tidspunkt, men jeg flyver jorden rundt og mooner samtlige kontinenter fra 10 km. højde hvis det man kalder en GPU idag går hen og skubber min CPU ud af min PC...... it will not happen.... husk også liiige på at spilindustrien altså kun står for en umådelig lille del af den samlede brug af processorer.... og det er langt fra alle grene af software der har så specifikke opgaver som spil har mht. AI, grafik og lydberegninger.

En GPU er en glimrende worker, men ikke controller på samme måde som en CPU. Det tror jeg også nVidia ved. Deres CUDA er et eksempel på at lave et library der gør det nemt at bruge GPU'en til velafgrænsede og veldefinerede opgaver. Men der skal stadig være en central "brain" der styrer slaget.

Vi kan begynde at diskutere om fremtiden byder på en GPU med integreret CPU.... eller en CPU med integreret GPU('er).... Men så er det jo heller ikke en GPU som vi kender det idag.... ergo, må konklusionen være at CPU'en ikke er unødvendig sådan som jeg ser det.

Men uanset, så bliver det da spændende at se hvor vi er om 10 år.... tror dog ikke vi får de vildeste ændringer at se udover flere kerner i både CPU og GPU... evt. nogle stream-processorer som modulært kan klaskes ovenpå hinanden så vi nemt kan udvide vores flop-count i vores PC.... men så heller ikke mere.
Gravatar #9 - noramskull
28. apr. 2008 09:52
Jeg griner hvis begge parter for ret og noget helt tredje overtaget markedet.
Gravatar #10 - AenimA
28. apr. 2008 10:32
Opgraderingsmæssigt er det bedst, hvis begge dele forbliver adskilte IMO. Vi er langt fra det punkt, hvor vi kan pumpe nok regnekraft ned i en integreret, alsidig, CPU (+ GPU) og lade den overtage alt.

Men i bund og grund er Nvidias udtalelse lidt sjov, fordi de forudsætter stadig, at der er en CPU i systemet, de toner bare nødvendigheden af en CPU ned.

Men startskuddet har lydt. Ligegyldig hvordan man end ser på det, bevæger branchen sig tættere på det 'komplette system', hvor computerens enkeltdele er tættere integreret. (som mange har pointeret, var AMDs opkøb af ATI måske ikke så dum set i det perspektiv)
Personligt har jeg intet imod det, så lang tid man stadig kan udskifte de dele, der ikke giver den ønskede ydelse. Vi får se.
Gravatar #11 - vandfarve
28. apr. 2008 10:41
#9: Kan du sige AMD?
Gravatar #12 - 905i
28. apr. 2008 10:54
Erhm ..Er jeg den eneste som synes det hedder en GPU fordi den dedikeret til grafik? - hvis nVidias grafikkort-chips begyndte at være de eneste kerner i en maskine, vil det sku da bare være en ny CPU. >< total ølbajer.
Desuden .. Intel har lommer med alt for mange penge så de skal sku nok følge med på vognen uanset om nVidia har ret og "Gpu"-struktur vil bruges mere og mere til centrale/eneste kerner :b

Intel og Nvidia vil bare ha' omtale så de kan komme på Newz.dk
Gravatar #13 - Ganin
28. apr. 2008 11:08
Hvad de fleste nok ikke helt tænker over, er at hvis NVidia begynder at lave spille konsoler, eller computerer, så har intel et stort problem. Jeg ville da hellere have en NVidia CPU + GPU end Intel CPU til spil.

Anyways, de er lidt forskellige, og spørgsmålet lyder jo egentlig mere på hvem der laver en integreret GPU/CPU først... Hvis intel laver en GPU, så tror jeg ikke lige jeg vil købe den sådan med det samme.... men hvis NVidia lavede det... så røg den nok af hylden, når jeg ser hvor mange FPS jeg kan få i crysis :)
Gravatar #14 - kr00z0r
28. apr. 2008 11:08
Det hele smelter forhåbenligt sammen til én stor enhed med både multikerne-CPU og diverse specialchips til grafik og lignende, som kan programmeres uden at man behøver gå så meget op i, hvilken CPU, GPU eller OS, det kører på.
Gravatar #15 - Saxov
28. apr. 2008 11:10
#9, lydchip... siger jeg dig... i dag tænker du ikke over, men *BAM* så er lydchippen på vej, køb et lydkort, og du skal hværken bruge CPU eller GPU til de nyeste spil, faktisk kan den også fungere som harddisk.. ! :P
Gravatar #16 - JonasThyssen
28. apr. 2008 11:30
Er det ikke to måder at sige det samme på?

CPU og GPU bliver smeltet sammen til en chip så vi om nogle år kun skal tænke på motherboard+ram+chip+periphials.

jeg er sq ligeglad hvad der står på min chip, det kan de for min skyld få lov til at slås indbyrdes om
Gravatar #17 - auchenberg
28. apr. 2008 11:42
Jeg tror at både CPUen og GPU'ens dage, som vi kender dem i dag, er talte..

Fremtiden hedder FPGA'er (Field-programmable gate array), og er kort fortalt en chip som man kan omprogrammere til bestemte formål/regneoperationer.

Hvorfor skal vi have en GPU og en CPU når vi kan have en processer, der blot bliver omprogrammeret efter formål?

http://en.wikipedia.org/wiki/FPGA

Supercomputer i FPGA: http://ing.dk/artikel/76984

For de mere tekniske, kan jeg anbefale dette speciale af Esben Rosenlund Hansen
Gravatar #18 - Tumleren
28. apr. 2008 12:08
Hvis vi går ud fra at det bliver en af de to ting der "vinder" tror jeg mest på NVIDIA.

CPU'en skal først lære at lave grafik, mens grafikkort allerede kan bruges som CPU'er (til en vis grad) - Det kan vi bl.a. se med PS3, hvor de er særligt effektive fordi de kan bruge både cell processoren og GPU'en til at folde med, til F@H (kan også gøres på alm. PC'er, men specielt godt til PS3)

Så jeg ser det sådan: GPU skal bare lære at styre programmer, hvor CPU skal starte med at lære hvad et billede egentlig er.
Gravatar #19 - Nothinunik
28. apr. 2008 12:20
Jeg tænker bare at hvis AMD har købt ATI, er det sgu da lidt at skyde sig selv i foden af både Intel og Nvidia at starte en "krig" mod hinanden..
Jeg mener bare.. deres mest direkte konkurrenter arbejder sammen og de bestemmer sig for at begynde at slås med hinanden istedet..
personligt vil jeg vælge Nvidia frem for ATI til enhver tid og Intel frem for AMD.. men hvis AMD kommer med en total løsning som spiller max fordi den er fuld integreret pga det tætte samarbejde mellem AMD og ATI så ville jeg sgu vælge den fremfor en halv løsning fra enten Intel eller Nvidia..

Så jeg synes lige de skulle begynde at tænke lidt strategisk istedet.. for det ender sgu med at gå galt for begge parter.
Gravatar #20 - Fightz
28. apr. 2008 12:33
lol, det er ligesom to små børn. Tror nu nok de bare skal holde sig til hvert deres område :P

Jeg syntes heller de skulle udtale sig om de posetive ting de kan opnå ved et bedre samarbejde. Det der kommer der jo kun BS ud af :(
Gravatar #21 - RMJdk
28. apr. 2008 13:24
#14 Forhåbeligt aldrig, er der noget federe end når jeres konsol går i stykker? og i skal undvære lortet i 2-3uger?

Nej det bliver håbeligt ved med at være forskellige dele, det er rart at have en valgt, samt det vi for bedre priser med den konkurrence.
Gravatar #22 - Leonhard
28. apr. 2008 13:42
#4 "i det virkelige liv"

Sorry, afbryder lige diskutionen for at sige hold kæft hvor er det fedt at du sidder og skriver på newz gennem lynx, den eneste browser jeg fra toppen af mit hovede kan komme i tanke om ikke lige bruger dit grafikkort.

Tænk lige over hvor meget af det du bruger i din dagligdag der kører gennem din GPU, det eneste jeg lige kan komme på af for mig essentielle ting er matematiske operationer, men i mange tilfælde kan en GPU faktisk gører selv det hurtigere end en CPU. Alt det med at holde styr på hardwaren skal bare inkluderes i dit GFXkort, og så behøver du pludselig ikke andet end bare et nvidea kort og en skærm før du er kørende.
Gravatar #23 - sKIDROw
28. apr. 2008 14:09
Tjahh hvis krigen skulle opstå mellem CPU'en, som alle kan læse hvordan de programmerer, og GPU'en ingen måde vide hvordan de programmerer. Ja så er der kun tilbage, at håbe GPU'en taber det ræs med et brag.
Gravatar #24 - BurningShadow
28. apr. 2008 14:13
#22

Er du dum?

Langt hovedparten af computerbrugerne kan bedre "nøjes med" en CPU der også varetager GPU'ens funktioner, end omvendt.

I øvrigt vil jeg mene at man også skal have et grafisk output fra Lynx, for at få noget ud af det.
Gravatar #25 - Sugardad
28. apr. 2008 14:48
Kan kun se det gode i, at de flamer hinanden, og at de to er blevet konkurrenter (eller vil blive, i den nærmeste fremtid, da konkurrence er godt for forbrugeren, både pris og kvalitetsmæssigt
Gravatar #26 - RMJdk
28. apr. 2008 15:01
#25 Personligt går jeg selv og håber på at de afslutter samarbejdet og går hvert til sit, det er bedre at have AMD / Intel på den ene front og ATI / Nvidia, det er ikke godt de store samarbejder, det ville være en skidt dag hvis en af dem for kørt de andre ud af markedet.
Gravatar #27 - sKIDROw
28. apr. 2008 15:08
Det eneste punkt jeg kan fælge dem i, er at tingene sikkert ikke overlever hvert for sig. Fremtiden er jo nok, at GPUer bliver en del af CPU'en, i kraft af alle de kerner.

Dog håber jeg selvsagt, at CPUens åbenhed smitter af GPUernes traditionelle lukkethed. AMDs opkøb fik jo den gode sideeffekt, at ATIs stædige afvisning af at åbne op blev blødt op. Den udvikling kunne nu være rar at se, mere generelt hvor Nvidia er mere stædig end gennemsnittet.
Gravatar #28 - GeGandhi
28. apr. 2008 15:11
jeg kan kun se noget fedt i at f.eks. en CPU har direkte adgang til en GPU's resurser og ikke igennem en PCIe port og et chipset som også har andre opgave at holde øje med. ingen FSB at tage hensyn til
Gravatar #29 - farmerhe
28. apr. 2008 16:56
Jeg håber sådan set at det bliver ved med at være som det er nu

Intel laver gode CPUer der ikke kræver ret meget strøm

Nvidia laver gode GPUer der kræver noget mere strøm

forhåbenligt køre Nvidia computer kraft vejen og får en kraftiger processer ud af det som kan køre meget bedre i spil og så kan Intel for min skyld gerne få lov at lave alle de CPUer de vil til alt andet end de graffik tunge ting og dermed spare strømmen på GPUen

#28 det vil ikke ske forløbig at du kan omgå det. Enten får du et enormt spild på GPUen fordi du ingen kø har til GPUen og det er CPUen der skal sende ting til GPUen direkte og vente på at det afvikles. Eller også skal du have en kø til GPUen og så fungere det vi har idag forholdsvis glimrende. Vejen kan helt sikkert gøres kortere og bedre men GPUen har stadig brug for adgang til de samme ressurcer som CPUen har brug for at kunne snakke med.
Gravatar #30 - tachylatus
28. apr. 2008 17:41
Er det ikke noget med at GPU'en i en PS3 blot er en dedikeret kerne i Cell-processoren?

Cell er jo en CPU, selvom den er meget forskellig fra de traditionelle x86 familier. Her er det altså GPU'en opgaver der er blevet overtaget af processoren.

Som #8 så fint udtrykker det, så tror jeg sgu' også det er ret usandsynligt at GPU'en nogensinde skulle gå hen og erstatte CPU'en.

Jeg tror mere på en fremtidig med decentral, meshnetwork-lignende computing (trådløs?), hvor det ikke kun er hastigheden på de enkelte hardware komponenter men lige så meget "mængden af computer" der har betydning for et systems samlede hastighed.
Gravatar #31 - chris
28. apr. 2008 17:55
man kan vel tænke at man engang går væk fra x86 arkitekturen og 64bit arkitekturene og kommer over i noget helt andet, der både kan varetage det ene og det andet :D

- det er min store vision
Gravatar #32 - atke
28. apr. 2008 19:37
#30 PS3 har en GPU fra nVIDIA, og bruger ikke bare en af sine SPE'er til grafik. Den hedder NVIDIA-SCEI "RSX"

Alle tre hold arbejder på at lave integrerede CPU/GPU løsninger, som nok i første omgang bliver til billige low-end maskiner.

AMD/ATI
nVIDIA/VIA (nævnt tidligere på newz.dk)
Intel/Intel (Intel laver selv GPU'er)

Det er vigtigt for nVIDIA at nedtone CPU'en, da alle ved at deres partner VIA's CPU'er er svage i forhold til Intel / AMD.
Gravatar #33 - thøger
29. apr. 2008 04:10
Størstedelen af danske pc-ejere gamer da hver dag. Spillet hedder Vista! Det kører dog lidt tungt, så kom bare an GPU'er! :-D

(Beryl/Compiz er for den sags skyld også noget tungt skyts.)
Gravatar #34 - terracide
29. apr. 2008 06:00
#32:
RSX = 24 pipe7900GTX med en krøblet 128 bit memorybus mod 256bit memorybus på et 7900GTX til PC.

Det er kun konsolejere der tror der konsoller er det nyeste af det nyeste *host*
Gravatar #35 - terracide
29. apr. 2008 06:01
#33:
Størstedelen af PC'er der kører Windows køre IKKE VISTA, de kører XP.

Terra - Om igen...
Gå til top

Opret dig som bruger i dag

Det er gratis, og du binder dig ikke til noget.

Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.

Opret Bruger Login