mboost-dp1

Nvidia
- Forside
- ⟨
- Forum
- ⟨
- Nyheder
Har ham nVidia gutten ikke overset noget? Ikke alle computerbrugere er gamere!
Ret mig endelig hvis jeg tager fejl, men der er da ikke så skide meget man kan bruge en GPU til, i det virkelige liv...
Ret mig endelig hvis jeg tager fejl, men der er da ikke så skide meget man kan bruge en GPU til, i det virkelige liv...
Tror nu både intel og nvidia tar fejl - ja, begge dele kan overtage store dele af den andens opgave hvis de er kraftige nok (processoren/gpu'en) men spørgsmålet er så om det en kan overtage 100% - og selv hvis den kan det ser jeg ikke nogen fordel i det. Hvad jeg lige kan tænke mig til så ville en gpu der ku klare gpu'en og processorens opgave nok være dyrere end hvis man delte opgaverne over i to (som det er nu).
Jeg baserer dette på absolut intet (ud over egen spekulation indenfor teknologi: ydelse/pris) :P
Som gamer er jeg glad for stærke gpu'er - tilgengæld sys jeg det er noget så fikst at spare strømforbrug på den bærbare når man arbejder (der hjælper flere kerner i processoren mere, og nu kraftigere dit grafikkort er nu mer strøm sluger det)
Jeg baserer dette på absolut intet (ud over egen spekulation indenfor teknologi: ydelse/pris) :P
Som gamer er jeg glad for stærke gpu'er - tilgengæld sys jeg det er noget så fikst at spare strømforbrug på den bærbare når man arbejder (der hjælper flere kerner i processoren mere, og nu kraftigere dit grafikkort er nu mer strøm sluger det)
Så vidt jeg ved, så er der ingen tvivl om at det privat marked vil, hvis det ikke allerede har overgået, det professionelle marked i PC hardware salg. Deraf navnet: Personal Computer.
Jeg kender ikke nogen der ikke her en PC og de fleste op til 2-5 stykker og en laptop oveni. Jeg kender derimod adskillelige arbejdspladser, der kun ejer en enkelt oldnordisk PC, der kun bruges en gang i måneden til regnskab.
Ja, jeg ved godt der er ngoet der hedder servere, men de bruger jo heller ikke GPU vel, så der er lidt irrelevant for PC diskutionen.
Men at GPU'en ikke bruges mere, til alt mulig sjovt, det skyldes vel mest styresystmet eller mangel på programmer, der gør det muligt. Jeg ville da utorligt gerne bruge mit GF7900GTX kort til video rendering sammen med min processor, men det lader sig ikke gøre i programmet.
Jeg kender ikke nogen der ikke her en PC og de fleste op til 2-5 stykker og en laptop oveni. Jeg kender derimod adskillelige arbejdspladser, der kun ejer en enkelt oldnordisk PC, der kun bruges en gang i måneden til regnskab.
Ja, jeg ved godt der er ngoet der hedder servere, men de bruger jo heller ikke GPU vel, så der er lidt irrelevant for PC diskutionen.
Men at GPU'en ikke bruges mere, til alt mulig sjovt, det skyldes vel mest styresystmet eller mangel på programmer, der gør det muligt. Jeg ville da utorligt gerne bruge mit GF7900GTX kort til video rendering sammen med min processor, men det lader sig ikke gøre i programmet.
Forskellen mellem en CPU og en GPU er bl.a. at en CPU er meget mere multipurpose end en GPU. En GPU er supersej til nogle opgaver, men sutter for vildt til andre. Jeg er ikke uenig i at GPU og CPU kan smelte sammen på et tidspunkt, men jeg flyver jorden rundt og mooner samtlige kontinenter fra 10 km. højde hvis det man kalder en GPU idag går hen og skubber min CPU ud af min PC...... it will not happen.... husk også liiige på at spilindustrien altså kun står for en umådelig lille del af den samlede brug af processorer.... og det er langt fra alle grene af software der har så specifikke opgaver som spil har mht. AI, grafik og lydberegninger.
En GPU er en glimrende worker, men ikke controller på samme måde som en CPU. Det tror jeg også nVidia ved. Deres CUDA er et eksempel på at lave et library der gør det nemt at bruge GPU'en til velafgrænsede og veldefinerede opgaver. Men der skal stadig være en central "brain" der styrer slaget.
Vi kan begynde at diskutere om fremtiden byder på en GPU med integreret CPU.... eller en CPU med integreret GPU('er).... Men så er det jo heller ikke en GPU som vi kender det idag.... ergo, må konklusionen være at CPU'en ikke er unødvendig sådan som jeg ser det.
Men uanset, så bliver det da spændende at se hvor vi er om 10 år.... tror dog ikke vi får de vildeste ændringer at se udover flere kerner i både CPU og GPU... evt. nogle stream-processorer som modulært kan klaskes ovenpå hinanden så vi nemt kan udvide vores flop-count i vores PC.... men så heller ikke mere.
En GPU er en glimrende worker, men ikke controller på samme måde som en CPU. Det tror jeg også nVidia ved. Deres CUDA er et eksempel på at lave et library der gør det nemt at bruge GPU'en til velafgrænsede og veldefinerede opgaver. Men der skal stadig være en central "brain" der styrer slaget.
Vi kan begynde at diskutere om fremtiden byder på en GPU med integreret CPU.... eller en CPU med integreret GPU('er).... Men så er det jo heller ikke en GPU som vi kender det idag.... ergo, må konklusionen være at CPU'en ikke er unødvendig sådan som jeg ser det.
Men uanset, så bliver det da spændende at se hvor vi er om 10 år.... tror dog ikke vi får de vildeste ændringer at se udover flere kerner i både CPU og GPU... evt. nogle stream-processorer som modulært kan klaskes ovenpå hinanden så vi nemt kan udvide vores flop-count i vores PC.... men så heller ikke mere.
Opgraderingsmæssigt er det bedst, hvis begge dele forbliver adskilte IMO. Vi er langt fra det punkt, hvor vi kan pumpe nok regnekraft ned i en integreret, alsidig, CPU (+ GPU) og lade den overtage alt.
Men i bund og grund er Nvidias udtalelse lidt sjov, fordi de forudsætter stadig, at der er en CPU i systemet, de toner bare nødvendigheden af en CPU ned.
Men startskuddet har lydt. Ligegyldig hvordan man end ser på det, bevæger branchen sig tættere på det 'komplette system', hvor computerens enkeltdele er tættere integreret. (som mange har pointeret, var AMDs opkøb af ATI måske ikke så dum set i det perspektiv)
Personligt har jeg intet imod det, så lang tid man stadig kan udskifte de dele, der ikke giver den ønskede ydelse. Vi får se.
Men i bund og grund er Nvidias udtalelse lidt sjov, fordi de forudsætter stadig, at der er en CPU i systemet, de toner bare nødvendigheden af en CPU ned.
Men startskuddet har lydt. Ligegyldig hvordan man end ser på det, bevæger branchen sig tættere på det 'komplette system', hvor computerens enkeltdele er tættere integreret. (som mange har pointeret, var AMDs opkøb af ATI måske ikke så dum set i det perspektiv)
Personligt har jeg intet imod det, så lang tid man stadig kan udskifte de dele, der ikke giver den ønskede ydelse. Vi får se.
Erhm ..Er jeg den eneste som synes det hedder en GPU fordi den dedikeret til grafik? - hvis nVidias grafikkort-chips begyndte at være de eneste kerner i en maskine, vil det sku da bare være en ny CPU. >< total ølbajer.
Desuden .. Intel har lommer med alt for mange penge så de skal sku nok følge med på vognen uanset om nVidia har ret og "Gpu"-struktur vil bruges mere og mere til centrale/eneste kerner :b
Intel og Nvidia vil bare ha' omtale så de kan komme på Newz.dk
Desuden .. Intel har lommer med alt for mange penge så de skal sku nok følge med på vognen uanset om nVidia har ret og "Gpu"-struktur vil bruges mere og mere til centrale/eneste kerner :b
Intel og Nvidia vil bare ha' omtale så de kan komme på Newz.dk
Hvad de fleste nok ikke helt tænker over, er at hvis NVidia begynder at lave spille konsoler, eller computerer, så har intel et stort problem. Jeg ville da hellere have en NVidia CPU + GPU end Intel CPU til spil.
Anyways, de er lidt forskellige, og spørgsmålet lyder jo egentlig mere på hvem der laver en integreret GPU/CPU først... Hvis intel laver en GPU, så tror jeg ikke lige jeg vil købe den sådan med det samme.... men hvis NVidia lavede det... så røg den nok af hylden, når jeg ser hvor mange FPS jeg kan få i crysis :)
Anyways, de er lidt forskellige, og spørgsmålet lyder jo egentlig mere på hvem der laver en integreret GPU/CPU først... Hvis intel laver en GPU, så tror jeg ikke lige jeg vil købe den sådan med det samme.... men hvis NVidia lavede det... så røg den nok af hylden, når jeg ser hvor mange FPS jeg kan få i crysis :)
Er det ikke to måder at sige det samme på?
CPU og GPU bliver smeltet sammen til en chip så vi om nogle år kun skal tænke på motherboard+ram+chip+periphials.
jeg er sq ligeglad hvad der står på min chip, det kan de for min skyld få lov til at slås indbyrdes om
CPU og GPU bliver smeltet sammen til en chip så vi om nogle år kun skal tænke på motherboard+ram+chip+periphials.
jeg er sq ligeglad hvad der står på min chip, det kan de for min skyld få lov til at slås indbyrdes om
Jeg tror at både CPUen og GPU'ens dage, som vi kender dem i dag, er talte..
Fremtiden hedder FPGA'er (Field-programmable gate array), og er kort fortalt en chip som man kan omprogrammere til bestemte formål/regneoperationer.
Hvorfor skal vi have en GPU og en CPU når vi kan have en processer, der blot bliver omprogrammeret efter formål?
http://en.wikipedia.org/wiki/FPGA
Supercomputer i FPGA: http://ing.dk/artikel/76984
For de mere tekniske, kan jeg anbefale dette speciale af Esben Rosenlund Hansen
Fremtiden hedder FPGA'er (Field-programmable gate array), og er kort fortalt en chip som man kan omprogrammere til bestemte formål/regneoperationer.
Hvorfor skal vi have en GPU og en CPU når vi kan have en processer, der blot bliver omprogrammeret efter formål?
http://en.wikipedia.org/wiki/FPGA
Supercomputer i FPGA: http://ing.dk/artikel/76984
For de mere tekniske, kan jeg anbefale dette speciale af Esben Rosenlund Hansen
Hvis vi går ud fra at det bliver en af de to ting der "vinder" tror jeg mest på NVIDIA.
CPU'en skal først lære at lave grafik, mens grafikkort allerede kan bruges som CPU'er (til en vis grad) - Det kan vi bl.a. se med PS3, hvor de er særligt effektive fordi de kan bruge både cell processoren og GPU'en til at folde med, til F@H (kan også gøres på alm. PC'er, men specielt godt til PS3)
Så jeg ser det sådan: GPU skal bare lære at styre programmer, hvor CPU skal starte med at lære hvad et billede egentlig er.
CPU'en skal først lære at lave grafik, mens grafikkort allerede kan bruges som CPU'er (til en vis grad) - Det kan vi bl.a. se med PS3, hvor de er særligt effektive fordi de kan bruge både cell processoren og GPU'en til at folde med, til F@H (kan også gøres på alm. PC'er, men specielt godt til PS3)
Så jeg ser det sådan: GPU skal bare lære at styre programmer, hvor CPU skal starte med at lære hvad et billede egentlig er.
Jeg tænker bare at hvis AMD har købt ATI, er det sgu da lidt at skyde sig selv i foden af både Intel og Nvidia at starte en "krig" mod hinanden..
Jeg mener bare.. deres mest direkte konkurrenter arbejder sammen og de bestemmer sig for at begynde at slås med hinanden istedet..
personligt vil jeg vælge Nvidia frem for ATI til enhver tid og Intel frem for AMD.. men hvis AMD kommer med en total løsning som spiller max fordi den er fuld integreret pga det tætte samarbejde mellem AMD og ATI så ville jeg sgu vælge den fremfor en halv løsning fra enten Intel eller Nvidia..
Så jeg synes lige de skulle begynde at tænke lidt strategisk istedet.. for det ender sgu med at gå galt for begge parter.
Jeg mener bare.. deres mest direkte konkurrenter arbejder sammen og de bestemmer sig for at begynde at slås med hinanden istedet..
personligt vil jeg vælge Nvidia frem for ATI til enhver tid og Intel frem for AMD.. men hvis AMD kommer med en total løsning som spiller max fordi den er fuld integreret pga det tætte samarbejde mellem AMD og ATI så ville jeg sgu vælge den fremfor en halv løsning fra enten Intel eller Nvidia..
Så jeg synes lige de skulle begynde at tænke lidt strategisk istedet.. for det ender sgu med at gå galt for begge parter.
lol, det er ligesom to små børn. Tror nu nok de bare skal holde sig til hvert deres område :P
Jeg syntes heller de skulle udtale sig om de posetive ting de kan opnå ved et bedre samarbejde. Det der kommer der jo kun BS ud af :(
Jeg syntes heller de skulle udtale sig om de posetive ting de kan opnå ved et bedre samarbejde. Det der kommer der jo kun BS ud af :(
#4 "i det virkelige liv"
Sorry, afbryder lige diskutionen for at sige hold kæft hvor er det fedt at du sidder og skriver på newz gennem lynx, den eneste browser jeg fra toppen af mit hovede kan komme i tanke om ikke lige bruger dit grafikkort.
Tænk lige over hvor meget af det du bruger i din dagligdag der kører gennem din GPU, det eneste jeg lige kan komme på af for mig essentielle ting er matematiske operationer, men i mange tilfælde kan en GPU faktisk gører selv det hurtigere end en CPU. Alt det med at holde styr på hardwaren skal bare inkluderes i dit GFXkort, og så behøver du pludselig ikke andet end bare et nvidea kort og en skærm før du er kørende.
Sorry, afbryder lige diskutionen for at sige hold kæft hvor er det fedt at du sidder og skriver på newz gennem lynx, den eneste browser jeg fra toppen af mit hovede kan komme i tanke om ikke lige bruger dit grafikkort.
Tænk lige over hvor meget af det du bruger i din dagligdag der kører gennem din GPU, det eneste jeg lige kan komme på af for mig essentielle ting er matematiske operationer, men i mange tilfælde kan en GPU faktisk gører selv det hurtigere end en CPU. Alt det med at holde styr på hardwaren skal bare inkluderes i dit GFXkort, og så behøver du pludselig ikke andet end bare et nvidea kort og en skærm før du er kørende.
#22
Er du dum?
Langt hovedparten af computerbrugerne kan bedre "nøjes med" en CPU der også varetager GPU'ens funktioner, end omvendt.
I øvrigt vil jeg mene at man også skal have et grafisk output fra Lynx, for at få noget ud af det.
Er du dum?
Langt hovedparten af computerbrugerne kan bedre "nøjes med" en CPU der også varetager GPU'ens funktioner, end omvendt.
I øvrigt vil jeg mene at man også skal have et grafisk output fra Lynx, for at få noget ud af det.
#25 Personligt går jeg selv og håber på at de afslutter samarbejdet og går hvert til sit, det er bedre at have AMD / Intel på den ene front og ATI / Nvidia, det er ikke godt de store samarbejder, det ville være en skidt dag hvis en af dem for kørt de andre ud af markedet.
Det eneste punkt jeg kan fælge dem i, er at tingene sikkert ikke overlever hvert for sig. Fremtiden er jo nok, at GPUer bliver en del af CPU'en, i kraft af alle de kerner.
Dog håber jeg selvsagt, at CPUens åbenhed smitter af GPUernes traditionelle lukkethed. AMDs opkøb fik jo den gode sideeffekt, at ATIs stædige afvisning af at åbne op blev blødt op. Den udvikling kunne nu være rar at se, mere generelt hvor Nvidia er mere stædig end gennemsnittet.
Dog håber jeg selvsagt, at CPUens åbenhed smitter af GPUernes traditionelle lukkethed. AMDs opkøb fik jo den gode sideeffekt, at ATIs stædige afvisning af at åbne op blev blødt op. Den udvikling kunne nu være rar at se, mere generelt hvor Nvidia er mere stædig end gennemsnittet.
Jeg håber sådan set at det bliver ved med at være som det er nu
Intel laver gode CPUer der ikke kræver ret meget strøm
Nvidia laver gode GPUer der kræver noget mere strøm
forhåbenligt køre Nvidia computer kraft vejen og får en kraftiger processer ud af det som kan køre meget bedre i spil og så kan Intel for min skyld gerne få lov at lave alle de CPUer de vil til alt andet end de graffik tunge ting og dermed spare strømmen på GPUen
#28 det vil ikke ske forløbig at du kan omgå det. Enten får du et enormt spild på GPUen fordi du ingen kø har til GPUen og det er CPUen der skal sende ting til GPUen direkte og vente på at det afvikles. Eller også skal du have en kø til GPUen og så fungere det vi har idag forholdsvis glimrende. Vejen kan helt sikkert gøres kortere og bedre men GPUen har stadig brug for adgang til de samme ressurcer som CPUen har brug for at kunne snakke med.
Intel laver gode CPUer der ikke kræver ret meget strøm
Nvidia laver gode GPUer der kræver noget mere strøm
forhåbenligt køre Nvidia computer kraft vejen og får en kraftiger processer ud af det som kan køre meget bedre i spil og så kan Intel for min skyld gerne få lov at lave alle de CPUer de vil til alt andet end de graffik tunge ting og dermed spare strømmen på GPUen
#28 det vil ikke ske forløbig at du kan omgå det. Enten får du et enormt spild på GPUen fordi du ingen kø har til GPUen og det er CPUen der skal sende ting til GPUen direkte og vente på at det afvikles. Eller også skal du have en kø til GPUen og så fungere det vi har idag forholdsvis glimrende. Vejen kan helt sikkert gøres kortere og bedre men GPUen har stadig brug for adgang til de samme ressurcer som CPUen har brug for at kunne snakke med.
Er det ikke noget med at GPU'en i en PS3 blot er en dedikeret kerne i Cell-processoren?
Cell er jo en CPU, selvom den er meget forskellig fra de traditionelle x86 familier. Her er det altså GPU'en opgaver der er blevet overtaget af processoren.
Som #8 så fint udtrykker det, så tror jeg sgu' også det er ret usandsynligt at GPU'en nogensinde skulle gå hen og erstatte CPU'en.
Jeg tror mere på en fremtidig med decentral, meshnetwork-lignende computing (trådløs?), hvor det ikke kun er hastigheden på de enkelte hardware komponenter men lige så meget "mængden af computer" der har betydning for et systems samlede hastighed.
Cell er jo en CPU, selvom den er meget forskellig fra de traditionelle x86 familier. Her er det altså GPU'en opgaver der er blevet overtaget af processoren.
Som #8 så fint udtrykker det, så tror jeg sgu' også det er ret usandsynligt at GPU'en nogensinde skulle gå hen og erstatte CPU'en.
Jeg tror mere på en fremtidig med decentral, meshnetwork-lignende computing (trådløs?), hvor det ikke kun er hastigheden på de enkelte hardware komponenter men lige så meget "mængden af computer" der har betydning for et systems samlede hastighed.
#30 PS3 har en GPU fra nVIDIA, og bruger ikke bare en af sine SPE'er til grafik. Den hedder NVIDIA-SCEI "RSX"
Alle tre hold arbejder på at lave integrerede CPU/GPU løsninger, som nok i første omgang bliver til billige low-end maskiner.
AMD/ATI
nVIDIA/VIA (nævnt tidligere på newz.dk)
Intel/Intel (Intel laver selv GPU'er)
Det er vigtigt for nVIDIA at nedtone CPU'en, da alle ved at deres partner VIA's CPU'er er svage i forhold til Intel / AMD.
Alle tre hold arbejder på at lave integrerede CPU/GPU løsninger, som nok i første omgang bliver til billige low-end maskiner.
AMD/ATI
nVIDIA/VIA (nævnt tidligere på newz.dk)
Intel/Intel (Intel laver selv GPU'er)
Det er vigtigt for nVIDIA at nedtone CPU'en, da alle ved at deres partner VIA's CPU'er er svage i forhold til Intel / AMD.
Opret dig som bruger i dag
Det er gratis, og du binder dig ikke til noget.
Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.