mboost-dp1

Nvidia
- Forside
- ⟨
- Forum
- ⟨
- Nyheder
#2,3
Øhh.. I har ikke forstået Intel. Man kan da også bare bruge 8 af CPU kernene til fysikberegninger, bruge 16 kerner til grafik og resten til normal CPU.
Jeg vil give Intel ret. Når vi får 64 kerne CPU'er eller lign, så er der rigelig kraft til at kører floating point på CPUen. Det vil desuden gøre det nemmere da, som Intel siger, der ikke skal skrives i DirectX eller lign.
Øhh.. I har ikke forstået Intel. Man kan da også bare bruge 8 af CPU kernene til fysikberegninger, bruge 16 kerner til grafik og resten til normal CPU.
Jeg vil give Intel ret. Når vi får 64 kerne CPU'er eller lign, så er der rigelig kraft til at kører floating point på CPUen. Det vil desuden gøre det nemmere da, som Intel siger, der ikke skal skrives i DirectX eller lign.
#5 Enig. Det er fint nok, at Intel har fundet ud af, at hvis man lige har 32 kerner, så kan man lige så godt overtage arbejdet fra GPU og Phys osv samtidigt. Men det bliver aldrig så energieffektivt, som GPUer kan lave beregningerne.
GPUerne er lavet til at kunne meget få specifikke operationer, som derfor kan laves ret energieffektivt. Hvis man prøver at få en CPU til at lave det samme, så vil det altid koster lidt mere power. Jo mere generel processoren skal være, jo mere effekt må den æde. En GPU vil altid være mere energieffektiv.
Det lugter lidt af, at Intel har haft nogle marketingfolk til at tænke lidt over, hvad de skal sige til kunder, når de ikke kan sælge deres 128 kerneprocessorer:
"Woohoo nu er der 128 kerner i?"
"Jamen mit program bruger kun 2?"
"Jojo, men så kan den jo også phys og gfx, og aflaste COMporten med den 127. processor!"
;-)
GPUerne er lavet til at kunne meget få specifikke operationer, som derfor kan laves ret energieffektivt. Hvis man prøver at få en CPU til at lave det samme, så vil det altid koster lidt mere power. Jo mere generel processoren skal være, jo mere effekt må den æde. En GPU vil altid være mere energieffektiv.
Det lugter lidt af, at Intel har haft nogle marketingfolk til at tænke lidt over, hvad de skal sige til kunder, når de ikke kan sælge deres 128 kerneprocessorer:
"Woohoo nu er der 128 kerner i?"
"Jamen mit program bruger kun 2?"
"Jojo, men så kan den jo også phys og gfx, og aflaste COMporten med den 127. processor!"
;-)
#5 Der var også nogle, der sagde, at der altid vil findes netkort, da mobos begyndte at have onboard-net. Der findes også netkort, men de er rettet mod kvalitetsmarkedet; til folk, der gerne vil vælge deres eget kvalitets-netkort og ikke stoler på onboard-chippen.
Måske bliver det nogenlunde det samme her: Enten kan man vælge at lave CPUen klare det hele, eller også kan man købe et gfx-kort, som så vil være lidt for gamerne osv. Who knows.
Måske bliver det nogenlunde det samme her: Enten kan man vælge at lave CPUen klare det hele, eller også kan man købe et gfx-kort, som så vil være lidt for gamerne osv. Who knows.
@ #4 directx overlever ikke fremtiden. folk vil bare skrive direkte til cuda, eller en amd/ati ekvivalent. Cpu'en fremover kunne måske bare være en lille processor i chipsettet som driver bios og de elementære ting, og resten klares af discreet enheder man stopper i pc'en. Nvidia øver sig allerede med deres arm 2500, og amd ved også hvordan man gør, så intel får en udfordring i fremtiden. Men indtil da, c2d længe leve.
Anyway, nyheden er god - så kan jeg skifte mit 8800gtx ud med hvad der nu er det bedste i gt-200 serien, og beholde det som fysik processor, istedet for at smide det på lossepladsen.
Anyway, nyheden er god - så kan jeg skifte mit 8800gtx ud med hvad der nu er det bedste i gt-200 serien, og beholde det som fysik processor, istedet for at smide det på lossepladsen.
@ #7 din sammenligning er reelt set den samme som nvidia og intel - nvidia er discreet enheder til seriøs brug, og intel er til alt det lal der bare skal køre. F.eks. bruger mange servere discreet netkort, scsi kort etc fordi de onboard ikke performer godt nok - det samme er faldet med onboard grafik. Ja en skrivemaskine til en skole kan klare sig med onboard net/lyd/vga men så snart der er et reelt brug for ydelse bortfalder disse som muligheder.
Jeg vil nu nærmere sige et slap i fjæset på NVidia. Hvis Intel allerede kan hive den ydelse ud af en CPU nu så tegner det bestemt godt.
Mit single core GFX kort bruger næsten 3 gange så meget strøm som min quad core CPU, så jeg ved nu ikke hvor effektiv den er energi mæssigt, jeg ville gerne undvære
Jeg håber seriøst at udviklingen går mod færre forskellige enheder i en com. Hell jeg håber vi får så kraftige sataner at hjemmet behøver en com der styrer hele hytten og kan køre 8 instanser af crysis3000 i 9999*8888 eller deromkring :)
Om der står Intel, AMD, NVIDIA, ATI eller tupperware er jeg sådan set kold overfor, bare der ikke er noget æble på lortet ;)
Mit single core GFX kort bruger næsten 3 gange så meget strøm som min quad core CPU, så jeg ved nu ikke hvor effektiv den er energi mæssigt, jeg ville gerne undvære
Jeg håber seriøst at udviklingen går mod færre forskellige enheder i en com. Hell jeg håber vi får så kraftige sataner at hjemmet behøver en com der styrer hele hytten og kan køre 8 instanser af crysis3000 i 9999*8888 eller deromkring :)
Om der står Intel, AMD, NVIDIA, ATI eller tupperware er jeg sådan set kold overfor, bare der ikke er noget æble på lortet ;)
hehe hvor fedt :)
kan ikke lade være med at tænke på denne nyhed fra tidligere
-> http://www.cnet.com/8301-13924_1-9916414-64.html
We're going to open a can of whoop ass.
- Jen-Hsun Huang
Jeg tror der går laaang tid endnu før vi ser cpu'er der kan det samme.. men alle producenterne konkurerer jo netop om at stoppe det hele ned i en eller anden fed chip, så mon ik det kommer..
kan ikke lade være med at tænke på denne nyhed fra tidligere
-> http://www.cnet.com/8301-13924_1-9916414-64.html
We're going to open a can of whoop ass.
- Jen-Hsun Huang
Jeg tror der går laaang tid endnu før vi ser cpu'er der kan det samme.. men alle producenterne konkurerer jo netop om at stoppe det hele ned i en eller anden fed chip, så mon ik det kommer..
jeg så hellere at alle bundkort blev standardiseret og modulært så sektioner af bundkortet kan udbygges efter ønske, og alle hardware producenter lavede deres udstyr som moduler.
overvej at sidde med en amd processor og tænke "det er ikke godt nok", så hiver man cpu slottet ud og sætter et intel slot i.
eller man sidder med sin ene cpu og tænker "det er ikke godt nok", og så køber man et cpu udvidelsesmodul hvor der kan sidde flere cpu'er i.
eller hvis man sidder med sit ene bundkort og tænker "det er ikke godt nok", så køber man et stacking modul og sætter et til bundkort på, og på den måde udvider sine udbyggelsesmuligheder.
MEN GIDER DE TAGE SIG SAMMEN OG GØRE DET PÅ DEN MÅDE? NÆÆÆÆÆÆÆÆÆÆ
overvej at sidde med en amd processor og tænke "det er ikke godt nok", så hiver man cpu slottet ud og sætter et intel slot i.
eller man sidder med sin ene cpu og tænker "det er ikke godt nok", og så køber man et cpu udvidelsesmodul hvor der kan sidde flere cpu'er i.
eller hvis man sidder med sit ene bundkort og tænker "det er ikke godt nok", så køber man et stacking modul og sætter et til bundkort på, og på den måde udvider sine udbyggelsesmuligheder.
MEN GIDER DE TAGE SIG SAMMEN OG GØRE DET PÅ DEN MÅDE? NÆÆÆÆÆÆÆÆÆÆ
Mon ikke at kravene til CPU kraft stiger i spillene også... måske ikke helt i samme tempo men de næste par år tror jeg ikke udviklingen løber fra GPU og CPU hver for sig
i første omgang skal der ihvertfald det til at Intel får spilproducenterne til at bruge CPUen til det og får implementeret flere kerner ordentligt så overhead ved flere kerner samtidig bliver mindre.
I forbindelse med strøm vil jeg hellere betale lidt ekstra strøm når spillene skal køre (og dermed GPUen) og så ikke have så meget CPU at holde i gang heletiden for på den måde at spare strøm til CPUen selv. Det kommer helt sikkert så du kan nå langt med en CPU det skal intel nok sørge for men jeg tror aldrig markedet for GPUer forsvinder især ikke inden for den grafiske brance og til dels også spil
i første omgang skal der ihvertfald det til at Intel får spilproducenterne til at bruge CPUen til det og får implementeret flere kerner ordentligt så overhead ved flere kerner samtidig bliver mindre.
I forbindelse med strøm vil jeg hellere betale lidt ekstra strøm når spillene skal køre (og dermed GPUen) og så ikke have så meget CPU at holde i gang heletiden for på den måde at spare strøm til CPUen selv. Det kommer helt sikkert så du kan nå langt med en CPU det skal intel nok sørge for men jeg tror aldrig markedet for GPUer forsvinder især ikke inden for den grafiske brance og til dels også spil
Prøv nu lige at høre her :) Grunden til at Intel og AMD arbejder så hårdt på at integrere grafikkernerne i deres CPU'er er jo netop pga. ting som fysik. Med en integreret grafikkerne i CPUen kan denne klare fysikudregninger og andre typer af udregninger som et grafikkort slet ikke kan røre. Her taler vi om ting som realtime raytracing også. Det, fysik og så meget højere performance fra integrerede grafikkortløsninger kommer der ud af at integrerer grafikkernen direkte i CPUen. Ydelsen fra onboardløsninger bliver så øget med en faktor mellem fem og ti gange. Er derfor Intel går ud og siger at grafikkortet vil uddø og nVidia går ud og skælder dem ud for at sige det. Det siger Intel jo fordi at de som sådan har ret i at de og AMD med CPUer med integrerede grafikkortløsninger på kort sig kan overtage hele mid-range segmentet, altså det hvor der tjenes flest penge, Det efterlader så high-end til nVidia (at mid-range segmentet dermed bliver umiddelbart tilgængeligt for alt og alle og dermed billigt, er en af grundende til at mange tror PC-gaming får en kæmpe renæssance). Altså for kort der renderer grafik og smider ting som skygger og shadere som vi kender dem idag på. Og så masser af fillrate og alt det gøjl. Men dels kan nVidia ikke klare sig på high-end løsninger alene, og dels skal de integrerede grafikløsninger nok indhente high-end løsningerne over et par år. Så er lidt spændt på hvad pokker det grønne hold har tænkt sig at gøre.
#8 det græver at du har to eller flere is SLi, så du skal have to ens.
#15 Grunden til at du ikke bare kan lave et modulært system som det, er at forskellen på AMD og Intel ikke bare er stikket. Hele den måde data beregnes og sendes er forskellig. For slet ikke at tale om at hvis du skulle kunne skifte CPU type, "sådan" så ville det kræve et meget avanceret chipset som kan finde ud af hvilken slags CPU, Bundkort, GPU, anden GPU, Stik og alt det der.
Det ville kræve alt for meget arbejde end bare at sige, vi overlapper lidt i enderne og så siger vi skift det hele inden tre-fire år.
Kald det dovenskab, jeg kalder det at fokusere på det der er nødvendigt.
#15 Grunden til at du ikke bare kan lave et modulært system som det, er at forskellen på AMD og Intel ikke bare er stikket. Hele den måde data beregnes og sendes er forskellig. For slet ikke at tale om at hvis du skulle kunne skifte CPU type, "sådan" så ville det kræve et meget avanceret chipset som kan finde ud af hvilken slags CPU, Bundkort, GPU, anden GPU, Stik og alt det der.
Det ville kræve alt for meget arbejde end bare at sige, vi overlapper lidt i enderne og så siger vi skift det hele inden tre-fire år.
Kald det dovenskab, jeg kalder det at fokusere på det der er nødvendigt.
#18 har ikke noget at gøre med hvad der rent konkurrencemæssigt er "smart". Man kan lave ting man slet ikke ville kunne lave ellers hvis man kombinerer grafik og CPU-kerne. F.eks. netop et område som fysik som nVidia prøver at slå sig på nu, samt ting som raytracing, er uendeligt meget hurtigere med en CPU og GFX på samme kerne end nogen seperat løsning som et grafikkort nogensinde vil kunne blive. For so gamere vil det også være positivt. Pt. går omkring 80% af udviklingsomkostningerne ved produktion af spil til art der skal fake alle de ting man ikke kan simulere fordi det kræver for meget tid. Fysik, reflektioner, you name it. Med integrerede systemer bliver det derfor meget billigere at lave spil, hvilket betyder flere/bedre kvalitetsspil til os.
tja, flere chips/kerner giver vel mere regnekraft ligegyldigt hvordan man vender og drejer det. Så ligegyldigt om man har en CPU med mange kerner eller har en CPU og GPU så er der jo et loft for hvor meget man kan få ud af en chip. Hvis man har fx 2 mia transistorer at gøre godt med så ville jeg da tro at hvis man brugte 60-70% til en GPU og resten til en CPU så vil man få flere fps end hvis alle blev brugt til en multi-purpose CPU.
Nå?
Hvornår var det at NVIDIA sagde første gang de "snart havde noget"?
Åh jow, det var for OVER 2 år siden:
http://www.reghardware.co.uk/2006/03/20/nvidia_hav...
.oO(Og jeg vil vædde med at min AGEIA PPU smækker røv til deres løsning alligevel...sad but true..)
Hvornår var det at NVIDIA sagde første gang de "snart havde noget"?
Åh jow, det var for OVER 2 år siden:
http://www.reghardware.co.uk/2006/03/20/nvidia_hav...
.oO(Og jeg vil vædde med at min AGEIA PPU smækker røv til deres løsning alligevel...sad but true..)
#23 Som jeg læser det i artiklen kommer det også til 8800 serien :-) Det bliver spændende at prøve.
Hvis vi kan følge den med at ydelse fordobles for hvert 1½ år, så går der 22,5 år før Intel kan mønstre samme ydelse som NVidia :)
Mooon ikke at NVidia til den tid er kommet med noget lidt mere effektivt og hurtigere.
Så jeg er på holdet der tror på GPU'en vil eksistere fortsat - ligesom grafikkort RAM sjovt nok også altid vil eksistere, selvom man da KAN bruge af systemets RAM, hvis man ikke spiller noget voldsommere end quake 2... :)
Mooon ikke at NVidia til den tid er kommet med noget lidt mere effektivt og hurtigere.
Så jeg er på holdet der tror på GPU'en vil eksistere fortsat - ligesom grafikkort RAM sjovt nok også altid vil eksistere, selvom man da KAN bruge af systemets RAM, hvis man ikke spiller noget voldsommere end quake 2... :)
Det som jeg ser som det alle største problem i at køre det sammen er ikke så meget at CPUen ikke kan lave beregningerne
men det kommer til at kræve noget meget besværligt kode for at kunne skille GPU og CPU delen af processeren ad sådan at der reelt kan laves mere end 1 ting af gangen (hvilket skaber problemer bare ved 2 og 4 kerner)
Indtil Intel og AMD har bevist at de kan styre hver enkelt kerne hver for sig eller gruppere dem som de lyster i mængde sådan at der 100% sikkert ikke opstår contex switch der afbryder Grafikbearbejdningen for at lave CPU arbejde og den modsatte vej rundt. som det køre pt.
Det der er alles problem er at udnytte de flere processere og indtil det problem er løst kan Intel råbe lige så meget op om at CPU kan bruges til graffik arbejde også.
Der ud over så kan der være noget med hvor meget cache der er til rådighed og holde styr på det når der kun er en istedet for 2 og andre af den slags detaljer men det må hardware nørderne programmere sig ud af (jeg er bare glad for jeg ikke skal gøre det)
men det kommer til at kræve noget meget besværligt kode for at kunne skille GPU og CPU delen af processeren ad sådan at der reelt kan laves mere end 1 ting af gangen (hvilket skaber problemer bare ved 2 og 4 kerner)
Indtil Intel og AMD har bevist at de kan styre hver enkelt kerne hver for sig eller gruppere dem som de lyster i mængde sådan at der 100% sikkert ikke opstår contex switch der afbryder Grafikbearbejdningen for at lave CPU arbejde og den modsatte vej rundt. som det køre pt.
Det der er alles problem er at udnytte de flere processere og indtil det problem er løst kan Intel råbe lige så meget op om at CPU kan bruges til graffik arbejde også.
Der ud over så kan der være noget med hvor meget cache der er til rådighed og holde styr på det når der kun er en istedet for 2 og andre af den slags detaljer men det må hardware nørderne programmere sig ud af (jeg er bare glad for jeg ikke skal gøre det)
Opret dig som bruger i dag
Det er gratis, og du binder dig ikke til noget.
Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.