mboost-dp1

Nvidia

Nvidia: Fysik på GPU næsten klar

- Via TG Daily - , redigeret af Pernicious

Det er ikke lang tid siden, at Nvidia købte fysikspecialisten Ageia, der var kendt for at lave fysikmotoren PhysX og et addon-kort til pc, der kun beregnede fysik.

Efter Nvidias overtagelse af Ageia har man arbejdet på at konvertere PhysX til Nvidias programmeringssprog CUDA, der gør det muligt at udnytte G80 GPU’er og nyere til andet end bare grafik. Dette arbejde er nu næsten færdigt, og Nvidia har demonstreret, hvor vidt man er.

Med en tydelig henvisning til Intels Nehalem-demonstration under IDF 2008, hvor man på en 8-kerne Nehalem demonstrerede en fysikmotor, der kunne klare 50.000-60.000 partikler ved 15-20 fps, viste Nvidia en tilsvarende demo, hvor man havde 65.000 partikler ved 300 fps kørende på en GeForce 9800.

Nvidia regner med, at fysik i spil vil blive den helt store trend i 2008 inden for GPU’er, kun overgået af videobearbejdning og transcoding af formater.





Gå til bund
Gravatar #1 - erchni
15. apr. 2008 12:10
Lyder godt hvis de kan få ordenlig fysik intereret og der så også er noget som de flest spil begynder at bruge.
Gravatar #2 - cyandk
15. apr. 2008 12:21
KÆMPE slap in the face intel.

Endnu engang viser det hvor meget forstand intel egentlig har!
Gravatar #3 - paradise_lost
15. apr. 2008 12:21
Hehe, mon Intel stadig tror at GPUer bliver overflødige i fremtiden.
Gravatar #4 - bvoid
15. apr. 2008 12:40
#2,3
Øhh.. I har ikke forstået Intel. Man kan da også bare bruge 8 af CPU kernene til fysikberegninger, bruge 16 kerner til grafik og resten til normal CPU.

Jeg vil give Intel ret. Når vi får 64 kerne CPU'er eller lign, så er der rigelig kraft til at kører floating point på CPUen. Det vil desuden gøre det nemmere da, som Intel siger, der ikke skal skrives i DirectX eller lign.
Gravatar #5 - paradise_lost
15. apr. 2008 12:45
#4

Vi får se, tror altid der vil være GPUer.. Men det må tiden vise
Gravatar #6 - Izaaq
15. apr. 2008 12:53
#5 Enig. Det er fint nok, at Intel har fundet ud af, at hvis man lige har 32 kerner, så kan man lige så godt overtage arbejdet fra GPU og Phys osv samtidigt. Men det bliver aldrig så energieffektivt, som GPUer kan lave beregningerne.

GPUerne er lavet til at kunne meget få specifikke operationer, som derfor kan laves ret energieffektivt. Hvis man prøver at få en CPU til at lave det samme, så vil det altid koster lidt mere power. Jo mere generel processoren skal være, jo mere effekt må den æde. En GPU vil altid være mere energieffektiv.

Det lugter lidt af, at Intel har haft nogle marketingfolk til at tænke lidt over, hvad de skal sige til kunder, når de ikke kan sælge deres 128 kerneprocessorer:
"Woohoo nu er der 128 kerner i?"
"Jamen mit program bruger kun 2?"
"Jojo, men så kan den jo også phys og gfx, og aflaste COMporten med den 127. processor!"

;-)
Gravatar #7 - Izaaq
15. apr. 2008 12:57
#5 Der var også nogle, der sagde, at der altid vil findes netkort, da mobos begyndte at have onboard-net. Der findes også netkort, men de er rettet mod kvalitetsmarkedet; til folk, der gerne vil vælge deres eget kvalitets-netkort og ikke stoler på onboard-chippen.

Måske bliver det nogenlunde det samme her: Enten kan man vælge at lave CPUen klare det hele, eller også kan man købe et gfx-kort, som så vil være lidt for gamerne osv. Who knows.
Gravatar #8 - neiro
15. apr. 2008 12:59
@ #4 directx overlever ikke fremtiden. folk vil bare skrive direkte til cuda, eller en amd/ati ekvivalent. Cpu'en fremover kunne måske bare være en lille processor i chipsettet som driver bios og de elementære ting, og resten klares af discreet enheder man stopper i pc'en. Nvidia øver sig allerede med deres arm 2500, og amd ved også hvordan man gør, så intel får en udfordring i fremtiden. Men indtil da, c2d længe leve.


Anyway, nyheden er god - så kan jeg skifte mit 8800gtx ud med hvad der nu er det bedste i gt-200 serien, og beholde det som fysik processor, istedet for at smide det på lossepladsen.
Gravatar #9 - Borg[One]
15. apr. 2008 12:59
#7 øhhh, du mener - lidt ligesom idag hvor Intel er den største GFX-producent i verden?
Gravatar #10 - neiro
15. apr. 2008 13:02
@ #7 din sammenligning er reelt set den samme som nvidia og intel - nvidia er discreet enheder til seriøs brug, og intel er til alt det lal der bare skal køre. F.eks. bruger mange servere discreet netkort, scsi kort etc fordi de onboard ikke performer godt nok - det samme er faldet med onboard grafik. Ja en skrivemaskine til en skole kan klare sig med onboard net/lyd/vga men så snart der er et reelt brug for ydelse bortfalder disse som muligheder.
Gravatar #11 - Scapegoat
15. apr. 2008 13:03
Så kan vi sidde med 1024-kernede CPU'er, 128-kernede GFX kort, hvor halvdelen af kernerne beregner fysik, og så kan vi måske se Crysis i 60FPS :P
Gravatar #12 - Loke76
15. apr. 2008 13:06
Jeg vil nu nærmere sige et slap i fjæset på NVidia. Hvis Intel allerede kan hive den ydelse ud af en CPU nu så tegner det bestemt godt.

Mit single core GFX kort bruger næsten 3 gange så meget strøm som min quad core CPU, så jeg ved nu ikke hvor effektiv den er energi mæssigt, jeg ville gerne undvære

Jeg håber seriøst at udviklingen går mod færre forskellige enheder i en com. Hell jeg håber vi får så kraftige sataner at hjemmet behøver en com der styrer hele hytten og kan køre 8 instanser af crysis3000 i 9999*8888 eller deromkring :)

Om der står Intel, AMD, NVIDIA, ATI eller tupperware er jeg sådan set kold overfor, bare der ikke er noget æble på lortet ;)
Gravatar #13 - sWeeD
15. apr. 2008 13:31
hehe hvor fedt :)

kan ikke lade være med at tænke på denne nyhed fra tidligere
-> http://www.cnet.com/8301-13924_1-9916414-64.html

We're going to open a can of whoop ass.
- Jen-Hsun Huang

Jeg tror der går laaang tid endnu før vi ser cpu'er der kan det samme.. men alle producenterne konkurerer jo netop om at stoppe det hele ned i en eller anden fed chip, så mon ik det kommer..
Gravatar #14 - luuuuu
15. apr. 2008 13:32
jeg så hellere at alle bundkort blev standardiseret og modulært så sektioner af bundkortet kan udbygges efter ønske, og alle hardware producenter lavede deres udstyr som moduler.

overvej at sidde med en amd processor og tænke "det er ikke godt nok", så hiver man cpu slottet ud og sætter et intel slot i.

eller man sidder med sin ene cpu og tænker "det er ikke godt nok", og så køber man et cpu udvidelsesmodul hvor der kan sidde flere cpu'er i.

eller hvis man sidder med sit ene bundkort og tænker "det er ikke godt nok", så køber man et stacking modul og sætter et til bundkort på, og på den måde udvider sine udbyggelsesmuligheder.


MEN GIDER DE TAGE SIG SAMMEN OG GØRE DET PÅ DEN MÅDE? NÆÆÆÆÆÆÆÆÆÆ
Gravatar #15 - farmerhe
15. apr. 2008 13:37
Mon ikke at kravene til CPU kraft stiger i spillene også... måske ikke helt i samme tempo men de næste par år tror jeg ikke udviklingen løber fra GPU og CPU hver for sig

i første omgang skal der ihvertfald det til at Intel får spilproducenterne til at bruge CPUen til det og får implementeret flere kerner ordentligt så overhead ved flere kerner samtidig bliver mindre.

I forbindelse med strøm vil jeg hellere betale lidt ekstra strøm når spillene skal køre (og dermed GPUen) og så ikke have så meget CPU at holde i gang heletiden for på den måde at spare strøm til CPUen selv. Det kommer helt sikkert så du kan nå langt med en CPU det skal intel nok sørge for men jeg tror aldrig markedet for GPUer forsvinder især ikke inden for den grafiske brance og til dels også spil
Gravatar #16 - Pale
15. apr. 2008 14:05
Prøv nu lige at høre her :) Grunden til at Intel og AMD arbejder så hårdt på at integrere grafikkernerne i deres CPU'er er jo netop pga. ting som fysik. Med en integreret grafikkerne i CPUen kan denne klare fysikudregninger og andre typer af udregninger som et grafikkort slet ikke kan røre. Her taler vi om ting som realtime raytracing også. Det, fysik og så meget højere performance fra integrerede grafikkortløsninger kommer der ud af at integrerer grafikkernen direkte i CPUen. Ydelsen fra onboardløsninger bliver så øget med en faktor mellem fem og ti gange. Er derfor Intel går ud og siger at grafikkortet vil uddø og nVidia går ud og skælder dem ud for at sige det. Det siger Intel jo fordi at de som sådan har ret i at de og AMD med CPUer med integrerede grafikkortløsninger på kort sig kan overtage hele mid-range segmentet, altså det hvor der tjenes flest penge, Det efterlader så high-end til nVidia (at mid-range segmentet dermed bliver umiddelbart tilgængeligt for alt og alle og dermed billigt, er en af grundende til at mange tror PC-gaming får en kæmpe renæssance). Altså for kort der renderer grafik og smider ting som skygger og shadere som vi kender dem idag på. Og så masser af fillrate og alt det gøjl. Men dels kan nVidia ikke klare sig på high-end løsninger alene, og dels skal de integrerede grafikløsninger nok indhente high-end løsningerne over et par år. Så er lidt spændt på hvad pokker det grønne hold har tænkt sig at gøre.
Gravatar #17 - b4@
15. apr. 2008 14:11
#8 det græver at du har to eller flere is SLi, så du skal have to ens.

#15 Grunden til at du ikke bare kan lave et modulært system som det, er at forskellen på AMD og Intel ikke bare er stikket. Hele den måde data beregnes og sendes er forskellig. For slet ikke at tale om at hvis du skulle kunne skifte CPU type, "sådan" så ville det kræve et meget avanceret chipset som kan finde ud af hvilken slags CPU, Bundkort, GPU, anden GPU, Stik og alt det der.
Det ville kræve alt for meget arbejde end bare at sige, vi overlapper lidt i enderne og så siger vi skift det hele inden tre-fire år.

Kald det dovenskab, jeg kalder det at fokusere på det der er nødvendigt.
Gravatar #18 - b4@
15. apr. 2008 14:13
#16 jeg vil stadig syndes at det er bedre hvis det er forskellige producenter som fokusere på hver deres område.
Gravatar #19 - Pale
15. apr. 2008 15:27
#18 har ikke noget at gøre med hvad der rent konkurrencemæssigt er "smart". Man kan lave ting man slet ikke ville kunne lave ellers hvis man kombinerer grafik og CPU-kerne. F.eks. netop et område som fysik som nVidia prøver at slå sig på nu, samt ting som raytracing, er uendeligt meget hurtigere med en CPU og GFX på samme kerne end nogen seperat løsning som et grafikkort nogensinde vil kunne blive. For so gamere vil det også være positivt. Pt. går omkring 80% af udviklingsomkostningerne ved produktion af spil til art der skal fake alle de ting man ikke kan simulere fordi det kræver for meget tid. Fysik, reflektioner, you name it. Med integrerede systemer bliver det derfor meget billigere at lave spil, hvilket betyder flere/bedre kvalitetsspil til os.
Gravatar #20 - Pale
15. apr. 2008 15:31
Og jeg vil have en edit knap. Skulle slvf stå os gamere i posten ovenover.
Gravatar #21 - Mr.DNA
15. apr. 2008 16:51
tja, flere chips/kerner giver vel mere regnekraft ligegyldigt hvordan man vender og drejer det. Så ligegyldigt om man har en CPU med mange kerner eller har en CPU og GPU så er der jo et loft for hvor meget man kan få ud af en chip. Hvis man har fx 2 mia transistorer at gøre godt med så ville jeg da tro at hvis man brugte 60-70% til en GPU og resten til en CPU så vil man få flere fps end hvis alle blev brugt til en multi-purpose CPU.
Gravatar #22 - terracide
15. apr. 2008 18:26
Nå?
Hvornår var det at NVIDIA sagde første gang de "snart havde noget"?

Åh jow, det var for OVER 2 år siden:
http://www.reghardware.co.uk/2006/03/20/nvidia_hav...

.oO(Og jeg vil vædde med at min AGEIA PPU smækker røv til deres løsning alligevel...sad but true..)
Gravatar #23 - Hellikopeter
15. apr. 2008 19:39
alt dvs. at det kommer i 9800 series eller kommer det også i 8800 series ?
Gravatar #24 - kodekarlen
15. apr. 2008 20:04
#23 Som jeg læser det i artiklen kommer det også til 8800 serien :-) Det bliver spændende at prøve.
Gravatar #25 - terracide
15. apr. 2008 20:20
#23:
Det kommer til alle 8000+ kort

#24:
Ja, på tide i andre prøvede noget bedre fysik..nogle af os har nydt det siden 2006 :p
Gravatar #26 - jakobdam
16. apr. 2008 12:36
Hvis vi kan følge den med at ydelse fordobles for hvert 1½ år, så går der 22,5 år før Intel kan mønstre samme ydelse som NVidia :)

Mooon ikke at NVidia til den tid er kommet med noget lidt mere effektivt og hurtigere.

Så jeg er på holdet der tror på GPU'en vil eksistere fortsat - ligesom grafikkort RAM sjovt nok også altid vil eksistere, selvom man da KAN bruge af systemets RAM, hvis man ikke spiller noget voldsommere end quake 2... :)
Gravatar #27 - farmerhe
16. apr. 2008 14:02
Det som jeg ser som det alle største problem i at køre det sammen er ikke så meget at CPUen ikke kan lave beregningerne

men det kommer til at kræve noget meget besværligt kode for at kunne skille GPU og CPU delen af processeren ad sådan at der reelt kan laves mere end 1 ting af gangen (hvilket skaber problemer bare ved 2 og 4 kerner)

Indtil Intel og AMD har bevist at de kan styre hver enkelt kerne hver for sig eller gruppere dem som de lyster i mængde sådan at der 100% sikkert ikke opstår contex switch der afbryder Grafikbearbejdningen for at lave CPU arbejde og den modsatte vej rundt. som det køre pt.

Det der er alles problem er at udnytte de flere processere og indtil det problem er løst kan Intel råbe lige så meget op om at CPU kan bruges til graffik arbejde også.

Der ud over så kan der være noget med hvor meget cache der er til rådighed og holde styr på det når der kun er en istedet for 2 og andre af den slags detaljer men det må hardware nørderne programmere sig ud af (jeg er bare glad for jeg ikke skal gøre det)
Gå til top

Opret dig som bruger i dag

Det er gratis, og du binder dig ikke til noget.

Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.

Opret Bruger Login