mboost-dp1

Intel

Larrabee-demo fremvist på IDF 2009

- Via The Inquirer - , redigeret af Net_Srak

Det er ikke meget, man hører til Intels kommende grafikprocessor Larrabee, som efter Intels udsagn bliver fremtidens måde at lave grafik på. Med Larrabee satser Intel på, at spil i fremtiden vil anvende raytracing i stedet for rasteriseret grafik.

I disse dag afvikles IDF 2009, og Intel har i den forbindelse haft Larrabee fremme i rampelyset, omend kortvarigt. Det blev til en scene fra spillet Quake Wars: Enemy Territory, fra ID Software, hvor grafikken var raytracet.

I videoen, der kan ses herunder, ser man en båd ligge i vandet, imens vandet reflekterer omgivelserne. Der bliver ikke spillet, eller på anden måde bevæget rundt i scenen, ligesom journalisterne heller ikke fik set hardwaren, der drev demonstrationen.

Til trods for den noget begrænsede demonstration forsikrer Intel, at tidsplanen bliver overholdt, hvilket skulle føre til de første produkter i starten af 2010.





Gå til bund
Gravatar #1 - -N-
23. sep. 2009 13:32
Det er jo generelt set ikke meget man høre fra hardware producenter før de lancere et produkt, de ligger jo ikke inde med det et halvt bare for at se, om en af konkurrenterne ikke når at komme før :-D

Det bliver nu alligevel spændende at se hvad det bliver til.
Gravatar #2 - duppidat
23. sep. 2009 13:43
Altså det ser da umiddelbart ud til at køre MEGET bedre med et ordentligt grafikkort.

Kan da heller ikke helt følge at man skulle afsætte noget af ens CPU kraft (Der tit og ofte idag er flaskehalsen) til at køre noget grafik?

Men lad os nu se hvad det bliver til .. Det er måske meget smart for casual gaming og sådanne ting?
Gravatar #3 - stevns
23. sep. 2009 13:53
duppidat (2) skrev:
Kan da heller ikke helt følge at man skulle afsætte noget af ens CPU kraft (Der tit og ofte idag er flaskehalsen) til at køre noget grafik?

Det kommer så sandelig an på hvilket spil du tænker på. MMORPG lige som wow eller andre spil hvor mange "enheder" bevæger sig rundt, ja der er det CPU'en som er flaskehalsen, men et almindeligt FPS som crysis er det bestemt ik CPU'en, men dit GFX. : )

Men synes da det ser imponerende ud, ik lige hvad man er vandt til at se fra intle på GFX fronten.
Gravatar #4 - T_A
23. sep. 2009 14:02
I dag hvor vi alle kører med 2+ kerner på vores CPU vil man meget tit i spil opleve at den slet ikke udnytter alle kernerne. (specielt hvis man har 4+ kerner)

Fremtiden lige nu ser ud til vi vil få endnu flere kerner 8 og senere sikkert også 16 kerner, her vil der ligge en masse ubrugt kraft hvis udviklingen forsætter som den gør nu.

Gravatar #5 - Dreadnought
23. sep. 2009 15:07
duppidat (2) skrev:
Kan da heller ikke helt følge at man skulle afsætte noget af ens CPU kraft (Der tit og ofte idag er flaskehalsen) til at køre noget grafik?


Tja, taget i betragtning at Larrabee kommer i 24 og 32 kerner til at ligge ud med, så har du rigeligt med CPU kraft til AI og det andet.
Jeg tror dog at de implementerer det som traditionelle grafikkort først, og med tiden som CPU når de får den skrumpet til 32nm og 48 kerner.
Gravatar #6 - CallOfDuty
23. sep. 2009 15:25
De har lang vej igen, hvis det er det bedste den kan trække pt.
Gravatar #7 - nezz_dk
23. sep. 2009 17:17
efter hvad jeg kan se på videoen ligner det spil de viser frem Quake Wars: Ray Traced.

i kan eventuelt se mere om Quake Wars: Ray Traced på http://www.idfun.de/qwrt der er også lidt flere screenshots.

Jeg glæder mig til at se hvad de kan udnytte larabee til, for det må jo også være muligt at bruge en 32 kernet x86 cpu til andet en grafik, så der kommer nok også noget sjovt til at udnytte det til servere
Gravatar #8 - Lolx2
23. sep. 2009 17:38
Bølgende vand..jo ja. Tror de andre har ret som skrev de nok hellere må skynde sig inden nogen slår dem med et bedre produkt.
Gravatar #9 - Zeales
23. sep. 2009 17:40
Det kan godt være det kan kører, men med de CPU priser vi ser idag vs gfx kort priser vi har idag, er der godt nok langt vej.
Gravatar #10 - TrolleRolle
23. sep. 2009 18:51
Det kan godt være at I griner af denne techdemo, men det ændrer altså ikke på at raytracing er en mere korrekt måde at tegne 3D grafik på end den metode grafikkortene bruger i dag.

Selv om det er over 10 år siden vi så de første 3D grafikkort benytter de stadig den gamle snyde metode som kom frem med Wolfenstein 3D.

Når der f.eks. skal tegnes en væg tager grafikkortet et stykke grafik (texture) og trækker og bøjer lidt i den for at få den til at ligne noget som ses i 3D.

På nyere kort kan man så lægge både lys og effekter oven på dette stykke grafik. Så man kan efterligne ret mange materialer, men det bliver mere og mere kompliceret for spiludviklerne at designe deres levels så de bliver realistiske.

Raytracing derimod har man jo kendt til i... ja vel over 30år? ... og det har altid været brugt i 3D tegneprogrammer til at skabe de fantastiske billeder vi vel alle kender til.

Grunden til at man ikke tidligere har brugt raytracing i spil er at CPU/GPU'er ikke har været hurtige nok... men i nær fremtid kan vi endelig få raytracing ind i spil.

Jeg synes det er fedt at Intel tør være de første på dette marked, men jeg tror roligt vi kan forvente at både Nvidia og ATI nok skal komme raytracing kort inden vi får set os om.
Gravatar #11 - AenimA
23. sep. 2009 19:41
Det store springende punkt er vel om udviklerne er parate til at skifte til den nye rendermetode; og om hardwaren er både funktionel og hurtig nok til at understøtte ikke bare spil der kører, men spil der kan konkurrere med den traditionelle rasterteknik.

Mit gæt er at de teknikker, både hardware og softwaremæssigt, der bliver benyttet til raster 3D grafik, er så langt foran at vi skal flere generationer frem i hardware til raytracing accelleration, før det bliver reelt konkurrencedygtigt. Og først da vil udviklerne følge med.

Men vi får se, det kan være Larrabee overrasker, det afhænger i høj grad af dens ydeevne, ikke kun til raytracing grafik, men også dens kompabilitet med eksisterende spil imo.
Gravatar #12 - ipwn
23. sep. 2009 19:59
#10 Det kaldes rasterizing og det foregår altså ikke som du beskriver det. Level design har intet med render motoren. Ray tracing ænder overhovedet ikke på 3D modellerne, så alt level design vil forblive identisk. Forskellen er udenlukkende på hvordan dette data renderes til skærmen.

Raytracing er dog klart bedre end rasterizing. Skygge, refleksion og refraktion kommer naturligt af algoritmen, og har ingen overhead. Dvs., skygger, refleksion og refraktion ikke vil have noget impact på performance med raytracing, hvilket det jo åbenlyst har i rasterizing da det implementere det med shaders og/eller ekstra geometri. Dette er selvfølgelig kun hard shadows - der vil altid være overhead med soft shadows, da de kræver flere beregninger. Et andet problem er også antialiasing; det kræver også flere beregninger.

Det bliver lækkert at programmere med raytracing. Alting bliver lettere, og man kan fokusere på yderligere effekter frem for de basale. Kombineret med radiosity, hvilket allerede kan gøres realtime, vil det give næsten naturligt lys og skygge. (Intet nyt her; radiosity virker fint med både rasterizing og raytracing, og er blevet brugt pre-cooked i spil de sidste 10 år)

Men tror nu stadig der går tid. Og til den tid, kan jeg forestille mig at grafikkort vil implementere ray tracing algoritmen så den kan køres på hardware, fremfor software, ligesom rasterizing gøres pt. Så er vi endnu engang tilbage til hvad det er nu, med GPU som førende. Raytracing skal jo helst gøres parallelt, og GPU'er har jo allerede hundrede af threads de kan beregne på én gang.

En anden ting jeg tænker på er også om grafik bibliotekerne vil tilføje raytracing support. Det er altså et stort skridt tilbage hvis hver udvikler skal skrive deres egen raytracer; ligesom 3D spil før OpenGL kom, som havde alt for varierende kvalitet og performance. Alle kan jo skrive en raytracer, men at få den til at køre optimalt på en specific platform kræver altså mere end det; helst en standard eller to. (Tænker her på OpenGL og DirectX)
Gravatar #13 - dummyddd
23. sep. 2009 22:38
#12
Vil du påstå at en raytracing algoritme ikke vil køre hurtigere hvis man slår refraktion, reflektion eller skygger fra? Det kan godt være at implementering af de features er relativt simpelt, men de påvirker køretiden meget drastisk.
Problemet med raytracing er jo i bund og grund at der sendes så mange stråler, hvor der skal bestemmes hvilken overflade de skærer med. En brute force løsning skalerer forfærdeligt i forhold til rasterisering, og en mere intelligent løsning kræver branches, hvilket ikke virker godt sammen med dybe pipelines (de intelligent løsninger skalerer dog stadig dårligt i forhold til rasterisering). Dybe pipelines finder man på bl.a. gpu'er, og til en hvis grad netburst arkitekturen som larrabee er baseret på. Jeg vil dog blive overrasket hvis intel ikke har lavet nogle forenklinger af processoren, så det bliver nok ikke helt så slemt.
Gravatar #14 - .dot
23. sep. 2009 23:33
CallOfDuty (6) skrev:
De har lang vej igen, hvis det er det bedste den kan trække pt.

Ved du hvad raytracing er?
Gravatar #15 - gensplejs
24. sep. 2009 06:04
Raytracing eller ej. Lortet skal sku kunne trække et moderne spil.
Hvis lortet ikke kan trække mine spil fordi intel insistere på raytracing frem for rasterizing så kan de ikke sælge kortet til mig.

Mon ikke Larabee bliver et kæmpe flop og ender sine dage på markedet for grafiske workstations eller noget i den stil... Det er jo set før.
Gravatar #16 - Dreadnought
24. sep. 2009 06:25
#13 Nu ved jeg ikke lige helt hvilken skalering du snakker om. Men Larrabee skalerer 100% op til 32 kerner.
Gravatar #17 - TrolleRolle
24. sep. 2009 06:28
#12 Ja, du må undskylde at jeg forsøgte at beskrive processen så almindelige mennesker kan forstå det.

Det eneste vi er uenige om er vist hvor grænsen går for leveldesign.

I dag skal leveldesignerne også kende til shaders og der skal evt. laves nye shaders for at skabe "snyde"-effekter som f.eks. vandoverflader osv.

Med raytracing bliver designeren mere fri og behøver ikke kende til helt så meget til de renderteknikniske elementer.
Gravatar #18 - ipwn
24. sep. 2009 08:25
#13 Forskellen er jo at du implementere skygger, refleksion og refraktion direkte i det pass du beregner farven på overfladerne der skæres med, frem for efterfølgende med rasterizing. Refleksion og refraktion kræver ikke flere skæringer, men en beregning af materialets egenskaber, som påvirker hvordan ray'en skal sendes videre. (Altså vinklen) Du har dog ret med skygger, da der jo skal sendes skygge ray's ud for hver lyskilde. Der undskylder jeg.
Gravatar #19 - ipwn
24. sep. 2009 08:28
gensplejs (15) skrev:
Raytracing eller ej. Lortet skal sku kunne trække et moderne spil.
Hvis lortet ikke kan trække mine spil fordi intel insistere på raytracing frem for rasterizing så kan de ikke sælge kortet til mig.

Mon ikke Larabee bliver et kæmpe flop og ender sine dage på markedet for grafiske workstations eller noget i den stil... Det er jo set før.


Det er bare en tech demo. Raytracing kommer ikke indenfor de næste 5 år, mindst. Den kan sikkert køre rasterizing. Du skal tænke på at selv de bedste GPU'er der findes, kan ikke køre raytracing med mere end 5-10 FPS, i simplere scener end nuværende raster scener. Det er derimod det mål alle vil frem til; det er næste skridt indenfor realtime 3D. Her er spørgsmålet mere om det bliver CPU eller GPU der vinder løbet, om en 5+ år. Indtil da, må vi nyde rasterizing, som da også ser ganske sprødt ud efterhånden.
Gravatar #20 - dummyddd
24. sep. 2009 12:28
#18
Når strålen sendes videre skal der beregnes skæring for både refleksion og refraktion, sagt på en anden måde har det et overhead. Hvis de samme effekter skal simuleres i realtid med rasterisering vil det typisk ikke give lige så god billedkvalitet, men i princippet skal der kun oprettes et enviroment map, imod at udsende to stråler. Hvis man har en dyb refraktions, eller refleksions sti, kunne jeg dog godt forestille mig at raytracing ville være hurtigere, end en "korrekt" simulering af refraktion gennem rasterisering.

#16
Jeg taler om hvordan køretiden af algoritmen skalerer, ikke om hvordan algoritmen skalerer når der benyttes flere kerner (både raytracing og rasterisering er data parallelle og skalerer derfor næsten lineært).
Antagende ingen antialiasing.
Køretid for rasterisering (i grove træk):
(pixels*lag_af_pixels_der_renderes)+(punkter*gentransformationer)
Køretid for raycasting med bsp træ (i grove træk):
(pixels*log(overflader))
Tricket er at lag_af_pixels_der_renderes og gentransformationer typisk vil være meget lave konstant, som er relativt urelaterede til kvaliteten af grafikken, hvorimod antallet af pixels og antallet af overflader/punkter er store tal, der i høj grad er ensbetydende med kvaliteten af grafikken.
Gå til top

Opret dig som bruger i dag

Det er gratis, og du binder dig ikke til noget.

Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.

Opret Bruger Login