mboost-dp1

Intel

Intel gentager: Raytracing er vejen frem

- Via EETimes - , redigeret af Avenger-

Intel har tidligere været ude og proklamere, at den måde, som AMD og Nvidia laver grafikchips på, er uddøende, idet fremtiden vil blive baseret på ren raytracing. Det fik blandt andet en Nvidia-direktør til at lange hårdt ud efter Intel.

Intels tekniske direktør (CTO) talte for nyligt til en samling af forskere hos Intel, hvor han endnu engang påpegede, at den traditionelle metode at lave GPU’er på er uddøende og må vige for en bedre teknologi, nemlig raytracing.

Intel er i fuld gang med udviklingen af deres egen grafiske processor, der skal kunne levere raytracing i spil, den meget omtalte Larrabee-processor. Processoren vil bestå af mange små IA-baserede kerner, der tilsammen vil kunne levere regnekraft nok til at løse de regneintensive raytracing-beregninger i realtime.

Intel forventer først at have Larrabee klar tidligst i slutningen af 2009.





Gå til bund
Gravatar #1 - moulder666
13. jun. 2008 13:37
Surprise, surprise...de promoverer deres egen løsning som "fremtidens valg" og nedgør de andres...

Det her bliver måske en nyhed værd, hvis de rent faktisk viser noget hardware frem, der kan yde det de lover!
Gravatar #2 - Mikle
13. jun. 2008 13:49
Hvad er raytracing?
Gravatar #4 - PzymeX
13. jun. 2008 13:59
men det ser altså temmeligt fedt ud.. ville nu gerne game i et Raytracet renderet spil.. http://upload.wikimedia.org/wikipedia/commons/e/ec...
Gravatar #5 - -N-
13. jun. 2008 14:00
Giver manden fuldstændig ret, raytracing i realtimer kunne være fedt. Men kan godt forstå Nvidia brokker sig, de har højst sandsynligt ikke folk der kan stykke en så kompliceret kerne sammen.

Men det tager nok nogle år før vi for full screen raytracing osv. på samme måde som de komplekse billeder der er lavet i 3d programmer.

Jeg forstå slet ikke hvordan nvidia kan få sig selv til at sige noget andet, det virker jo direkte dumt. Spørgsmålet er ikke om det kommer, men hvornår det kommer. Synes hellere nvidia skulle bruge tiden på at få fat i nogle folk, så vi kan få noget konkurrence, i stedet for at benægte fremtiden... De laver jo ikke andet end at tude, det kommer der ikke raytracing gpu på bordet af :-D
Gravatar #6 - deldy
13. jun. 2008 14:14
Det er et godt spørgsmål, om raytracing bare er noget der sådan pr. automatik bliver understøttet, eller det er noget som spillene skal programeres til - i så fald, så kommer udfaldet også meget an på om spiludviklerne tager det til sig. Hardwaren skal jo også være med, og så længe at XBOX 360 og PS3 er de nyeste konsoller, så tror jeg folk skal se langt efter spil som er bygget til Raytracing understøttelse. Og hvis vi så ligger med 2 typer spil: Raytracing og Non-Raytracing, så kan jeg ikke se hvordan NVidia nogensinde vil tabe penge, da vi som forbrugere jo bare bliver tvunget til at have to GPU'er.

Jeg håber på bedre grafik om der så står NVIDIA eller INTEL på chippen - det er jeg ligeglad med, og dem som virkelig skal være bange må da være AMD, for de kan da miste et helt marked.
Gravatar #7 - Coma
13. jun. 2008 14:41
kan huske der fandtes nogle rpg/fps spil til amiga med raytrace engine.. så tekniken har været brugt før...
Gravatar #8 - Krisgebis
13. jun. 2008 14:41
#5: Måske kan du komme nærmere ind på hvorfor det bliver den uundgålige fremtid. Jeg tror det ærligt talt næppe.
Det virker til at være det samme som at påstå at atomdrevne biler ville blive fremtiden. Ja, teknologien er mere advanceret og "bedre", men den er fuldstændigt overkill og besværlig at anvende i praksis.
Vi ser nok en anden teknologi overhale den indenom inden de får indkorporeret det nogenlunde i gaming industrien
Gravatar #9 - -N-
13. jun. 2008 14:54
#8
Nu er atomkraft ikke særlig effektivt, man udnytter kun en meget lille del af den potentielle energi...

Anyway, det er uundgåeligt at spil får fotorealitisk grafik og der er ikke så mange andre metoder til at skabe det. Men der er måske nogle undervejs? - Så er situationen en anden.

Uanset, så er bliver gpu'er angiveligt at for simple til at kunne løse det.

Jeg går desuden stærk ud fra, at intel ikke begynder at invester store summer i udviklingen af en chip, hvis der findes en super effektiv metode, som kan løses med nuværende gpu'er.

Men god grafik bliver vil aldrig overkill, eller?
Gravatar #10 - nmx-
13. jun. 2008 14:58
6 skrev:
Det er et godt spørgsmål, om raytracing bare er noget der sådan pr. automatik bliver understøttet, eller det er noget som spillene skal programeres til - i så fald, så kommer udfaldet også meget an på om spiludviklerne tager det til sig. Hardwaren skal jo også være med, og så længe at XBOX 360 og PS3 er de nyeste konsoller, så tror jeg folk skal se langt efter spil som er bygget til Raytracing understøttelse. Og hvis vi så ligger med 2 typer spil: Raytracing og Non-Raytracing, så kan jeg ikke se hvordan NVidia nogensinde vil tabe penge, da vi som forbrugere jo bare bliver tvunget til at have to GPU'er.

Jeg håber på bedre grafik om der så står NVIDIA eller INTEL på chippen - det er jeg ligeglad med, og dem som virkelig skal være bange må da være AMD, for de kan da miste et helt marked.


Nu er Xbox360 og PS3 jo ikke det eneste der bliver lavet spil til? hvis nvidia/intel laver en raytracing cpu/gpu går der ikke længe før du vil se nye spil på markedet til f.eks. pc'en

og der går nok heller ikke så lang tid før Sony og microsoft smider nogle nye konsoller på markedet eller en hardware upgrade.

det hele kommer an på efterspørgslen. for firmaerne mister markedet hvis de ikke kan producere det kunderne vil have og går over til et andet firma, men ja det bliver svært for nvidia at følge med intel her da intel har megen erfaring med at producere CPUer og Nvidia kun har erfaring med GPUer men tror da at Nvidia nok skal finde på en løsning, det samme med AMD. men der går nok nogle år før vi ser raytracing spill da raytracing er en megen langsom process.
Gravatar #11 - Windcape
13. jun. 2008 15:01
Det handler ikke så meget om brugen af raytracing, eller at teknologien findes.
Raytracing benyttes jo allerede, som i kan se på wikipedia , og er godt til simple billeder.

Hele problematikken handler om at kunne rendere det HURTIGT nok til at kunne benyttes i et 3D spil.

Derudover kommer , som nævnt, problematikken med at der skal udviklings programmerings interfaces (APIs) til at kunne benytte teknologien.

Heldigvis var DirectX 10 et forskud på at gøre det lettere at implementere nye teknologier på grafikkort.
Gravatar #12 - nmx-
13. jun. 2008 15:04
men DirectX 10 er allerede blevet erstattet af 10.1?

men ja giver dig ret i det var et forskud, men forskellen på DirectX10 og 9 er ikke så stor igen syntes jeg.

Men hvis man følger udviklingen inden for Grafik og Regnekraft kan der ikke gå lang tid før der kommer noget nyt da PC hardware bliver opdateret meget oftere end Konsol hardware da det kræver de laver en ny konsol, også en af de grunde at jeg ikke gider ofre penge på en konsol da den hurtigt bliver forældet i forhold til en PC.
Gravatar #13 - manisto
13. jun. 2008 15:04
Det største problem med raytracing er nok stadig, at man højst kommer til at snakke spf (Seconds Per Frame) og ikke fps (Frames Per Second). Men jow, det ser da nice ud! :) Og der er da ingen tvivl om, at det nok skal komme. Regnekraften skal bare være der til det.
Gravatar #14 - vardeesbjerg
13. jun. 2008 15:27
Nu er Intel jo også dygtige til at fyre en masse pis af.

Det lever de af.

Sidste gang de prøvede at bevise hvor kraftigt larrabee var tabte det hele på gulvet.

De renderered en scene med 50-65k objekter med 15 frames per sekund.

Det var så ret imponerende lige indtil nvidias 9800gx2 gjorde det samme med 300 frames per sekund.

Det var så kun en faktor 20 de var bagud.

Alt det ævl om raytracing er et kæmpe røgslør.

De kan ikke engang være med i normal rastersation teknik og så prøver de med fuldblods grafik.

Nvidia teknikere har endda sagt at fremtiden er ikke ren raytracing.

Ja, Intel er dygtige men jeg tror sgu lidt mere på Nvidia på deres felt end intel.

Desuden har nvidia faktisk købt et raytracing firma, så bare rolig de ryger ikke lige af vognen skulle raytracing snart vinde frem.
Gravatar #15 - .dot
13. jun. 2008 15:34
#5 - Nu har nVidia sagt at det vil blive en hybrid, de har ikke afvist raytracing.
Gravatar #16 - Windcape
13. jun. 2008 16:17
#12

Jeg snakkede om den tekniske forskel, hvad du oplever af spil kan du altså ikke bare noget som helst på.
Gravatar #17 - Krisgebis
13. jun. 2008 16:42
#9: Atomenergi er klart blandt noget af det mest effektive energiproduktion vi har idag, så du kan ikke komme udenom det er noget af det "bedste". Den manglende effektivitet, skylden måden vi generelt udvinder "energi" på af exoderme processer, der går igennem opvarmningen af andre elementer. Så det er ikke selve atomenergiens skyld (andre har langt lavere).

Hvad snakker du om, der er da massere af andre metoder til at få bedre grafik end vi har nu. De bliver hele tiden udviklet og hjælper hinanden indbyrdes med at udvikle nye teknikker. Prøv at lade være med at sige raytracking = bedre grafik (og KUN raytracking).

Tekniken er ALT for krævende til at den vil være særligt anvendelig i større omfang. DERFOR er den ikke anvendelig i praksis. Det ville jo også være dejligt hvis man kunne benytte uendeligt størrelses teksturer, det ville også gøre grafikken bedre. Men det er simpelthen ikke en praktisk anvendelig mulighed.

Intel laver en ny chip om du vil det/om der er brug for det/om Danmark annekterer norge eller ej. Efterfølgende vil de prøve at sælge denne chip, ved at benytte marketings hype (her har vi det).

GPU'erne idag, er altså det stærkeste hardware vi har idag, til at trække de spil vi spiller. At du nu pludseligt synes de er simple, tyder jo bare på at du måske skulle have startet dit eget hardware firma!?
Gravatar #18 - -N-
13. jun. 2008 17:45
#17 Det er nu også mest ment som joke, men atom energi opnår en udnyttelse på ca. 20% så vidt jeg ved.

Ja til at få bedre grafik, men raytracing giver foto realitisk grafik.

Men jeg er selv overrakset over, at de er begyndt at udvikle en chip. Men var der nogle metoder som var langt mere anvendlige til at skabe det niveau, så er jeg ret overbevist om at de havde valgt den.

... Og ja, selvfølgelig prøvet de at skabe opmærksomhed. Men det er usandsynligt, at fremtiden vil benytte gpu'er som vi kender dem i dag. Det er en naturlig udvikling. Derfor synes jeg at nvidia tuder, for det tilkendegiver bare, at de ikke er med i front.

I princippet er det jo fuldstændig ligegyldigt, jeg forstår slet ikke at de reagere så kraftigt.

Struktuere i en gpu er langt mere simpel en strukturen i en cpu. En gpu har ufattligt meget regnekraft til én specifik ting, en cpu er langt mere alsidig og det afspejler sig i den mere komplekse struktur
Gravatar #19 - Törleif Val Viking
13. jun. 2008 18:01
Synes raytraycing lyder rigtig spændende og efter at have læst nogle af de referencer som wikipedia disker op med må jeg indrømme at raytraing lyder som fremtiden. Hvordan vi kommer derhen ved jeg ikke, men det lader til at raytraycing er enormt nemt at programere, plus det er flot.
Gravatar #20 - vardeesbjerg
13. jun. 2008 18:19
Fotorealistisk, grafik ROFL

Har I nogen sinde kigget ud af vinduet?

Raytracing er fin grafik men så er det sgu heller ikke bedre.

Vil langt fra kalde det fotorealistisk.

"Huang can see a very near point and time in the development of their parallel processing software engines that a breakthrough comes, one which will enable the massively parallel internal processing engines (basically more than 100 mini CPUs on the inside of a GPU or modern day 3D graphics card) to not only serve as the processing engines for high-end graphics, but also for all of the work your PC would ever want to do."

prøv at åbne op for den kraft som flere forskere teams har gjort og bye bye Intel.

Det er derfor nvidia snakker om "optimised pc" hvor man bruger gpuen i mange programmer. Det bliver billigere pcere og de er meget hurtigere end bare focusering på cpu.

http://www.geek.com/amd-may-be-light-years-ahead-o...
Gravatar #21 - killer_X
13. jun. 2008 18:47
En smule offtopic , ikke ret mange nyhedes sider har fortalt om at intel opkøbte en spil grafik engine (motor) Project offset.

http://digg.com/pc_games/Why_Intel_bought_Project_...
http://www.beyond3d.com/content/news/593

En trailer af spillet "Project offset" eller teak demo om man vil :
http://www.gametrailers.com/player/22926.html?type...
Gravatar #22 - Krisgebis
13. jun. 2008 19:30
#18: Igen, du kan sagtens have ret. MEN prøv at sammenkæd din påstand om at dette nye, bliver den uundgåelige fremtid.
Jeg kan nævne et eks. I 80'erne mente nogle fremtidsvisionære at vi i fremtiden (20-40 år frem) alle ville have private helikoptere, i stedet for biler.
JA, helikopteren er smartere og mere anvendelig. Men det viste sig ikke som en praktisk anvendelig mulighed at tage den udvikling. Dette skyldtes flere faktorer.
Raytracking er simpelthen en ALT for tung beregning at have kørende, det vil vare længe for vi når en regnekraftsniveau hvor udviklere vil "spilde" så mange resurser på den ting. Spiludvikling går jo ud på at få så flotte effekter som muligt, med så lidt resurser forbrug som muligt. Dette trin ville jo være at smide alt ind på flottere grafik, en udvikling vi ikke ser, på nær en enkelt titel i ny og næ.

Fotorealistisk grafik i realtime, for den almindelige forbruger er stadig langt ud i fremtiden, så der kan såmen sagtens opstå en ny teknik der viser sig at være bedre anvendelig. F.eks. virkede vektor grafikken også som et vidunder tilbage i arkade 80'eren. Det var den første 3d grafik, der kunne renderes hurtigt nok til at blive brugt til spil. (Denne var dog praktisk anvendlig hvilket jeg ikke ser raytracking hovedsagligt skulle blive). Det viste sig dog at vektor grafikken alene ikke kunne bære udviklingen særligt langt. Den har dog haft forskellige genoplivninger sidenhen og er blevet benytte i flere sammenhænge som supplement til andre renderings teknikker.

Selvfølgeligt vil gpu'er udvikle sig, de udvikler sig jo også idag. Det seneste er DX10 specifikationerne som gør op med seperationen af shadere, så de nu kan benyttes alment og derfor kan skifte on-the-fly. Vi ser også ca. en fordobling i preformance pr. generation, så det er ikke fordi vi har ramt en mur eller bare sender det samme på gaden igen og igen.

To ting til din sidste kommentar: 1. Hvis specialiserede chip er mindre advancerede end generelt anvendelige, hvordan kan intels chips så være fremtiden? De er jo netop specialiserede til raytracking.
2. At noget er specialiseret gør det ikke mindre advanceret. F.eks. kan en sten benyttes til voldsomt mange forskellige ting, hvorimod en stol kan bruges til mindre forskellige formål.
Gravatar #23 - b4@
13. jun. 2008 19:38
#4 det billede er faktisk ikke lavet via normal raytracing! Det er lavet med en teknik som hedder radiosity, som giver meget præcise skygger og toninger.

Det billede har sikkert også tage flere timer at rendere.
Gravatar #24 - terracide
13. jun. 2008 22:54
14 skrev:
Nu er Intel jo også dygtige til at fyre en masse pis af.

Det lever de af.

Sidste gang de prøvede at bevise hvor kraftigt larrabee var tabte det hele på gulvet.

De renderered en scene med 50-65k objekter med 15 frames per sekund.

Det var så ret imponerende lige indtil nvidias 9800gx2 gjorde det samme med 300 frames per sekund.

Det var så kun en faktor 20 de var bagud.

Alt det ævl om raytracing er et kæmpe røgslør.

De kan ikke engang være med i normal rastersation teknik og så prøver de med fuldblods grafik.

Nvidia teknikere har endda sagt at fremtiden er ikke ren raytracing.

Ja, Intel er dygtige men jeg tror sgu lidt mere på Nvidia på deres felt end intel.

Desuden har nvidia faktisk købt et raytracing firma, så bare rolig de ryger ikke lige af vognen skulle raytracing snart vinde frem.


Jøsses, du sammenligner æbler og burhøns nu, det var IKKE samme test Itnel og NVIDIA kørte...desuden var det NEHAMLEM (en CPU) intel kørte alt på (inklusive 3D redering) hvor NVIDIA's "modsvar" var at vise at deres GPU er hurtigere til 3D end en CPU...men det gik vist hen over hovedet på dig, da din post er jo intet andet en misforståelser bygget oven på uvidenhed...
Gravatar #25 - SmackedFly
14. jun. 2008 04:33
#6 #10

Nu er en GPU og en CPU jo rent teknisk det samme, de løser bare forskellige opgaver, så at sige at Nvidia ikke har erfaring med CPU'er er jo ikke specielt relevant, eftersom forskellen reelt kun ligger i instruktionssættet.

Om Nvidia så reelt kan følge med Intel, der jo givetvist har langt flere ressourcer at smide efter det her problem er så noget andet.
Gravatar #26 - CallOfDuty
14. jun. 2008 04:40
Intel spreder FUD af en eller anden årsag, de er i hvert fald meget tidligt ude med den udtalelse.
Gravatar #27 - mortydk
14. jun. 2008 04:43
...Mon ikke også INTEL har lavet et lille regnestykke baseret på Marketing fusk i første omgang. Deres udviklingsstrategi har i de sidste 5 år været baseret og fokuseret på regnekraft og ydelse til PC brugere. Nu kommer så den sidste udmelding at "de er i færd med at udvikle en ny chip/GPU" som kan arbejde og rendere hurtigere end gængse CPU'er. Mon ikke INTEL blot gør sig klar til at satse på salg af nye "INTEL PC'er" som vi snart ser det fra AMD gruppen?
Gravatar #28 - -N-
14. jun. 2008 06:26
#22 + #25 Jeg giver dig fuldstændig ret, det er også derfor det er lidt laterligt at nvidia overhovedet giver bekymre sig om den udtalelse.

Intel projekt er, som du selv siger, lige begyndt og i starten vil det være enkelte objekter der er raytraced, ligesom med AA.

Men jeg tror at gpuerne som vi kender dem i dag er alt for simple. De har en super høj performence, men en begrænset anvendelighed. Det kan godt være at forskere kan kode programmer der kan udnyttet dem, men det er bare ikke særlig relevant for den gennemsnitlige bruger.

Desuden, så vidt jeg er informeret har gpu'er hverken out of order executoin, trace cashe, prediction unit osv. Alle ting som gør processorer komplekse foruden det meget større instruktions set. Der er mile langt fra gpu til cpu design, det afspejles også i omkostningerne ved at udvikle en processor. Så vidt jeg er informeret kom Itanium aldrig til at give overskud, fordi der var så mange ressourcer forbundet med at udvikle den. Det var også derfor at de var flere selskaber sammen om projektet.
Gravatar #29 - dan1el
14. jun. 2008 08:07
sjovt at Intel netop siger det når nu nvidia har opkøbt Mental Images som laver MentalRay (Raytracing render engine)
Gravatar #30 - stone
14. jun. 2008 08:56
22 skrev:
#18: I 80'erne mente nogle fremtidsvisionære at vi i fremtiden ..[..]Men det viste sig ikke som en praktisk anvendelig mulighed at tage den udvikling.

raytracing har dog allerede bevist at det er praktisk muligt og saerdeles brugbart. der er ingen tvivl om at vi faar raytracing engines foer eller senere.

22 skrev:
Raytracking er simpelthen en ALT for tung beregning at have kørende, det vil vare længe for vi når en regnekraftsniveau hvor udviklere vil "spilde" så mange resurser på den ting.

allerede nu er det i brug i specifikke sammenhaenge, og de foerste hybrid engines er ikke langt ude i fremtiden. sagen er nemlig at gpu'erne efterhaanden bliver mere programerbare, og dermed ogsaa kan bruges til raytracing. i loebet af faa generationer vil gpu'erne uden tvivl begynde at understoette stadig mere af den funktionalitet i hardware, og dermed vil skiftet ske.

22 skrev:
Fotorealistisk grafik i realtime, for den almindelige forbruger er stadig langt ud i fremtiden, så der kan såmen sagtens opstå en ny teknik der viser sig at være bedre anvendelig. F.eks. virkede vektor grafikken også som et vidunder tilbage i arkade 80'eren. Det var den første 3d grafik, der kunne renderes hurtigt nok til at blive brugt til spil. (Denne var dog praktisk anvendlig hvilket jeg ikke ser raytracking hovedsagligt skulle blive). Det viste sig dog at vektor grafikken alene ikke kunne bære udviklingen særligt langt. Den har dog haft forskellige genoplivninger sidenhen og er blevet benytte i flere sammenhænge som supplement til andre renderings teknikker.

hmm, det 3d grafik du ser i spil er jo vektor grafik, i modsaetning til bitmaps, saa det du skriver her drejer sig vidst om en misforstaaelse. nu om dage har de textures og saa videre, men det er skam det samme. raytracing er ogsaa vektor grafik, da vektor bare er en maade man matematisk kan beskrive former med polygoner, beizer kurver osv.

22 skrev:
Vi ser også ca. en fordobling i preformance pr. generation, så det er ikke fordi vi har ramt en mur eller bare sender det samme på gaden igen og igen.

uanset hvor meget performance du kan finde, er der en stribe ffekter du ikke kan opnaa med rasterization, men som praever raytracing. rasterized grafik er forenklet sagt 'snyd', og du kan ikke lave fysike korekte lys effekter. det drejer sig om skygger, global illumination, refraktioner i vand og meget mere. foer eller siden er man ikke laengere tilfreds med rasterization i disse omraader, og saa opstaar hybrid engines hvor man vil bruge raytracing til nogle ting.

/stone
Gravatar #31 - ipwn
14. jun. 2008 10:28
30:
Du kan aldrig have fysiske korrekte effekter i computer spil. Som min matematik lærer siger - computer spil mv., er blot en illusion af virkeligheden. Vi behøver blot vise overfladen, ikke de korrekte mekanismer. Derfor kan vi i stedet for at bruge partiel differentiation, som vil tage tusindvis af udregninger men er uendeligt tæt på det rigtige resultat, nøjes med matrix/vektor regning som blot er nogenlunde tæt på - visuelt kan du ikke se em forskel alligevel, og en computer har desuden kun et begrænset antal pixel til at vise det.

Ser ud som om at raytracing er det samme tilfælde - kan se at matematikken laves med vektorer, og der skal nok smækkes lidt matrixer ind for at transformere disse vektorer i et 3D rum. Ingen fysik regninger der - eller ikke præcise i hvertfald :)
Gravatar #32 - AenimA
14. jun. 2008 10:31
#30

Spørgsmålet er nok tidshorisonten. Intel er meget hurtigt ude og proklamere raytracing som vejen frem, men som du selv nævner bliver det nok mere en hybrid i starten.

Fra artiklen:

"Our long term vision is to move beyond raster graphics which will make today's GPU technology outmoded, .."


Jeg ved ikke om long term her skal forstås som slutningen af 2009, men eftersom Larrabee også kan rendere OpenGL og DirectX (som indtil videre er rasterization grafik), kan det også tænkes at 'long term' skal forstås som hybrid først, og ren raytracing ligger længere ude i Intels planer.

Men Intel kan selvfølgelig også have et es i ærmet (forstået som: en hurtigere overgang til raytracing), der kan udspille Nvidia og AMD; men mon ikke de har lugtet lunten - noget kunne tyde på det med deres mere glidende overgang fra single purpose til multi purpose shaders (ansporet af MS DX10) og div. CPU lignende projekter (f.eks. CUDA)
Gravatar #33 - stone
14. jun. 2008 11:36
31 skrev:
30:
Du kan aldrig have fysiske korrekte effekter i computer spil. Som min matematik lærer siger - computer spil mv., er blot en illusion af virkeligheden. Vi behøver blot vise overfladen, ikke de korrekte mekanismer.

det er absolut korrekt at vi kun behoever at gengive en overflade der ligner. men allerede her komme rasterization voldsomt til kort.

desuden, at noget ikke er praecist, goer det ikke mindre fysisk korrekt. feks er beregninger for hvordan lys brydes i forskellige materialer, rimeligt haandgribelige, og vil kunne bruges til at give korrekte refraktioner og reflektioner. det staar i kontrast til rasterization som ikke har noget begreb om verden, og derfor aldrig vil kunne opnaa andet end tilnaermelser, som er specifikt skabt til at se rimelige ud i den givne sammenhaeng. det er baade synligt at det ikke korrekt, giver artifakter, og uhyre tidskraevende at saette op.

i spil industrien er man desuden kun i ringe grad interesseret i fuldstaendig realisme. det man i virkeligheden oensker, er noget der ser flot ud, hvilket slet ikke er det samme.

/stone
Gravatar #34 - terracide
14. jun. 2008 17:31
#31:
Den udtalelse duer ikke mere efter at der er kommet meget mere fokus på fysik..."døde" verdener er på vej ud.
Gravatar #35 - terracide
14. jun. 2008 19:12
Whee, jeg har fået en anti-fan....sødt, men jeg har en kæreste., Icebreaker :)
Gravatar #36 - magravn
14. jun. 2008 21:34
Kan egentlig ikke forstå Intel. De prøver jo trodsalt bare at skovle penge ind. Jeg kan sige at jeg bestemt ikke kan lide dem bedre nu.
Gravatar #37 - terracide
14. jun. 2008 23:57
#36:
Jeg er kold overfor enten AMD eller Intel.
Men jeg har intet imod Intel's Core arkitektur, den efterlader AMd i stævet.
Og Nehalem vil endnu mere vise ydelse som AMD slet ikke kan matche,
Gravatar #38 - el_senator
15. jun. 2008 09:09
#7, Ja, teknikken er meget gammel og har været brugt siden 80'erne og måske endda før den tid. Men på en Amiga, realtime? Jeg beklager min skepsis, men det tvivler jeg lidt på. Det kræver ekstremt meget cpu kraft at rendere raytracing, da man går ind og tracer hver enkelt solstråle/foton både hvad angår skygger, men også afbøjning i glas osv.
Man snakker om at man har et gyldent tal for hvonår raytracing bliver pænt at se på. Jeg mener det ligger omkring 50.000 traces og det skal altså udføres mindst 25 gange i sekundet.

Der findes faktisk realtime raytracing demoer til PC'erne. Det har været brugt på demo-scenen i flere år, men har aldrig rigtig været pænt at se på i forhold til raster grafik i de traditionelle GPU'er.

Hvis i har lyst, kan i tjekke nogle realtime raytraced demoer ud på følgende link. Det viser lidt om hvad vi kan i dag, med vores Core 2 cpu'er:

Realtimeraytrace.de
Gravatar #39 - SmackedFly
15. jun. 2008 09:49
#28

Det handler ikke så meget om kompleksiteten, de ting du nævner er helt sikkert features der tilføjet kompleksitet, men ikke så meget som du indikerer.

Den store forskel på en CPU og en GPU er at hvis der er et bug i en CPU er skaderne langt større, dvs. der skal flere tests til og mere quality control, hvorimod du ofte bare kan modificere driveren hvis der er en fejl i en GPU, fordi det mere eller mindre reelt kun er VESA standarden standarden der skal overholdes af grafikkortet (og den har ofte næsten intet med GPU'en at gøre). Resten skal bare passe ind i driver kaldende.

Men at sige at en CPU er ufatteligt meget mere komplekst end en GPU er ude af proportioner, det er bare langt dyrere at lave fejl i CPU produktion og du implementerer langt flere specifikationer der alle skal overholdes.
Gravatar #40 - iluka
15. jun. 2008 19:12
Det fede ved ray tracing er at det er ekstremt paraleliserbart. I en tid hvor antallet af kerner stiger medens clockfrekvenser ikke ændrer sig meget er det jo pludseligt interesant at se på paraleliserbarheden.

Inten er ikke eksperter i a lave GPU'er men de er eksperter i at lave fler-kerne CPU'er. Det er kun naturligt at de forsøger at anvende den viden de har på grafikmarkedet. Hvis det kan lykkes intel at lave CPU'er med rigtigt mange kerner så tror jeg gerne på at ray tracing skal blive fremtiden. Men det kræver mange kerner, ikke bare 8-12 stykker som Intel kan byde på for tiden eller i den kommende tid.
Gravatar #41 - terracide
15. jun. 2008 19:24
#140:
"Larrabee" har mere en "8-12" kerner.

EDIT:
"Larrabee" er rettet mod mid-end, ikke high-end, bare for at tage broden af de værste NVIDIA-zealots
Gå til top

Opret dig som bruger i dag

Det er gratis, og du binder dig ikke til noget.

Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.

Opret Bruger Login