mboost-dp1

Intel

Intel foreslår, antialiasing skal klares af CPU’en

- Via Hot Hardware - , redigeret af Pernicious

Inden for moderne computergrafik anvendes ofte teknikken anti-aliasing, der “blødgør” de hårde kanter omkring pixels for at få dem til at se pænere ud i forhold til den baggrund, de bliver præsenteret på.

Specielt inden for spil med avanceret 3D-grafik kan det kræve mange ressourcer fra grafikkortet at have anti-aliasing slået til, men det har Intel nu en løsning på.

Sidste år tilføjede AMD nemlig som de første understøttelse for Morphological AA (MLAA), der udfører alle anti-alias-beregninger, efter et helt billede er renderet færdigt, og dermed gør beregningerne væsentligt mere simple. Understøttelsen blev dog, ganske naturligt, lagt ind i GPU’er fra AMD, nærmere betegnet Barts-serien, som sidder i Radeon 6850 og 6870-chipsene.

Intel mener dog nu, at der ingen grund er til, at anti-aliasing med MLAA-teknikken foregår i GPU’en, når arbejdet ofte kan klares ligeså godt af CPU’en, der alligevel tit har kerner fri til netop dette arbejde. På den måde aflastes GPU’en, som i stedet kan koncentrere sig om mere grafiktunge opgaver.

Intels forslag er dog ikke beregnet på at skulle give det helt store boost i almindelig computere. I stedet vil det kunne gavne specielt konsoller som Xbox 360 og PS3, hvor bedre udnyttelse af hardwaren er essentielt for at forlænge konsolgenerationens levetid.





Gå til bund
Gravatar #1 - Remmerboy
25. jul. 2011 10:27
nyheden skrev:
Sidste år tilføjede AMD nemlig som de første understøttelse for Morphological AA (MLAA), der udfører alle anti-alias-beregninger, efter et helt billede er renderet færdigt,

det lyder somom at der introduceres lag i processen
Gravatar #2 - rudolf
25. jul. 2011 10:35
Jeg ville gerne vide hvordan Intel har tænkt sig at flytte så meget information fra grafikkortet over til CPU'en for derefter at blive flyttet tilbage til grafikkortet for at blive vist på skærmen. Intel kan evt. så gøre så de selv smider billedet på skærmen (de har jo trods alt selv grafik i CPU'en nu om dage med Sandy Bridge). Men det er stadigvæk en hel del billedinformation der skal sendes for at kunne foretage AA. For mig at se virker det mest logisk at foretage den slags beregninger på grafikkortet.
Gravatar #3 - fennec
25. jul. 2011 10:38
Så GPU'en blev opfundet for at aflaste CPU'en. Og nu skal CPU'en så til at aflaste GPU'en?

Hvorfor ikke bare lade CPU'en beregne fysik (som GPU'en også laver nu), og frigøre ressourcer den vej?

Lad nu GPU'en klare alt der har med grafikken at gøre. Hvad bliver det næste ellers? At alle blå farver beregnes af CPU?

Og fuck konsollerne (dette er IKKE en flame).
MS og Sonys ide om at de skal kunne holde i 10 år, skal trampes i jorden lige på stedet...
5 år er en god levetid. Derefter har vi brug for nye udgaver med bedre hardware. Det hjælper sku ikke at man kan presse 5% ekstra ud, når ny hardware levere mindst 200%.
Gravatar #4 - crispy
25. jul. 2011 10:57
rudolf (2) skrev:
Jeg ville gerne vide hvordan Intel har tænkt sig at flytte så meget information fra grafikkortet over til CPU'en for derefter at blive flyttet tilbage til grafikkortet for at blive vist på skærmen. Intel kan evt. så gøre så de selv smider billedet på skærmen (de har jo trods alt selv grafik i CPU'en nu om dage med Sandy Bridge). Men det er stadigvæk en hel del billedinformation der skal sendes for at kunne foretage AA. For mig at se virker det mest logisk at foretage den slags beregninger på grafikkortet.


Den eneste forklaring jeg kan se er at de forventer at hukommelsen mellem CPU og GPU skal være delt så de kan arbejde på det samme data..
Gravatar #5 - WinPower
25. jul. 2011 11:07
Spil der benytter CPU'en til grafik er ikke seriøse spil !

Rigrigt spil skal have nyeste monster, regnskovsædende og kraftsugende grafikkort.

Alt andet er ikke godt nok. Så kan det godt være at visse hipper mener at det intel kan præstere hjælper og er godt for miliøjet, men dem der mener så er en flok idioter, der ikke kan finde ud af at spille computer.
Gravatar #6 - Dica
25. jul. 2011 11:18
Til alle dem der mener at der vil være en flaskehals i dataoverførslen mellem CPU og GPU:

Et enkelt PCI-express 2.x lane kan overføre 500 MB/s.
Dem er der så typisk 16 af i et slot til grafikkort dvs. 8 GB/s.

60 rå billeder på 1920x1080x32 bit fylder 0,486 GB.
Der er derfor mere end rigeligt med båndbredde til at flytte de billeder frem og tilbage i full hd og ved høj framerate.
Gravatar #7 - grok
25. jul. 2011 11:20
crispy (4) skrev:
Den eneste forklaring jeg kan se er at de forventer at hukommelsen mellem CPU og GPU skal være delt så de kan arbejde på det samme data..

Nej. Nu skal du lige huske på hvor GPU'ens billede kommer fra. Den får det af CPU'en som nu, ifølge Intel blodt lave et step mere inden den aflevere til GPU.
Gravatar #8 - Utte
25. jul. 2011 11:20
For lige at slå noget på plads så står der i nyheden at AA bliver gjort EFTER at billedet er renderet. Derved bliver AA en opgave der skal gøres på et lille billede som typisk er 1920 x 1200 = 6750 KB.

Og med en fps på 60 giver det (6750 KB * 60Hz eller Fps) * 8 = 3 Gb/s og vil i teorien bruge 4,6% af de tilgængelige 64 gbit.

Edit:
#7 var lidt hurtigere :)
Gravatar #9 - Vancolter
25. jul. 2011 11:21
fennec (3) skrev:
Og fuck konsollerne (dette er IKKE en flame).
MS og Sonys ide om at de skal kunne holde i 10 år, skal trampes i jorden lige på stedet...
5 år er en god levetid. Derefter har vi brug for nye udgaver med bedre hardware. Det hjælper sku ikke at man kan presse 5% ekstra ud, når ny hardware levere mindst 200%.

Så ifølge dig skulle PS3en udgå nu og så kunne alle spilleudviklere bare sige "hej ses" til alle dem med Ps3?
Gravatar #10 - TormDK
25. jul. 2011 11:22
#3 Det er et spørgsmål om hvornår tingene er gode nok.

Hvis næste generation konsol kan levere fuld HD (1920x1080) med lidt AA uden at vi kan mærke alt for meget slowdown, så kan den da snildt holde nogle år (omend 10 år nok lige er i overkanten, men 6-7 er fint).

Det er først når folk skifter opløsning til noget højere end HD at der er behov for flere pixels.

Det er det samme på PC i øvrigt. Hvis man ikke begynder at bruge nogle 27"+ skærme men holder sig til 22" (1680x1200) eller 24" (1920x1080) så har man ikke behov for det store vilde hvis man har købt GPU hardware inden for det sidste år.

Det er jo også derfor man kan se på Steam's månedlige hardware survey at udskiftning sker stille og roligt i tagt med almindelige mennesker køber nye maskiner. Det er meget sjældent der sker store bumps rent udskiftning mæssigt.
Gravatar #11 - tentakkelmonster
25. jul. 2011 11:22
Hvordan pokker vil de lave antialiasing som EFTER-behandling??!? Det lyder ret fusket...
Gravatar #12 - Alrekr
25. jul. 2011 11:24
fennec (3) skrev:

MS og Sonys ide om at de skal kunne holde i 10 år, skal trampes i jorden lige på stedet...
5 år er en god levetid. Derefter har vi brug for nye udgaver med bedre hardware. Det hjælper sku ikke at man kan presse 5% ekstra ud, når ny hardware levere mindst 200%.


At PS3 har en forventet levetid på 10 år betyder ikke at PS3 er Sonys bedste i 10 år. Det betyder at Sony udvikler spil til PS3 i 10 år. PS2 lever stadig, men det er jo ikke den nyeste konsol fra Sony. Når PS4 udkommer får PS3 den rolle som PS2 har nu.
Gravatar #13 - Clauzii
25. jul. 2011 11:25
grok (7) skrev:
Intel blodt lave et step mere inden den aflevere til GPU


Nej, et step efter at GPUen har regnet færdig. Billedet skal jo tegnes før det kan AA's.

--

De gange jeg har set denne form for Antialiasing (altså post-rendered), er der en tendens til at billedet bliver 'utydeligt', så jeg vil da håbe at Intel har en teknik til at undgå dette.

Så er spørgsmålet hvor stor latency det vil bringe, udover overførslen mellem GPU-CPU-GPU.
Gravatar #14 - TuxDK
25. jul. 2011 11:25
#11

Det er sådan man laver AA.
Det er efterbehandling af billede.
Gravatar #15 - Clauzii
25. jul. 2011 11:32
#14:
Men der er stor forskel på at AA de enkelte objekter og så hele billedet..?
Gravatar #16 - spejlkugle
25. jul. 2011 12:02
#15:
Mindre data mængde - simplere algoritme...
Gravatar #17 - nitan
25. jul. 2011 12:16
Kunne de ikke bare lave en form for SLI/CrossFireX forbindelse til en AAPU (Anti-Alising Processing Unit)...
Gravatar #18 - kalleguld
25. jul. 2011 12:22
#16 Men vel også en dårligere algoritme? Hvis man laver AA på hele billedet på en gang, så kan man ikke vide hvilke kanter der skal være blurry og hvilke der skal være skarpe.
Anyway, synes det virker mærkeligt at bruge CPUen til formålet, når man i stedet kunne bruge et par af alle de kerner der er i GPUen i stedet. Måske Intel var ude på at sælge cpuer :)
Gravatar #19 - RMJ
25. jul. 2011 12:56
Intel har jo sådan en våd fantasi om at en CPU skal klare alt det GPU'en gør. Synes de skal tage sig lidt sammen.

Hvis bare spil kunne udnytte multikerne cpuer ordenlig så ville det være en god start.
Gravatar #20 - Montago.NET
25. jul. 2011 13:01
RMJ (19) skrev:
Intel har jo sådan en våd fantasi om at en CPU skal klare alt det GPU'en gør. Synes de skal tage sig lidt sammen.


Relevant

RMJ (19) skrev:
Hvis bare spil kunne udnytte multikerne cpuer ordenlig så ville det være en god start.


hold nu kæft med den skrøne....
Gravatar #21 - crispy
25. jul. 2011 13:23
Utte (8) skrev:
For lige at slå noget på plads så står der i nyheden at AA bliver gjort EFTER at billedet er renderet. Derved bliver AA en opgave der skal gøres på et lille billede som typisk er 1920 x 1200 = 6750 KB.

Og med en fps på 60 giver det (6750 KB * 60Hz eller Fps) * 8 = 3 Gb/s og vil i teorien bruge 4,6% af de tilgængelige 64 gbit.

Edit:
#7 var lidt hurtigere :)


Eller 50% af båndbredden hvis du bruger DDR3 800 ram som hukommelse for din CPU som også skal sendes tilbage til grafikkorts hukommelsen så vi når op på 100%...
Gravatar #22 - OtteBitUlven
25. jul. 2011 13:53
Hmm, PS3 har ikke et særligt godt grafikkort, i forhold til X360, så de bruger CPU kræfterne for at få mere styrke..
Kan ikke helt se hvad nyheden er, når Sony har gjort det i snart 5 år.
Gravatar #23 - PHP-Ekspert Thoroughbreed
25. jul. 2011 13:53
Forstår ikke folk bliver ved med at snakke om full-hd opløsning? Altså 1920x1080 ... Jeg har i et par år kørt med 2560x1024 - og overvejer snart at skifte en en større skærm-model = større opløsning
Gravatar #24 - terracide
25. jul. 2011 13:54
grok (7) skrev:
Nej. Nu skal du lige huske på hvor GPU'ens billede kommer fra. Den får det af CPU'en som nu, ifølge Intel blodt lave et step mere inden den aflevere til GPU.


Sådan fungere AA ikke, da det er det noget af det sidste der udføres på et billede i ROP's før billedet smides over i framebufferen.

http://pic002.cnblogs.com/images/2011/195522/20110...

Hvad det her går ud på er som #22 er inde på....respirator til konsollerne...
Gravatar #25 - Taxwars
25. jul. 2011 13:56
rudolf (2) skrev:
Jeg ville gerne vide hvordan Intel har tænkt sig at flytte så meget information fra grafikkortet over til CPU'en for derefter at blive flyttet tilbage til grafikkortet for at blive vist på skærmen.


Det er de jo naturligvis tænkt vi skal bruge deres NYE SUPERDUPER CPU'er til! Køb køb køb ;)
Gravatar #26 - HerrMansen
25. jul. 2011 14:50
#25: Tak - dem har vi allerede. Og kom så igang med multicore så vi har noget at bruge lortet til! ;)
Gravatar #27 - terracide
25. jul. 2011 14:56
#26:
Du forveksler vist multi-threaded softwar med multicore harware?
Gravatar #28 - HerrMansen
25. jul. 2011 15:07
#27: Oh DO indulge me oh great ubertroll. :3
Gravatar #29 - duppidat
25. jul. 2011 15:13
Nu glæder jeg mig bare til at vi rykker videre fra den her konsol generation...

#10 Det er jo også fordi at, de fleste, spil idag er lavet til konsoller(hardware) der er over 6 år gammelt og derefter portet til PC.

I gamle dage opgradede jeg mit grafikkort "regelmæssigt" men efter de her konsoller har totalt overtaget markedet er det sket 2 gange. Og kan stadig på et 8800GT spille de nyeste spil i højeste opløsning med relativ høje indstillinger.

Det sørgelige er så at spillene er blevet grimmere end deres forgængere: Crysis 1 var langt flottere end Crysis 2. FEAR 3 er fuldkommen til grin grafikmæssigt ifht FEAR1.

Synes det er lidt sørgeligt at udviklingen nærmest går i stå pga de her konsoller. Spil lavet for 3 år siden er nok 95% lige så flotte som de spil der udkommer idag.

Udvikling stopper, istedet "udvikler" man de her lappe løsninger til at presse mere falsk grafik ud af gammelt lorte hardware.
Gravatar #30 - clb92
25. jul. 2011 15:20
WinPower (5) skrev:
Spil der benytter CPU'en til grafik er ikke seriøse spil !

Rigrigt spil skal have nyeste monster, regnskovsædende og kraftsugende grafikkort.

Alt andet er ikke godt nok. Så kan det godt være at visse hipper mener at det intel kan præstere hjælper og er godt for miliøjet, men dem der mener så er en flok idioter, der ikke kan finde ud af at spille computer.


Bilanalogi-tid!

Det er det samme som med el-biler. De er heller ikke 'rigtige' biler i forhold til en stor larmende Hummer med sort røg fra udstødningen :)
Gravatar #31 - cryo
25. jul. 2011 16:32
TuxDK (14) skrev:
#11

Det er sådan man laver AA.
Det er efterbehandling af billede.


Nej det er det ikke... Når man fx tegner en linje (eller polygon) har man oplysninger om linjens præcise formel etc., som forsvinder når det først bliver tegnet ned i en bitmap. Man kan ikke lave traditionel AA når først renderingen er foretaget.
Gravatar #32 - cryo
25. jul. 2011 16:33
Clauzii (13) skrev:
Nej, et step efter at GPUen har regnet færdig. Billedet skal jo tegnes før det kan AA's.


Nej, man kan kun AA'e mens man har oplysninger om de enkelte polygoner. Bagefter kan man højst blurre, hvilket slet ikke er det samme.
Gravatar #33 - Clauzii
25. jul. 2011 16:40
#32:
Det er egentlig også det jeg skrev... ;-)
Gravatar #34 - fennec
25. jul. 2011 20:51
TormDK (10) skrev:
Hvis næste generation konsol kan levere fuld HD (1920x1080) med lidt AA uden at vi kan mærke alt for meget slowdown, så kan den da snildt holde nogle år (omend 10 år nok lige er i overkanten, men 6-7 er fint).


Det er ikke kun opløsning der skaber god grafik. Det er endnu mere antallet af polygoner i scenen. En græsmark bestående af en texture på en flade i 1920x1080 vil lige lort i forhold til en græsmark bestående af 1.000.000 græsstrå i 600x480.

Fremtidens spil vil have flere polygoner, hvilket vil kræve bedre hardware. Man kan snyde meget med textures, men ikke med polygoner...

Alrekr (12) skrev:
At PS3 har en forventet levetid på 10 år betyder ikke at PS3 er Sonys bedste i 10 år. Det betyder at Sony udvikler spil til PS3 i 10 år. PS2 lever stadig, men det er jo ikke den nyeste konsol fra Sony. Når PS4 udkommer får PS3 den rolle som PS2 har nu.

Det var faktisk hvad Sony forventede... Altså først at komme med en ny konsol efter 10 år (eller der omkring).
Som eks. kan jeg nævne at de første informationer om PS3 kom i 2001. Og konsollen udkom først i 2006.
http://newz.dk/playstation-31#new
Det er 5 år efter en officiel udtalelse. Har vi overhoved hørt Sony (eller MS) snakke om deres næste konsol endnu? Men selv hvis vi har, skal vi nok stadig regne med omkring 2-3 år efter en officiel udtalelse, inden de kommer kommer på marked... Ergo ser det ikke ud til der kommer nye konsol lige foreløbig (bortset fra Nintendo).

Vi kan altså forvente at de nuværende konsoller fra MS og Sony mindst skal holde i 8 år inden der kommer en ny. Hvor man normalt snakker om en ny generation hver 5 år for konsoller. Du kan selv prøve at tjekke hvor ofte der er kommet en ny konsol fra et firma (Nintendo er ret præcise med 5 år)
Gravatar #35 - kasperd
25. jul. 2011 21:30
Utte (8) skrev:
Derved bliver AA en opgave der skal gøres på et lille billede som typisk er 1920 x 1200 = 6750 KB.
En typisk metode til at lave antialiasing er at rendere billedet i 2 eller 3 gange højere opløsning og så downsample med et passende filter. Det vil sige at der skal 4 eller 9 gange så meget data til før antialiasing. Hvis man regner med 3 gange så høj opløsning skal der altså overføres svarende til 10 gange billedets størrelse frem og tilbage over bussen.

cryo (31) skrev:
Man kan ikke lave traditionel AA når først renderingen er foretaget.
Sagtens, det kræver blot at billedet er renderet i højere opløsning end det skal vises i sidste ende.

Afhængigt af hvordan billedet renderes kan der være antialiasing algoritmer, der giver bedre resultat end højere opløsning og downsampling. Men så bevæger man sig ind på antialiasing algoritmer, som kun virker med specifikke rendering algoritmer.
Gravatar #36 - tbdaugaard
25. jul. 2011 22:21
Med en Core i7 og højere/nyere er det vel heller ikke noget problem at bruge CPU'en til det ..? Så meget CPU power skal de fleste spil vel heller ikke bruge på A.I. *rent gætværk*
Gravatar #37 - duppidat
26. jul. 2011 01:24
#35 Det passer så bare heller ikke, AA bliver da lavet på polygoner. Når først billedet er blevet færdig renderet og klar til at blive vist som raw bitmap så er polygon infoen jo forsvundet.

Jeg må dog indrømme at jeg er ingen mester indenfor det her, men jeg ved at når først billedet er blevet renderet så kan du ikke lave traditionel AA på det.
Gravatar #38 - kalleguld
26. jul. 2011 06:39
#37 Jeg tror det er på tide at indføre et wiki-link: http://en.wikipedia.org/wiki/Antialiasing
Der er mange måder at lave AA på, men de går allesammen på at man nedskalerer et billede eller dele af det (F.eks kan man lave et map over kanterne af polygonerne i billedet, og så kun lave AA der). Det #35 beskriver er SSAA, der blev brugt i tidlige versioner af DirectX.

#36 det virker bare dumt at bruge en CPU-core på noget så enkelt som AA. En CPU-core koster vel i omegnen af 50-100$, mens en GPU-core ligger i 1-5$. Og hvis man ville have prisen yderligere ned ville det være enkelt at lave downsampling-kredsløb som dedikeret hardware på GPU-chippen.
Gravatar #39 - ykok
26. jul. 2011 07:15
TuxDK (14) skrev:
#11

Det er sådan man laver AA.
Det er efterbehandling af billede.


Ikke altid. Jeg har da været med til at lave en raytracer hvor det foregik pr. pixel undervejs i processen.
Gravatar #40 - kasperd
26. jul. 2011 07:46
ykok (39) skrev:
Jeg har da været med til at lave en raytracer hvor det foregik pr. pixel undervejs i processen.
Jeg gætter på det foregik ved at raytrace flere gange for forskellige punkter indenfor det kvadrat en pixel repræsenterer og så kombinere dem ved at tage et gennemsnit (eller ved at bruge et smartere filter).

I så fald er det stadig en efterbehandling, men ved at gøre det parallelt med beregning af pixels sparer man RAM. Nogle filtre vil dog have brug for at kige på nabopixels, så RAM nok til at gemme et par liniers kontekst kunne nok hjælpe.
Gravatar #41 - ykok
26. jul. 2011 08:04
kasperd (40) skrev:
Jeg gætter på det foregik ved at raytrace flere gange for forskellige punkter indenfor det kvadrat en pixel repræsenterer og så kombinere dem ved at tage et gennemsnit (eller ved at bruge et smartere filter).

I så fald er det stadig en efterbehandling, men ved at gøre det parallelt med beregning af pixels sparer man RAM. Nogle filtre vil dog have brug for at kige på nabopixels, så RAM nok til at gemme et par liniers kontekst kunne nok hjælpe.


Ja, det var sådan det foregik, men det ville jeg nu heller ikke kalde efterbehandling. Det foregik på samme tidspunkt, som beregning af hvor meget reflektion en given overflade giver (beregning af gennemsigtighed, reflektion, samt overflade (konturer m. m.). Hvis raytraceren kørte i en tråd og havde beregnet 1 pixel, havde den jo allerede brugt antialiasing (for den pixel), men kun lavet under 0,1 procent af arbejdet.
Gravatar #42 - drbravo
26. jul. 2011 08:08
ORLY? Så Intel synes der skal være mere arbejde på CPU'en?
Jeg ville ikke blive overrasket hvis Seagate foreslog at harddisken skulle stå for AA..
Gravatar #43 - freddieoff
26. jul. 2011 08:33
Anti-aliasing bliver holdt tilbage af den absurde mængde af regnekraft det koster at implementere.

MLAA koster en brøkdel af Supersampling og Sony's implementering af teknikken ser fremragende ud i God of War 3, Little Big Planet 2 og Killzone 3.

AMD's generelle implementering er noget ringere og har mange negative effekter på tekst og brugerflade elementer.

Forskellen er at i de tre nævnte Playstation 3 spil har udviklerne justeret og tilpasset teknikken til deres spil specifikt, og på den måde fundet den rigtige balance mellem udjævning af kanter og et billede som ikke ligner det var smurt ind i vaseline. De fleste af de negative effekter er også væk da udviklerne har kontrol over hvilke elementer der skal behandles.

MLAA eller lign. AA metoder vil sikkert blive en standard for konsol spil da det forbedrer billedekvalitet betragteligt og ikke sprænger kæmpe huler i regnekraftsbudgettet.
Gravatar #44 - terracide
26. jul. 2011 08:43
#43:
Man kan sagens kører SSAA på en PC i dag på mange spil.
NVIDIA har bar efjenret muligheden i deres drivers, men med f.eks nHancer kan man låse op for dette, sådan jeg fik AA i EvE før deres engine havde AA indbygget.
Gravatar #45 - cryo
26. jul. 2011 10:16
kasperd (35) skrev:
Sagtens, det kræver blot at billedet er renderet i højere opløsning end det skal vises i sidste ende.


Jeg burde have skrevet "når det færdige billede er renderet". At rendere det i højere opløsning er jo netop at "gemme" informationer om billeder udover den rasterisering man ønsker at ende med.
Gravatar #46 - fennec
26. jul. 2011 14:17
Vancolter (9) skrev:
Så ifølge dig skulle PS3en udgå nu og så kunne alle spilleudviklere bare sige "hej ses" til alle dem med Ps3?

Et stort og larmende JA

Af præcis samme grund som PC udviklere også siger "hej ses" til alle ejere af PC hardware der er +5 år gammel. Der kalder man det bare "Minimums krav".

Og det er på tide at "Minimums krav" på konsoller får et hak op...
Gravatar #47 - Athinira
26. jul. 2011 17:44
cryo (31) skrev:
TuxDK (14) skrev:
#11

Det er sådan man laver AA.
Det er efterbehandling af billede.


Nej det er det ikke... Når man fx tegner en linje (eller polygon) har man oplysninger om linjens præcise formel etc., som forsvinder når det først bliver tegnet ned i en bitmap. Man kan ikke lave traditionel AA når først renderingen er foretaget.


Post-processing i 3D grafik er egentlig meget forkert navngivet da mange af effekterne faktisk bliver lavet FØR scenen er blevet oversat til et 2D billede til display på skærmen. Motion Blur er f.eks. defineret som en post-processing effekt, men for at lave specifikke former for motion-blue (f.eks. per-object motion-blur) skal de bruge informationer der går tabt når billedet først er renderet. Andre eksempler på ting som teknisk set er defineret som PP effekter er Cel Shaders, sunray shaders, SSAO, igen ting som ikke kan gøres præcist på et 2D billede.

Der er derfor intet galt i at kalde AA for en efterbehandling, så længe man snakker om efterbehandling af 3D scenen (og ikke efterbehandling af det renderede billede).
Gå til top

Opret dig som bruger i dag

Det er gratis, og du binder dig ikke til noget.

Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.

Opret Bruger Login