mboost-dp1

unknown

DirectX 9.1 er godt nyt til nVidia-folk

- Via Guru 3D - , redigeret af Net_Srak

Det kommende directX 9.1, vil komme nuværende GeforceFX-ejere til gode. Der er understøttelse for pixelshader-2.0 med 32bit præcision. Dette har GeforceFX-kortene, og her vil man se op til 60% højere hastighed i pixelshaders.

Det vil bl.a. gøre, at GeforceFX-kortene, i modsætning til tidligere, skulle komme til at køre ganske fornuftigt med Half-life2. Før der kommer egentlige tests, skal man nok tage disse oplysninger med et gran salt.





Gå til bund
Gravatar #1 - fjols
18. okt. 2003 12:17
Det må man jo så håbe, eftersom jeg lige har bestilt et GeforceFX :)
Gravatar #2 - Locturian
18. okt. 2003 12:29
Ja, ville også være lidt bitter hvis ikke jeg kunne spille HL2 med mit GeForceFX 5900 kort :) kostede trodsalt en bondegård...
Gravatar #3 - A.Schmidt
18. okt. 2003 12:34
Dejligt :-)
Gravatar #4 - stone
18. okt. 2003 12:36
#1 #2 i kan godt spille halflife2, i faar bare ikke den bedste mulige grafik, da deres driverer stadig ikke understoetter basale og vitale dx9 features som floating point textures.

/stone
Gravatar #5 - doctor_dee
18. okt. 2003 12:37
Trænger vist til det, deres pixel-shader 2,0 performence er elendig.
Gravatar #6 - bitnissen
18. okt. 2003 13:06
Måske man snart skulle finde pengepungen frem igen... :-) Men tror også jeg venter til TomsHardware har gennemtestet/tæsket de nye drivere ;) - Det kan jo også være at jeg vil se lignene forbedringer på mit gf4mx460...
Gravatar #7 - stone
18. okt. 2003 13:17
#6 dit gf4 kommer jo aldrig til at understoette dx9. og siden det er et mx kort, mener jeg faktisk er din dx udnerstoettelse er den samme som et gf2, hvilket vil sige det ikke engang er et fuldt dx8 kort, og ikke har pixelshaders overhovedet.

/stone
Gravatar #8 - FISKER_Q
18. okt. 2003 13:25
Det er rygter. Og givent at der også er rygter om at nvidia helt er smidt af udviklings holdet. Så tror vi skal lade den stå inden vi får for mange arme oppe i vejret.

Bare lidt dårligt at vi nu skal til at have codepath til både ati og nvidia uden at følge den oprindelige dx9 standard fremlagt af microsoft.

Tror dog det kan være sandt nok. Det har jo været rygtet de vil vente med DX10 for at "puste ud". Så hvis DX 9.1 holder til nvidia kort så er der bedre chance for en ordenlig priskrig.
Gravatar #9 - stone
18. okt. 2003 13:27
#8 ati kraever ingen speciel codepath, da de understoetter standard dx9.

/stone
Gravatar #10 - FISKER_Q
18. okt. 2003 13:55
#9
Ja men ikke den originale standard.

Microsoft sattte en standard ingen af dem vil følge. Men brugte så ati's. Så mens det officielt er DX9, så er det rent faktisk ikke den rigtige dx9 specifikation som Microsoft udgav.

Selvfølgelig kan der så være tale om, om det så var pga ati's rent faktisk var bedre. eller om de bare fulgte den.

Men ellers så har du ret.
Gravatar #11 - R12
18. okt. 2003 14:15
HAH! 1-0 til geforce over radeon (:
Ej, men jeg sys' da det er godt nyt for os geforce elskere :)

r12dk
Gravatar #12 - TroelsOlesen
18. okt. 2003 14:23
Jeg fatter det ikke helt ... hvordan kan noget software rette op på den decideret hardware fejl ... !??

Hvis FX kortene med dx9 ikke kan køre Pixelshader v2.0, hvorfor skulle den så kunne med dx9.1 ...

problemet med FX kortene er jo at ingenørene dummede sig gevaldigt, og sparrede rimelig meget på Pixel shaderen, og det resulterede i at der opstod en kæmpe flaskehals ... hvordan fjerner man lige en fysisk flaskehals ved hjælp af software ... !??

Ja det kan da godt være at geforce FX kortene kan køre 32bit pixel shader, og at ati kortene ikke kan, men hvad hjælper det hvis det køre så langsomt at man aligevel ikke kan få brugbare FPS ...
Gravatar #13 - Kalleguld
18. okt. 2003 14:26
R12, er det ikke mere en udligning, svjv har ati da kunne køre hl2 hele tiden.
Gravatar #14 - FISKER_Q
18. okt. 2003 14:36
#12 Fordi det ikke er hardware fejl.
Gravatar #15 - Mukke
18. okt. 2003 14:42
Undrer mig lidt hvis de udgiver en DX 9.1 uden at køre den igennem de normale betatests.. og indtil videre har 9.1 IKKE været i beta test.
Gravatar #16 - FISKER_Q
18. okt. 2003 14:43
#15 hvor ved du det fra?
Gravatar #17 - Mukke
18. okt. 2003 14:52
Gæt selv. Har betatestet DX siden 6.0 eller noget i den stil.

Edit: Det eneste DX-relateret der er i betatest i øjeblikket er en opdateret af DX sdk'et (RC0).
Gravatar #18 - FISKER_Q
18. okt. 2003 14:59
Og alt skal gøres med offentligheden indkluderet?

Det næste du vil sige er vel også at Longhorn ikke er betatestet endnu.
Edit: Desuden er det heller ikke, så vidt jeg ved, nævnt at udviklingen af DX9.1 er gået i gang endnu.

Og hvis det passer at de vil tage en pause før DX10 så kan det skam godt være at vi kan vente et par måneder før DX9.1 kommer.
Gravatar #19 - Mukke
18. okt. 2003 15:04
Fisker_Q, nej, for jeg er udemærket klar over at Longhorn er i betatest. Er (desværre) ikke selv tester på det, men ved at mange af de andre dx testere også tester Longhorn med mere.

Med hensyn til at at inkludere offentligheden vil jeg lade det stå for din egen regning, da jeg dels ikke er helt klare over hvad du i den forbindelse lægger i ordet "offentligheden", og dels har på fornemmelsen du forsøger at lægge mig ord i munden.

Lad mig blot sige at betaplace so far er blevet brugt i forbindelse med tidligere major så vel som sub-releases af DX (med undtagelse af enkelte -a/b opdateringer).
Gravatar #20 - stone
18. okt. 2003 15:36
#10 - jo, den oprindelige standard. der er nogle enkelte pereferi funktioner, som hverken ait eller nvidia understoetter. men da de er saa godt som ligegyldige, er de gaaet ud af dx9.

#11 - ja woohoo. nu mangler de sa bare at understoette dx9, samt lave nogle driverer der er stabile, og har bedre end middlemaadig billedekvalitet. saa vil nvisia naesten have indhentet ati igen.

det er aldrig klogt at vaere ubetinget fan af et firma. det er et indlaeg som dit et tydeligt eksempel paa.

#12 - grunden til at de kan opnaa hastighedesforbedringer, skyldes at fx kortene behandler data'ene i 32bit, og derved spilder en masse busbrede, da 32bit sjaeldent bliver brugt.

derfor vil det i hoejere grad, koere som nvidia oensker det, hvis dx9.1 behandler shaderpraecision som 32bit.

okay, det er skrevet lidt kringlet, og nok ikke hele sandhenden, men noget derhen af.

/stone
Gravatar #21 - FISKER_Q
18. okt. 2003 16:01
#20

"#10 - jo, den oprindelige standard. der er nogle enkelte pereferi funktioner, som hverken ait eller nvidia understoetter. men da de er saa godt som ligegyldige, er de gaaet ud af dx9."

Er ikke helt med der. Jeg snakker hele standarden. Microsoft fremladge deres standard af DirectX9. den var hverken ATI eller Nvidia med på. Så lavede ATI en som microsoft så var med på, men Nvidia ikke var.

Grunden til de nok valgte den standard ati bruger er nok blandt andet deres 24bit præcision. da det ikke er muligt at se den store forskel mellem 24 og 32 bit.

Jeg må indrømme det ser ud til at de har ramt jackpot med deres nye 52.13(mener jeg de hedder).

De ældre 5x.xx drivere blev beskyldt for at ændre i directx.
Men de gamle var jo heller ikke særligt gode.

Nu har de så lavet nogle der er bedre og tilsyneladende uden snyd eller dårligere billedkvalitet, kan det være de første spor af DX9.1 vi ser her?.
Gravatar #22 - wk
18. okt. 2003 17:12
Øhm, nu er jeg ikke helt med.

Sådan som jeg har forstået det, så var det NETOP på grund af 24bit og 32bit shaders som standard i DirectX 9.0 at nVidia havde problemer, da deres hardware er lavet til 12bit og 16bit præcision med hensyn til Pixel Shader 2.0. Radeon kører 24bit og 32bit uden problemer, hvilket også er en af standarderne i DX9.

#14, jo det er en hardware "fejl". Men (næsten) alle hardware fejl kan rettes med software.

==
==

GD: John, we've found that NVIDIA hardware seems to come to a crawl whenever Pixel Shader's are involved, namely PS 2.0..

Have you witnessed any of this while testing under the Doom3 environment?

"Yes. NV30 class hardware can run the ARB2 path that uses ARB_fragment_program, but it is very slow, which is why I have a separate NV30 back end that uses NV_fragment_program to specify most of the operations as 12 or 16 bit instead of 32 bit."

John Carmack

==
==
Gravatar #23 - Madhay
18. okt. 2003 19:39
findes der ikke et alternativ til dx9? hvis det fortsætter sådan her ender det jo med at m$ får monopol på graphxkort standarder :0(
Gravatar #24 - red_martians
18. okt. 2003 19:55
Tjooo...der er jo OpenGL, og så er der nogle mindre standarder som wickedGL, Glide(3dfx) osv!!
Personligt fatter jeg ikke hvorfor nVidia ikke valgte at udvikle videre på glide, da de havde fået nallerne i 3dfx.
Hovedparten af tekniken ligger her i hardwaren og kun symbolsk i softwaren. Og hardwaren havde sin helt egen Glide-del, lavet og optimeret kun til glide, så man kunne nå maximale fps.
Gravatar #25 - C#
18. okt. 2003 19:57
#23 joe da OpenGL

- der var jeg så lidt for sent på den, men kan da så smide et link til sitet for OpenGL her som lidt public sercice :)
Gravatar #26 - TullejR
18. okt. 2003 20:31
... Husk nu at nævne at OpenGl er mere eller mindre platforms uafhængigt :)
Gravatar #27 - Mr.DNA
18. okt. 2003 22:44
Er det sådan ikke ca. sådan det hænger sammen:
ATi: 24-bit sampling
Nvidia: 32- eller 16-bit sampling

DX 9.0 (PS 2.0) kræver kun 24 bit sampling hvilket vil sige at Nvidia kører langsommere da de bliver nød til at afvikle 24-bit gennem 32-bit. Op til PS 1.4 kræves kun 16-bit hvilket vil sige at for at udnytte Nvidia kort optimalt skal man definere om en PS skal køre 16 eller 32 bit. Hos ATi bliver alle PS kørt gennem 24-bit og det giver åbenbart en bedre performance.

Man kan vel forestille sig at valget mellem 16 og 32 bit giver nogle problemer. Det kunne være derfor at John Carmack blev nød til specifikt at sætte en operation til at køre 16 el. 32 bit.

Kan det tænkes at DX 9.1 (hvis den ikke er en and) indeholder nogle funktioner der gør GeFX i stand til at håndtere 32 og 16 bit langt bedre.
Gravatar #28 - Plimm3r
18. okt. 2003 22:46
@#26 Bare det virker på Windows er det fint med mig, det er trods alt der de fleste spil bliver spillet. :p
Gravatar #29 - hundeboll
18. okt. 2003 23:10
@#28 Bare staten tænker på Jylland er det fint med mig, det er trods alt den største del af DK. :p
Gravatar #30 - wk
18. okt. 2003 23:28
#27

Jeg fandt en artikel omkring Pixel Shader 2.0 og den fokuserer ret kraftigt på 32bit, så jeg tror (stadig) problemet er at nVidia bedst kan "lide" 12/16bit og ATI leger bedst med 24/32bit.

http://www.digit-life.com/articles2/ps-precision/

Men det forklarer ikke rigtigt det rygte omkring DirectX 9.1.

Måske har Microsoft, under pres af nVidia, tilføjet 12/16bit til Pixel Shader 2.0 standarden i DirectX 9.1. Husk at selvom Pixel Shader 2.0 kører i 16bit mode, så er det næsten umuligt at se forskel på det og 32bit, så for den normale gamer er det totalt ligemeget.

Hardwaretidende.dk har også haft en artikel omkring det for et stykke tid siden:

http://www.hardwaretidende.dk/hard/artikel/03/09/0...
Gravatar #31 - Kegle
19. okt. 2003 00:39
#30

ATI understøtter ikke 32bit fp, de understøtter kun 24bit fp. DirectX 9.0 bruger ikke 24bit, så hvad ATI gør er ikke standarden, men bare godt nok(og der er ingen der kan se forskel på 24- og 32bit).
Gravatar #32 - bbdk
19. okt. 2003 02:35
Hmmm. Der er mange der skriver om noget som de åbenbart kun har perifært kendskab til. Jeg vil i det følgende mene 9700/9800 Pro når jeg skriver ATI og FX5900 når jeg skriver nVidia.

1. DX 9.0 foreskriver 24bit pixel shaders. ATIs GPUer benytter netop 24bit. nVidias FX5900 benytter 16 og 32bit. Da 32bit kræver noget mere af båndbredde og intern arkitektur er det naturligt nok langsommere end 'native' DX 9.0 24bit. Dette leder hen til punkt 2, som omhandler artiklens indhold.

2. DX 9.1 er da sikkert en forbedring, hvis rygtet altså taler sandt. Men I skal jo lige huske at nVidia altså kun har halvt så mange pixel pipelines som ATI at gøre godt med. Klart fejlskøn af nVidias ingeniører (En af efterhånden mange fra nVidia). At rette op på det i software (Drivere) må være et spørgsmål om at tro på et højere væsen der, vupti, tilføjer 4 pipelines på alle kundernes kort.

3. 24bit er ikke en hovsaløsning som blev foretaget for at genere nVidia som halvt blev foreslået af en anden kommentator. Der var tværtimod fra start flertal for at benytte 24bit. At nVidia så ville spille med musklerne, lege med ilden dengang, er deres eget problem. Det er ikke et spørgsmål om at MS og ATI gik sammen om at få nVidia ned med nakken. nVidia havde regnet lidt galt på udviklingen og ville derfor have deres egen proprietære standard indført. Alle andre var uenige med dem og nVidia brændte nallerne.

DX 9.1 vil IKKE komme til at behandle shaders i 32bit. Det er først planlagt til DX 10. Den nuværende hardware som KAN gøre det kan ikke gøre det med acceptable framerates, så jeg tvivler på at 32bit shaders bliver fremskyndet til DX 9.1. Der bliver til gengæld nok bedre understøttelse at CineFX.
Altså: Direct3D vil se nogen forbedringer. OpenGL... Det løb er vist kørt med FX serien.

Efter at have skrevet en del mere end jeg havde planlagt :) vil jeg lige udtrykke min harme over nVidias seneste driver fiaskoer. At udgive en driver der snyder med fog i OpenGL, så MIT yndlings online spil (Medal of Honor) bliver komplet ødelagt er utilgiveligt. Et så populært spil burde have været testet inden deres drivere ryger ud af huset. *suk*
Gravatar #33 - Miklos
19. okt. 2003 07:55
Nvidia har alle dage haft problemer med 'fog' og har emuleret det.

Jeg ved ikke hvorfor, men alle deres drivere har haft en 'fog table emulation' ting.
Gravatar #34 - red_martians
19. okt. 2003 10:57
Jeg er lidt spændt på, hvor XGI havner henaf. Men emget tyder på at de har fulgt ATi's spor. Men i de 3Dmarks test der har været fremme, tyder det på, at et er lidt sløvt i pixelshaders.
Gravatar #35 - GreatMilenko
19. okt. 2003 13:24
#32 kommer med en klar og detaljeret beskrivelse af situationen, så jeg vil blot nøjes med at tilføje: Hvordan kan nogen dog tro at de får højere performance ud af at deres kort behandler data i 32 bit? ja du får bedre billedkvalitet men det er da altid på bekostning af performance, når dobbelt så meget data skal behandles....
Så nvidia's kort kører selvfølgelig hurtigst i 16 bit og langsommere når der skal mere præcision til, det skulle vel være klart nok?
Gravatar #36 - red_martians
19. okt. 2003 13:41
jeg har forstået det sådan: at geforceFX prøver at behandle 24bit shaders med 32bit, hvilket gør gfx-kortet langsommere.
FX kan slet ikke køre 24bit, og jeg mener og ha set et sted, at det kun er FX5600/5200 der køre ned i 16/12bit shaders!! (men kan selvfølgelig ikke huske hvor henne)
Gravatar #37 - TroelsOlesen
19. okt. 2003 14:23
#36 ... sandheden er at FX kortene er lavet til at kunne behandle Pixelshader med 32bit ... men problemet er at ingeniørene som har designet chippen, har dummet sig ... båndbreden er nemlig slet ikke stor nok til at behandle datane i 32bit ...

Så derfor bruger Valve (HL2) som nødløsning Pixel shader v1,4 .. altså kun 16bit (Dx8.1)... for overhoved at kunne køre spillet på FX grafikkort...

Og jeg kan stadig ikke se hvordan et kort skulle blive hurtigere af at blive tvunget til at køre med højere præcisions pixelshader... det eneste det forudsager er at ingen af de nuværende grafikkort kan køre med brugbare frame rates...
Gravatar #38 - El_Coyote
19. okt. 2003 21:50
#32
"Efter at have skrevet en del mere end jeg havde planlagt :) vil jeg lige udtrykke min harme over nVidias seneste driver fiaskoer. At udgive en driver der snyder med fog i OpenGL, så MIT yndlings online spil (Medal of Honor) bliver komplet ødelagt er utilgiveligt. Et så populært spil burde have været testet inden deres drivere ryger ud af huset. *suk*"
nu var de drivere, det var et problem i, BETA drivere og ikke udgivet endnu, så jeg kan ikke se dit problem her :P


såvid jeg kan huske er det kun 2 af nvidias pixelshader pipelines der er dedikeret til ps2.0 mens ATi kan køre ps2.0 på alle piplines. det giver jo også en forskæl
Gravatar #39 - bbdk
20. okt. 2003 12:15
#38
"nu var de drivere, det var et problem i, BETA drivere og ikke udgivet endnu, så jeg kan ikke se dit problem her :P"

Det var ganske rigtigt BETA drivere, men som jeg skrev så røg de altså ud af huset og rigtigt mange bruger dem den dag idag. Uanset om nVidia officielt har udgivet dem eller ej har de ødelagt MoH, da ingen anticheat programmer kan fange det. Man kan se det på public servere, når man er spectator på en person der bruger det. Han kan skyde folk som ikke engang kan ses, fordi de er for langt væk. Desværre må man jo ikke spectate det andet hold i clan-wars. I clan-wars kan man bare forbande nVidia langt væk for at have udsendt disse "optimerede" drivere hver gang man ser et af disse lang-distance kills. Det er derfor ganske ligegyldigt om de er officielle drivere eller "kun" udsendt i deres BETA-program. nVidia bærer den fulde skyld for at have ødelagt netop mit spil!!
Heldigvis er det, så vidt jeg ved, kun FX5900 den er gal med (Ret endelig den opfattelse, hvis du ved mere) og FX5900 er der nok ikke så mange, der kan finde på at købe mere ;)
Gravatar #40 - Onde Pik
20. okt. 2003 14:01
#32

2:
Ja det er jo så ikke helt rigtigt at NV3x har halvt så mange pixelpipelines i praksis. Det er jo et diffinitons spørgsmål hvad præcis skal være opfyldt for at kan har en "pipeline", det var indtil NV3x rimelig underforstået at en pixelpipeline var en bunke logik der kunne spytte 1 pixel ud per clock. Men da NV3x kom blev der pludselig noget uklarhed. Det er jo ikke en standard 4x2 konfiguration (som GF4) men er dog heller ikke 8x1 på linie med R3xx. Nvidias hardware er en eller anden pseudo løsning der kan producere 8 pixels per clock under nogle forhold, stencil og dybde operationer uden farve operationer. Hvis der skal udføres farve beregninger kan deres pipeline kun producere 4 pixels per clock.

Generelt kan man sige at man hvor gerne man end vil, ikke kan trække en eller anden pipeline konfiguration ned over alle GPUer. Som 8x1 eller 4x2. Rent logisk på chippen er det jo heller ikke helt sådan det forholder sig, men hvordan skal man ellers beskrive det??? Ja... deeeeet....

Til artiklen.

Det er så morsomt hvodan vi så mange gange har hørt om en eller anden ny driver eller refreshprodukt der ville få NV3x til at skinne. Tag det med et gran salt, en chip kan altså ikke levere mere end dens teoretiske max. Det er muligt der er et tabt potentiale i NV3x, men jeg tivler på at vi ser en så drastisk ændring i ydelsen. Især i intense PS scener hvor der er mange farve operationer.... og husk nu på at NV3x skal stadig behandle enten 16 eller 32 bit. 16bit er Fugly og 32bit er nok stadig overkill når man ser på tabt ydelse.
Gravatar #41 - Plimm3r
20. okt. 2003 20:10
Ehh.. Kan godt ske at jeg spørger dumt, men 16bit er da ikke det halve af 32bit, er det?
Gravatar #42 - bbdk
20. okt. 2003 23:30
#41
Den var nem...
Jo :)
Gravatar #43 - Onde Pik
21. okt. 2003 12:50
#41
#42

Ehh nej 16bit er så sandlig ikke det halve af 32bit. 16bit er det halve af 17bit.
Gravatar #44 - Plimm3r
21. okt. 2003 14:16
#43 Mente nok..

16bit = 2^16
32bit = 2^32

ikke?
Gravatar #45 - hornet
21. okt. 2003 18:29
@32: Altså: Direct3D vil se nogen forbedringer. OpenGL... Det løb er vist kørt med FX serien.

Det forstår jeg ikke? Hvilket løb er kørt med FX-serien? OpenGL er da fint uderstøttet på fx-kort, og der er da også rig mulighed for at vælge præcision i gl's vertex/fragment programmer?
OpenGL forsvinder ikke lige med det første - alle større effekt-studier (films) er skiftet til linux, og der kører DirectX ikke. Og det skal vi nok være glade for, for ellers stod vi pludselig 3D-grafik der kørte på windows alene. Dette er en af grundene til, at jeg håber, at enten #1. Nvidia overlever. #2 ATi tager sig sammen og skriver ordentlige OpenGL-drivere.


En lille sidebemærkning til folks maniske halflife2-kommentarer: Spillet er ikke udgivet endnu. Og det tyder på, at vi heller ikke ser det lige med det første. Så som sagt tidligere af utallige personer: Lad os nu vente til der foreligger en final, og vurdere grafikkort til den tid.

Verden ser helt anderledes ud i morgen.


\\hornet
Gravatar #46 - bbdk
21. okt. 2003 19:35
Nu ikke for at kværulere, men 16bit er altså det halve af 32bit. Værdien af 16bit er derimod, som det korrekt bliver anført det halve af 17bits værdi ;)

#40
Ja jeg er mest bange for at nVidia måske har skudt sig selv i foden endnu engang. Men lad os nu se. Måske tryller de noget frem. Så æder jeg gerne mine ord igen.
Gravatar #47 - Onde Pik
22. okt. 2003 12:12
#46

Tja... hvis du kan nævne et enkelt scenarie hvor det er relevant at 16bit er det halve antal bit af 32bit så kan jeg godtage din påstand. Jeg venter spændt på dit svar :)
Gravatar #48 - Plimm3r
22. okt. 2003 22:20
#46 Når vi snakker grafik kort og deres evne til at rendere billeder i enten 16bit eller 32bit kan det halve nok ikke helt gøre det. ;)
Gravatar #49 - bbdk
23. okt. 2003 05:32
00000100 - Værdien er 32
00001000 - værdien er 16

11111111 11111111 11111111 11111111 - 32 bit sat
11111111 11111111 00000000 00000000 - 16 bit sat, altså det halve antal

Godt nok? :)
Gravatar #50 - hornet
23. okt. 2003 19:38
I alle interessante sammenhænge er 16bit det halve af 32bit. Det er fordi præcisionen er halvt så stor - ganske simpelt fordi, der er halvt så mange pladser at gemme tallet i. Det største tal der kan repræsenteres er uinteressant - floating-point løser dette problem ved at have også at gemme en potens af 10 tallet skal opløftes til. 145.98 hedder således 1.4598e2.


\\hornet
Gå til top

Opret dig som bruger i dag

Det er gratis, og du binder dig ikke til noget.

Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.

Opret Bruger Login