mboost-dp1

Nvidia

NVIDIA klar med ny mobil GPU-generation

- Via Gizmodo - , redigeret af Net_Srak , indsendt af Skak2000

Så er det blevet tid til en ny generation af GPU’er til bærbare computere fra NVIDIA. Denne gange er det firmaets seneste 200-serie af grafikchip, der kommer i en “m”-udgave.

Opmærksomme læsere vil nok mene at man allerede kan finde GTX 280M og GTX 260M i ny laptops, hvilket også er korrekt, men rent teknisk, så er de baseret på G92-arkitekturen fra den forrige generation.

De nye GPU’er, der er baseret på G200-arkitekturen, omfatter følgende chips: G 210M, GT 230M, GT 240M, GTS 250M og GTS 260M. Sidstnævnte kan levere op til 396 gigaflops i ydelse hvor den første kan klare 72 gigaflops.





Gå til bund
Gravatar #1 - Erroneus
15. jun. 2009 14:22
Forhåbenligt klarer den her serie sig lidt bedre med hensyn til varme og strømforbrug, nu hvor den er baseret op 40nm, hvor den "gamle" var baseret på 55nm.

Men ganske overraskende er der DirectX 10.1 support, som Nvidia ellers har prøvet at nedtone, fordi deres nuværende kort ikke har understøttet det, både mobile og desktop.
Gravatar #2 - Yulik
15. jun. 2009 14:25
hvad er GIGAFLOPS?
Gravatar #3 - ookami
15. jun. 2009 14:35
gigaflop |ˈgigəˌfläp|
noun Computing
a unit of computing speed equal to one billion floating-point operations per second.
Gravatar #4 - T_A
15. jun. 2009 14:42
Gravatar #5 - Steffe
15. jun. 2009 14:49
Ærgeligt de ikke har fået dx 11 :) Kunne være nice
Gravatar #6 - terracide
15. jun. 2009 14:50
#1:
DX10.1 er ikke noget der betyder røv&nøgler.
Den eneste funktion jeg har set brugt i spil er til AA, og den funktion har NVIDIA allerede, via NVAPI:
http://www.hardocp.com/article.html?art=MTU5MSwsLG...

"FarCry 2 reads from a multisampled depth buffer to speed up antialiasing performance. This feature is fully implemented on GeForce GPUs via NVAPI. Radeon GPUs implement an equivalent path via DirectX 10.1. There is no image quality or performance difference between the two implementations."

DX11 kort rammer gaden når Windows 7 går gold og så bliver DX10.1 endnu mere irrelevant end DX9.0B i forhold til DX9.0.

Gravatar #7 - terracide
15. jun. 2009 14:51
#5:
Fungerende DX11 hardware er lavet og oppe at køre i revision A10, at NVIDIA ikke slår på tromme for det, er ganske som NVIDIA ikke slog på tromme for G80 eller G200....men GT300 rammer i år ;)

Edit:
Og der er ændringer til GT300 der IMHO får GT300 til at minde om lanceringeren af G80..."powar" upgrade indeed.
Gravatar #8 - lindysign
15. jun. 2009 14:57
Håber seriøst at de har løst problemerne med varme, blæserstøj og drivers, som de har haft MANGE af det seneste år! Jeg undgår i hvert fald Nvidia det næste stykke tid, og holder mig til ATI som aldrig har givet mig problemer.

Men håber da de er på vej på banen igen, for jeg kan godt lide når Nvidia og ATI er ca. lige gode, for så er der rigtig konkurene. :)
Gravatar #9 - Clauzii
15. jun. 2009 15:00
#6:
Så du mener at de 10%-50% hurtigere DX10.1 er ift. DX10 er ligegyldigt..??

DX 10.1 Speed Up
Gravatar #10 - terracide
15. jun. 2009 15:00
#8:
Hvilken sten har du levet under, det er almen viden at ATI's kort larmer mere i dag end NVIDIA kort og sådan har det været i hvertfald siden X1800-serien?

http://www.hardocp.com/article.html?art=ODc1LDExLC...
Gravatar #11 - terracide
15. jun. 2009 15:02
#9:
List de spil der bruger og er annoceret med DX10.1.

Så skal jeg fortælle dig hvor ligeglad jeg er....specielt med features som kan laves med NVAPI if need be.

DX10.1 kommer til at være endnu mere betydningløs end DX9.0B
Gravatar #12 - lindysign
15. jun. 2009 15:08
#10 At nedgøre mig, giver dig nu ikke mere ret, men fred være med det, hvis du føler dine argumenter er stærkere på den måde. ;)

Det er jo underligt at her på siden, på comon og andre større udenlandske sider, der har der været skrevet MEGET om varmeproblemer med Nvidias mobile gpu'er, og om hvordan de enten skulle returneres (bl.a. Dell har overvejet at stoppe med at bruge Nvidia pga. dette problem). Varmen blev så løst af mange, ved en bios-opdatering der skruede op for blæseren til gpu'en, og det resultere i mere larm.

Hvis du er så stærk i dine argumenter, så er du da velkommen til at give et link til den almen kendte viden ang. støj. Der må da være nogle artikler der der nævner det?!? Og nå ja, gerne en artikel der nævner mere end én type kort, nu da det er almen og gængs viden for ALLE kort produceret af ATI siden x1800 generationen. ;)
(artiklen du henviser til, viser meget lille forskel i larm, relatere kun til ét kort OG fortæller også at larmen selvfølgelig kommer an på hvilken type blæser og heatsink man bruger).

Ud over alt dette, så vil jeg sige, at jeg vil hellere have et kort der larmer lidt mere, men så virker!
Gravatar #13 - terracide
15. jun. 2009 15:16
#10:
Jeg nedgør dig fordi du fortjener det.

Og istedet for at forsøge med omvendt bevisbyrde, så kunne du lette røven og selv levere dokumentation for dine påstande.

For når du lukker lort ud som at DELL ikke længere fører NVIDIA GPU's i laptops fortjener du at blive slammet:

http://www1.euro.dell.com/dk/da/hjemmet/Bærb...

Terra - Whine on n00b...
Gravatar #14 - lindysign
15. jun. 2009 15:22
#13 Du startede med modbevise mig, uden beviser, så lad os tage det i den rette rækkefølge, ikke? ;)

At du bliver ved med at nedgøre mig, fortæller mig meget om din modenhed og måde at debattere på. Heldigvis udstiller det jo bare dig selv som værende temmelig inkompetent og usaglig, samt meget andet... Mere har jeg ikke brug for at sige der.

Læs det jeg skriver, så gavner du dig selv og dine argumenter rigtig meget. Jeg skrev "Dell har overvejet..." og ikke at de havde droppet dem. Slam lige dig selv, ikke? *gg*

Du er åbenlyst en der elsker at gøre debatter ubehagelige og at bringe niveau'et ned på et meget lavt plan, både medmenneskeligt og sprogligt. Jeg tror derfor jeg vil ignorere dig, hvis du svarer lige så grimt på dette indlæg, som du har vist de foregående gange. Så hvis du ikke får svar, så gæt hvorfor. ;)

PS. Når du engang kommer i puberteten og du opdager hvor barnligt det er at skrive sætninger som "Whine on n00b...", så vil jeg da gerne give dig et par råd til hvordan du ellers kan spille sej. *g*
Gravatar #15 - terracide
15. jun. 2009 15:26
#13:

lindysign (14) skrev:
#13 Du startede med modbevise mig, uden beviser, så lad os tage det i den rette rækkefølge, ikke? ;)


Løgn, linket i #10 forsvinder ikke bare fordi du ikke kan lide det, løgner.

At du bliver ved med at nedgøre mig, fortæller mig meget om din modenhed og måde at debattere på. Heldigvis udstiller det jo bare dig selv som værende temmelig inkompetent og usaglig, samt meget andet... Mere har jeg ikke brug for at sige der.


At du fokusere på tonen og ikke indholdet siger mig du er en lille wannabee troll...en lort i pakket fin ind er stadig en lort...og en løgner der prøver at aflede er staidg en løgner.

Læs det jeg skriver, så gavner du dig selv og dine argumenter rigtig meget. Jeg skrev "Dell har overvejet..." og ikke at de havde droppet dem. Slam lige dig selv, ikke? *gg*


Dine kilder tak?

Du er åbenlyst en der elsker at gøre debatter ubehagelige og at bringe niveau'et ned på et meget lavt plan, både medmenneskeligt og sprogligt. Jeg tror derfor jeg vil ignorere dig, hvis du svarer lige så grimt på dette indlæg, som du har vist de foregående gange. Så hvis du ikke får svar, så gæt hvorfor. ;)


Du er åbenbart en der godt kan lide røgslør istedet for argumenter eh?
Så meget lort du har skrevet ...og +90% = irrelevate forsøg på afledning...

Terra - Overrask mig...fremlæg et argument.

(for god orden skyld vil jeg fremhæve med fed hvor du forholder dig til emnet og ikke til mig eller andet røgslør..at det neste fede i din post så er en løgn er bare funny.)
Gravatar #16 - Lynderup
15. jun. 2009 15:27
Det er i orden at i har hver jeres meninger men den omgangstone hører da ikke hjemme her inde.

on topic: om Nvidia eller ATI er best er nærmest en religions spørgsmål. jeg foretrækker personligt Nvidia men har hverken haft problemmer med dem eller ATI
Gravatar #17 - lindysign
15. jun. 2009 15:31
#16 Det er nemlig rigtigt. Det er også derfor jeg godt kan lide at se at både Nvidia og ATI er ca. lige gode... Det giver som sagt konkurrence, og det kan ikke bringe mit pis i kog, at der er et par frames/sek forskel i spil jeg alligevel ikke spiller. :)

Bare rolig, jeg svarer ham ikke mere, det er vist ingen nytte til. ;)

Jeg har desværre oplevet store problemer med Nvidia, og aldrig ATI. Men jeg vil ikke påstå at det så betyder at andre ikke har oplevet det omvendte. Min erfaring siger mig at generelt (ud over det sidstnævnte varmeproblem) så er det producenten af grafikkort (altså ikke af grafikchippen) der har ansvaret for de fleste problemer med kortene. Blandt andet med manglende opdatering af drivers.
Gravatar #18 - terracide
15. jun. 2009 15:33
#16:
Dejligt at se du ikke overraskede mig...
PS. Du skal ikke starte med ATI og drivers:
http://www.anandtech.com/mobile/showdoc.aspx?i=356...

Terra - keep on trolling n00b ;)
Gravatar #19 - v1ct0r
15. jun. 2009 15:50
Det er da en fuldkommen tåbelig navnestrategi de har hos nVidia, det giver ingen mening.
Gravatar #20 - Eskibo
15. jun. 2009 16:13
#19

Ja det er mega latterligt.
ATI lavede selv samme nummer efter Radeon 8500.
Gravatar #21 - JensOle
15. jun. 2009 16:22
Hvad så terracide ? For meget coke i weekenden ?
Gravatar #22 - KomIgen
15. jun. 2009 16:27
Så så #21... der er ikke nogen grund til at bashe nogen mere end højst nødvendigt, det er jo dejligt med en "hvid juni" ;)

Når det så er sagt, synes jeg, helt på linje med #16, at det bliver mindre fornøjeligt at læse kommentarer på Newz.dk når indlæggene bliver for farverige i sprogbruget... Det højner i hvert fald ikke niveauet.
Gravatar #23 - gensplejs
15. jun. 2009 16:34
terracide (11) skrev:
#9:
List de spil der bruger og er annoceret med DX10.1.

Så skal jeg fortælle dig hvor ligeglad jeg er....specielt med features som kan laves med NVAPI if need be.

DX10.1 kommer til at være endnu mere betydningløs end DX9.0B

Ja for det er bare mega fedt at skulle bruge forskellige api'er alt efter hvilket grafikkort folk lige sidder med.
Hvis de ikke understøtter det gennem dx eller openGl så understøtter de det ikke. Det er min holdning. Sidst jeg har skullet skrive speciel kode for et kort frem for et andet var helt tilbage i Voodo2 dagene.
Så hvis nvidia ikke snart klapper kaje med deres NVAPI og CUDA og pis og papir så skal jeg personligt proppe alt det lort op i røven på dem. (AMD skal også bare knytte sylten med deres defekte stream lort!)
Hvis jeg vil kode 3D grafik lir så bliver det i DX eller OpenGl. Skal jeg kode GPGPU hejs bliver det med GPGPU gøjl i DX11. Jeg er så røv træt af bindinger til specifik hardware at jeg er ved at brække mig.

Gravatar #24 - Clauzii
15. jun. 2009 16:38
#19: Ja, GTX er lige pludselig mindre end GTS...spøjst.

#18:
FarCry2
Stalker:Clear Sky
Cloud 9
Stormrise
og
Battleforge test

er lige hvad der popper op i mit hoved, men der kommer stensikkert flere.

Og DX10.1 er meget mere end AA (fra THG):

"Additionally, Shader performance has been improved. Shaders will be able to output to any MRT (multiple render target) or buffer with their own blending mode per target. Vertex shaders now can have 32 128-bit values instead of 16. Level of detail (LOD) instructions were added which allow custom filtering techniques to be used. Gather4 enables a block of 2x2 unfiltered texture values instead of a single bilinear filtered lookup. The last of the major improvements to shader model 4.1 is the use of cube map arrays. In the world of gamers, this is one of the most significant changes, as it allows the use of efficient global illumination techniques which can deliver ray trace quality effects including indirect lighting, color bleeding, soft shadows, refraction, and high quality glossy reflections to a scene. Below is a screenshot of new demo that AMD has been working on that shows the use of cube maps for global illumination. On the right it has been turned on and on the left it is off. Notice the shadows and color blending per sphere with the technique enabled.

DX 10.1 takes some of the optional precision and formatting items from Direct3D 10 and forces their compliance in DX 10.1. Two data formats which are required are floating point 32 (FP32) and integer 16 (Int16). 0.5 ULP (Unit in the Last Place) is also enforced in 10.1. Both FP32 for 128-bit texture format filtering and Int16 64-bit integer pixel blending ensures all 10.1 compliant hardware vendors will support these high precision data formats in their products. A tighter ULP makes rounding floating point numbers even more precise. This means that if a developer wants to use these specific formats or requires tighter rounding precision, they don’t have to code around the hardware. The same is true for the blending, 10.1 will support all unorm and snorm formats and 10.1 hardware will support all of it regardless of manufacturer.

Antialiasing (AA) will get cleaned up a lot as well. Multisampling antialiasing (MSAA) under D3D 10.1 now requires a minimum of four samples per pixel for 32-bit and 64-bit (MSAA 4x). AMD/ATI and Nvidia have kept their AA sampling patterns under wraps for competitive reasons. 10.1 will force many improvements regarding AA sample patterns as well. The first being a standardized sample pattern for AA for 2x, 4x, 8x and 16x sampling. 10.1 will also enable pixel coverage masking and multi-sample read and writes to the buffer. Now color and depth can be accessed directly by the shader and then can be manipulated via a predetermined pixel shader AA program. Long gone will be the days of HDR without AA. Developers can determine what will work best with their applications, performing custom AA, edge detecting AA, and even programming their own custom AA filter for adaptive and temporal AA."

Gravatar #25 - terracide
15. jun. 2009 17:06
#23:
Hvilken del af DX11 kommer i år og gør DX10.1 mere betydningsløs ned DX9.0B?

#24:
Imponerende...der er flere PhysX spil ned der er DX10.1 spil...

Og jeg ved skam godt hvad DX10.1, men ved du hvad NVAPI er?
Gravatar #26 - Abech
15. jun. 2009 17:10
Terracide er og bliver bare en komplet idiot.

Terra - keep on trolling n00b ;)

Du kommer ikke meget ud hva'?
Gravatar #27 - terracide
15. jun. 2009 17:14
#26:
Du bliver nød til at gøre det bedre end det...jeg giver ikke freerides til amatører ;)
Gravatar #28 - Clauzii
15. jun. 2009 17:25
terracide (25) skrev:
Og jeg ved skam godt hvad DX10.1, men ved du hvad NVAPI er?


Men der vil komme mange flere. Eftersom nvidia er hoppet med på 10.1, der som tidligere sagt ER hurtigere og en væsentlig forbedring af DX 10. Hvis du ved noget om DX 10.1, må du da også kunne se at det er super hvis ens GPU med lidt code-snask kører de føromtalte 10-50% hurtigere.

Og derfor er nvidia selvfølgelig ved at have 10.1-chips klar også. Det er jo 'små-detaljer' i chipdesignet, der er tale om, for at lave 10.1. Ikke raket-videnskab, a'la et helt nyt chip-design.

Og nvAPI, ja - en lukket standard...
Gravatar #29 - knekker1
15. jun. 2009 17:29
Når jeg sidder her og læser gang på gang Terra's uopdragende og noget så fejlslagende kommunikation evner udadtil. Kan jeg ikke tænke på andet end at hans opførsel skyldes alt det lort han skal finde sig i som supporter hos Fullrate, hvor han faktisk taler pænt til folk, om det så skyldes frygten for at blive fyret, er mig uvist. Men måske er det hans måde at få afreageret, eller få lidt damp ud af systemet, så at sige her på newz debatten.

Uanset hvad, er det en skam han bringer newz ned på arto niveau, som han så ironisk nok selv af og til referere til, hvis der er noget han ikke er tilfreds med.
Gravatar #30 - Remmerboy
15. jun. 2009 17:29
angående dell overvejer at gå væk fra nvidia
http://www.comon.dk/news/nvidia.paa.vej.ud.af.dell...

nvidia skal hurtigst væk fra de skod navngivning der ikke har givet mening siden 8800gts's nye chipsæt.
en 8800gts med 640mb ydede dårligere end 8800gts 512mb. netop fordi der er ½-1 generations forskel. istedet for 8800 skulle de have kaldt det 8850 for forbrugerns skyld. det samme er med 9800 som er samme gpu som de nye 8800 modeller :S
men navngivningen er for nvidia's skyld, så forbrugerne ikke stopper med at købe en gammel 8800.
dette navngivning har åbenbart ikke stoppet siden de startede med det for 2 år siden.
på det område kan man da i det mindste se på modelnavnet på en ati om den yder dårligere eller bedre end andre.
Gravatar #31 - terracide
15. jun. 2009 17:32
Clauzii (28) skrev:
Men der vil komme mange flere. Eftersom nvidia er hoppet med på 10.1, der som tidligere sagt ER hurtigere og en væsentlig forbedring af DX 10. Hvis du ved noget om DX 10.1, må du da også kunne se at det er super hvis ens GPU med lidt code-snask kører de føromtalte 10-50% hurtigere.


Kig på ydelsen af de DX10.1 GPU'er NVIDIA har lanceret...10-50% af for subpar ydelse er stadig subpar.

Og derfor er nvidia selvfølgelig ved at have 10.1-chips klar også. Det er jo 'små-detaljer' i chipdesignet, der er tale om, for at lave 10.1. Ikke raket-videnskab, a'la et helt nyt chip-design.


Du mener ny chip a la GT300...DX11...up and running?

Og nvAPI, ja - en lukket standard...


Så microsoft sidder ikke tungt på DX? *rolling eyes*
Gravatar #32 - drenriza
15. jun. 2009 17:37
Ej men hvor er det sykotisk.
369gigaflops skal opløftes i 9 =
126,834,469,112,674,289,266,929 instruksioner i sekundet.

Say WhattttttttttttttttttO.o
Gravatar #33 - Clauzii
15. jun. 2009 17:45
Nej, måske ikke lukket så, men det er da unægteligt en del hurtigere at kommunikere med chips direkte på chippen sammenlignet med et API-software layer. Soft vs Hardware er vist kodeordet her ;) Og du mener vel ikke at endnu mere software er hurtigere end hardware??

--

Glemte linket til THG siden hér.
Gravatar #34 - Møller
15. jun. 2009 18:04
#32: Haha, nej, desværre ikke helt. Tallet er ikke andet end det giver sig ud for. 369 gigaflops = 369*10^9 flops = 369.000.000.000 flops. Men meld lige tilbage når en GPU, der lever op til dit tal, er til at købe, for så er jeg frisk ;-)
Gravatar #35 - Clauzii
15. jun. 2009 18:05
terracide (31) skrev:
Kig på ydelsen af de DX10.1 GPU'er NVIDIA har lanceret...10-50% af for subpar ydelse er stadig subpar.


Det er kun nvidias valg, ja. Men ATI vil så have en stor brugerkreds med DX 10.1 indtil W7 kommer, og vil med rette kunne sige "Jah, men det ser altså ikke helt så godt ud.." til nvidia.

Og jeg vil lige sige at det jeg skriver er ment objektivt set ;)

Ny teknologi med brugbare forbedringer vil altid kunne sælges. Og lad os antage at der måske liige går et par måneder eller tre mere, før de første småfejl i DX11 er blevet rettet. Og der vil >som minimum< være småfejl (det være sig ATI, Microsoft eller nvidia) før det hele er på plads.

Nu ved jeg desværre ikke hvor lang tid nvidia har kigget på DX11, men jeg mener at ATI nok har det lange ben foran, da 10.1 vil være en del af DX11, og derfor er det højst sandsynligt kun specifikke DX11-ting, ATI skal bruge/har brugt deres tid på.

ATI har også en DX11 'up & running', så jeg ved ikke helt hvad du mener. Det er jo nvidia der vælger at hoppe på 10.1. ATI skal bare hoppe til DX11. De har været step-ahead siden 36/38xx-tiden.
Gravatar #36 - terracide
15. jun. 2009 18:12
#33:
Siger du at DX10.1 kører "hardware" API (directx 10.1) mens NVAPI kører software og yder dårligere??

I fald fald har vi intet at snakke om før du får læst op om DirectX API og NVAPI:

http://en.wikipedia.org/wiki/DirectX


http://developer.nvidia.com/object/nvapi.html

Eller får kigget på den reelle ydelse:


HardOCP - FarCry 2

"FarCry 2 reads from a multisampled depth buffer to speed up antialiasing performance. This feature is fully implemented on GeForce GPUs via NVAPI. Radeon GPUs implement an equivalent path via DirectX 10.1. There is no image quality or performance difference between the two implementations."

AMD 4870


"With 4X AA enabled we still find that FarCry 2[I] is running faster in DX10 than it is in DX9 on this AMD GPU! The difference compared to above is a little less though. The performance difference is only 7% greater, but it is still greater none-the-less and free performance is free performance!"

280GTX

"This has to be the biggest performance improvement we’ve seen yet with DX10 enabled. We are seeing a near 20% improvement in performance by enabling DX10 versus DX9 with AA enabled. This is impressive to say the least. "

Conclusion

[i]"The most benefit to this performance improvement came when antialiasing was enabled, especially on the GTX 280. We experienced a very large 20% performance improvement in DX10 with AA compared to DX9 with AA. There was less of a performance improvement with the AMD Radeon HD 4870 1GB, even though it supports DX 10.1 natively. For whatever reason, it appears the specific coding to NVAPI is slightly faster on NVIDIA’s GPUs for this antialiasing performance improvement. Still, there was a real performance improvement with AMD GPUs, so definitely enable DX10."


Terra - Read up...
Gravatar #37 - AlmondMan
15. jun. 2009 18:56
Det issue er antialiasing relateret. Der er adskillige titler der har problemer med implementering af antialiasing og andre ting der er relateret til kortets arkitektur, f.eks. multi-gpu...

Directx 10.1 virker som værende ligegyldigt på nuværende tidspunkt.
Gravatar #38 - SpYkE112
15. jun. 2009 18:59
Terra!! JEG VIL FØDE DINE BØRN!! Du er min hero, på højde med Sidney Lee :D
Gravatar #39 - zin
15. jun. 2009 19:44
terracide ignorerer arne_v, den sandsynligvis smarteste og mest vidende (om ikke andet, den der viser det bedst - reference; Programmering-subforumaet) debattør herinde.
Det siger enten lidt om terracides opførsel eller hans intelligens. Døm selv. Han ignorerer selvfølgelig også mig, hvorfor jeg kan skrive sådan noget her. :-)

Når det er sagt mener jeg ikke hans attitude hører til på foraet. Han har ret i henhold til hans egne kilder, men i denne tråd kunne Lindysign sådan set godt have insider-knowledge fra Dell, som ikke kan kilde-rettes (rygter, en ven der arbejder for dell eller lignende).
Linket i #10 er temmelig irrelevant af to årsager:
(1):
The Radeon X1800 XT we have here today is a reference video card from ATI, so note that retail heat sinks could differ.

Meget sandsynligt og det lyder også som grunden til problemet med blæseren, der forårsagede larmen.
(2):
Therefore, our overall consensus is that the Radeon X1800 XT is running hotter, but not by a huge margin. We will definitely have to wait for retail products to compare GPU temperatures better.


Altså: Kortet er en reference model (prototype-agtig, ikke den endelige version), og forskellen i varmen var på maks 15 grader, celsius, og i et enkelt tilfælde var ATI kortet faktisk koldere end NVidia kortet.
Konklussion: Kortene er nogenlunde ens.
Til sammenligning kan vi trække de gamle GeForce 5xxx modeller frem, og de videoer der blev lavet hvor den blev sammenlignet med:
En Harley Davidson
En græsplæneklipper
En motor

Og mange andre tossede ting.
Gravatar #40 - ZnabelA
15. jun. 2009 19:51
<offtopic>
I et øjeblik troede jeg at det var en debat inde på eb.dk det her, men så scrollede jeg op i toppen og så at der stod NEWZ.DK og ikke EB.DK ... hmmm ... er Nationen! flyttet herover?
</offtopic>

Uden at vide alt for meget om noget som helst, så vil jeg bare lige minde jer om at Monkey Island bliver relanceret, og den kan med sikkerhed køre på jeres nuværende grafikkort, så i behøver ikke opgradere!
Gravatar #41 - Biornus
15. jun. 2009 19:53
Ignorer nu bare Terra og glæd jer over i ikke er så sørgelige...
Gravatar #42 - .dot
15. jun. 2009 21:45
#18 - Fordi 4 måneder uden 3D på en non-beta driver til en 8800GT er acceptabelt, på nogen måde? Kom igen.
Gravatar #43 - LaMaH
15. jun. 2009 22:50
så vidt jeg husker - så skulle DX10.1 kort være mere kombatible med DX11, og være i stand til at bruge flere DX11 funktioner end DX10 kortene.

Og hey, alting jeg kan få gratis i form a performance, i'll take it.
Gravatar #44 - .dot
16. jun. 2009 20:50
Terracide, come out come out where ever you are!
Gravatar #45 - terracide
17. jun. 2009 23:06
#42:
Forklar mig forskellen på NVIDIA's WHQL og BETA drivere.
Og så kan vi jo arumentere fortid imod nutid:
http://www.anandtech.com/video/showdoc.aspx?i=3463...
http://www.hardocp.com/article.html?art=MTY0NSw5LC...

Terra - Jeg kan ikke holde dig i hånden 24/7...find en ven...eller kæreste.
Gravatar #46 - Killa
18. jun. 2009 23:01
#45
"Garanti" for stabilitet? Grunden til at det er en beta er jo at Nvidia ikke kan garantere at den virker 100%.
Gravatar #47 - terracide
19. jun. 2009 00:25
#46:
Der er ingen garenti, WHQL drivere fra både ATI og NVIDA har haft stabilitetsbugs.

Ofte er den enst forskel på en beta revision fra NVIDIA ikke andet, ned WHQL "stemplet"...alle andre filer havde samme scheksum i WHQL udgave kontra beta'en.

Men WHQL skæpper godt i Microsofts kasse...driver efter driver efter driver.

Terra - Jeg kan ikke huske sidste gang jeg kørte med en WHQL GPU driver.../hail beta.
Gå til top

Opret dig som bruger i dag

Det er gratis, og du binder dig ikke til noget.

Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.

Opret Bruger Login