mboost-dp1

Nvidia

NVIDIA Fermi-chip klar til marts

- Via DigiTimes - , redigeret af Net_Srak

Oprindeligt var det meningen, at NVIDIAs bud på en DirectX 11-kompatibel GPU skulle have været klar i november, men den blev siden udskudt til en lancering i starten af 2010.

Nu forlyder det fra hjemmesiden DigiTimes, der har det fra interne kilder hos grafikkortproducenter i Taiwan, at NVIDIA har informeret producenterne om, at den nye GPU vil være klar til marts.

Dermed vil lanceringen ske midt i den periode, som NVIDIAs direktør Jen-Hsun Huang tidligere har meldt ud, vil være tidsrammen. I starten af november udtalte Huang, at lanceringen ville ske i første kvartal af selskabets regnskabsår 2010, der løber fra den 26. januar 2010 til den 26. april.

AMD vil ikke overraskende prøve at udnytte situationen så meget som muligt og forventes at lancere yderligere GPU’er i deres 5xxx-serie af DX 11-kompatible grafikchips i løbet af januar og februar. Det vil dreje sig om modellerne Radeon HD 5670/5570 (Redwood) og HD 5450 (Cedar).





Gå til bund
Gravatar #1 - Remmerboy
28. dec. 2009 10:32
er jeg den eneste der kom til at læse fermi som femi?

ot:
nvidia skal vist til at oppe sig igen, for ikke at sakke bagud som ved deres 5000 serie i sin tid. det tog dem 3 år (2 generationer) før de kom med et kort der kunne vise baghjul til ati. med ati's pris/ydelse der er uovertruffen lige nu, får nvidia svært ved at vinde noget markedsandele
Gravatar #2 - mvoigt27
28. dec. 2009 11:34
#1 Shh, du må ikke kalde Fermi for femi, ifølge Terracide er det verdens største potensforlænger.....
Gravatar #3 - Erroneus
28. dec. 2009 11:40
Øj øj det kommer til at gøre ondt hos Nvidia det her, jeg håber godt nok ikke at GT300 så skuffer, når det engang rammer markedet, det kan stort set dræbe dem, men lad os nu se, lidt spændende bliver det :>
Gravatar #4 - terracide
28. dec. 2009 11:59
#1:
De tal jeg har på Fermi rev.A3 vil klare sig ganske fint imod selv AMD's refresh...mange folk vil nok blive mere end almindeligt overraskede...vi snakker +2x GTX285 ydelse her...med én GPU.

Og NV40(6800) klarede sig nu fint imod R4xx (X800) og da NV40 var efterfølgeren til NV30(FX5x00) så har jeg svært ved at genkende det billede du prøver at male?:

http://www.hardocp.com/article/2004/04/14/geforce_...

Rent faktisk var det ATI der laggede bagefter der (SM2.0 vs SM3.0):

http://www.hardocp.com/article/2004/10/27/farcry_p...

Så både med 6800 og 6600 series, var et "win" for NVIDIA...sikker på du ikker husker som en låst dør?

Derudover, så er det ikke fordi NVIDIA lider nød pt.:

http://store.steampowered.com/hwsurvey/

Der er AMD der har noget at bevise...på på GPU og CPU markedsandele...


Gravatar #5 - CallOfDuty
28. dec. 2009 12:35
Man skal måske huske at Nvidia's nye er en helt ny arkitektur, og ikke en simpel refresh som ATI's seneste.
Gravatar #6 - Remmerboy
28. dec. 2009 13:03
#4
du linkede til en test der var 9800xt vs 6800ultra. 2 forskellige generationer. eller mente du testen mellem 5950 vs 9800xt?
http://en.wikipedia.org/wiki/GeForce_FX_Series#Har...
5000 serien klarer sig godt, når det ikke er krævende ting der skal renders.
det eneste jeg lige hurtig kunne finde, som desværre er en syntetisk test er http://www.xbitlabs.com/articles/video/display/200... med aquamark. men der kan man samlignee 6800 med x800 (og 6800 ultra med x850 osv osv)
Gravatar #7 - Xill
28. dec. 2009 14:42
#4 .. da x800 kom på markedet, var det i lang tid klart det bedste køb. Og det er det samme nu med 5xxx

Det er DX 11, yder godt, bruger lidt strøm og koster ikke så meget.

Yderligere kommer NVIDIA først med noget nyt i april. Det er jo ikke for sjov at han udtaler " i første kvartal af selskabets regnskabsår 2010" og ikke bare "første kvartal 2010"
Gravatar #8 - Panda.dk
28. dec. 2009 14:59
Inden nVidia udgaver fermi, kommer ATI (AMD) sikkert med et 5890 og et 5990. (2 stk. 5890) Til næste generation (6xxx/4xx) er AMD så foran.
Gravatar #9 - Blackwater
28. dec. 2009 15:01
terracide (4) skrev:
#1:
De tal jeg har på Fermi rev.A3 vil klare sig ganske fint imod selv AMD's refresh...mange folk vil nok blive mere end almindeligt overraskede...vi snakker +2x GTX285 ydelse her...med én GPU.

Hva, er det de benchmarks der er leaked ud? De blev da bevist at de var faked.

Men jeg tror stadig at Nvidia kommer til at klare sig helt fint ;).
Gravatar #10 - themuss
28. dec. 2009 15:14
terracide (4) skrev:
...sikker på du ikker husker som en låst dør?
Ahhh de dansk-kundskaber der..
Gravatar #11 - AenimA
28. dec. 2009 17:17
Så grafikkortet kommer til Marts, hvis alt går vel. Det betyder at ATI har ca. 3 måneder mere at skabe sig et forspring i, før de får konkurrence i DX11/ydelses segmentet.

Mit gæt er, at ATI er parate til at presse prisen ned for at bevare ydelses/pris fordelen når Fermi kommer ud - og at de er i stand til at gøre det uden tab, fordi produktionprocessen er modnet rigeligt til det tidspunkt. Så ser vi formentlig en 5890'er (måske endda 5980/5990 multiGPU) kort til at presse på ydelsen. Alt selvfølgelig ud fra den formodning om, at Nvidia kommer med et højtydende kort.

Gravatar #12 - mgX
28. dec. 2009 17:28
Jeg fik købt mig et 5770 kort til meget billige penge, da jeg ikke spiller det helt store og kræver en gakket opløsning og alt på max. Næh. jeg er efter ydelse/pris, strømforbrug og larm, og der må jeg sige at jeg er yderst tilfreds. Er dog iriteret over at min hdd larmer så meget, eller måske mere det faktum at jeg kan høre den larme nu... Tror cirka at min pc fik halveret sit idle strømforbrug med den opgradering, og når man selv betaler strømmen samt har skidtet kørende det meste af tiden, betyder det faktisk en temmeligt stor besparelse, som jeg så kan bruge på yderligere lir til pcen hehe
Gravatar #13 - terracide
28. dec. 2009 18:34
Xill (7) skrev:
#4 .. da x800 kom på markedet, var det i lang tid klart det bedste køb. Og det er det samme nu med 5xxx


Ikke hvis man kunne lide SM3.0...som gav mere ydelse/bedre IQ end DX11 over DX10...beklager...



Blackwater (9) skrev:
Hva, er det de benchmarks der er leaked ud? De blev da bevist at de var faked.

Men jeg tror stadig at Nvidia kommer til at klare sig helt fint ;).


Jeg snakker ikke om hvad der står på diverse sites...selv om Rys fra B3D dog har puffet lidt til Charlie fra Semiaccurate...
Gravatar #14 - AenimA
28. dec. 2009 18:40
#12

Det kort har jeg også, og er ydest tilfreds med ydelsen. Det er ikke helt galt at få et kort, der yder ca. på niveau med en HD4870'er, men med et peak/idle strømforbrug på omtrent 100/16 Watt.. perfekt til mit medie/spilcenter.

Om Nvidia får et ordentligt modsvar i det segment bliver spændende at se.
Gravatar #15 - Mock
28. dec. 2009 23:43
ja for mig har det set ud som nvidias fokus opråde har været fake grafikkort og 3D briller.

3D briller kunne da også være et meget godt sats men nu må vi se om det bliver til noget i det nye år
Gravatar #16 - terracide
29. dec. 2009 03:53
#15:
Du burde læse lidt op, det er ikke kun i biffen at 3D holder sit indtog:

http://www.blu-ray.com/news/?id=3924


Hvad tror du bliver det første til at ramme masser af hjem?
3 skærme...eller 3D?

Gravatar #17 - themuss
29. dec. 2009 03:55
terracide (16) skrev:
Hvad tror du bliver det første til at ramme masser af hjem?
3 skærme...eller 3D?
Jeg er ligeglad, så længe det er dig, der bestemmer *sms*
Gravatar #18 - terracide
29. dec. 2009 03:59
#17:
What's up Jakob...træt af at snakke med CC kunder?
Gravatar #19 - themuss
29. dec. 2009 04:02
LOL :)

Gå i seng, mester
Gravatar #20 - terracide
29. dec. 2009 04:04
#19:
Make me...
Gravatar #21 - themuss
29. dec. 2009 04:04
"GÅ SÅ I SENG!"
Gravatar #22 - terracide
29. dec. 2009 04:07
#20:
Næ, er lige stået op...desuden så skal der mere end en supporter-troll til at få mig til at gå i seng.
Gravatar #23 - themuss
29. dec. 2009 04:10
Sjovt, jeg er også lige stået op.... Skal du have noget hjælp med natting?
Gravatar #24 - c4m3d
29. dec. 2009 04:40
Ati har aldrig haft er forspring.. De solgt sand i sahara, og folk har været dumme nok til at købe det...
Gravatar #25 - mega2507
29. dec. 2009 09:14
#12 Forstår ikke helt dit valgt af gfx kort hvis du går efter pris ydelse så skulle du da klart have valgt et Nvidia 260 GTX kort til 1000 kr, da du så ville have fået 10% bedre ydelse til samme pris (og det er ikke kun ved syntetisk benchmark)

http://www.tomshardware.com/reviews/radeon-hd-5770...

Hvad angår strømforbrug, ja så bruger nvidia lidt mere ved load men ved idle ligger omkring 10 watt fra hinanden i forbrug. Derudover kommer at ATI kortet larmer 2 db mere ved load, for slet ikke at snakke om ATI ret begrænsede driveres når det kommer til custom opsætning pr spil, hvis man netop ikke har købt toppen af poppen har man mulighed for at konfigurere kortet til det enkelte spil, når en bestemt exe fil startes.
Gravatar #26 - -N-
29. dec. 2009 09:59
#16 For at være helt ærligt, ingen af delene.

Har set avatar i 3D og det var i den grad med til at ødelægge filmoplevelsen ligesom alle 3D forsøge har ødelagt både spil og filmoplevelser tidligere.

Derudover, det kan godt være at du er nvidia fanboi, men som det ser ud pt. så står nvidia lidt skidt i svinget, selvom fermi chippen lyder lovende.

... Og du må erkende, at nvidia til tider har været et direkte dårligt køb, først med 5x00 serien og senere pga. ikke eksisterende stabilitet i deres driverer. Hvor fedt er det med ydelse, hvis den kun er der i split sekunder ad gangen :-D

Personligt synes jeg heller ikke det er interessant, hvem der levere det hurtigste kort, men hvem der levere den bedste pris/ydelse i det almene gamer segment.
Gravatar #27 - Mock
29. dec. 2009 12:21
Jeg har prøvet lidt af hver. og altid satset efter toppen af poppen. har altid godt kunne lide ATI control panel. men oplevede godt nok en del problemer med mit sidste ATI køb der gjorde jeg til sidst skiftede til Nvidia 295 der performede langt beder end 2 3870X2 som klaret sig rigtig godt i benchmark men ikke et eneste spil klaret kortende uden der var tonsvis af problemer. Ser ellers ud for som ATI klare sig rigtig godt. men er selv lidt låst af en 120hz skærm med 3D Vision. så ikke lige noget ati køb til mig endnu selvom det ser beder ud for tiden
Gravatar #28 - terracide
29. dec. 2009 14:36
#26:
Har også set Avatar i 3D og det enest jeg ikke brød mig om var teksterne...bekalger hvis din hjerne ikke kan kapere 3D, men det er dit problem...ikke mit.

Desuden købte jeg mit GTX285 OC FØR AMD's nye serie og skifter jeg over, får jeg intet ud af det.
1600x1200 fungere fint på med mit kort...og jeg ville miste PhysX...så det ville ikke være en upgrade, mere et sidestep.

Og igen, når man sidder +2/3 af markedet, så er man ikke ved at skride i svinget...
Gravatar #29 - -N-
29. dec. 2009 14:57
#28 Lyder mest som om du ikke har nogen kritisk sans... Det var en katastrofe for billedkvaliteten... Men det er jo så et spørgmål om hvad man prioritere og her prioriter nvidia jo heller ikke ligefrem kvaliteten over performance. Kan man ikke se forskel er det selvfølgelig ligegyldigt :-D

Igen... Mange forstod ikke at problemer i deres computer skyldes dårlige drivere fra nvidia... De var bare heldige at så mange ikke ved hvad en computer er og kan finde ud af at læse en logfil. Det var lidt skræmmende at se, at selv klik-sig-frem "nørder" ikke anedede, hvad deres problem var.

Det med markedsandelen afhænger vist af, hvordan man afgrænser det.
Gravatar #30 - terracide
29. dec. 2009 20:50
-N- (29) skrev:
Lyder mest som om du ikke har nogen kritisk sans... Det var en katastrofe for billedkvaliteten... Men det er jo så et spørgmål om hvad man prioritere og her prioriter nvidia jo heller ikke ligefrem kvaliteten over performance. Kan man ikke se forskel er det selvfølgelig ligegyldigt :-D


Så vidt jeg ved er der ét DX11 spil ude....GRID2.
Hvis du kender til andre steder (ud over PhysX spil, hvor NVIDIA har fordelen) så vil jeg gerne se det?
Eller hvor jeg vil få noget som helst ud af at skifte væk fra et GTX285 @ 1600x1200?

Tomme ord er nemme...at levere varen er en anden.

-N- (29) skrev:
Igen... Mange forstod ikke at problemer i deres computer skyldes dårlige drivere fra nvidia... De var bare heldige at så mange ikke ved hvad en computer er og kan finde ud af at læse en logfil. Det var lidt skræmmende at se, at selv klik-sig-frem "nørder" ikke anedede, hvad deres problem var.

AMDs driver (og deres relase politik) er ikke en døjt bedre.
Hvor mange gange må AMD's bruger ty til et "hotfix" fordi AMD ikke kan få deres drivere til at spille? (pun intended)

Det med markedsandelen afhænger vist af, hvordan man afgrænser det.


Vis mig en bedre statistik?:
http://store.steampowered.com/hwsurvey/



Gravatar #31 - -N-
29. dec. 2009 21:58
#30 Well, AMD retter i det mindste fejlene, i de to år jeg havde mit 7900gtx rettede de ikke fejlen. Desuden har jeg i det seneste 1½ år ikke oplevet fejl i AMD's drivere som medførte nævneværdige problemer og det må man sige at nvidias problem gjorde fordi fejlen medførte at spillet gik over til cpu rendering. Om problemet stadig er der ved jeg ikke.

Når jeg snakker billedkvalitet snakker jeg ikke dx for det har absolut intet med billedkvaliteten at gøre. DX er et api sæt der fortæller, hvilke grafiske funktioner udviklerne kan bruge og resultatet skulle gerne vær det samme uafhængigt at gpuens producent. Det kan måske også afklare 3D debatten for billedkvalitet er tilsyneladende ikke noget der bekymre dig, hvilket er fair nok, men gør man det, så er 3D briller noget forpulet l*rt.

Gider ikke til at lede efter statistik, når du mener at steam giver et billed af markedsandelene (hint, som jeg sagde, det afhænger af hvordan man afgrænser begrebet markedsandel). Det er forøvrigt også fuldstændig ligegyldigt, for man skal være enig om, hvad man snakker om før statitsik bliver interessant. Man kan få statistik til at vise alt, det er bare et spørgsmål om at måle det rigtigt.
Gravatar #32 - terracide
29. dec. 2009 22:25
#31:
-N- (31) skrev:
Well, AMD retter i det mindste fejlene, i de to år jeg havde mit 7900gtx rettede de ikke fejlen. Desuden har jeg i det seneste 1½ år ikke oplevet fejl i AMD's drivere som medførte nævneværdige problemer og det må man sige at nvidias problem gjorde fordi fejlen medførte at spillet gik over til cpu rendering. Om problemet stadig er der ved jeg ikke.



Så har du ikke spillet ret mange spil., selv Anandtech har haft riven ude ang deres driver-crap:

http://www.anandtech.com/video/showdoc.aspx?i=3463...




-N- (31) skrev:
Når jeg snakker billedkvalitet snakker jeg ikke dx for det har absolut intet med billedkvaliteten at gøre. DX er et api sæt der fortæller, hvilke grafiske funktioner udviklerne kan bruge og resultatet skulle gerne vær det samme uafhængigt at gpuens producent. Det kan måske også afklare 3D debatten for billedkvalitet er tilsyneladende ikke noget der bekymre dig, hvilket er fair nok, men gør man det, så er 3D briller noget forpulet l*rt.


At din hjerne ikke kan kapere 3D er ikke mit problem, det virker fint for mig.
At man skulle miste billedekvalitet fordi det er 3D er langt ude larson...



-N- (31) skrev:
Gider ikke til at lede efter statistik, når du mener at steam giver et billed af markedsandelene (hint, som jeg sagde, det afhænger af hvordan man afgrænser begrebet markedsandel). Det er forøvrigt også fuldstændig ligegyldigt, for man skal være enig om, hvad man snakker om før statitsik bliver interessant. Man kan få statistik til at vise alt, det er bare et spørgsmål om at måle det rigtigt.


Ah...du er al whine og tears, men har intet at have det...forstået.

Terra - Empty troll is empty troll...
Gravatar #33 - suffi
29. dec. 2009 22:45
Far Cry 2, det er jo så ét spil....
At Nvidia drivere stod for 28.8% af alle Vista crash i 2007 viser jo også en del om hvor Nvidia kunne optimere!

http://www.engadget.com/2008/03/27/nvidia-drivers-...
Gravatar #34 - terracide
29. dec. 2009 22:51
#33:
Det er ikke blot "ét" spil, prøv at goggle lidt...hell selv 9.12 har et "hotfix"

Og det er klart at der er flere crashes fra NVIDA end fra AMD...da NIVDIA har en markant større markedandel end AMD.

Og der bliver slet ikke kigget på hvad jeg mener var den ægte "culprit".

Nemlig NVIDIA's chipsæt.
Selv om de laver gode GPU's har deres chipsæt altid suttet røv...men tak for turen down memory lane, bare en skam AMD intet har lært.

Gravatar #35 - -N-
29. dec. 2009 23:20
#32 Er du tungnem?

Jeg snakker om at 3D foranstaltningen mishandler billedkvaliteten.

Hvis du ikke kan se det, så tror jeg du skal til øjenlæge, jeg kunne se det med -1 på begge øjne.

Du har desuden specifikt udtrykt at du ikke aner noget som helst om, hvad ordet billedkvalitet betyder idet du kædede det sammen med DirectX. - Er du tungmen?

Det kunne faktisk være interessant at høre, hvad du forbinder med billedkvalitet.

Hvorfor siger du, at jeg ikke har forstået noget, når du ikke har læst mit indlæg og ikke ved, hvad det vil sige at afgrænse et begrebet? Hvor interessant er det at se på steams statistik, når det er en smal og meget målrettet del af markedet. Ved du serisøt så lidt om statistik, at du ikke kan se validtet problemer, når bruger den population til at lave inferens til hele markedet?

#33 Du har ikke overvejet at læse artiklen? Men nu skal jeg så fortælle dig, hvad der står, det er Vista crashes generelt ikke kune farcry statistikken omhandler. Og statistikker er du jo godevenner med, så det er tilstrækkelig dokumentation for at nvidia er noget lort i forhold til AMD. Det var rart at få det på plads, så slipper for den diskussion i fremtiden.
Gravatar #36 - terracide
29. dec. 2009 23:41
#35:
Er du begrænset?

Dokumenter dette "I.Q." tab...eller klap kaje.

Du snakker hele tiden udenom, levere INTET..ud over at fortælle os at din hjerne åbenbart ikke kan kapere 3D.


Gravatar #37 - suffi
30. dec. 2009 00:06
-N- (35) skrev:

#33 Du har ikke overvejet at læse artiklen? Men nu skal jeg så fortælle dig, hvad der står, det er Vista crashes generelt ikke kune farcry statistikken omhandler. Og statistikker er du jo godevenner med, så det er tilstrækkelig dokumentation for at nvidia er noget lort i forhold til AMD. Det var rart at få det på plads, så slipper for den diskussion i fremtiden.


omg..stop tud? Nu svarede jeg egentligt bare på Terras indlæg omkring:
#32: terracide Så har du ikke spillet ret mange spil., selv Anandtech har haft riven ude ang deres driver-crap:
http://www.anandtech.com/

hvor det lod til at han svarede på dit spørgsmål med en reference til ét spil. (og terra du har helt ret i at det skal tages i forhold til markedsandel men læser du den oprindelige artikel så var det et specifikt driverproblem til en hel serie af NVkort. (http://arstechnica.com/hardware/news/2008/03/vista-capable-lawsuit-paints-picture-of-buggy-nvidia-drivers.ars)

Så dermed ja, jeg svarer på indlæg omkring et spil men giver et allround svar bundet til et OS der havde store problemer med Nvidia drivere.
og ja...selvfølgelig holder jeg mig til statistikker, for hvad fanden kan jeg bruge et (n00b udtaler sig: Jeg har et grafikkort fra en specifik udvikler og det kører godt så derfor kører alle deres kort godt) til?

Som Terra så smukt skriver mens jeg er igang med at skrive "Du snakker hele tiden uden om. Så giv du da venligst noget dokumentation på hvad end så det er du prøver at skrive så vi ved om du har noget at have din tomme snak i!

har selv været ejer af adskillige Nvidia og ATI (sidste kort var (8800 GFX og et Radeon X850 og står nu og skal vælge mellem et Fermikort (når det engang kommer) eller et 5870/5970 så håber gennem denne tråd at i alle kan give mig svaret:)
Gravatar #38 - illop
9. jan. 2010 19:24
Denne artikkel er efter min mening den mest realistiske, uden dog at komme med nogle forudsigelser. Der må være trengsel på 40 nm processen og Nvidia er 'den sene ko'. Der er heller ikke nogen grund til at tro at TSMC er interresseret i at øge produktionen, da vi jo kun er et år eller så fra 28 nm. Aå da man ser sådan en Link så er det vist ønsketænkning.
Gravatar #39 - terracide
9. jan. 2010 20:12
#38:
Det første link er kun for betalingskunder, dit andet link er debunket som værende fake...og alligevel så lykkes det dig at poste bræk uden om linksneTSMC skal have intjent der 40nm udtyr...det ker kun ved at rampe produktione op så højt som muligt.

Er du i famile med Charlie "I posts guesswork and spin it negative"?

Hvis du havde bare fulgt med en lille smule ville du vide af GF100 produktionen er sat i fuld sving.

Og jeg vil væde med at Intel kommer ud med 22nm før nogen laver andet end testwafers med 28nm.
Gå til top

Opret dig som bruger i dag

Det er gratis, og du binder dig ikke til noget.

Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.

Opret Bruger Login