mboost-dp1

Nvidia

NVIDIA igen i problemer med GF100-chip

- Via Ingeniøren -

Nvidia forventes at annoncere deres kommende, og forsinkede, GPU-generation den 27. marts, men allerede inden den er udkommet, er der ballade i kulisserne.

Ifølge Ingeniøren, der har talt med flere producenter af grafikkort, så har Nvidia i 11. time, her et par uger inden lancering, ændret på specifikationerne for chippen.

Producenterne oplyser, at den såkaldte TDP (Thermal Design Power) er øget fra 275 watt til 325 watt, hvilket tvinger producenterne til at foretage ændringer på deres grafikkort.

Enten kan grafikkortproducenterne vælge at redesigne kølesystemet, eller de kan sænke hastigheden for GPU’en, to muligheder, der ikke falder i god jord.

Nvidia har ikke bekræftet situationen, men det antages, situationen er opstået pga. problemer med designet i den meget komplekse chip, der indeholder 3 milliarder transistorer.





Gå til bund
Gravatar #1 - Corholio
16. mar. 2010 16:47
Tjah, det lyder da som et grumt strømforbrug... mon ikke de får styr på det i nogle senere revisioner af GPU'en?

I mellemtiden holder jeg mig til ATI.
Gravatar #2 - Decipher
16. mar. 2010 17:01
Om strømforbruget er horribelt eller horribelt+1 er vel næsten ligegyldigt, hvem F... gider købe sådan et kort?
Gravatar #3 - mvoigt27
16. mar. 2010 17:02
"Enten kan grafikkortproducenterne vælge at redesigne kølesystemet eller de kan sænke hastigheden for GPU'en, to muligheder, der ikke falder i god jord"..... Eller de kan vælge at inkludere en vindmølle og sige man kun må spille på blæsende dage :) GF100 i sli =650Watt.. puha...
Gravatar #4 - RMJdk
16. mar. 2010 17:03
Hmm lyder ikke til en GPU jeg vil prøve, fordi så enter vi sikkert igen med varme problemer eller et kort der lyder som en F****** jet engine.

Selv 285gtx har en røv dårlig køler, der larmer nogle gange.

Med Ati sætter man bare blæser hastigheden på sit 4870 til 30% og du hører den aldrig.
Gravatar #5 - Nightcover
16. mar. 2010 17:06
Hmm, kan ikke rigtig finde nogen kilde, anden end artiklen?

Her kan man finde mere information om gf100 (Geforce):
http://forums.techpowerup.com/showthread.php?t=117...

#4
ATI kølere er nu ikke de bedste :\
Gravatar #6 - RMJdk
16. mar. 2010 17:08
#5 nej muligvis ikke, men fortrækker bare stilhed hele tiden, over en turbine, for satme et kæmpe chock, hvergang min 285 Gtx køler går amok, lige før jeg ikke kan game om aftenen, vrooooooOOOOOOO OO OO O OMMMMMMMMMMMMMMMM 110DB lol lige før ihvertfald ^^

Helt utroligt at kabinet ikke løfter sig og flyver rundt i hele lejligheden.
Gravatar #7 - Nightcover
16. mar. 2010 17:09
#6
lol, men du kan vel bare gøre ligsom dit ATI kort og indstille blæseren manuelt?

topic: Man kan vel se dette som et rygte, vi finder først ud af det rigtigt d. 26 marts, hvor NDA løftes. FYI er den nyeste dato på kortenes release d.6 april
Gravatar #8 - TKB
16. mar. 2010 17:27
er jo total grotesk mængde energi der skal bruges for at vise et billede... Må være et oplagt miljøskatte område...
Gravatar #9 - Nightcover
16. mar. 2010 17:35
#8 Det er slet ikke sikkert at dette rygte er sandt. Desuden er dette forbrug kun ved absolut übberste max load.
Gravatar #10 - terracide
16. mar. 2010 18:08
Hvordan kan denne nyhed skrives, når NVIDIA stadig sidder på kortene...og deres specs?

Selv reviewers har ikke fået kort endnu, derfor der er så satans mange fake leaks...NVIDIA har ændret på hvordan de lancerer nye kort...
Gravatar #11 - knekker
16. mar. 2010 18:15
#10

Artiklen siger jo netop at producenterne har fået specs'ne at vide.
Gravatar #12 - terracide
16. mar. 2010 18:20
#11:
Der er ingen producenter ud over NVIDIA lige nu, kun distrubitører..

Goggle: NVIDIA FERMI tier1 distributors.
Gravatar #13 - Oculus
16. mar. 2010 18:40
Det er på en måde skræmmende og en fornærmelse mod resten af den "grønne bølge" at Greenpeace f.eks kan hive Apple offentligt fra hinanden, fordi hver en kvadret milimeter af deres laptops ikke kan genbruges eller blive til kompost; men hele GPU branchen kan ubemærket 20-doble strømforbruget på 10 år, uden så meget som en pegefinger.
Gravatar #14 - Jakob Jakobsen
16. mar. 2010 18:43
Decipher (2) skrev:
Om strømforbruget er horribelt eller horribelt+1 er vel næsten ligegyldigt, hvem F... gider købe sådan et kort?


Fanboi #1 Terra.
Gravatar #15 - B230FT
16. mar. 2010 18:46
Skræmmende dyrt energiforbrug - som sikkert også medfører en larmende køler

Endnu en grund til at ændre navnet til "Femi":

"Kan ikke holde kæft, og bruger alle dine penge" :-)

/B230FT
Gravatar #16 - mvoigt27
16. mar. 2010 18:56
#14 Kortet har lige gjort mig til spåkone. Jeg forudser en kæmpe elregning i nærmeste fremtid til Terracide.
Gravatar #17 - TKB
16. mar. 2010 19:03
#9 Her i landet er et rygte nok til at der kommer en "grøn" afgift på bare der er en teoretisk usandsynlighed for det måske engang kan komme til at gøre noget.. er rigeligt at baseres en afgift på som naturligvis skal ramme ALLE der ejer en GPU ligende genstand.. og hov.. hullet i statskassen er lukket.

Der burde være krav til hvor meget strøm en computer måtte bruge, der er regler for standbystrøm som jo er småting ved siden af.


Gravatar #18 - nikolajp
16. mar. 2010 19:03
Alt tyder på at GF100 bliver et flop.

nVidia havde et flop med en generation hvor ATI havde 9700/9800 chippen. Den periode gjorde meget ondt på firmaet, og man undrer sig over, at de ikke har lært noget af det.

Inden dette flop havde 3Dfx floppet helt vildt med samme trick - avanceret support af noget der ikke var spil til (blur, depth of field) og de gik konkurs, og blev overtaget af nVidia.

ATI satsede med 9700 på ren traditionel spil-ydelse dengang, men nVidia fjollede rundt med en masse features som ingen alligevel kunne køre og der ikke var spil til. Resultatet blev en chip der blev så varm at kølingen larmede som en jet-motor, og ydelsen var kun lige til at matche konkurrenten (som var meget billigere).

Hele forløbet omkring GF100 oser af samme problemer.

1. Forsinkelser
2. Chippen ser ud til at blive varm
3. nVidia introducerer en helt ny arkitektur, som ikke ser ud til at øge FPS i nuværende spil (tesselation)
4. Der er ALT for stille med benchmarks - det lover ikke godt.

Jeg ville sælge alle mine nVidia aktier nu hvis jeg havde nogen.

Jeg havde endda ventet på at købe et snart, og håbede det blev godt. Hmm.. ser ud til nVidia først bliver nogenlunde at købe i 2011.
Gravatar #19 - RMJdk
16. mar. 2010 19:10
Strømforbruget er helt overdrevet, det alene er grunden til jeg aldrig vil støtte Sli eller Crossfire, det er simplehen græsen. 650w DANG it.

Tror også den her generation bliver Ati for mig. Men altid godt at det skifter lidt frem og tilbage.
Gravatar #20 - Geekalot
16. mar. 2010 19:44
Er og bliver til Nvidia skal aldrig ha Ati, Har 2x260 lige nu og det køre fantastisk.Om det nye de har gang i bliver godt eller skidt, må man jo bare vente og se, men om det kommer til at koste 2kr i timen får ikke mig til at la være med at købe et af de nye.
Men bliver spændende at se når der kommer lidt flere nyheder ud omkring den nye serie.
Gravatar #21 - banzai123
16. mar. 2010 19:58
Selv om I alle sammen sikkert ved det, så kan fan-speed (og overclocking) klares med rivatuner.

http://www.guru3d.com/category/rivatuner/

OnTopic
Er dette ikke kun et enkelt-chip-kort?

Det virker da fuldstændig vildt med det strømforbrug, når man ser det i forhold til GTX 295, der jo er to kort i en.

http://www.nvidia.co.uk/object/product_geforce_gtx...
Gravatar #22 - Remmerboy
16. mar. 2010 20:36
der er jo flere problemer end bare en strømforbrugøgelse på 50w.
pcie v2 kan yde 150w. hver pci-e strømstik fra psu kan yde 75w.
normalt har high-end gfx plads til 2 pci-e stik så gfx kan brruge op itl 300w. men hvis der skal 3 stik til gfx, skal kortet re-designes da det ikke er simpelt at bare tilføje en stik mere.

ot.
hvis gf100 er singlecore, er det uhørt højt strømforbrug. den bruger ligeså meget som 5970 (eller hedder den 5890)
Gravatar #23 - TormDK
16. mar. 2010 20:58
Hmm, jeg havde ellers regnet med mine skattepenge skulle bruges på den store model af Fermi kortet.

Men hvis det lyder som en jetjager så tror jeg lige jeg vil se nogle reviews først
Gravatar #24 - burgurne
16. mar. 2010 21:01
OK, men et er hvad kortet bruger på MAX, hvad bruger det når man ikke spiller, altså som f.eks nu, hvor jeg sidder og skriver i et forum?

Hvordan ser strømforbruget ud for et ATI 5870, både MAX og i idle, bare til sammenligning?

Jeg er bestemt heller ikke meget for at få en føntørrer igen, så hellere ATI, hvis det ikke larmer (??)
Gravatar #25 - LaMaH
16. mar. 2010 22:01
5870 bruger vidst 18-20w idle, kan ikke huske max load, men det er vel omkring de 150-200w?
Gravatar #26 - Lars.dk
16. mar. 2010 22:34
typisk Nvidia de kan intet længe leve AMD/ATI
Gravatar #27 - erchni
17. mar. 2010 04:45
Ja det lyder til at ATIs plan, med at lave chipsene mindre, virker nu hvor nvidia får nogle enorme chips som bare sluger strøm som en svamp.
Gravatar #28 - Fieldmarshall
17. mar. 2010 06:38
hmmmmmm...???? Lader til, at jeg skal tænke i AMD/ATi baner næste gang der skal handles GFX kort.
Gravatar #29 - Nightcover
17. mar. 2010 07:10
#27
NVIDIAs nye arkitektur er genial til at lave i flere versioner, små som store.

Hvis i vil vide mere om arkitekturen, kan i læse en meget god og detaljeret artikel her:
http://www.anandtech.com/video/showdoc.aspx?i=3721

#25
Under max load, er HD5870 faktisk det kort der kræver mest strøm. men det er ikke langt over de andre :)
http://images.anandtech.com/graphs/rv870_092209122...
Grunden til at de to første ikke viser noget power er fordi de crasher i OCCT testen. Det er en kendt fejl fordi de bliver stresset over deres specifikationer. Man kan sige det er en dårlig fejl fra ATI's side -men så igen, de kommer aldrig op på det niveau under normale forhold.
Gravatar #30 - soda
17. mar. 2010 07:40
#29: Heldigvis for ATi, så er ydelsen også derefter, så størmforbruget er ikke "højt", hvis man ser i forhold til ydelsen.

Køber heller ikke Fermi eller noget andet nVIDIA kort i den nærmeste fremtid.

Var engnag nVIDIA fanboy (hvis man da kan kalde mig det), men skiftede til ATI x800 bare for, at prøve noget nyt og jeg har ALDRIG fortrudt det.

Eneste grund jeg skulle have til at opgradere til 5xxx serien fra mit nuværende 4850 skulle være idle forbruget.
Gravatar #31 - Remmerboy
17. mar. 2010 07:40
Nightcover (29) skrev:
Under max load, er HD5870 faktisk det kort der kræver mest strøm. men det er ikke langt over de andre :)

øh, testen fortæller ikke hvad selve grafikkortet bruger. desuden skulle ydelsen mellem 5870 og gtx 295 ligne meget hinanden, men gtx 295 bruger mere strøm totalt i en system.
rygtet om gf100 siger at den kommer til at bruge 325w, hvor 5870 står til 188w http://en.wikipedia.org/wiki/Comparison_of_ATI_gra...
Gravatar #32 - Nightcover
17. mar. 2010 07:52
#31
Ikke for at være flabet, men hvad er det helt præcist du prøver at sige?
Gravatar #33 - Phill
17. mar. 2010 08:26
Selvom man gerne vil ha kortet, er det så ikke generelt en dårlig idé at købe det så snart det kommer ud ?

Jeg har i hvert fald bedst erfaring med at købe noget tid efter release og evt gå et par modeller ned for at ramme pris/ydelse bedst (:
Gravatar #34 - nikolajp
17. mar. 2010 08:34
#33 Det er sandt. Men med denne generation af ny nVidia tech, virker det som om at de har problemer med alle kortene i første omgang.

Jeg forudsiger at det sikkert bedst kan betale sig, at vente 1 år med nVidia, når de har:

- fået styr på chippen og lavet en ny evolution af kort
- set i øjnene at deres pris skal ned for at sælge bare nogen

Så er der sikkert også nogle spil der seriøst bruger tesselation og DX11.
Gravatar #35 - terracide
17. mar. 2010 08:40
#34:
Der er nogle der får sig en fæl overraskelse:

http://www.pcgameshardware.de/aid,706590/Metro-203...
Gravatar #36 - el_barto
17. mar. 2010 09:08
Shit...jeg VIDSTE at jeg ikke skulle have nedlagt den 380V stikdåse i bryggerset :(

Hmmm...må vel bare smide papirclips i sikringerne så jeg kan trække mit nye grafikkort uden at knalde HFI-relæet...
Gravatar #37 - Laeborg
17. mar. 2010 09:55
Sjovt som halvdelen herinde lider af fanboisme-syndromet, hver gang der kommer en nyhed omkring problemer med en producent...
ATI har problemer med deres driver support, og NVidia har nu problemer med en chip. Whats the different?
Gravatar #38 - Nightcover
17. mar. 2010 10:00
#37
Care to explain?
Gravatar #39 - Møller
17. mar. 2010 10:01
el_barto (36) skrev:
Hmmm...må vel bare smide papirclips i sikringerne så jeg kan trække mit nye grafikkort uden at knalde HFI-relæet...


Dit HFI-relæ bliver ikke knaldet nogen steder hen med mindre du stikker p****manden i en af dine stikkontakter mens du har stelforbindelse (læs: der går en strøm fra en af faserne til jord). Om sikringen så kan ryge sig en tur hvis du forsøger at trække et af disse Fermi-kort er så en helt anden side af sagen...
Gravatar #40 - Raistin
17. mar. 2010 10:06
#39

Han sørger bare for at sikringerne ikke springer mens han gamer, for ellers går han ud og boller med HFI-relæet
Gravatar #41 - Møller
17. mar. 2010 10:35
Raistin (40) skrev:
Han sørger bare for at sikringerne ikke springer mens han gamer, for ellers går han ud og boller med HFI-relæet


Ah, tak, så misforstod jeg hans indlæg :-)
Gravatar #42 - Remmerboy
17. mar. 2010 12:07
Nightcover (32) skrev:
#31
Ikke for at være flabet, men hvad er det helt præcist du prøver at sige?

det lød somom du troede at hd5870 brugte 400w. men jeg undskylder hvis jeg tog fejl
Gravatar #43 - Nightcover
17. mar. 2010 13:44
#42
ahh :) Nej det var ikke det jeg mente :) Jeg ville bare samligne. - Da jeg ikke lige hurtigt kunn find nogle test, hvor det kun var grafikkortest strømforbrug
Gravatar #44 - Seth-Enoch
17. mar. 2010 17:51
terracide (35) skrev:
#34:
Der er nogle der får sig en fæl overraskelse:

http://www.pcgameshardware.de/aid,706590/Metro-203...

Er der en venlig sjæl som kort kan forklare hvad den artikel går ud på? Og hvem der får sig en overraskelse? :S
Gravatar #45 - Slettet Bruger [2071314056]
17. mar. 2010 18:02
Seth-Enoch (44) skrev:
hvem der får sig en overraskelse? :S


Ham der sagde at tessalation og DX11 ikke kommer ordentlig i brug før om noget tid

Artiklen har sammenligninger mellem dx9 og dx11 fra MEtro spillet
Gå til top

Opret dig som bruger i dag

Det er gratis, og du binder dig ikke til noget.

Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.

Opret Bruger Login