mboost-dp1

unknown

Nvidias NV40 bliver en varm sag

- Via Heise - , redigeret af Zero

Nogle få heldige journalister kunne på Cebit-messen få et glimt af Nvidias kommende GPU NV40. Der var tale om standard udgaven med 500MHz GDDR3 RAM fra Samsung.

Kortet var udstyret med hele to ekstra strømstik, hvilket antages at være fordi at strømforbruget bliver på godt 100 Watt. Ultra udgaven forventes at bruge endnu mere.

GPU’en bliver lavet med en transistorstørrelse på 130nm, men da det forventes at den indeholder over 200 millioner af dem, kan det forklare det enorme strømforbrug.

Linket er på tysk. Engelsk babelfish oversættelse.





Gå til bund
Gravatar #1 - jensendk
23. mar. 2004 11:08
Sig goddag til Elvarme.. 100Watt til et grafikkort er sygt. Vi skal spare på energien, men alligevel laves der så voldsomt El forbrugende entertainment gear..

Jeg kan kun ryste på hovedet...
Gravatar #2 - Mr.Weasel
23. mar. 2004 11:13
Det var da tåbeligt, det giver slet ikke mening. 100Watt er simpelthen for meget, det kan slet ikke retfærdiggøres. Det viser jo bare hvor tåbeligt et tempo udviklingen af grafikkort er i, nu kan den underlæggende teknologi ikke levere hvad GPU porducenterne efterspørg, måske de skulle sætte farten lidt ned.
Gravatar #3 - Gathond
23. mar. 2004 11:15
100W for en GPU er vel ok i en tid hvor en CPU (prescot) bruger omkring 100W.
#2, betyder det så at Intel skulle gøre det samme, deres chips bruger ligeså meget strøm i de nyere varianter?.
Gravatar #4 - Herskegut
23. mar. 2004 11:16
Det ligner et seriøst hårdt udspil dette her, men jeg må give #1 ret, jeg er selv en smule bekymret over de 100Watt den normale udgave bruger, når de så oven i det siger at Ultra udgaven kommer til at køre på 6-700Mhz istedet for 500.. så bliver strømforbruget jo helt abnormt højt.

De skulle tage at fokusere på lidt mindre ydelse, og nedsat strømforbrug.

hvis jeg endelig skulle have sådan et, så ville man jo ikke have råd til at bruge det.. det er jo gak!
Gravatar #5 - radok
23. mar. 2004 11:16
lol 100W, det er så ca. 100 gange mere end en alm. 80mm paps blæser der køre 2000 rpm.
Gravatar #6 - morgenkaffe
23. mar. 2004 11:16
hvis den kan hjælpe på varmen på ens værelse, så man kan spare lidt på varmeregningen, så er det vel ok =D
Gravatar #7 - TYBO
23. mar. 2004 11:27
#6: Nu har elvarme aldrig været specielt billigt...hvad så om sommeren hvor du har problemer med at holde varmen væk fra PCEn ?

Kun en vej at gå....ATI :)

Spekulere lidt på hvilken køler de vil putte på denne gang...Den kommer nok til at fylde 3 PCI slots :)
Gravatar #8 - mikbund
23. mar. 2004 11:29
jeg forstår ikke lige helt hvad der skal bruges to strømstik til?
Og 100watt det er jo vandvittig.
Gravatar #9 - Disky
23. mar. 2004 11:35
Det var dog et sindsygt effektforbrug.

Hvad bliver det næste ? Skal man også havde en 2 kW strømforsyning så med 63A kabler til ?
Gravatar #10 - angelenglen
23. mar. 2004 11:35
Hvad er pointen med 2 strømstik? Man kan da ikke trække mere ud af 2 end 1, kan man? Er det ikke bare et spørgsmål for dem om at dele det om, istedet for at vi skal gøre det for dem?

Derudover... 100WATT =!=!=!=!=! Hjernedødt!
Der er sq varmt nok på mit værelse, og min strømregning er stor nok, tak jeg fik en extra-regning på 3000 kr sidste år...

Gad vide hvor meget strøm et tilsvarende ATI-kort bruger...
Gravatar #11 - Redhack
23. mar. 2004 11:46
#10 Hvad er pointen med 2 strømstik?
Det ser vel lidt fedt ud? Ej, jeg kan heller ikke lige se pointen...

Det er sikkert fint om vinteren da det nemt kan vamre en lille lejlighed op. :)
Så Nvidia om vinteren, og ATI som sommeren.

Nvidia. Now only for vinter gaming...
Gravatar #12 - T.A
23. mar. 2004 12:00
Siden det sikkert var et prototype kort kunne det så ikke tænke at det ekstra powerstik var GPU blæseren ? .. Men 100W lyder da helt henne i skoven, men nu må vi se.

folk skal jo også lige huske på at den ikke bruger max watt hele tiden men kun når der er brug for det. f.eks vil den jo nok bruge betydelig mindre i 2d.
Gravatar #13 - Disky
23. mar. 2004 12:05
Der er en meget logisk grund til hvorfor man bruger 2 kabler i stedet for et.

Nemlig max strømsbegrænsningen i et kabel.

SÅ hvis man i et kable f.eks. max må trække 5A ved 12V så kan men hente 60W, men skal kortet nu bruge 100W, så har man altså brug for 40W extra, det opnår man ved at bruge 2 kabler.
Hver af disse kan f.eks. klare 5A altså 10A i alt, hvilket ved 12V giver 120W.
Gravatar #14 - GreatMilenko
23. mar. 2004 12:23
# 12 Så sig goddag til ekstra elregning, for på den nye windows (Longhorn) er GUI'en 3d acceleret så der kommer kortet kun til at køre 2d når man spiller et gammelt spil, eller når puteren booter op.....
Gravatar #15 - Futterama
23. mar. 2004 12:35
SJOK! 100W! Jeg vil personligt hellere købe en skrabet version af et grafikkort og så slippe for blæserstøjen (fordi der kun er en køleprofil på GPU'en). Jeg har ikke brug for toptunet performance, ikke på de betingelser (støj, varme, elregning!).

Hvorfor kan CPU'er, GPU'er og NorthBridgen ikke gå i samme retning som harddiske? Højere hastighed, mindre støj og mindre varmeudvikling...

Jeg siger bare: Doh! Find på noget nyt teknologi i stedet for de brændvarme silicium transistorer.
Gravatar #16 - lundeman
23. mar. 2004 12:41
Hmm.. jeg ser en del ulemper ved dette høje strømforbrug.
(og det gælder om det så er CPU eller GPU)

1) Varmeudvikling! det er energispild så det rykker...
2) En std. computer kommer idag med en strømforsyning på 300W det
er bare ikke nok til GPU+CPU+ diverse drev.
3) Støj.. Det bliver jo nærmet umuligt at lave en støjsvag maskine
med den enorme varmeudvikling. Hvis CPU/GPU producenterne
fortsætter af dette spor, så skal man da til at investere i
firmaer der producerer vandkøing.
Gravatar #17 - T.A
23. mar. 2004 12:47
#14
Det kræver jo bare i at Nvidia skriver driveren efter det.
og i stedet for at søge efter 2d/3d leder efter "GUI"/other og sætter frekvensen derefter.
Gravatar #18 - toffe1001
23. mar. 2004 13:00
500MHz... okay... hvis jeg får fingrene i det grafikkort og sætter det i min spand, så er procenseren, der sidder på grafikkortet støre end det jeg har siddende på mit bundkort... hehe... sygt...
Gravatar #19 - Chucara
23. mar. 2004 13:06
Fedt! Så slipper jeg for selv at købe et varmelegeme, når jeg skal bygge kaffemaskine i min kabinet..
Gravatar #20 - MrMujave
23. mar. 2004 13:50
Det giver jo ingen mening...
Hvorfor satser man ikke på at gøre strømforbruget lavere i stedet for?

Snart skal man jo have et lille atomkraftværk i computeren, før kortet kan køre.
Gravatar #21 - FISKER_Q
23. mar. 2004 13:51
#4 Det hedder "Mainstream", det her er highend.

#7 PCI Slot nr. 1 (lige efter agp porten) bliver typisk ikke brugt da man er en idiot hvis man vil leve med varme konsekvenserne, så derfor vil forskellen være irrelevant med ATi kontra nvidia.

Med ATi har du den normale blæser et pci kort lige ved siden af ville blive opvarmet af det, og luftevejen ville blive blokeret.

ergo, ingen pci port.

Nvidia's metode fylder en pci port, men den henter og puster luften ud af kabinettet, ergo ingen pci port.

Udover det så har den bedre IQ end ATi's kort da den kan køre UT2004 i 1600x1200 med 4xfsaa og 4xaf. Og ingen jaggies er til at se.

Hvorimod man godt kan se dem med Radeon 9800 XT i 1600x1200 med fuld FSAA og AF.

Til gengæld går der nogle rygter om at deres 16 pipelines er fup og i virkeligheden kun 8 hvor de 8 andre bliver emuleret af deres PS og VS 3.0.

Uanset hvad du siger så vil strømforbruget for sådan en maskine nok blive det samme uanset hvem der lavede den. Og der er ingen der vil skyde kostbare og farlige processer ind i deres highend produkter.

Så du skal nok ikke regne med at de skifter ned til .11 mikron(eller er det .09?) med det samme. Men når de gør det kan du nok også forvente en del mindre varme og strøm.

Men lad os nu se hvad der er fakta og hvad der er fup.
 
Gravatar #22 - Smokey
23. mar. 2004 15:38
100w? De må da være gale lol. Hvorfor ikke bare lave de skide transistorer i dobbelt størelse og så lade gfx kortet fylde lidt mere. Så kunde folk jo vælge om de ville have et kort der bruger oceaner af strøm og er lillebitte eller om de vil have et der er lidt større rent fysisk og så få lavere varmeudvikling og lavere strømforbrug. Ved ikke hvorfor hardwareproducenter har en eller andet fetish med at ALT bare SKAL være så småt som muligt.
Gravatar #23 - Coma
23. mar. 2004 15:53
Intel mode

så kan man jo kombinere den sammen emd en prescott og så har man jo et godt elwarme anlæg.

/Intel mode
Gravatar #24 - thiim
23. mar. 2004 16:01
#22: For det første, så er en af årsagerne til at klokfrekvensen kan øges, netop at de enkelte elementer i CPU'en bliver mindre sådan at strømmen kan nå igennem de enkelte pipelinestadier det antal gange som klokfrekvensen nu er.
For det andet, så er det ikke fordi CPU'en er lille at strømforbruget er stort - tværtimod. Alt andet lige bruger en CPU fremstillet med en mindre fabrikationsproces MINDRE strøm end en CPU fremstillet med en større fabrikationsproces.
Derimod bliver en lille CPU mere varm, fordi der et mindre volumen at afsætte energien i.

Når strømforbruget så alligevel stiger i dette tilfælde, skyldes det, at alt andet ikke er lige - NVidia har smidt flere transistorer ind og har netop udnyttet den mindre størrelse til at øge klokfrekvensen! Så alt i alt er der et netto øget effektforbrug.
Gravatar #25 - nightH
23. mar. 2004 19:50
@ #21 FISKER_Q : "Udover det så har den bedre IQ end ATi's kort da den kan køre UT2004 i 1600x1200 med 4xfsaa og 4xaf. Og ingen jaggies er til at se.

Hvorimod man godt kan se dem med Radeon 9800 XT i 1600x1200 med fuld FSAA og AF."
hmm.. nu skal jeg ikke gøre mig klog på ATI´s grafikkort men efter hvad jeg har læst mig frem til så tilbyder ATI ´s 9800 XT 6xfsaa og 16xaf, så det lyder meget mærkligt det du siger (jeg går ud fra at det var den samme maskine du testede på eller idet mindste 2 nogenlunde ens maskiner) jeg står nemlig selv og skal til at have nyt GFX kort og havde tænkt mig at prøve ATI denne gang, og dette er ikke det indtryk jeg har fra div reviews på nettet. men det kunne da være interessant at høre mere om det.
Gravatar #26 - red_martians
23. mar. 2004 19:56
ET ATi 9700pro bruger 60w... så en 9800XT bruger vel ca. 70-75watt... Vi regner lige ud:
Radeon R420 = 1½ Radeon9800XT + ca. 100Mhz, Så Radeon R420 kommer også til at lande tæt på de 100w..
Gravatar #27 - FISKER_Q
23. mar. 2004 19:57
#25 Nvidia testen blev lavet med et dual opteron system.

Men da der ingen sammenligninger var, var der en der lavede lignende billeder. Og man kunne se jaggies, især på ATi's version af dette billede: http://vegetto.vtrbandaancha.net/UT2004-2.png (Advarsel 2MB)

Skal dog ikke sige at det ikke kan have været nogle generelle performance indstillinger der har overskrevet kvaliteten af FSAA eller AF.

Jeg vil ikke mene at testmaskine har relation til kvaliteten, højst hvor hurtigt den bliver renderet.

Edit: Ser ud til enten billederene er udskiftet siden jeg så dem, eller de har været taget i 12xx*9xx men det er jo ikke ligefrem værrere.
 
Gravatar #28 - CRiSpY
23. mar. 2004 20:41
Hvornår kommer de nye pci porte på bundkort? (pci64 ikke?)
Så begynder de jo at lave grafik kort til den nye sokkel.. så lad os håbe de genindfører den geniale teknik tilbage fra voodoo2 dagene med dual grafikkort ;D I mit lille hoved vil man kunne få mere performance pr watt ud af to grafik kort :)

Så vidt jeg ved tager hvert kort så en linje på skærmen og renderer den, og derfor i teorien ville ydelsen være proportional med antal kort.
Gravatar #29 - FISKER_Q
23. mar. 2004 21:03
#28 det hedder PCI-Express, og desværre fungerer det ikke sådan. Ligesom AGP har PCI-Express en lignende "multiplier".

Det kaldes lanes(Så vidt jeg husker). Så grafikkortet får 16 lanes(PCI-Express understøtter vist 32 i alt). Og andre enheder får bare én lane.

Og så de andre porte også kortere.

Desuden er det jo allerede muligt, nok bare ikke noget der er ydelsesmæssigt forsvarligt.
 
Gravatar #30 - dj_duck
23. mar. 2004 22:25
#21 uden at skulle starte en nVidia VS ATI flamewar, så vil det nok være på sin plads at benytte et spil der ikke er sponseret og optimiseret til nVidia's kort som sammenligningsgrundlag...
Gravatar #31 - johnjohn
23. mar. 2004 23:47
#30 hvad har det med varme at gøre?
Gravatar #32 - Webmonkey
23. mar. 2004 23:52
FX løs som en støjsuger - vil NV40 lyde som en industri støjsuger??? :-)
Gravatar #33 - mrmorris
24. mar. 2004 00:04
Tendensen har gået i denne (forkerte) retning i nogen tid synes jeg, Amerikanerne køber jo noget billigere engergi end vi gør her - Tilbage til max 250W pr. workstation tak, jeg kan f.eks. sagtens leve med GF4 MX440 800x600/70 FPS med støjløs PC.
Gravatar #34 - Donkanut
24. mar. 2004 01:17
Hehe, hvornår mon nogen begynder at skæve over til Intels centrino-processor. Det er lidt tankevækkende at man kkan få en 1,5Ghz Pentium M til at yde som en 2,4Ghz Pentium 4, og med væsenligt mindre effektforbrug. Noget lignende burde kunne laves til GPU'er. Ok, har ikke en doktorgrad i processorlogi, men det virker som om man måske kunne omstrukturere nogle steder og få en bare lidt bedre ydelse i forhold til afbrændt effekt (W). Bortset fra, at det jo passer meget godt med at jeg bruger mere tid på at spille om vinteren, hvor behovet for ekstra varme også er størst, så et eller andet sted går det jo næsten op alligevel :)
Gravatar #35 - morgenkaffe
24. mar. 2004 01:42
nogen der vil købe et gammel pci grafikkort der bruger meget meget lidt i strøm =D ?
Gravatar #36 - FISKER_Q
24. mar. 2004 04:24
#30 Uden at du skal læse alle indlæg så kan jeg fortælle dig det allerede er bragt op.
 
Gravatar #37 - Seth-Enoch
24. mar. 2004 11:25
Kan lige forstille mig der under "Bundle" på www.edbpriser.dk er noget som hedder GFX/PSU :)
Gravatar #38 - cavemann
24. mar. 2004 12:03
Computer overheat

Tilbage til larmende computerer og overdrevet store kølehoveder. Kommer ikke til at sælge pga. varmen..... 100 Watt er for sindsygt

#37 Bundling er nok en god ide GFX/GPU og kobber køleprofil med 8500 rpm blæser.
Gravatar #39 - Mobay
24. mar. 2004 13:13
Jeg har kun 1 ord at sige til jer her inde !


BTX - er vejen frem!
Gravatar #40 - mikbund
24. mar. 2004 17:01
Mon ikke grunden til at det ikke sælges endnu, er at de ikke er færdige med at udvikle det? Mon ikke de har sænket energiforbruget væsenlig inden kortet kommer på markedet?
Lad os nu lige alle vente indtil kortet rent faktisk er på markedet.
Gravatar #41 - flywheel
25. mar. 2004 18:56
Strømslugeriet på den IBM kompatible PC platform er da gået amok i øjeblikket. Sjovt nok er de store drenge ved at gå den anden vej. SUN's nye CMT processor Gemini har et forbrug på 15-35W, selv IBM's PowerV har indbygget dynamisk strømstyring og PPC970FX bliver fremstillet vha 90nm SSOI processen og sluger 60W.
Må håbe at IBM kan leve op til løfterne mht den 90nm SOI process de vil bruge til Opteron (Der var på et tidspunkt tale om et forbrug der lå 40-50% under de nuværende Opterons).

Det varer ikke længe før vore venner er tvunget til at indbygge kølingen i processorene ligesom i Mainframes :o)
Gå til top

Opret dig som bruger i dag

Det er gratis, og du binder dig ikke til noget.

Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.

Opret Bruger Login