mboost-dp1
unknown
- Forside
- ⟨
- Forum
- ⟨
- Nyheder
Sig goddag til Elvarme.. 100Watt til et grafikkort er sygt. Vi skal spare på energien, men alligevel laves der så voldsomt El forbrugende entertainment gear..
Jeg kan kun ryste på hovedet...
Jeg kan kun ryste på hovedet...
Det var da tåbeligt, det giver slet ikke mening. 100Watt er simpelthen for meget, det kan slet ikke retfærdiggøres. Det viser jo bare hvor tåbeligt et tempo udviklingen af grafikkort er i, nu kan den underlæggende teknologi ikke levere hvad GPU porducenterne efterspørg, måske de skulle sætte farten lidt ned.
Det ligner et seriøst hårdt udspil dette her, men jeg må give #1 ret, jeg er selv en smule bekymret over de 100Watt den normale udgave bruger, når de så oven i det siger at Ultra udgaven kommer til at køre på 6-700Mhz istedet for 500.. så bliver strømforbruget jo helt abnormt højt.
De skulle tage at fokusere på lidt mindre ydelse, og nedsat strømforbrug.
hvis jeg endelig skulle have sådan et, så ville man jo ikke have råd til at bruge det.. det er jo gak!
De skulle tage at fokusere på lidt mindre ydelse, og nedsat strømforbrug.
hvis jeg endelig skulle have sådan et, så ville man jo ikke have råd til at bruge det.. det er jo gak!
hvis den kan hjælpe på varmen på ens værelse, så man kan spare lidt på varmeregningen, så er det vel ok =D
Det var dog et sindsygt effektforbrug.
Hvad bliver det næste ? Skal man også havde en 2 kW strømforsyning så med 63A kabler til ?
Hvad bliver det næste ? Skal man også havde en 2 kW strømforsyning så med 63A kabler til ?
Hvad er pointen med 2 strømstik? Man kan da ikke trække mere ud af 2 end 1, kan man? Er det ikke bare et spørgsmål for dem om at dele det om, istedet for at vi skal gøre det for dem?
Derudover... 100WATT =!=!=!=!=! Hjernedødt!
Der er sq varmt nok på mit værelse, og min strømregning er stor nok, tak jeg fik en extra-regning på 3000 kr sidste år...
Gad vide hvor meget strøm et tilsvarende ATI-kort bruger...
Derudover... 100WATT =!=!=!=!=! Hjernedødt!
Der er sq varmt nok på mit værelse, og min strømregning er stor nok, tak jeg fik en extra-regning på 3000 kr sidste år...
Gad vide hvor meget strøm et tilsvarende ATI-kort bruger...
Siden det sikkert var et prototype kort kunne det så ikke tænke at det ekstra powerstik var GPU blæseren ? .. Men 100W lyder da helt henne i skoven, men nu må vi se.
folk skal jo også lige huske på at den ikke bruger max watt hele tiden men kun når der er brug for det. f.eks vil den jo nok bruge betydelig mindre i 2d.
folk skal jo også lige huske på at den ikke bruger max watt hele tiden men kun når der er brug for det. f.eks vil den jo nok bruge betydelig mindre i 2d.
Der er en meget logisk grund til hvorfor man bruger 2 kabler i stedet for et.
Nemlig max strømsbegrænsningen i et kabel.
SÅ hvis man i et kable f.eks. max må trække 5A ved 12V så kan men hente 60W, men skal kortet nu bruge 100W, så har man altså brug for 40W extra, det opnår man ved at bruge 2 kabler.
Hver af disse kan f.eks. klare 5A altså 10A i alt, hvilket ved 12V giver 120W.
Nemlig max strømsbegrænsningen i et kabel.
SÅ hvis man i et kable f.eks. max må trække 5A ved 12V så kan men hente 60W, men skal kortet nu bruge 100W, så har man altså brug for 40W extra, det opnår man ved at bruge 2 kabler.
Hver af disse kan f.eks. klare 5A altså 10A i alt, hvilket ved 12V giver 120W.
# 12 Så sig goddag til ekstra elregning, for på den nye windows (Longhorn) er GUI'en 3d acceleret så der kommer kortet kun til at køre 2d når man spiller et gammelt spil, eller når puteren booter op.....
SJOK! 100W! Jeg vil personligt hellere købe en skrabet version af et grafikkort og så slippe for blæserstøjen (fordi der kun er en køleprofil på GPU'en). Jeg har ikke brug for toptunet performance, ikke på de betingelser (støj, varme, elregning!).
Hvorfor kan CPU'er, GPU'er og NorthBridgen ikke gå i samme retning som harddiske? Højere hastighed, mindre støj og mindre varmeudvikling...
Jeg siger bare: Doh! Find på noget nyt teknologi i stedet for de brændvarme silicium transistorer.
Hvorfor kan CPU'er, GPU'er og NorthBridgen ikke gå i samme retning som harddiske? Højere hastighed, mindre støj og mindre varmeudvikling...
Jeg siger bare: Doh! Find på noget nyt teknologi i stedet for de brændvarme silicium transistorer.
Hmm.. jeg ser en del ulemper ved dette høje strømforbrug.
(og det gælder om det så er CPU eller GPU)
1) Varmeudvikling! det er energispild så det rykker...
2) En std. computer kommer idag med en strømforsyning på 300W det
er bare ikke nok til GPU+CPU+ diverse drev.
3) Støj.. Det bliver jo nærmet umuligt at lave en støjsvag maskine
med den enorme varmeudvikling. Hvis CPU/GPU producenterne
fortsætter af dette spor, så skal man da til at investere i
firmaer der producerer vandkøing.
(og det gælder om det så er CPU eller GPU)
1) Varmeudvikling! det er energispild så det rykker...
2) En std. computer kommer idag med en strømforsyning på 300W det
er bare ikke nok til GPU+CPU+ diverse drev.
3) Støj.. Det bliver jo nærmet umuligt at lave en støjsvag maskine
med den enorme varmeudvikling. Hvis CPU/GPU producenterne
fortsætter af dette spor, så skal man da til at investere i
firmaer der producerer vandkøing.
500MHz... okay... hvis jeg får fingrene i det grafikkort og sætter det i min spand, så er procenseren, der sidder på grafikkortet støre end det jeg har siddende på mit bundkort... hehe... sygt...
Det giver jo ingen mening...
Hvorfor satser man ikke på at gøre strømforbruget lavere i stedet for?
Snart skal man jo have et lille atomkraftværk i computeren, før kortet kan køre.
Hvorfor satser man ikke på at gøre strømforbruget lavere i stedet for?
Snart skal man jo have et lille atomkraftværk i computeren, før kortet kan køre.
#4 Det hedder "Mainstream", det her er highend.
#7 PCI Slot nr. 1 (lige efter agp porten) bliver typisk ikke brugt da man er en idiot hvis man vil leve med varme konsekvenserne, så derfor vil forskellen være irrelevant med ATi kontra nvidia.
Med ATi har du den normale blæser et pci kort lige ved siden af ville blive opvarmet af det, og luftevejen ville blive blokeret.
ergo, ingen pci port.
Nvidia's metode fylder en pci port, men den henter og puster luften ud af kabinettet, ergo ingen pci port.
Udover det så har den bedre IQ end ATi's kort da den kan køre UT2004 i 1600x1200 med 4xfsaa og 4xaf. Og ingen jaggies er til at se.
Hvorimod man godt kan se dem med Radeon 9800 XT i 1600x1200 med fuld FSAA og AF.
Til gengæld går der nogle rygter om at deres 16 pipelines er fup og i virkeligheden kun 8 hvor de 8 andre bliver emuleret af deres PS og VS 3.0.
Uanset hvad du siger så vil strømforbruget for sådan en maskine nok blive det samme uanset hvem der lavede den. Og der er ingen der vil skyde kostbare og farlige processer ind i deres highend produkter.
Så du skal nok ikke regne med at de skifter ned til .11 mikron(eller er det .09?) med det samme. Men når de gør det kan du nok også forvente en del mindre varme og strøm.
Men lad os nu se hvad der er fakta og hvad der er fup.
#7 PCI Slot nr. 1 (lige efter agp porten) bliver typisk ikke brugt da man er en idiot hvis man vil leve med varme konsekvenserne, så derfor vil forskellen være irrelevant med ATi kontra nvidia.
Med ATi har du den normale blæser et pci kort lige ved siden af ville blive opvarmet af det, og luftevejen ville blive blokeret.
ergo, ingen pci port.
Nvidia's metode fylder en pci port, men den henter og puster luften ud af kabinettet, ergo ingen pci port.
Udover det så har den bedre IQ end ATi's kort da den kan køre UT2004 i 1600x1200 med 4xfsaa og 4xaf. Og ingen jaggies er til at se.
Hvorimod man godt kan se dem med Radeon 9800 XT i 1600x1200 med fuld FSAA og AF.
Til gengæld går der nogle rygter om at deres 16 pipelines er fup og i virkeligheden kun 8 hvor de 8 andre bliver emuleret af deres PS og VS 3.0.
Uanset hvad du siger så vil strømforbruget for sådan en maskine nok blive det samme uanset hvem der lavede den. Og der er ingen der vil skyde kostbare og farlige processer ind i deres highend produkter.
Så du skal nok ikke regne med at de skifter ned til .11 mikron(eller er det .09?) med det samme. Men når de gør det kan du nok også forvente en del mindre varme og strøm.
Men lad os nu se hvad der er fakta og hvad der er fup.
100w? De må da være gale lol. Hvorfor ikke bare lave de skide transistorer i dobbelt størelse og så lade gfx kortet fylde lidt mere. Så kunde folk jo vælge om de ville have et kort der bruger oceaner af strøm og er lillebitte eller om de vil have et der er lidt større rent fysisk og så få lavere varmeudvikling og lavere strømforbrug. Ved ikke hvorfor hardwareproducenter har en eller andet fetish med at ALT bare SKAL være så småt som muligt.
Intel mode
så kan man jo kombinere den sammen emd en prescott og så har man jo et godt elwarme anlæg.
/Intel mode
så kan man jo kombinere den sammen emd en prescott og så har man jo et godt elwarme anlæg.
/Intel mode
#22: For det første, så er en af årsagerne til at klokfrekvensen kan øges, netop at de enkelte elementer i CPU'en bliver mindre sådan at strømmen kan nå igennem de enkelte pipelinestadier det antal gange som klokfrekvensen nu er.
For det andet, så er det ikke fordi CPU'en er lille at strømforbruget er stort - tværtimod. Alt andet lige bruger en CPU fremstillet med en mindre fabrikationsproces MINDRE strøm end en CPU fremstillet med en større fabrikationsproces.
Derimod bliver en lille CPU mere varm, fordi der et mindre volumen at afsætte energien i.
Når strømforbruget så alligevel stiger i dette tilfælde, skyldes det, at alt andet ikke er lige - NVidia har smidt flere transistorer ind og har netop udnyttet den mindre størrelse til at øge klokfrekvensen! Så alt i alt er der et netto øget effektforbrug.
For det andet, så er det ikke fordi CPU'en er lille at strømforbruget er stort - tværtimod. Alt andet lige bruger en CPU fremstillet med en mindre fabrikationsproces MINDRE strøm end en CPU fremstillet med en større fabrikationsproces.
Derimod bliver en lille CPU mere varm, fordi der et mindre volumen at afsætte energien i.
Når strømforbruget så alligevel stiger i dette tilfælde, skyldes det, at alt andet ikke er lige - NVidia har smidt flere transistorer ind og har netop udnyttet den mindre størrelse til at øge klokfrekvensen! Så alt i alt er der et netto øget effektforbrug.
@ #21 FISKER_Q : "Udover det så har den bedre IQ end ATi's kort da den kan køre UT2004 i 1600x1200 med 4xfsaa og 4xaf. Og ingen jaggies er til at se.
Hvorimod man godt kan se dem med Radeon 9800 XT i 1600x1200 med fuld FSAA og AF."
hmm.. nu skal jeg ikke gøre mig klog på ATI´s grafikkort men efter hvad jeg har læst mig frem til så tilbyder ATI ´s 9800 XT 6xfsaa og 16xaf, så det lyder meget mærkligt det du siger (jeg går ud fra at det var den samme maskine du testede på eller idet mindste 2 nogenlunde ens maskiner) jeg står nemlig selv og skal til at have nyt GFX kort og havde tænkt mig at prøve ATI denne gang, og dette er ikke det indtryk jeg har fra div reviews på nettet. men det kunne da være interessant at høre mere om det.
Hvorimod man godt kan se dem med Radeon 9800 XT i 1600x1200 med fuld FSAA og AF."
hmm.. nu skal jeg ikke gøre mig klog på ATI´s grafikkort men efter hvad jeg har læst mig frem til så tilbyder ATI ´s 9800 XT 6xfsaa og 16xaf, så det lyder meget mærkligt det du siger (jeg går ud fra at det var den samme maskine du testede på eller idet mindste 2 nogenlunde ens maskiner) jeg står nemlig selv og skal til at have nyt GFX kort og havde tænkt mig at prøve ATI denne gang, og dette er ikke det indtryk jeg har fra div reviews på nettet. men det kunne da være interessant at høre mere om det.
ET ATi 9700pro bruger 60w... så en 9800XT bruger vel ca. 70-75watt... Vi regner lige ud:
Radeon R420 = 1½ Radeon9800XT + ca. 100Mhz, Så Radeon R420 kommer også til at lande tæt på de 100w..
Radeon R420 = 1½ Radeon9800XT + ca. 100Mhz, Så Radeon R420 kommer også til at lande tæt på de 100w..
#25 Nvidia testen blev lavet med et dual opteron system.
Men da der ingen sammenligninger var, var der en der lavede lignende billeder. Og man kunne se jaggies, især på ATi's version af dette billede: http://vegetto.vtrbandaancha.net/UT2004-2.png (Advarsel 2MB)
Skal dog ikke sige at det ikke kan have været nogle generelle performance indstillinger der har overskrevet kvaliteten af FSAA eller AF.
Jeg vil ikke mene at testmaskine har relation til kvaliteten, højst hvor hurtigt den bliver renderet.
Edit: Ser ud til enten billederene er udskiftet siden jeg så dem, eller de har været taget i 12xx*9xx men det er jo ikke ligefrem værrere.
Men da der ingen sammenligninger var, var der en der lavede lignende billeder. Og man kunne se jaggies, især på ATi's version af dette billede: http://vegetto.vtrbandaancha.net/UT2004-2.png (Advarsel 2MB)
Skal dog ikke sige at det ikke kan have været nogle generelle performance indstillinger der har overskrevet kvaliteten af FSAA eller AF.
Jeg vil ikke mene at testmaskine har relation til kvaliteten, højst hvor hurtigt den bliver renderet.
Edit: Ser ud til enten billederene er udskiftet siden jeg så dem, eller de har været taget i 12xx*9xx men det er jo ikke ligefrem værrere.
Hvornår kommer de nye pci porte på bundkort? (pci64 ikke?)
Så begynder de jo at lave grafik kort til den nye sokkel.. så lad os håbe de genindfører den geniale teknik tilbage fra voodoo2 dagene med dual grafikkort ;D I mit lille hoved vil man kunne få mere performance pr watt ud af to grafik kort :)
Så vidt jeg ved tager hvert kort så en linje på skærmen og renderer den, og derfor i teorien ville ydelsen være proportional med antal kort.
Så begynder de jo at lave grafik kort til den nye sokkel.. så lad os håbe de genindfører den geniale teknik tilbage fra voodoo2 dagene med dual grafikkort ;D I mit lille hoved vil man kunne få mere performance pr watt ud af to grafik kort :)
Så vidt jeg ved tager hvert kort så en linje på skærmen og renderer den, og derfor i teorien ville ydelsen være proportional med antal kort.
#28 det hedder PCI-Express, og desværre fungerer det ikke sådan. Ligesom AGP har PCI-Express en lignende "multiplier".
Det kaldes lanes(Så vidt jeg husker). Så grafikkortet får 16 lanes(PCI-Express understøtter vist 32 i alt). Og andre enheder får bare én lane.
Og så de andre porte også kortere.
Desuden er det jo allerede muligt, nok bare ikke noget der er ydelsesmæssigt forsvarligt.
Det kaldes lanes(Så vidt jeg husker). Så grafikkortet får 16 lanes(PCI-Express understøtter vist 32 i alt). Og andre enheder får bare én lane.
Og så de andre porte også kortere.
Desuden er det jo allerede muligt, nok bare ikke noget der er ydelsesmæssigt forsvarligt.
Tendensen har gået i denne (forkerte) retning i nogen tid synes jeg, Amerikanerne køber jo noget billigere engergi end vi gør her - Tilbage til max 250W pr. workstation tak, jeg kan f.eks. sagtens leve med GF4 MX440 800x600/70 FPS med støjløs PC.
Hehe, hvornår mon nogen begynder at skæve over til Intels centrino-processor. Det er lidt tankevækkende at man kkan få en 1,5Ghz Pentium M til at yde som en 2,4Ghz Pentium 4, og med væsenligt mindre effektforbrug. Noget lignende burde kunne laves til GPU'er. Ok, har ikke en doktorgrad i processorlogi, men det virker som om man måske kunne omstrukturere nogle steder og få en bare lidt bedre ydelse i forhold til afbrændt effekt (W). Bortset fra, at det jo passer meget godt med at jeg bruger mere tid på at spille om vinteren, hvor behovet for ekstra varme også er størst, så et eller andet sted går det jo næsten op alligevel :)
Kan lige forstille mig der under "Bundle" på www.edbpriser.dk er noget som hedder GFX/PSU :)
Strømslugeriet på den IBM kompatible PC platform er da gået amok i øjeblikket. Sjovt nok er de store drenge ved at gå den anden vej. SUN's nye CMT processor Gemini har et forbrug på 15-35W, selv IBM's PowerV har indbygget dynamisk strømstyring og PPC970FX bliver fremstillet vha 90nm SSOI processen og sluger 60W.
Må håbe at IBM kan leve op til løfterne mht den 90nm SOI process de vil bruge til Opteron (Der var på et tidspunkt tale om et forbrug der lå 40-50% under de nuværende Opterons).
Det varer ikke længe før vore venner er tvunget til at indbygge kølingen i processorene ligesom i Mainframes :o)
Må håbe at IBM kan leve op til løfterne mht den 90nm SOI process de vil bruge til Opteron (Der var på et tidspunkt tale om et forbrug der lå 40-50% under de nuværende Opterons).
Det varer ikke længe før vore venner er tvunget til at indbygge kølingen i processorene ligesom i Mainframes :o)
Opret dig som bruger i dag
Det er gratis, og du binder dig ikke til noget.
Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.