mboost-dp1

unknown
- Forside
- ⟨
- Forum
- ⟨
- Nyheder
At have et grafikkort der æder 300W kørende i 8 timer (er det ikke ca. en arbejdsdag, - folk slukker alligevel ikke når de går til middag etc.) svarer til at have en elblæser til at køre for fulde gardiner i en time. Det koster strøm (1,95 kr/kWh (jfr. denne side*2,4 kWh/dag = 4,68 kroner. På et år giver det ca. 1000 kr/PC) og giver en masse varme og støj (for de blæsere der skal få varmen væk fra grafikkortet).
Lyder ikke som et hit, - men man får sikkert en masse FPS med sådan nogle kort.
Men o.k. det er nok ikke ikke kontorPC'ere der bliver udstyret med disse grafikkort.
Men en spilleglad teenager der har sådan en maskine, og som sådan nogle lømler nu engang er nok næppe slukker for den hverken når han sover eller er ude, kan forbruge for hele 5100 kr/år + det som CPU, harddiske, skærm etc. tager (Ja, - det er ved 24/7/365).
Lyder ikke som et hit, - men man får sikkert en masse FPS med sådan nogle kort.
Men o.k. det er nok ikke ikke kontorPC'ere der bliver udstyret med disse grafikkort.
Men en spilleglad teenager der har sådan en maskine, og som sådan nogle lømler nu engang er nok næppe slukker for den hverken når han sover eller er ude, kan forbruge for hele 5100 kr/år + det som CPU, harddiske, skærm etc. tager (Ja, - det er ved 24/7/365).
Hmmm... skal jeg riste mit brød på brødristeren eller mit 300Watt grafikkort idag???
Ej... synes virkelig det er ok med bedre hastigheder og så videre, men jeg synes også det må være på tide at grafikkortproducenterne begynder at se på hvordan de kan forbedre strømforbruget i forhold til ydelsen... Lidt ligesom Intel gjorde da de startede på centrino som jo netop havde et væsentligt lavere strømforbrug i forhold til ydelsen sammenlignet med andre processorer på det tidspunkt...
Ej... synes virkelig det er ok med bedre hastigheder og så videre, men jeg synes også det må være på tide at grafikkortproducenterne begynder at se på hvordan de kan forbedre strømforbruget i forhold til ydelsen... Lidt ligesom Intel gjorde da de startede på centrino som jo netop havde et væsentligt lavere strømforbrug i forhold til ydelsen sammenlignet med andre processorer på det tidspunkt...
Jeg tvivler på at dette skal ses som et tegn på at grafikkort kommer op og bruge 300 W, men snarere som at de nu kan trække det strøm de skal bruge i stedet for at bruge et ekstra kabel fra PSU'en.
Flere kort skulle jo have 2 kabler for at kunne blive mætte.
Intel og AMD fattede at deres CPU'er blev for varme og arbejdede på det problem. Det skal GFX producenterne også nok fatte.
OT
Der kommer vel en grænse når man skal til LAN ret hurtigt så? "Vi har en 10A sikring, så vi kan kun være 5" :)
Flere kort skulle jo have 2 kabler for at kunne blive mætte.
Intel og AMD fattede at deres CPU'er blev for varme og arbejdede på det problem. Det skal GFX producenterne også nok fatte.
OT
Der kommer vel en grænse når man skal til LAN ret hurtigt så? "Vi har en 10A sikring, så vi kan kun være 5" :)
#4 Hehe, 5100 - det er vist småting, i forhold til hvad en teenager ellers forbruger af (sine foraeldrers) penge på div. udgiftsområder. Ellers må de jo selv betale gildet.
Gigatransfers?? Det begreb har jeg aldrig hørt om før... Er det mon en nyere betegnelse for gbit/sek?
#3 Ja, faktisk 1:1.
Alt den effekt en computer bruger bliver til varme... intet andet!
Fint nok at de sætter grænserne op... det betyder jo ikke at gfx kommer til at bruge mere effekt. -nVidia og ATI/AMD skal nok finde ud af at udvikle effektbesparende hardware, hvis det er hvad forbrugerne ønsker.
Alt den effekt en computer bruger bliver til varme... intet andet!
Fint nok at de sætter grænserne op... det betyder jo ikke at gfx kommer til at bruge mere effekt. -nVidia og ATI/AMD skal nok finde ud af at udvikle effektbesparende hardware, hvis det er hvad forbrugerne ønsker.
Vi er ikke engang nået til at skifte fra AGP til PCIEXPRESS og nu kommer den som Version 2.0!
Grafikkortet bruger 300W el i timen
Hvis man regner el forbrugt i kWh så vil den i løbe af ca. 3.3 timmer bruge 1 kW el og i løbet af ca 9.9 timmer bruge 3 kW el
Resten af computerens el forbrug er ikke regnet med!
Folk prøver at spare på strømmen ved at købe energi A-mærket elapparater osv...
Men hardware producenter som Intel tvinger folk til at købe nyrer og mere energislugene produkter!
Godt gået Intel!
Grafikkortet bruger 300W el i timen
Hvis man regner el forbrugt i kWh så vil den i løbe af ca. 3.3 timmer bruge 1 kW el og i løbet af ca 9.9 timmer bruge 3 kW el
Resten af computerens el forbrug er ikke regnet med!
Folk prøver at spare på strømmen ved at købe energi A-mærket elapparater osv...
Men hardware producenter som Intel tvinger folk til at købe nyrer og mere energislugene produkter!
Godt gået Intel!
#14
Jeg har nu altid holdt mig til en kondicykel tilsluttet en generator, som generer strømmen til min pc. Det er hårdt, men gratis og slidet værd - man kommer jo i form samtidig.
Med så store effektforbrug på ny hardware, så ender det med at selv store tour de france ryttere må give op. Puha det blir hårde tider til LAN.
Jeg har nu altid holdt mig til en kondicykel tilsluttet en generator, som generer strømmen til min pc. Det er hårdt, men gratis og slidet værd - man kommer jo i form samtidig.
Med så store effektforbrug på ny hardware, så ender det med at selv store tour de france ryttere må give op. Puha det blir hårde tider til LAN.
#13 - og en del af de andre indlæg...
Man kan ikke rigtig klandre Intel for det høje strømforbrug, de lytter bare til behovet hos forbrugerne.
Jeg mener, det er da lang tid siden, man snakkede om at de nye DX10-kort ville æde op til 300watt - PCIe 2.0 gør det bare muligt at tage strømmen fra bundkortet, istedet for, som nu, at fodre kortet med ekstra strømstik.
Og fordi man får PCIe 2.0, behøver man jo stadig ikke indkøbe monster GFX'et.
Men så længe der er krig på GFX-markedet, der alene går på ydelsen, så vil der ske det samme for GPUernesom for CPU'erne, strømforbruget vil gå op. Så kan vi jo bare håbe på der kommer en lignende konkurrence-parameter der hedder mindre strømforbrug, som på CPU-markedet.
Man kan ikke rigtig klandre Intel for det høje strømforbrug, de lytter bare til behovet hos forbrugerne.
Jeg mener, det er da lang tid siden, man snakkede om at de nye DX10-kort ville æde op til 300watt - PCIe 2.0 gør det bare muligt at tage strømmen fra bundkortet, istedet for, som nu, at fodre kortet med ekstra strømstik.
Og fordi man får PCIe 2.0, behøver man jo stadig ikke indkøbe monster GFX'et.
Men så længe der er krig på GFX-markedet, der alene går på ydelsen, så vil der ske det samme for GPUernesom for CPU'erne, strømforbruget vil gå op. Så kan vi jo bare håbe på der kommer en lignende konkurrence-parameter der hedder mindre strømforbrug, som på CPU-markedet.
#13
Hils i 2005. Hvorfor skal Intel have en flyveskalle? Har du tjekket udviklingen med f.eks. Core 2 Duo (MAX TDP 75W - Endda extreme versionen) i forhold til Pentium E med en TDP på 103W?
Intel og AMD er da klart på rette spor. Det er måske nok på IDF at nyheden slap ud, men det er altså PCISIG der står for det.
Hils i 2005. Hvorfor skal Intel have en flyveskalle? Har du tjekket udviklingen med f.eks. Core 2 Duo (MAX TDP 75W - Endda extreme versionen) i forhold til Pentium E med en TDP på 103W?
Intel og AMD er da klart på rette spor. Det er måske nok på IDF at nyheden slap ud, men det er altså PCISIG der står for det.
Hvad så med de bærbare, når spillene får al den kraft at tilpasse sig efter?
De har jo allerede nu problemer med at følge med... Det bliver måske "tur basseret spil" man må spille (Dem som stædigt holder ved de bærbare), så man lige oplader computeren igen per træk.. Ellers er det da bare at slæbe nogle bilbatterier efter sig på en trækvogn.
De har jo allerede nu problemer med at følge med... Det bliver måske "tur basseret spil" man må spille (Dem som stædigt holder ved de bærbare), så man lige oplader computeren igen per træk.. Ellers er det da bare at slæbe nogle bilbatterier efter sig på en trækvogn.
#13
Intel tvinger ikke nogen til at købe noget... de spare bare et kabel væk
#18
Hvis man vælger at købe en bærbar som gamerpc er man vel selv unde om det?!?! ikk?? dette er jo til gamere...
OT
Synes det er fint at man ikke skal bruge ekstra kabler, desuden er der en kæmpe regnefejl, den bruger vel ikke 300W når man ikke spiller!?!?! det må vel være max forbruget
Intel tvinger ikke nogen til at købe noget... de spare bare et kabel væk
#18
Hvis man vælger at købe en bærbar som gamerpc er man vel selv unde om det?!?! ikk?? dette er jo til gamere...
OT
Synes det er fint at man ikke skal bruge ekstra kabler, desuden er der en kæmpe regnefejl, den bruger vel ikke 300W når man ikke spiller!?!?! det må vel være max forbruget
#20
Meget offtopic:
Hver gang du slutter et indlæg skriver du en signatur. Jeg ved ikke hvorfor men det irriterer mig grænseløst. Jeg får lyst til at kvæle en kat hver gang jeg ser det. Hvorfor bruger du ikke standardmetoden til at tilføje signatur i stedet?
Topic:
det lyder som mange ampere der skal tvinges rundt på det stakkels bundkort. Og det fjerner vel ikke kabler men flytter dem bare fra PSU->GFX til PSU->Mobo
#4
Hvis du bruger et grafikkort max i 8 timer i træk trænger du nok til noget seriøs hjælp - og hvis du kan bruge det max 24/7 burde du nok blive indlagt et sted med puder på væggene.
Meget offtopic:
Hver gang du slutter et indlæg skriver du en signatur. Jeg ved ikke hvorfor men det irriterer mig grænseløst. Jeg får lyst til at kvæle en kat hver gang jeg ser det. Hvorfor bruger du ikke standardmetoden til at tilføje signatur i stedet?
Topic:
det lyder som mange ampere der skal tvinges rundt på det stakkels bundkort. Og det fjerner vel ikke kabler men flytter dem bare fra PSU->GFX til PSU->Mobo
#4
Hvis du bruger et grafikkort max i 8 timer i træk trænger du nok til noget seriøs hjælp - og hvis du kan bruge det max 24/7 burde du nok blive indlagt et sted med puder på væggene.
#21:
Søg professionel hjælp, hvis der ikke skal mere til at få dig til at flippe ud...du har seriøst et problem så.
#22:
My bad, læste forkert.
Men husk på at Aero under vista kører i 3D, så strømforbruget vil gå opad.
Men jeg finder det stadigvæk sygt at en GPU skal sluge +200 watt under fuld load.
Terra - I like my dynamic signature...
Søg professionel hjælp, hvis der ikke skal mere til at få dig til at flippe ud...du har seriøst et problem så.
#22:
My bad, læste forkert.
Men husk på at Aero under vista kører i 3D, så strømforbruget vil gå opad.
Men jeg finder det stadigvæk sygt at en GPU skal sluge +200 watt under fuld load.
Terra - I like my dynamic signature...
#25:
Faldt lige over de første billeder af G80:
http://www.hardforum.com/showthread.php?t=1104314
Læg mærke til 2x6 pins powerconcetors...og vandkøling...
Terra - Helt absurd...lær preformce per watt for %&%%"#"#%!!!
Faldt lige over de første billeder af G80:
http://www.hardforum.com/showthread.php?t=1104314
Læg mærke til 2x6 pins powerconcetors...og vandkøling...
Terra - Helt absurd...lær preformce per watt for %&%%"#"#%!!!
Opret dig som bruger i dag
Det er gratis, og du binder dig ikke til noget.
Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.