mboost-dp1

unknown

Nvidia: 350 watt PSU er nok til en GF 6800Ultra

- Via GameSpot - , redigeret af Pernicious

Ujesh Desai, General Manager for desktop GPU’er hos Nvidia, udtaler af en ekstra kraftig strømforsyning (PSU) til GeForce 6800 Ultra er overkill for alle andre end entusiaster.

Det ekstra krav til strømforsyningen er tænkt som en sikkerhed for de “få” personer, der overclocker CPU og grafikkort. Fra flere forskellige der har testet grafikkortet, forlyder det dog at en god 350 watt strømforsyning er rigeligt.

Nvidia er ved at undersøge sagen og Desai lover at de vil reducere deres krav.





Gå til bund
Gravatar #1 - Erroneus
11. maj 2004 19:42
Hardocp lavede en lille test for et par dage siden, og kom frem til det ikke var nok, de fik grafikfejl under belastning, dog crashede kortet ikke :)
Gravatar #2 - C#
11. maj 2004 19:46
Er jo klart de skal gøre et eller andet efter ATI's nye kort ikke har samme strøm krav :)
Gravatar #3 - bjerh
11. maj 2004 20:04
Tja det kan du have ret i.

Men sådan som jeg ser det. Må det være et kraftigt kort, og at der kommer to stik ned til kortet, to der er uafhængige fra hinanden, lyder til at være rigtigt godt. Og jeg vil med glæde købe en sådan strømforsyning, som der er brug for, når bare kortet kommer til at yde 100%.
Gravatar #4 - Coma
11. maj 2004 20:16
Hvordan kan mere strøm være godt? Var det ikke derfor Intel tilhængerne svinede AMD cpuer til i startne? de brugte mere strøm?

Mere strøm = dyre regning!.. og når de yder mere eller mindre ens, og ATI enda stadig vinder når der er AA og AF sat til, så skal man da være helt tom oven i for at købe nvidia?
Gravatar #5 - Hack4Crack
11. maj 2004 20:43
#2

præcis... :)
de vil kæmpe mod ATi, men forgæves...
Gravatar #6 - angelenglen
11. maj 2004 21:18
well hvor mange har egentligt 350Watts PSU'er?
De 2 computere jeg har, har begge 300Watts, og min fars 3 computere har også alle 300Watts... de fleste nye computere jeg ser til salg har også kun 300Watts... så er det ikke ligemeget om det er 350Watts eller 400Watts - man skal stadig have en ny PSU...

Edit:
#3: LOL!!!!
"der kommer to stik ned til kortet, to der er uafhængige fra hinanden, lyder til at være rigtigt godt."

hahahaha så jo flere ledninger der går ned, jo bedere er kortet? Måske skulle du skifte til et voodoo1 kort, dér går der jo ledninger fra 3D-kortet til 2D-kortet - så det må da være supergodt!
Gravatar #7 - Zpiritfall
11. maj 2004 21:52
#3
Kan vi ikke bare lodde lidt ekstra connectere på et ATI kort så strømstik/ydelse stiger :D

On topic:
Nvidia er røget ud af en tangent som de måske nu ser ikke er så smart, men det er også okay. Jeg vil alligevel heller ikke købe et grafik der kræver 350W selvom jeg har en scaling 400W PSU i, og strøm er med i min husleje. Har som regel ikke det vilde behov i den retning.
Gravatar #8 - Odin
11. maj 2004 22:39
Jeg har set kortet køre everquest på en 300W PSU og jeg kunne ikke mærke noget dårligt ved grafikken.
Det vil jo ikke sige noget, men hvis man køber sådan et kort har man sikkert allerede en 500W PSU og P4EE 3.2 osv.
Gravatar #9 - Mr.Weasel
11. maj 2004 23:18
Nu er jeg ikke lige manden der går og leger med strøm, men kommer det ikke meget an på hvad man ellers har i sin maskine. Hvis man nu har en 3 harddisk, dvd-drev, brænder, to netkort, tv-tuner (listen har intet at gøre med hvad jeg personligt har af hardware) og diverse andre dimser, så er det jo ikke sikkert at 350W er nok.

350W er stadig meget, og hvis det kun lige er nok til de mest vitale dele, så er der jo ikke meget ved det.
Gravatar #10 - BeLLe
11. maj 2004 23:30
#9
selvfølgelig har det noget at gøre med hvad man ellers har.
derfor giver det ikke mening at nvidia og ati siger hvad for en psu der kræves. De burde i stedet for oplyse hvor mange watt deres kort bruger ved idle, 'normalt' forbrug og max belastning. man kan så regne sig frem til hvilken psu man bør hælde i sin maskine ud fra hvad man ellers har af hardware...
og overclockers de må så bare lægge lidt ekstra oven i beregningen
Gravatar #11 - mrmorris
12. maj 2004 00:04
Tja jeg vil i hvert fald helt klart købe ATI frem for Nvidia, også selv om man så må undvære shader v3.0 Det kan ikke være rigtigt vi om et par år skal have 700W PSU til Desktops!
Gravatar #12 - Webmonkey
12. maj 2004 06:35
man kan også sagtens finde en kvalitets 300W PSU der giver mere strøm (ampere) end en typisk 400W man får gratis med.
Gravatar #13 - Redhack
12. maj 2004 06:52
#12 jep det sad jeg også lige og tænkte på. Min 350watt yder laaangt over hvad den faktisk skal kunne..

Man har jo set test hvor en 300 watt strømforsyning yder knap 500 watt..
Men den anden vej er også set. Mange billige 500 watt psu'er yder langt under 400 watt..

#10 Ja, de kan ikke sige om jeg skal bruge en 300 watt psu eller en 400 watt...
Gravatar #14 - Disky
12. maj 2004 06:55
webmonkey:
Det forudsætter at din 400W's er lavet af et firmaer der ikke giver dig det de siger du får.

For rent fysisk kan det ikke lade sig gøre at trække mere strøm fra en 300W's end fra en 400W's.

P=U*I (ohm's effekt lov) U er ens for begge forsyninger.
Gravatar #15 - TYBO
12. maj 2004 07:03
Disky: det er jo også det han siger :)
Gravatar #16 - Pernicious
12. maj 2004 07:05
En generel ting man lige skal huske vedrørende strømforsyninger er hvor effektiv den er. Er en strømforsyning angivet til 350 Watt er det muligt at den kan forbruge den mængde, men det er ikke det den kan levere til computeren, da en del går tabt i strømforsyningen som varme.

Husker jeg rigtigt mener jeg at effektiviteten typisk er på omkring 70%, så en 350 watt PSU vil 'kun' levere 245 watt.
Gravatar #17 - Mobay
12. maj 2004 07:13
Nvidia har lavet et godt kort!


Hvis man ser bort fra at ATI's kort. og ser på Nvidias, så er det sq et godt kort!
Gravatar #18 - Disky
12. maj 2004 07:29
Pernicious:
Normalt angiver man den effekt man kan trække fra en strømforsyning, ikke den effekt de selv bruger.

Men der er ingen garanti for at alle producenter gør dette, og ikke angiver det største tal for at få deres produkt til at virke bedre.

P.s. Udnyttelsesgraden er noget højere end du angiver, ved switchmode PSU'er udnyttelsesgraden ofte >85%
Gravatar #19 - Webmonkey
12. maj 2004 07:45
#16 - som #18 siger opgiver man en PSU til det den kan yde.

Den vil for en given effekt trække mere fra lysnettet, da den jo ikke er 100% effektiv.

Nogle billige er nede på 60%, men silentpcreview.com har målt Enermax nye Noisetaker serie til 80-82%.

Man kan heller ikke trække lige mange ampere ud af alle f.eks. 300W PSU - der er også forskel på hvordan kræfterne er fordelt..

Enermax er kendt for at kunne levere mange ampere...

Der er det samme for forstærkere - ampere har størst betydning...
Gravatar #20 - Disky
12. maj 2004 08:10
Webmonkey:
Det giver ingen mening at snakke om ampere alene:


Uden du nævner hvilke spændinger vi snakker om, netop derfor snakker man om effekt da effekt er strøm * spænding, jævnfør ohms lov.


Igen giver den udtalelse ingen mening, for er det mange ampere på 12V ? 5V? -14.37546V ?

Jeg har repareret mange strømforsyninger der leverede 100A. Kan du så bruge den i din computer ? :-)

P.s. Ja det kunne du godt ihvertefalde til +5V forsyningen.
Gravatar #21 - Redhack
12. maj 2004 08:28
#20 he he. Elsker Ohm's lov...

#19 he he. "Der er det samme for forstærkere - ampere har størst betydning... "

He he. så vil jeg have en forstærker som giver f.eks. 200Amp ved 1 volt... Har jeg så en superforstærker? Nope. Jeg har en forstærker på 200 watt så...

Volt har lige så stor betydning som Ampere har...

300Amp x 1 volt = 300 watt...
300 volt x 1 ampere = 300 watt...

Dagens spørgsmål:
Hvor stor en spænding kan der gå igennem en diode i spæreretningen? (ca. tal ok ;)
Gravatar #22 - Tinker
12. maj 2004 08:49
#20 og #21 eftersom vi snakker om PSU til computer tror jeg godt vi kan formode af Webmonkey hentyder til det fastsatte spændinger derfra, og der vil jeg give ham ret, jo større strøm PSU'en kan afgive til de pågældende spændinger jo mere stabil vil de blive under belastning.
Gravatar #23 - Redhack
12. maj 2004 08:59
#22 jeg vil da godt give dig ret i hvad du siger ang. spænding, men det webmonkey skriver giver alså ingen mening...

"Der er det samme for forstærkere - ampere har størst betydning... "

Det passer alså ikke... Volt og ampere har samme betydning.

men "I get your point"... Husk lige at svare på dages spørgsmål...
Gravatar #24 - gizmodude
12. maj 2004 09:28
et hurtigt spørgsmål :

bruger et grafikkort ligemeget strøm heletiden ... eller er det kun under belastning at det bruger meget strøm ?
Gravatar #25 - angelenglen
12. maj 2004 09:46
#24: strømforbruget stiger ved belastning.
Gravatar #26 - Zyprezz
12. maj 2004 09:53
#22
""Det passer alså ikke... Volt og ampere har samme betydning.""


det kommer lidt meget and på om det er en seriell eller paralell forbindelse du snakker om!.. ja ja det er lidt off tropic og nu kender du vel også ohms lov så ok


men ok ville dog aldrig bruge et 100W+ graffikkort da det vil varme for meget og (har slet ikke råd til el regningen) mener også at de snakkede om at deres ultra kort ville bruge 200W (kan ikke huske det :S) men vil nu aflige vel gerne prøve det :)
Gravatar #27 - Webmonkey
12. maj 2004 09:57
#23 Ampere er den sande styrke ved en forstærker.
Gravatar #28 - DetvarMIG
12. maj 2004 10:10
@ #21 Redhack

Er det ikke omkring 1000 Volt før dioden dør?
kan ikke huske det.. det er nogle år siden jeg gik på grundforløbet.. ;P
Gravatar #29 - TGS
12. maj 2004 10:15
#21 der kan ikke gå en spænding.. der kan være en spænding og gå en strøm.. en silicium dioden har en spænding i lederetningen på 0.6 - 0.7 V. men da du taler om spærreretningen så kommer det grumme an på hvilken diode det er.. der findes dioder der kan holde til en spærre spænding på flere kV
Gravatar #30 - jensendk
12. maj 2004 10:16
#27

Damn hvor må rørforstærkere være ringe så.. :-( Mener absolut der er mange andre faktorer der gør en forstærker god eller dårlig. Kommer meget an på hvad den bruges til..

#29

En diode har ikke en spænding, det har et batteri. En Diode har et spændingsfald, Silicium dioder ca 0.6V, Germanium dioder ca 0.2V.
Gravatar #31 - Disky
12. maj 2004 10:16
Redhack:


Lad os lige slå noget fast, spænding er ikke noget der går i gennem. Det er strømmen som løber igennem, men du har et spændingsfald istedet.

Hvilken diode snakker vi om ?
Er det en lille 1N4148 diode, eller en højspændingsdiode ?
Er det en detektor diode til fint radiomåleudstyr ? Eller en fra din spændingsforsyning ?
Gravatar #32 - Disky
12. maj 2004 10:22
jensendk:
De spændingsfald du angiver er i lederetningen, der spørges om spærreretningen.
Gravatar #33 - Redhack
12. maj 2004 10:53
He he. Jeg tænker på en anmindelig lys-diode. Jeg regnede ikke der var nogle der vidste hvad en Silicium diode er. :)

Det med spændingen undskylder jeg. Det var bare dårligt formuleret.

Det normale spændingsfald over en god siliciumdiode, i gennemgangsretningen, vil være mellem 0,400V og 0,900V

Hvad i spærreretningen?

#27 Du giver ik' op hva'? Drop det nu bare ik'?
Gravatar #34 - Disky
12. maj 2004 11:54
redhack:
I spærreretningen giver det ikke meningen at snakke om hvad den er, men hvad den max kan holde til.

Igen har du ikke fortalt hvilken diode vi snakker om.

Tag og søg på google efter et datablad og læs det, det gør folk der arbejder med elektronik også :-)
Gravatar #35 - DetvarMIG
12. maj 2004 11:57
#33 jeg mener vi var over 1100Volt da vi legede med det, og der var den ikke død endnu..
Men den giver vel et skrald når den dør.. Den eksploderer!! :P
Gravatar #36 - Redhack
12. maj 2004 12:51
#34 Det har jeg da allerede fortalt... #33

Det er måske ikke godt nok til dig?
Gravatar #37 - El_Coyote
12. maj 2004 16:27
lol det er da den første grafikkort nyhed der ikke er havnet i en ati vs nvidia flamewar. :P
Gravatar #38 - Redhack
13. maj 2004 06:26
#37 det kan vi stadig nå.

Jeg vil helst have et ATI grafikkort, for de har faktisk et meget fedt navn. Det er også grimt at der er tog indtag til strøm på det Nvidia grafikkort. Hvor ikke bare bruge et? Der kan nemt går 200watt igennem sådan et kabel...
Gå til top

Opret dig som bruger i dag

Det er gratis, og du binder dig ikke til noget.

Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.

Opret Bruger Login