mboost-dp1

unknown

PCI Express 2.0 dobler op

- Via Heise Online - , redigeret af Acro

På Intel Developer Conference (IDF) er et af emnerne de kommende specifikationer til PCI Express 2.0 og her ser det ud til, at der dobles op.

Overførselshastigheden forventes at blive på 5 gigatransfers i sekundet mod 2,5 for den nuværende PCIe-standard. Også det maks tilladte effektforbrug for et grafikkort ser ud til at blive fordoblet.

Hvor der i dag kan trækkes 75 Watt direkte over PCIe-bussen og 150 Watt er tilladt med ekstern strømforsyning, så vil den nye standard sandsynligvis tillade grafikkort med et effektforbrug på helt op til 300 Watt.

Nyheden er på tysk(!)





Gå til bund
Gravatar #1 - leGnu
27. sep. 2006 15:43
Det næste problem for hardware industrien bliver ikke varmeudvikling, men derimod et voldsomt energiforbrug. Op til 300W er fuldstændig voldsomt, og slet ikke holdbart for dem der betaler elregningen. For slet ikke at tale om miljøbeskyttelsen.
Gravatar #2 - BluepaiN
27. sep. 2006 16:00
Fy for satan, det kommer til at kunne mærkes på elregningen ;/
Gravatar #3 - mELIeha
27. sep. 2006 16:03
#1, energiforbrug = varmeudvikling? :) De to ting hænger temmelig godt sammen :)
Gravatar #4 - Dijkstra
27. sep. 2006 16:05
At have et grafikkort der æder 300W kørende i 8 timer (er det ikke ca. en arbejdsdag, - folk slukker alligevel ikke når de går til middag etc.) svarer til at have en elblæser til at køre for fulde gardiner i en time. Det koster strøm (1,95 kr/kWh (jfr. denne side*2,4 kWh/dag = 4,68 kroner. På et år giver det ca. 1000 kr/PC) og giver en masse varme og støj (for de blæsere der skal få varmen væk fra grafikkortet).

Lyder ikke som et hit, - men man får sikkert en masse FPS med sådan nogle kort.

Men o.k. det er nok ikke ikke kontorPC'ere der bliver udstyret med disse grafikkort.


Men en spilleglad teenager der har sådan en maskine, og som sådan nogle lømler nu engang er nok næppe slukker for den hverken når han sover eller er ude, kan forbruge for hele 5100 kr/år + det som CPU, harddiske, skærm etc. tager (Ja, - det er ved 24/7/365).
Gravatar #5 - waterdog
27. sep. 2006 16:07
Hmmm... skal jeg riste mit brød på brødristeren eller mit 300Watt grafikkort idag???

Ej... synes virkelig det er ok med bedre hastigheder og så videre, men jeg synes også det må være på tide at grafikkortproducenterne begynder at se på hvordan de kan forbedre strømforbruget i forhold til ydelsen... Lidt ligesom Intel gjorde da de startede på centrino som jo netop havde et væsentligt lavere strømforbrug i forhold til ydelsen sammenlignet med andre processorer på det tidspunkt...
Gravatar #6 - Benjamin Krogh
27. sep. 2006 16:18
Jeg tvivler på at dette skal ses som et tegn på at grafikkort kommer op og bruge 300 W, men snarere som at de nu kan trække det strøm de skal bruge i stedet for at bruge et ekstra kabel fra PSU'en.

Flere kort skulle jo have 2 kabler for at kunne blive mætte.

Intel og AMD fattede at deres CPU'er blev for varme og arbejdede på det problem. Det skal GFX producenterne også nok fatte.

OT
Der kommer vel en grænse når man skal til LAN ret hurtigt så? "Vi har en 10A sikring, så vi kan kun være 5" :)
Gravatar #7 - -N-
27. sep. 2006 16:35
Jeg tror det kommer til at give sig selv, ligesom med Geforce FX, folk gider ikke høre på det, der er en lille gruppe af stabile tilhængere og så grafikkere der gider, men ellers ikke... AMD og Intel har jo også skruet ned for deres effektforbrug...
Gravatar #8 - MHauge
27. sep. 2006 17:17
Skal da godt nok ikke have et grafikkort der æder 300W, tror bare jeg nøjes med mit FX5200 istedet, eller putter mit gamle Matrox Millennium i igen ;)
Har længe tænkt på at ATI/Nvidia snart må tage sig sammen og gøre som Intel med Pentium M og Core Solo/Duo..
Gravatar #9 - Zombie Steve Jobs
27. sep. 2006 17:41
#4 Hehe, 5100 - det er vist småting, i forhold til hvad en teenager ellers forbruger af (sine foraeldrers) penge på div. udgiftsområder. Ellers må de jo selv betale gildet.
Gravatar #10 - generalbc
27. sep. 2006 19:48
Gigatransfers?? Det begreb har jeg aldrig hørt om før... Er det mon en nyere betegnelse for gbit/sek?
Gravatar #11 - Man in Black
27. sep. 2006 20:32
#3 Ja, faktisk 1:1.

Alt den effekt en computer bruger bliver til varme... intet andet!

Fint nok at de sætter grænserne op... det betyder jo ikke at gfx kommer til at bruge mere effekt. -nVidia og ATI/AMD skal nok finde ud af at udvikle effektbesparende hardware, hvis det er hvad forbrugerne ønsker.
Gravatar #12 - andeo
27. sep. 2006 21:08
#11 NETOP

Det vigtigste er nemlig at det er muligt... alt det andet kommer bagefter.

Folk (specielt dem på newz.dk) er bare for utålmodige :P
Gravatar #13 - ex2000
27. sep. 2006 21:08
Vi er ikke engang nået til at skifte fra AGP til PCIEXPRESS og nu kommer den som Version 2.0!

Grafikkortet bruger 300W el i timen
Hvis man regner el forbrugt i kWh så vil den i løbe af ca. 3.3 timmer bruge 1 kW el og i løbet af ca 9.9 timmer bruge 3 kW el
Resten af computerens el forbrug er ikke regnet med!

Folk prøver at spare på strømmen ved at købe energi A-mærket elapparater osv...
Men hardware producenter som Intel tvinger folk til at købe nyrer og mere energislugene produkter!
Godt gået Intel!
Gravatar #14 - sivsko
27. sep. 2006 22:01
#6
Tja når jeg skal til Lan har jeg min mobile dissel genarator med, så slipper jeg også for strøm afbrydelser, det er dog ikke alle steder jeg må stille den inden for:-)
Gravatar #15 - Ajax
27. sep. 2006 22:52
#14
Jeg har nu altid holdt mig til en kondicykel tilsluttet en generator, som generer strømmen til min pc. Det er hårdt, men gratis og slidet værd - man kommer jo i form samtidig.

Med så store effektforbrug på ny hardware, så ender det med at selv store tour de france ryttere må give op. Puha det blir hårde tider til LAN.
Gravatar #16 - Borg[One]
27. sep. 2006 23:48
#13 - og en del af de andre indlæg...

Man kan ikke rigtig klandre Intel for det høje strømforbrug, de lytter bare til behovet hos forbrugerne.

Jeg mener, det er da lang tid siden, man snakkede om at de nye DX10-kort ville æde op til 300watt - PCIe 2.0 gør det bare muligt at tage strømmen fra bundkortet, istedet for, som nu, at fodre kortet med ekstra strømstik.

Og fordi man får PCIe 2.0, behøver man jo stadig ikke indkøbe monster GFX'et.

Men så længe der er krig på GFX-markedet, der alene går på ydelsen, så vil der ske det samme for GPUernesom for CPU'erne, strømforbruget vil gå op. Så kan vi jo bare håbe på der kommer en lignende konkurrence-parameter der hedder mindre strømforbrug, som på CPU-markedet.
Gravatar #17 - bbdk
28. sep. 2006 05:22
#13
Hils i 2005. Hvorfor skal Intel have en flyveskalle? Har du tjekket udviklingen med f.eks. Core 2 Duo (MAX TDP 75W - Endda extreme versionen) i forhold til Pentium E med en TDP på 103W?
Intel og AMD er da klart på rette spor. Det er måske nok på IDF at nyheden slap ud, men det er altså PCISIG der står for det.
Gravatar #18 - desvaerre
28. sep. 2006 06:34
Hvad så med de bærbare, når spillene får al den kraft at tilpasse sig efter?
De har jo allerede nu problemer med at følge med... Det bliver måske "tur basseret spil" man må spille (Dem som stædigt holder ved de bærbare), så man lige oplader computeren igen per træk.. Ellers er det da bare at slæbe nogle bilbatterier efter sig på en trækvogn.
Gravatar #19 - Alien
28. sep. 2006 12:41
#13
Intel tvinger ikke nogen til at købe noget... de spare bare et kabel væk

#18
Hvis man vælger at købe en bærbar som gamerpc er man vel selv unde om det?!?! ikk?? dette er jo til gamere...

OT
Synes det er fint at man ikke skal bruge ekstra kabler, desuden er der en kæmpe regnefejl, den bruger vel ikke 300W når man ikke spiller!?!?! det må vel være max forbruget
Gravatar #20 - terracide
28. sep. 2006 13:41
#19:
Rygterne siger at både R600 og G80 sluger strøm så det batter...
Så mellem 200-300 watts strømfrobrug på de nye highend DX10 kort ville ikke komme bag på mig...

Terra - Derfor der er snak om eksterne størmforsyninger...
Gravatar #21 - drbravo
28. sep. 2006 15:26
#20

Meget offtopic:

Hver gang du slutter et indlæg skriver du en signatur. Jeg ved ikke hvorfor men det irriterer mig grænseløst. Jeg får lyst til at kvæle en kat hver gang jeg ser det. Hvorfor bruger du ikke standardmetoden til at tilføje signatur i stedet?

Topic:
det lyder som mange ampere der skal tvinges rundt på det stakkels bundkort. Og det fjerner vel ikke kabler men flytter dem bare fra PSU->GFX til PSU->Mobo

#4
Hvis du bruger et grafikkort max i 8 timer i træk trænger du nok til noget seriøs hjælp - og hvis du kan bruge det max 24/7 burde du nok blive indlagt et sted med puder på væggene.
Gravatar #22 - Alien
28. sep. 2006 16:53
#20
Forklar lige hvorfor du henviser til mig??? den bruger vel stadigvæk ikke 200-300, når du ikke bruger spanden og alt der vises er DL program og skrivebord... HVORDAN skal det tage 200-300 watt?? eller henviser du til mit uden at læse det først?
Gravatar #23 - terracide
28. sep. 2006 21:09
#21:
Søg professionel hjælp, hvis der ikke skal mere til at få dig til at flippe ud...du har seriøst et problem så.

#22:
My bad, læste forkert.
Men husk på at Aero under vista kører i 3D, så strømforbruget vil gå opad.
Men jeg finder det stadigvæk sygt at en GPU skal sluge +200 watt under fuld load.

Terra - I like my dynamic signature...
Gravatar #24 - Alien
28. sep. 2006 22:51
Terra - I like my dynamic signature...

hehe FACE :)
Gravatar #25 - Borg[One]
28. sep. 2006 23:18
#23 yup - det er ret vildt den skal suge så meget power, hvad der er endnu mere vildt, er at deres perfomance pr watt også er gået betydeligt op - så jeg tror vi skal regne med nogle pænt gustne DX10-kort.
Gravatar #26 - terracide
29. sep. 2006 19:49
#25:
Faldt lige over de første billeder af G80:
http://www.hardforum.com/showthread.php?t=1104314
Læg mærke til 2x6 pins powerconcetors...og vandkøling...

Terra - Helt absurd...lær preformce per watt for %&%%"#"#%!!!
Gå til top

Opret dig som bruger i dag

Det er gratis, og du binder dig ikke til noget.

Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.

Opret Bruger Login