mboost-dp1

unknown

Nyt grafikkort fra NVIDIA til E3?

- Via X-bit labs - , redigeret af Pernicious

Direktøren for NVIDIA, Jen-Hsen Huang, har udtalt, at deres næste generations GPU er klar, og at de måske vil vise den til E3 i næste uge.

Det drejer sig om GPU’en med betegnelsen G70, også kaldet GeForce 7 af nogle. Der er ikke sluppet meget ud omkring den nye GPU, men man regner med, at ydelsen vil stige til det dobbelte af NVIDIAs nuværende GF 6800 Ultra.

Bliver G70 ikke vist frem til E3, skulle den dukke op til Computex den 31. maj. ifølge flere bundkortfabrikanter.





Gå til bund
Gravatar #1 - bjerh
13. maj 2005 12:25
Lyder jo ikke helt dumt.. :)
Gravatar #2 - boggy
13. maj 2005 12:25
ydelsen vil stige til det dobbelte af NVIDIAs nuværende GF 6800 Ultra.


Det er da ret meget, er det ike? :O
Gravatar #3 - Herskegut
13. maj 2005 12:39
Mon strømforbruget så også er røget i top igen.
Gravatar #4 - lorric
13. maj 2005 12:42
Jen-Hsen, lol!
Gravatar #5 - AndersAndersson
13. maj 2005 13:01
#5 ja hvorfor lave det så kryptisk, han kunne jo bare kalde sig jensen :D
Gravatar #6 - mrmorris
13. maj 2005 13:06
G70 skulle efter sigende trække 225W, rygtet fra folkene bag PCIe specifikationen som har fået en henvendelse fra Nvidia omkring muligheden for at skrue op for strømmen i PCIe bussen.

http://www.theinquirer.net/?article=22917

Er dette tilfældet, skal jeg hverken eje eller ha' et G70!
Gravatar #7 - Herskegut
13. maj 2005 13:16
Det er sgu for sindygt med sådan et strøm forbrug!
Gravatar #8 - demolition
13. maj 2005 13:17
#7: Det tvivler jeg meget på, for så er de da først sikre på at de ikke kan sælge nogen kort (måske kun lige til nogle få gamere som er fuldstændigt ligeglade med effektforbrug).
100W er mere reelt for et moderne grafikkort, selv om det stadig er enormt meget.
Gravatar #9 - stefan_v
13. maj 2005 13:33
Mit GeForce4 Ti4200 har lige ringet. Det har seriøse mindreværd komplekser... Er bange for at det tager livet af sig selv :(
Gravatar #10 - MrMujave
13. maj 2005 15:35
225W?? :D

Så skal jeg fandeme ikke have det!
Gravatar #11 - tewic
13. maj 2005 15:58
sådan en 2 fuckers i SLI, woooohooo så skal der sq suges strøm.
Gravatar #12 - AndersAndersson
13. maj 2005 16:29
#12 ja vi skal snart over og køre 16amp sikringer :D
Gravatar #13 - tvinter
13. maj 2005 18:06
GeForce - MX440!! yay 40W eller noget ;) Hmm er vi ikke snart så langt at vi når 65 fps eller hvad det nu er øjet kan opfange...!? Men ja, det er godt at grafik markedet viser vejen for de andre mht. udvikling. Men 225W :O kan være de skal arbejde lidt på at få det strømforbrug ned, folk skal jo både have ny strømforsyning og nyt grafikkort så.. bliver en dyr omgang, for kortet kommer sikkert til at koste 5kilo...
Gravatar #14 - T.A
13. maj 2005 20:13
#14
Jo hvis ens fps var 65 når den var lavest var der ingen problemer og kortet har ikke brug for at være hurtigere.

Men hvis man tager et nyere spil som Doom3 og kører det ved 1600x1200, high detail, 4xAA og 8xAF (kort sagt ved bedste visuelle indstilling) falder selv Radeon x850 XT og GeForce 6800 ultra til en gennemsnit FPS på små 40.

Når gennemsnit er på små 40 fps kan der nemt forekomme tider hvor grafikken vil hakke.

Er det så virkelig nødvendigt for os denne evige jagt på bedre flottere grafik og derfor også evigt hurtigere kort ?
Personlig ville jeg ikke have noget i mod hvis tempoet blev sænket lidt, men der kommer sikkert også en dag hvor jeg får et hurtigt nok kort til kunne køre doom3 :)
Gravatar #15 - traCe
13. maj 2005 20:58
#3 jeg har et gf4200ti, så du kan godt begynde at føle dig ovenpå igen :)
Gravatar #16 - drbravo
13. maj 2005 22:37
well - er de 225w ikke den nye øverste grænse? Kortet skal vel 'bare' bruge mere end de 150w der var den tidligere grænse..?
Gravatar #17 - amokk
13. maj 2005 22:41
#17 tja, og det er ikke en gang sikkert at kortet skal bruge mere end de 150W det allerede får, medmindre man overclocker eller lign.

Kig på forskellige grafikkort med samme chipset fra forskellige producenter, nogle modeller har ekstra strømstik, andre har ikke. Som regel er dem med ekstra strømstik det bedste overclockere, men faktum er at det ofte ikke er nødvendigt (tænker på GF6600 serien og X800XL serien)
Gravatar #18 - technetium
14. maj 2005 08:39
Halli hallo, 225w, jamen vi taler om et stadig lille (rent fysisk) kort. Hvis så meget strøm løber igennem, jamen så kan man varme kaffe på det. Hvordan vil de køle det ordenligt??? Jeg tror der må være sket en lille fejl et sted. Og som sagt før i tråden, hvis man skal køre SLI så.... Det kan da ik passe. Specilet fordi at de begynder mere og mere at satse på SLI, såååå.

(9600pro forever)
Gravatar #19 - mrmorris
14. maj 2005 10:40
#18 Naturligvis vil kortet ikke trække 225W, men det er stadig en indikation omkring et stadig større strømforbrug... hvis de kræver 50W over hvad de faktisk skal bruge, har de lidt spillerum og kan være rimelig sikker på at få en konstant og "ren" forsyning.

Men det betyder stadig at udstyret specificeres til 225W, dvs. større PSU, bedre køling osv. osv.

Fra kapittel 29 af Nvidia's "GPU Gems2" bog:
Although smaller transistors require less power than larger ones, the number of transistors
on a single processor die is rising faster than the amount at which power per transistor
is falling. Consequently, each generation of processors requires more power: the
ITRS estimates that the maximum power allowed for 2004 chips with a heat sink is
158 watts and will gradually rise to a ceiling of 198 watts by 2008. This power constraint
will be one of the primary limitations of future processors; the future figure of
merit may no longer be the number of operations per second but instead the number
of operations per second per watt.
Gravatar #20 - drbravo
14. maj 2005 11:23
#20
the number of transistors on a single processor die is rising faster than the amount at which power per transistor
is falling.


Sjovt - AMD kan godt lave gode CPUer der ikke bruger så meget strøm. Hvorfor kan Nvidia og ATi ikke? :(

Hvis nu AMD samarbejdede med en af de to producenter - se det ville give mig våde drømme...
Gravatar #21 - amokk
14. maj 2005 11:49
#21 måske fordi nVIDIA og ATI aldrig har lavet CPUer? :-p

AMD samarbejder allerede meget med nVIDIA
Gravatar #22 - drbravo
14. maj 2005 14:52
#21

Men de laver stadig forskellige processorer som måske kan bruges til GPUer - SOI og strained sillicon burde vel kunne bruges i GPUer..?

Og det lyder dejligt at AMD og nVIDIA samarbejder. nVIDIA laver de bedste kort i min mening, men de suger ALT for meget strøm! :(
Gravatar #23 - T.A
14. maj 2005 15:18
#21
Nu er der en del forskel på opbygningen og kravene for cpu'er og GPU'er.

Faktisk selv om det er svært at tro tror jeg der er større pres på GPU producenterne for at få større ydelse end der er på CPU fronten.
Gravatar #24 - Alfred
14. maj 2005 15:21
Lyder da meget godt med bedre grafik, men hvis man ser på udviklingen af spil med bedre grafik så kan man se at spillene bliver kortere og kortere (Hurtigere at gennemføre). Så hvis udviklingen forsætter så vil den næste generation af spil kunne gennemføres på 30min fordi der bliver lagt så stor vægt på grafikken.
Gravatar #25 - Azjo
14. maj 2005 16:05
#25
Det er jo textures der fylder meget. Specielt HL2 fylder meget pga textures.
De er jo desværre nødt til at tænke på hvor meget spillene fylder og så bliver længden af spillet desværre cuttet.
Doom 3 fylder jo ikke meget da mange textures er det samme spillet igennem hvor i hl2 er det helt nye textures per bane.
Gravatar #26 - amokk
14. maj 2005 16:17
#26 det forhindrer jo ikke valve i at lave banerne længere... de rå vektordata som udgør banerne, udgør en meget lille del af spillets samlede data

#25 hehe, half life 1 kan da gennemføres på 45 minutter mener jeg det er... http://www.archive.org/details/HalfLife_4545
Gravatar #27 - mrmorris
14. maj 2005 16:28
Rent beregningsmæssigt er en GPU vel mere deterministisk, der er ikke rigtig brug for cache eller branch prediction... det drejer sig om at smide et input igennem en række avancerede trin og ende med en renderet scene. Vel og mærket 50-100 gange i sekundet. En GPU er jo langt mere parallel i opbygning end en CPU, typisk 16 pipelines og proppet med ALU'er... så man skulle tro at process teknologien var banebrydende her.

Men af en eller anden årsag har GPU'er altid være fabrikeret på en process der er en generation tilbage for CPU'er. ATI's X850 med R481 chippen er f.eks. på 130nm mens samtlige moderne CPU'er har været på 90nm process i nogen tid nu.
Gravatar #28 - sakari46
14. maj 2005 16:49
hmmz, 225 watt siger du?, det er en del...
tror sgu ikke helt på det :P
Nvidia har allerede "sprunget" folks grænser for strømforbrug med deres 8xxx serie så vidt jeg husker...
ejer selv et 6800 GT lige nu, og er meget tilfreds, det yder godt i min mening, men strømforbruget skal heller ikke højere op...

225 watt er for meget, selv Nvidia ved det.. så de tænker sig nok om inden de lancere et kort som G70.
"the Inquirer" skriver ofte rygter istedet for Fakta, så det skal helt sikkert tages med et gran salt.
Jeg mener selv jeg så et sted at kortet ville blive kølet med et "single-slot" løsning... og det er så godt som fysisk umuligt at fjerne 225 watt med en så lille køleribbe og en lille blæser, mm. man selvfølgelig vil have et kort på 150 db, og er 150 C varmt :)
men så igen, måske er det ikke single-slot kølet, who knows?, bare rygter som modsiger hindanen.

min computer er stille og kølig, men den drøm bliver sgu smadret hvis de bare nærmer sig 200 watt...

bare se på prescott, den smider nemt 100 watt ud, og det er ikke nemt at køle ordentligt med luftkøling, så skal vi ud i vandkøing.
Gravatar #29 - amokk
14. maj 2005 18:25
"Nvidia har allerede "sprunget" folks grænser for strømforbrug med deres 8xxx serie så vidt jeg husker..."

Du må da leve i en anden tid, nVIDIA er ved at lancere serie 7 af Geforce, men du har allerede læst om strømforbruget på serie 8?
Gravatar #30 - sakari46
14. maj 2005 18:32
#30 sorry, glemte helt navnet på de gamle kort :P
mente "5800" serien, de blev pænt varme, og brugte en del strøm

men den næsten serie kort igen, skal sgu nok blive pænt varme, eller pænt kolde.. kommer helt an på om de har fået øjnene op til den tid
Gravatar #31 - MenZa
15. maj 2005 12:07
Det lyder meget interessant. Jeg er da meget tilfreds med mit GF FX5700 (som jeg desuden fik igår), så det her kort må være pænt vildt.
Gravatar #32 - drbravo
16. maj 2005 21:54
http://www.penstarsys.com

G70 at Computex? - Josh

Digitimes is reporting that the G70 from NVIDIA will be showcased at Computex. This certainly looks to be legitimate, and I don't doubt that NVIDIA has working silicon that they can show off successfully. Volume deliveries are not expected until the second half of Q3 though. From all indications it appears as though ATI may hold off on their R520 release, though they have working products that they are shipping to partners and game developers (I noticed in a version change log on a game that says "Fixed rendering problems with SM 3.0 on ATI products").

It also appears very certain that the G70 will be 110 nm, though for a time I had seriously wondered if that would be the case. There has been a lot of misinformation spread about this product, and if you look around you often will see conflicting information. Overall the card will indeed consume more power than the current products, but it will not break the 150 watt envelope that PCI-E can deliver. G70 will also probably be introduced to the AGP infrastructure, so it will still need to fall under those power guidelines. Cooling will probably be very similar to the current 6800 Ultra, but most likely slightly beefier. I certainly can't wait til the end of May!
Gravatar #33 - mrmorris
17. maj 2005 15:07
150W er stadig dobbelt så meget som en enkelt GPU bør fortære. Strøm er billigt i USA/Canada, det synes helt klart at smitte af på de nye CPU/GPU'er.
Gravatar #34 - amokk
17. maj 2005 16:29
#34 nu er det vel ikke noget kæmpe indhug i elregningen, hvis kortet bruger 150W ved load en gang imellem... medmindre man gamer 24/7
Gå til top

Opret dig som bruger i dag

Det er gratis, og du binder dig ikke til noget.

Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.

Opret Bruger Login