mboost-dp1

unknown
- Forside
- ⟨
- Forum
- ⟨
- Nyheder
ydelsen vil stige til det dobbelte af NVIDIAs nuværende GF 6800 Ultra.
Det er da ret meget, er det ike? :O
#5 ja hvorfor lave det så kryptisk, han kunne jo bare kalde sig jensen :D
G70 skulle efter sigende trække 225W, rygtet fra folkene bag PCIe specifikationen som har fået en henvendelse fra Nvidia omkring muligheden for at skrue op for strømmen i PCIe bussen.
http://www.theinquirer.net/?article=22917
Er dette tilfældet, skal jeg hverken eje eller ha' et G70!
http://www.theinquirer.net/?article=22917
Er dette tilfældet, skal jeg hverken eje eller ha' et G70!
#7: Det tvivler jeg meget på, for så er de da først sikre på at de ikke kan sælge nogen kort (måske kun lige til nogle få gamere som er fuldstændigt ligeglade med effektforbrug).
100W er mere reelt for et moderne grafikkort, selv om det stadig er enormt meget.
100W er mere reelt for et moderne grafikkort, selv om det stadig er enormt meget.
Mit GeForce4 Ti4200 har lige ringet. Det har seriøse mindreværd komplekser... Er bange for at det tager livet af sig selv :(
GeForce - MX440!! yay 40W eller noget ;) Hmm er vi ikke snart så langt at vi når 65 fps eller hvad det nu er øjet kan opfange...!? Men ja, det er godt at grafik markedet viser vejen for de andre mht. udvikling. Men 225W :O kan være de skal arbejde lidt på at få det strømforbrug ned, folk skal jo både have ny strømforsyning og nyt grafikkort så.. bliver en dyr omgang, for kortet kommer sikkert til at koste 5kilo...
#14
Jo hvis ens fps var 65 når den var lavest var der ingen problemer og kortet har ikke brug for at være hurtigere.
Men hvis man tager et nyere spil som Doom3 og kører det ved 1600x1200, high detail, 4xAA og 8xAF (kort sagt ved bedste visuelle indstilling) falder selv Radeon x850 XT og GeForce 6800 ultra til en gennemsnit FPS på små 40.
Når gennemsnit er på små 40 fps kan der nemt forekomme tider hvor grafikken vil hakke.
Er det så virkelig nødvendigt for os denne evige jagt på bedre flottere grafik og derfor også evigt hurtigere kort ?
Personlig ville jeg ikke have noget i mod hvis tempoet blev sænket lidt, men der kommer sikkert også en dag hvor jeg får et hurtigt nok kort til kunne køre doom3 :)
Jo hvis ens fps var 65 når den var lavest var der ingen problemer og kortet har ikke brug for at være hurtigere.
Men hvis man tager et nyere spil som Doom3 og kører det ved 1600x1200, high detail, 4xAA og 8xAF (kort sagt ved bedste visuelle indstilling) falder selv Radeon x850 XT og GeForce 6800 ultra til en gennemsnit FPS på små 40.
Når gennemsnit er på små 40 fps kan der nemt forekomme tider hvor grafikken vil hakke.
Er det så virkelig nødvendigt for os denne evige jagt på bedre flottere grafik og derfor også evigt hurtigere kort ?
Personlig ville jeg ikke have noget i mod hvis tempoet blev sænket lidt, men der kommer sikkert også en dag hvor jeg får et hurtigt nok kort til kunne køre doom3 :)
well - er de 225w ikke den nye øverste grænse? Kortet skal vel 'bare' bruge mere end de 150w der var den tidligere grænse..?
#17 tja, og det er ikke en gang sikkert at kortet skal bruge mere end de 150W det allerede får, medmindre man overclocker eller lign.
Kig på forskellige grafikkort med samme chipset fra forskellige producenter, nogle modeller har ekstra strømstik, andre har ikke. Som regel er dem med ekstra strømstik det bedste overclockere, men faktum er at det ofte ikke er nødvendigt (tænker på GF6600 serien og X800XL serien)
Kig på forskellige grafikkort med samme chipset fra forskellige producenter, nogle modeller har ekstra strømstik, andre har ikke. Som regel er dem med ekstra strømstik det bedste overclockere, men faktum er at det ofte ikke er nødvendigt (tænker på GF6600 serien og X800XL serien)
Halli hallo, 225w, jamen vi taler om et stadig lille (rent fysisk) kort. Hvis så meget strøm løber igennem, jamen så kan man varme kaffe på det. Hvordan vil de køle det ordenligt??? Jeg tror der må være sket en lille fejl et sted. Og som sagt før i tråden, hvis man skal køre SLI så.... Det kan da ik passe. Specilet fordi at de begynder mere og mere at satse på SLI, såååå.
(9600pro forever)
(9600pro forever)
#18 Naturligvis vil kortet ikke trække 225W, men det er stadig en indikation omkring et stadig større strømforbrug... hvis de kræver 50W over hvad de faktisk skal bruge, har de lidt spillerum og kan være rimelig sikker på at få en konstant og "ren" forsyning.
Men det betyder stadig at udstyret specificeres til 225W, dvs. større PSU, bedre køling osv. osv.
Fra kapittel 29 af Nvidia's "GPU Gems2" bog:
Men det betyder stadig at udstyret specificeres til 225W, dvs. større PSU, bedre køling osv. osv.
Fra kapittel 29 af Nvidia's "GPU Gems2" bog:
Although smaller transistors require less power than larger ones, the number of transistors
on a single processor die is rising faster than the amount at which power per transistor
is falling. Consequently, each generation of processors requires more power: the
ITRS estimates that the maximum power allowed for 2004 chips with a heat sink is
158 watts and will gradually rise to a ceiling of 198 watts by 2008. This power constraint
will be one of the primary limitations of future processors; the future figure of
merit may no longer be the number of operations per second but instead the number
of operations per second per watt.
#20
Sjovt - AMD kan godt lave gode CPUer der ikke bruger så meget strøm. Hvorfor kan Nvidia og ATi ikke? :(
Hvis nu AMD samarbejdede med en af de to producenter - se det ville give mig våde drømme...
the number of transistors on a single processor die is rising faster than the amount at which power per transistor
is falling.
Sjovt - AMD kan godt lave gode CPUer der ikke bruger så meget strøm. Hvorfor kan Nvidia og ATi ikke? :(
Hvis nu AMD samarbejdede med en af de to producenter - se det ville give mig våde drømme...
#21
Men de laver stadig forskellige processorer som måske kan bruges til GPUer - SOI og strained sillicon burde vel kunne bruges i GPUer..?
Og det lyder dejligt at AMD og nVIDIA samarbejder. nVIDIA laver de bedste kort i min mening, men de suger ALT for meget strøm! :(
Men de laver stadig forskellige processorer som måske kan bruges til GPUer - SOI og strained sillicon burde vel kunne bruges i GPUer..?
Og det lyder dejligt at AMD og nVIDIA samarbejder. nVIDIA laver de bedste kort i min mening, men de suger ALT for meget strøm! :(
Lyder da meget godt med bedre grafik, men hvis man ser på udviklingen af spil med bedre grafik så kan man se at spillene bliver kortere og kortere (Hurtigere at gennemføre). Så hvis udviklingen forsætter så vil den næste generation af spil kunne gennemføres på 30min fordi der bliver lagt så stor vægt på grafikken.
#25
Det er jo textures der fylder meget. Specielt HL2 fylder meget pga textures.
De er jo desværre nødt til at tænke på hvor meget spillene fylder og så bliver længden af spillet desværre cuttet.
Doom 3 fylder jo ikke meget da mange textures er det samme spillet igennem hvor i hl2 er det helt nye textures per bane.
Det er jo textures der fylder meget. Specielt HL2 fylder meget pga textures.
De er jo desværre nødt til at tænke på hvor meget spillene fylder og så bliver længden af spillet desværre cuttet.
Doom 3 fylder jo ikke meget da mange textures er det samme spillet igennem hvor i hl2 er det helt nye textures per bane.
#26 det forhindrer jo ikke valve i at lave banerne længere... de rå vektordata som udgør banerne, udgør en meget lille del af spillets samlede data
#25 hehe, half life 1 kan da gennemføres på 45 minutter mener jeg det er... http://www.archive.org/details/HalfLife_4545
#25 hehe, half life 1 kan da gennemføres på 45 minutter mener jeg det er... http://www.archive.org/details/HalfLife_4545
Rent beregningsmæssigt er en GPU vel mere deterministisk, der er ikke rigtig brug for cache eller branch prediction... det drejer sig om at smide et input igennem en række avancerede trin og ende med en renderet scene. Vel og mærket 50-100 gange i sekundet. En GPU er jo langt mere parallel i opbygning end en CPU, typisk 16 pipelines og proppet med ALU'er... så man skulle tro at process teknologien var banebrydende her.
Men af en eller anden årsag har GPU'er altid være fabrikeret på en process der er en generation tilbage for CPU'er. ATI's X850 med R481 chippen er f.eks. på 130nm mens samtlige moderne CPU'er har været på 90nm process i nogen tid nu.
Men af en eller anden årsag har GPU'er altid være fabrikeret på en process der er en generation tilbage for CPU'er. ATI's X850 med R481 chippen er f.eks. på 130nm mens samtlige moderne CPU'er har været på 90nm process i nogen tid nu.
hmmz, 225 watt siger du?, det er en del...
tror sgu ikke helt på det :P
Nvidia har allerede "sprunget" folks grænser for strømforbrug med deres 8xxx serie så vidt jeg husker...
ejer selv et 6800 GT lige nu, og er meget tilfreds, det yder godt i min mening, men strømforbruget skal heller ikke højere op...
225 watt er for meget, selv Nvidia ved det.. så de tænker sig nok om inden de lancere et kort som G70.
"the Inquirer" skriver ofte rygter istedet for Fakta, så det skal helt sikkert tages med et gran salt.
Jeg mener selv jeg så et sted at kortet ville blive kølet med et "single-slot" løsning... og det er så godt som fysisk umuligt at fjerne 225 watt med en så lille køleribbe og en lille blæser, mm. man selvfølgelig vil have et kort på 150 db, og er 150 C varmt :)
men så igen, måske er det ikke single-slot kølet, who knows?, bare rygter som modsiger hindanen.
min computer er stille og kølig, men den drøm bliver sgu smadret hvis de bare nærmer sig 200 watt...
bare se på prescott, den smider nemt 100 watt ud, og det er ikke nemt at køle ordentligt med luftkøling, så skal vi ud i vandkøing.
tror sgu ikke helt på det :P
Nvidia har allerede "sprunget" folks grænser for strømforbrug med deres 8xxx serie så vidt jeg husker...
ejer selv et 6800 GT lige nu, og er meget tilfreds, det yder godt i min mening, men strømforbruget skal heller ikke højere op...
225 watt er for meget, selv Nvidia ved det.. så de tænker sig nok om inden de lancere et kort som G70.
"the Inquirer" skriver ofte rygter istedet for Fakta, så det skal helt sikkert tages med et gran salt.
Jeg mener selv jeg så et sted at kortet ville blive kølet med et "single-slot" løsning... og det er så godt som fysisk umuligt at fjerne 225 watt med en så lille køleribbe og en lille blæser, mm. man selvfølgelig vil have et kort på 150 db, og er 150 C varmt :)
men så igen, måske er det ikke single-slot kølet, who knows?, bare rygter som modsiger hindanen.
min computer er stille og kølig, men den drøm bliver sgu smadret hvis de bare nærmer sig 200 watt...
bare se på prescott, den smider nemt 100 watt ud, og det er ikke nemt at køle ordentligt med luftkøling, så skal vi ud i vandkøing.
Det lyder meget interessant. Jeg er da meget tilfreds med mit GF FX5700 (som jeg desuden fik igår), så det her kort må være pænt vildt.
http://www.penstarsys.com
G70 at Computex? - Josh
Digitimes is reporting that the G70 from NVIDIA will be showcased at Computex. This certainly looks to be legitimate, and I don't doubt that NVIDIA has working silicon that they can show off successfully. Volume deliveries are not expected until the second half of Q3 though. From all indications it appears as though ATI may hold off on their R520 release, though they have working products that they are shipping to partners and game developers (I noticed in a version change log on a game that says "Fixed rendering problems with SM 3.0 on ATI products").
It also appears very certain that the G70 will be 110 nm, though for a time I had seriously wondered if that would be the case. There has been a lot of misinformation spread about this product, and if you look around you often will see conflicting information. Overall the card will indeed consume more power than the current products, but it will not break the 150 watt envelope that PCI-E can deliver. G70 will also probably be introduced to the AGP infrastructure, so it will still need to fall under those power guidelines. Cooling will probably be very similar to the current 6800 Ultra, but most likely slightly beefier. I certainly can't wait til the end of May!
Opret dig som bruger i dag
Det er gratis, og du binder dig ikke til noget.
Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.