mboost-dp1

unknown
- Forside
- ⟨
- Forum
- ⟨
- Nyheder
100W? Der er sørentæskme meget - det er jo lige før man skal have større sikringer hvis man køber sådan et ;)
- deres billedekvalitet er naesten oppe paa ati's.
- de anbefaler en 480w stroemforsyning.
- det suger 110w.
- det larmer langt mindre end man kunne frygte.
- der skal 2 ekstra dedikerede stroemstik til.
- det er tidelige drivers, saa de kan nok optimeres.
- der gaar op til en maanede inden kortet er i butikkerne.
- de testede korts ram koerer 550mhz selvom ddr3 kan koere 600, saa rammen bliver maaske hurtigere paa retail kortet.
- gennemsnitligt er kortet naesten 2 gange saa hurtigt som nvidias tideligere top kort.
det skal blive spaendende naar ati kommer med deres kort.
- de anbefaler en 480w stroemforsyning.
- det suger 110w.
- det larmer langt mindre end man kunne frygte.
- der skal 2 ekstra dedikerede stroemstik til.
- det er tidelige drivers, saa de kan nok optimeres.
- der gaar op til en maanede inden kortet er i butikkerne.
- de testede korts ram koerer 550mhz selvom ddr3 kan koere 600, saa rammen bliver maaske hurtigere paa retail kortet.
- gennemsnitligt er kortet naesten 2 gange saa hurtigt som nvidias tideligere top kort.
det skal blive spaendende naar ati kommer med deres kort.
Savl løber lige nu ned af mine kinder. I mit skridt føler jeg en vis hårdhed ;) Jeg vil ha hende der NVidia, den luder.
Hendes pipelines (bryster) er bare gode. Hendes vertex-shaders, mmmm.......... Hun er high upkeep (2 strømstik!), men hun er det hele værd.
Vil vise sig om min almindelige luder (ATI) kan gøre hende kunsten efter. Hende skal jeg mødes med om et par uger.
Hendes pipelines (bryster) er bare gode. Hendes vertex-shaders, mmmm.......... Hun er high upkeep (2 strømstik!), men hun er det hele værd.
Vil vise sig om min almindelige luder (ATI) kan gøre hende kunsten efter. Hende skal jeg mødes med om et par uger.
6800 blev fremvist for offentligheden igaar, her I SF... Bl.a. viste de en af alienwares overclockede 3Dmark resultater, som endte paa 14600 points. Ret kool!
Bl.a. viste de hvad forskel der ville vaere paa shader 2.0 og shader 3.0 i FarCry, hvor et 3.0 mod vil blive sendt ud senere. Modded som Crytech udgiver, kalder de selv for en tech-mod, da der ikke vil vaere nogle udvidelser til selve banerne, men "blot" implementeringer af ny teknologi. En ny feature i den vil vaere at der nu vil vaere en 3d effekt i bumpmappingen, saa skyggerne skifter alt efter hvor man staar i forhold til f.eks. en murstensvaeg.
En ny demo de praesenterede var Nalu - en havfrue - med 160.000 wires som haar, renderet realtime med fps paa 30+. Nvidia har bl.a. ogsaa implementeret det mest realistiske hud, hvor produkts chefen, mente at man kunne se gaasehuden paa hende fordi hun svoemmede rundt i det kolde vand! ;)
Derudover har de ogsaa implementeret en VPU i GPU'n. Det betyder at man nu kan encode, decode i selve GPU'n og derved spare CPU kraft som kan bruges til andet. En anden feature ved VPU'n er at den er programmerbar. Dvs. at nVidia kan udsende en ny update som kan indeholde nye features paa videosiden, f.eks. bedre understoettelse af codecs m.m.
Naa, men det var sq en fed praesentation af 6800, og efterfoelgende reseption med tilhoerende merchendices - alt sammen grats! =)
Naahja... 6800's pipelines er vokset til 32 og hver pipeline er blevet fordoblet i ydelse!! =) gaaarrrh! :op~
Bl.a. viste de hvad forskel der ville vaere paa shader 2.0 og shader 3.0 i FarCry, hvor et 3.0 mod vil blive sendt ud senere. Modded som Crytech udgiver, kalder de selv for en tech-mod, da der ikke vil vaere nogle udvidelser til selve banerne, men "blot" implementeringer af ny teknologi. En ny feature i den vil vaere at der nu vil vaere en 3d effekt i bumpmappingen, saa skyggerne skifter alt efter hvor man staar i forhold til f.eks. en murstensvaeg.
En ny demo de praesenterede var Nalu - en havfrue - med 160.000 wires som haar, renderet realtime med fps paa 30+. Nvidia har bl.a. ogsaa implementeret det mest realistiske hud, hvor produkts chefen, mente at man kunne se gaasehuden paa hende fordi hun svoemmede rundt i det kolde vand! ;)
Derudover har de ogsaa implementeret en VPU i GPU'n. Det betyder at man nu kan encode, decode i selve GPU'n og derved spare CPU kraft som kan bruges til andet. En anden feature ved VPU'n er at den er programmerbar. Dvs. at nVidia kan udsende en ny update som kan indeholde nye features paa videosiden, f.eks. bedre understoettelse af codecs m.m.
Naa, men det var sq en fed praesentation af 6800, og efterfoelgende reseption med tilhoerende merchendices - alt sammen grats! =)
Naahja... 6800's pipelines er vokset til 32 og hver pipeline er blevet fordoblet i ydelse!! =) gaaarrrh! :op~
#6 - du har da ellers faaet dig en ordenlig salgstale.
160000 vires i en scene er ikke specielt meget, og hvad er 'den mest realistiske hud' helt praecist? jeg gaar ud fra det er en shader, men en hud-shader er ikke nyt. men shaders 3 kan da nogle ret laekre ting.
spoergsmaalet er hvornaar directx kommer med shader 3 support. anandtech skriver 'senest i aar'.
vpu i chippen minder meget om ati's all in wonder serie, som dog kan flere tricks. mon ikke de ogsaa faar vpu'en til rent faktisk at virke i en senere driver.
6800 har 16 pipelines. at du kan shade 32 pixels per clock uden z buffer, giver ikke flere pipes, og det er heller ikke deri den 'fordobbelte' ydelse findes.
det er et voldsomt laekkert kort iflg de foerste reviews, men det er ogsaa fornuftigt at proeve at sortere det vaerste marketings hype fra.
/stone
160000 vires i en scene er ikke specielt meget, og hvad er 'den mest realistiske hud' helt praecist? jeg gaar ud fra det er en shader, men en hud-shader er ikke nyt. men shaders 3 kan da nogle ret laekre ting.
spoergsmaalet er hvornaar directx kommer med shader 3 support. anandtech skriver 'senest i aar'.
vpu i chippen minder meget om ati's all in wonder serie, som dog kan flere tricks. mon ikke de ogsaa faar vpu'en til rent faktisk at virke i en senere driver.
6800 har 16 pipelines. at du kan shade 32 pixels per clock uden z buffer, giver ikke flere pipes, og det er heller ikke deri den 'fordobbelte' ydelse findes.
det er et voldsomt laekkert kort iflg de foerste reviews, men det er ogsaa fornuftigt at proeve at sortere det vaerste marketings hype fra.
/stone
HVA!!! det er sku da ikke så lidt... argh! det gad jeg god at få fingrene i, eftersom jeg spiller total meget UT 2004... men argh okay... jeg venter lige lidt... det koster jo nok lige så meget som deres "nye flagskib"... :D
nVIDIA's havfrue er meget flot lavet og håret er som #6 siger virkelig flot. nVIDIA har lagt en video som sammenklip af nogle af deres demoer. Dette er med søde toner fra Evanescence (håber det er stavet rigtigt)
Her er et link hvis nogen har interesse i at se den. For flot er den sgu:
http://www.nvidia.com/object/nzone_gf6_video_democ...
Her er et link hvis nogen har interesse i at se den. For flot er den sgu:
http://www.nvidia.com/object/nzone_gf6_video_democ...
Har det kort ikke tre kæmpe problemer:
1. Det bliver helt sikkert for dyrt
2. Det har en monster blæser
3. Det æder over 100W
Jeg synes det er morsomt når sites anmelder grafikkort og mener at det er et problem når de er passivt kølet.
Jeg kan forstå at nogle gerne ville spille, og jeg kan forstå at de vil have noget fin 3D grafik at kigge på, men jeg ville have meget svært ved at forstå at nogen ville købe det kort.
Og før nogen siger noget "Nej, jeg behøver ikke købe det" og det har jeg bestemt heller ikke tænkt mig. Jeg under mig bare over at nogen private kan have brug for sådan et kort.
1. Det bliver helt sikkert for dyrt
2. Det har en monster blæser
3. Det æder over 100W
Jeg synes det er morsomt når sites anmelder grafikkort og mener at det er et problem når de er passivt kølet.
Jeg kan forstå at nogle gerne ville spille, og jeg kan forstå at de vil have noget fin 3D grafik at kigge på, men jeg ville have meget svært ved at forstå at nogen ville købe det kort.
Og før nogen siger noget "Nej, jeg behøver ikke købe det" og det har jeg bestemt heller ikke tænkt mig. Jeg under mig bare over at nogen private kan have brug for sådan et kort.
#10 Mr.Weasel
Jeg regner absolut heller ikke med at skulle have sådan et kort. Min ellers ganske tilstrækkelige 250watt PSU (jeg har et Soltek Qbic SFF kabinet) ville da bukke helt under...
Jeg tror jeg venter og ser om ikke de færdige versioner kommer til at være lidt mere afslappede mht. strømforbrug. Ellers kan jeg jo altid finde et billigt FX5900XT... de skulle være ret gode.
Jeg regner absolut heller ikke med at skulle have sådan et kort. Min ellers ganske tilstrækkelige 250watt PSU (jeg har et Soltek Qbic SFF kabinet) ville da bukke helt under...
Jeg tror jeg venter og ser om ikke de færdige versioner kommer til at være lidt mere afslappede mht. strømforbrug. Ellers kan jeg jo altid finde et billigt FX5900XT... de skulle være ret gode.
#10 det at det har en monster køler er da bare en god ting, jeg vil da hellere have en kæmpe køler der ikke larmer ret meget end en lille satan med en blæser der skal helt op omkring de 10k rpm for at holde kortet på den rigtige side af 100 grader
og det med at der ikke er nogen normale forbrugere der har brug for det kan jeg heller ikke følge jeg har f.eks. en 21" skærm så det ville da være rart at have et kort der kunne trække alle de nye spil i 2048x1536
og det med at der ikke er nogen normale forbrugere der har brug for det kan jeg heller ikke følge jeg har f.eks. en 21" skærm så det ville da være rart at have et kort der kunne trække alle de nye spil i 2048x1536
Det ser ikke umiddelbart ud til at suge meget mere strøm end de gamle kort:
http://techreport.com/reviews/2004q2/geforce-6800u...
http://techreport.com/reviews/2004q2/geforce-6800u...
#10
ATI's kort æder jo allerede seperat strøm, 9800 trækker strøm fra de strømforsyninger der som standard bruges til lagringsenheder. Og forbruget er også tæt på det samme, ærligt talt kan jeg ikke se problemet.
ATI's kort æder jo allerede seperat strøm, 9800 trækker strøm fra de strømforsyninger der som standard bruges til lagringsenheder. Og forbruget er også tæt på det samme, ærligt talt kan jeg ikke se problemet.
#14
Jeg håber på at man lige kan squeese Fx6800U's 210W under grænsen for hvad min Shuttles PSU kan klare...
Shuttle garanterer jo at man i deres sb75g2 med 220w psu kan have et ati9800xt, en raptor hd og et audigy lydkort i. Bum bum og hovedregningen giver at jeg med den nye 250W måske lige kan (efter et cool casemod) kan køre med et Fx6800 ultra... Håber jeg!
For når folk kan køre med FX5950 ultra kan man nok også køre storebroderen med næsten samme forbrug.
Kan dog være at jeg må flå mit Audigy2 ud og køre med onboard lyd for lige at sparre de sidste watt...
Jeg håber på at man lige kan squeese Fx6800U's 210W under grænsen for hvad min Shuttles PSU kan klare...
Shuttle garanterer jo at man i deres sb75g2 med 220w psu kan have et ati9800xt, en raptor hd og et audigy lydkort i. Bum bum og hovedregningen giver at jeg med den nye 250W måske lige kan (efter et cool casemod) kan køre med et Fx6800 ultra... Håber jeg!
For når folk kan køre med FX5950 ultra kan man nok også køre storebroderen med næsten samme forbrug.
Kan dog være at jeg må flå mit Audigy2 ud og køre med onboard lyd for lige at sparre de sidste watt...
#7
Korrekt - det var en stor salgstale, og hvis det var en scene som kun bestod af de 160k wires, saa ville det vaere lidt vattet - men eftersom der ogsaa lige var en lille havfrue tilknyttet haaret, med x antal polygoner, saa er det lidt blaeret!
En anden ting som er nyt ved 6800 er brugen af instances. Dvs. at i en scene med mange forskellige objekter, vil man kunne koere 30fps i en scene hvor man normalt vil kunne koere 3 fps paa tilsvarende system uden instances.
Dog var der en slide hvor de viste at den gennemsnitlige forbedring var paa en fordobling, saa skal man lige kigge paa f.eks. FarCry i 16x12 som kun laa paa en ca. 1.2 forbedring.
//faun
Korrekt - det var en stor salgstale, og hvis det var en scene som kun bestod af de 160k wires, saa ville det vaere lidt vattet - men eftersom der ogsaa lige var en lille havfrue tilknyttet haaret, med x antal polygoner, saa er det lidt blaeret!
En anden ting som er nyt ved 6800 er brugen af instances. Dvs. at i en scene med mange forskellige objekter, vil man kunne koere 30fps i en scene hvor man normalt vil kunne koere 3 fps paa tilsvarende system uden instances.
Dog var der en slide hvor de viste at den gennemsnitlige forbedring var paa en fordobling, saa skal man lige kigge paa f.eks. FarCry i 16x12 som kun laa paa en ca. 1.2 forbedring.
//faun
Jeg tror det er første gang i computerens historie, at der er en varmere komponent end CPU'en!!
Af lyd...De siger faktisk at to slots-versionen, der har været testet, er rimelig tys!!
Af lyd...De siger faktisk at to slots-versionen, der har været testet, er rimelig tys!!
well...det er først i 1600*1200 at man får rigtig noget ud af det.
De færreste kører spil i denne opløsning.
De færreste kører spil i denne opløsning.
#20
Det er korrekt, men så f.eks. ved 1280x102(4 - edit) hvor man kan spille alle spil med AA og AF sat til høje værdier, det vil jo være nice.
Det er korrekt, men så f.eks. ved 1280x102(4 - edit) hvor man kan spille alle spil med AA og AF sat til høje værdier, det vil jo være nice.
Jeg vil give Pernicious ret, foruden det, hvis man nu endelig fik sådan et kort kunne man jo begynde at spille i 1600x1200 da det kan køre med en god framerate.
Personligt ville jeg gerne se det kort i action i everquest i en 50+ personers raid hvor man skruer op for alle spell effects.
Personligt ville jeg gerne se det kort i action i everquest i en 50+ personers raid hvor man skruer op for alle spell effects.
Pernicious: 1280*102 ?? Damn din skærm er vist lidt ehmm.... anderledes :)
Tror nu de fleste i dag spiller i 1024 da deres skærme er for små.
Det er svært at ramme noget der er så småt.
Selv har jeg ikke noget problem med det...har selv en 22" :)
Tror nu de fleste i dag spiller i 1024 da deres skærme er for små.
Det er svært at ramme noget der er så småt.
Selv har jeg ikke noget problem med det...har selv en 22" :)
Indtil vidre kan ATI lægge sig!!
Men jeg tror nu også det bliver spændende at se hva ATI kan fremvise med deres nye kort!
Men jeg tror nu også det bliver spændende at se hva ATI kan fremvise med deres nye kort!
Nu bliver elementer (personer i et FPS spil f.eks.) jo ikke mindre af at man sætter opløsningen op. Kun ting som har en statisk størrelse, f.eks. crosshair og statistik i nogle spil, bliver mindre.
De sidste mange reviews på TH har været skrevet af Lars W. Og han har gang på gang (i forums og andre steder) vist sig at være meget biased mod Nvidia.
Kig hellere på nogle af de andre reviews der ikke bevist har valgt at bringe præcis de benchmarks hvor kortet er aller bedst i forhold til konkurrancen.
HardOCP har ofte en god dækning men de har kun et preview indtil vidre.
Generelt må det siges at det nye Nvidia kort sparker rimelig meget røv, og det har da også længe været min opfattelse at Nvidia 'vinder' denne omgang ;) Men lad os nu se hvad ATI kan troppe op med.
Kig hellere på nogle af de andre reviews der ikke bevist har valgt at bringe præcis de benchmarks hvor kortet er aller bedst i forhold til konkurrancen.
HardOCP har ofte en god dækning men de har kun et preview indtil vidre.
Generelt må det siges at det nye Nvidia kort sparker rimelig meget røv, og det har da også længe været min opfattelse at Nvidia 'vinder' denne omgang ;) Men lad os nu se hvad ATI kan troppe op med.
#29
Selvfølgelig kan man spille CS i 2048x1538. Spillet er jo totalt forældet og stinker af DX6/7. Vi skriver altså DX9 idag og spil som ligner overeksponerede lego-klodser burde ikke spilles mere eller overhovedet referes til når vi snakker om grafik. Ved mindre det er for nostalagien i det ;-)
Når folk refere til spil i dag mener de nok spil som er fra dette årtusind og tror næppe der er nogen der spiller FarCry i den opløsning.
Anyways det lyder som mange har totalt underdimensionerede PSU's herinde (250 og 220 watt! - yikes). Køb noget ordentligt! Man skal ALDRIG undervurderer vigtigen af en god kraftig PSU - Det er det lammeste sted at spare.
Selvfølgelig kan man spille CS i 2048x1538. Spillet er jo totalt forældet og stinker af DX6/7. Vi skriver altså DX9 idag og spil som ligner overeksponerede lego-klodser burde ikke spilles mere eller overhovedet referes til når vi snakker om grafik. Ved mindre det er for nostalagien i det ;-)
Når folk refere til spil i dag mener de nok spil som er fra dette årtusind og tror næppe der er nogen der spiller FarCry i den opløsning.
Anyways det lyder som mange har totalt underdimensionerede PSU's herinde (250 og 220 watt! - yikes). Køb noget ordentligt! Man skal ALDRIG undervurderer vigtigen af en god kraftig PSU - Det er det lammeste sted at spare.
Hehe, om ikke andet, så vil prisen på div ati 9800-kort nok falde en smule nu... bliver nive til når jeg, om isder skal ud og handle nu stationær engang i slutningen af denne sommer :) Min stakkels 800Mhz PIII med AI 9600 og stakkels 256MB ram på bunden er efterhånden for hårdt spændt op og trænger til fornyelse...
Indrømmet, det nye grafikkort fra NV er da imponerende, men har altså ikke brug for en Porche for at afvikle de spil jeg skal spille. Kan fint klare mig med en BMW ;)
Indrømmet, det nye grafikkort fra NV er da imponerende, men har altså ikke brug for en Porche for at afvikle de spil jeg skal spille. Kan fint klare mig med en BMW ;)
# 35
Du har ret. Når alt kommer til alt er en f.eks en skoda jo også en bil. Og den kan da også køre... :-)
Men må da indrømme at gfx-kortet lyder nice... Selvom at jeg kører med et Gforce MX440 kort, kan jeg da godt savle lidt :-P
Du har ret. Når alt kommer til alt er en f.eks en skoda jo også en bil. Og den kan da også køre... :-)
Men må da indrømme at gfx-kortet lyder nice... Selvom at jeg kører med et Gforce MX440 kort, kan jeg da godt savle lidt :-P
#32 tybo
Du kan let få det afsløret ... opløsningen ændre i langt de fleste kun størelsen på fonte og overlay grafik. så som energi bar og ligende..
Alle 3d modeller bliver bare tegnet mere precist.
Hvis du nu tager et 3d skyde spil starter det og med en linieal måler størelsen på gevær og finder et godt sted i spillet hvor man kan stå og kigge på elementer i spillet..
Prøv at gøre det i 640x480 ( det bliver ret grimt med din monster skærm ). men størrelsen er den samme på tingene. så prøver du igen i 1280x1024 og så måler du igen. de samme ting.
Hvis du syntes at tingene bliver meget små højere opløsning kan det skyldes at du kan se ting som er længere væk.. da du nu har et billede som er mere end 4 gange så detaljeret.. i 640x480 vil små ting jo ikke kunne tegnes da de måske kun fylder 16 pixels på skærmen hvor i mod du har mere end 128 pixels til at tegne samme i den højere opløsning
Du kan let få det afsløret ... opløsningen ændre i langt de fleste kun størelsen på fonte og overlay grafik. så som energi bar og ligende..
Alle 3d modeller bliver bare tegnet mere precist.
Hvis du nu tager et 3d skyde spil starter det og med en linieal måler størelsen på gevær og finder et godt sted i spillet hvor man kan stå og kigge på elementer i spillet..
Prøv at gøre det i 640x480 ( det bliver ret grimt med din monster skærm ). men størrelsen er den samme på tingene. så prøver du igen i 1280x1024 og så måler du igen. de samme ting.
Hvis du syntes at tingene bliver meget små højere opløsning kan det skyldes at du kan se ting som er længere væk.. da du nu har et billede som er mere end 4 gange så detaljeret.. i 640x480 vil små ting jo ikke kunne tegnes da de måske kun fylder 16 pixels på skærmen hvor i mod du har mere end 128 pixels til at tegne samme i den højere opløsning
#34 Trentors
Hvorfor er en 250 watt strømforsyning nu lige pludselig underdimensioneret?
Min P4-maskine kører på en 250 watt, og der er så absolut ingen problemer at spore, selv ikke hvis jeg belaster den ved at compile noget kode mens jeg encoder en film til XviD, kopierer en bunke store filer, laver lidt 3D-ting i Blender og leger med en ekstern firewire-disk.
Jeg tror nærmere at problemet er at mange strømforsyninger i dag simpelthen er rent ud sagt elendige. Jeg kender mange der ikke kan køre deres maskiner på en 350 watt strømforsyning, på trods af at de har mindre hardware end jeg har.
nVidia anbefaler en 300 watt strømforsyning til deres nuværende FX-kort. De kort bruger folk i deres Shuttle og andre small form factor-maskiner med strømforsyninger helt ned til 180 watt, og det virker. Check selv Sudhian's forummer.
Det eneste problem jeg har haft ved min Soltek Qbic er at jeg bliver nødt til at fjerne mine cdrom-drev for at skifte CPU-køler eller grafikkort, men da jeg ikke gør det så tit, så betyder det ikke noget for mig.
Personligt har jeg ikke tænkt mig at jeg skal have et 6800-kort. Jeg venter til de kommer på markedet, og så ser jeg hvor meget FX5900XT-kortene falder til.
Hvorfor er en 250 watt strømforsyning nu lige pludselig underdimensioneret?
Min P4-maskine kører på en 250 watt, og der er så absolut ingen problemer at spore, selv ikke hvis jeg belaster den ved at compile noget kode mens jeg encoder en film til XviD, kopierer en bunke store filer, laver lidt 3D-ting i Blender og leger med en ekstern firewire-disk.
Jeg tror nærmere at problemet er at mange strømforsyninger i dag simpelthen er rent ud sagt elendige. Jeg kender mange der ikke kan køre deres maskiner på en 350 watt strømforsyning, på trods af at de har mindre hardware end jeg har.
nVidia anbefaler en 300 watt strømforsyning til deres nuværende FX-kort. De kort bruger folk i deres Shuttle og andre small form factor-maskiner med strømforsyninger helt ned til 180 watt, og det virker. Check selv Sudhian's forummer.
Det eneste problem jeg har haft ved min Soltek Qbic er at jeg bliver nødt til at fjerne mine cdrom-drev for at skifte CPU-køler eller grafikkort, men da jeg ikke gør det så tit, så betyder det ikke noget for mig.
Personligt har jeg ikke tænkt mig at jeg skal have et 6800-kort. Jeg venter til de kommer på markedet, og så ser jeg hvor meget FX5900XT-kortene falder til.
Lille mig har en 550 Watt SSI Strømforsyning så mon ikke der skulle være power nok.
Det eneste jeg ikke rigtig kan lide er at de siger at den skal have 2 seperate molexstik(ledninger) som ikke rigtig må bruges til andet. Er sq lide glad med at den bruger 100W.
Men der ser nu rigtig godt ud, så nu må vi bare lige vente og se hvad ati's nu kort kan.
Det eneste jeg ikke rigtig kan lide er at de siger at den skal have 2 seperate molexstik(ledninger) som ikke rigtig må bruges til andet. Er sq lide glad med at den bruger 100W.
Men der ser nu rigtig godt ud, så nu må vi bare lige vente og se hvad ati's nu kort kan.
Det lyder raaart...
Jeg er godt træt af mit GF MX440.... !!
Men prisen ska jo selvfølgelig lige tjekkes ud før man lægger alt for store planer... ;)
Og prisen skulle efter sigende komme til at lægge på en små 4000 kr. :\
Og en tusse mindre for et standard 6800 kort...
jeg ved ikk med jer men for mig er det ihvertfald en smule i overkanten at give for et grafikkort...
ATI måske... :I
//Dedowerde
Jeg er godt træt af mit GF MX440.... !!
Men prisen ska jo selvfølgelig lige tjekkes ud før man lægger alt for store planer... ;)
Og prisen skulle efter sigende komme til at lægge på en små 4000 kr. :\
Og en tusse mindre for et standard 6800 kort...
jeg ved ikk med jer men for mig er det ihvertfald en smule i overkanten at give for et grafikkort...
ATI måske... :I
//Dedowerde
#38 Jeg har lige været i gennem en pænt stor portion af nettet for at finde ud af hvad jeg skal bruge af psu til mit gfx (skiftede fra Asus gf4200 til HIS ati9800pro-iceq)
Det var lidt af et helvede, men jeg endte med en Seasonic Super Tornado 400W - der er mange ting i min maskine, 3xhd, 2xrdram, 1xadaptec, 2xscsi, 1xdvd osv... men en kvalitets strømforsyning er i fælge min erfaring nok (kørte med en keramisk 300watt QTechnology før - IKKE SKOD QTec, der er stor forskel der)
Og mht. dette nye vidunder af et gfx-kort - NIKS!, jeg gider ikke have det største kort, for det taber 50% af sin værdi bare på det første halve år.
Strømforbruget på gfx-kortene skal også til og at ned ad, ellers kan vi jo nok regne med at skifte til maxi-towers for at få plads til PSU'er og køleblokke på cpu og gfx.
Iøvrigt ville det være bedre med sjovt gameplay, frem "eye-candy" eks. ser painkiller demoen ganske lovende ud, uden at stille alt for store krav til hardware.
Det var lidt af et helvede, men jeg endte med en Seasonic Super Tornado 400W - der er mange ting i min maskine, 3xhd, 2xrdram, 1xadaptec, 2xscsi, 1xdvd osv... men en kvalitets strømforsyning er i fælge min erfaring nok (kørte med en keramisk 300watt QTechnology før - IKKE SKOD QTec, der er stor forskel der)
Og mht. dette nye vidunder af et gfx-kort - NIKS!, jeg gider ikke have det største kort, for det taber 50% af sin værdi bare på det første halve år.
Strømforbruget på gfx-kortene skal også til og at ned ad, ellers kan vi jo nok regne med at skifte til maxi-towers for at få plads til PSU'er og køleblokke på cpu og gfx.
Iøvrigt ville det være bedre med sjovt gameplay, frem "eye-candy" eks. ser painkiller demoen ganske lovende ud, uden at stille alt for store krav til hardware.
Jeg synes det er rystende så meget strøm en computer efterhånden skal bruge.
Sælger det slet ikke at bruge lidt udviklingspenge på at gøre hardwaren hurtigere og bedre, men uden at strømforbruget stiger eksponentielt.
En gennemsnitscomputer producere jo snart mere varme end alle radiatorerene i hele ens hus...
Sælger det slet ikke at bruge lidt udviklingspenge på at gøre hardwaren hurtigere og bedre, men uden at strømforbruget stiger eksponentielt.
En gennemsnitscomputer producere jo snart mere varme end alle radiatorerene i hele ens hus...
#42
tjo min psu har et Max. Load output på
+5V -5V +12V -12V +3.3V +5V SB
40A* 0.5A 36A 1.0A 32A* 2A
* +5V, +3.3V & +12V maximum output 530 Watts max
Så man kan da håbe et i tilfælde af at jeg skal have sådan en fætter af et gfx at jeg stadig har nok power til resten af mit lort som pt er (5*hdd, dvd-drev, cd-brænder og dvd-brænder), og mine 2 opteron'er tager nok også en smule :)
tjo min psu har et Max. Load output på
+5V -5V +12V -12V +3.3V +5V SB
40A* 0.5A 36A 1.0A 32A* 2A
* +5V, +3.3V & +12V maximum output 530 Watts max
Så man kan da håbe et i tilfælde af at jeg skal have sådan en fætter af et gfx at jeg stadig har nok power til resten af mit lort som pt er (5*hdd, dvd-drev, cd-brænder og dvd-brænder), og mine 2 opteron'er tager nok også en smule :)
jeg kan sq ikke forstå at i er så vilde med det kort, det kan godt være at det render fra ati's 9800, men det laver jo langt fra lige så pæne billeder som 9800...
hvis i ser på billederne på thg, vil i se at nvidia's billeder er meget mere kantede, hvorimod ati's er noget pænere glatte at se på..
//splazz
hvis i ser på billederne på thg, vil i se at nvidia's billeder er meget mere kantede, hvorimod ati's er noget pænere glatte at se på..
//splazz
Jeg har en vild ide... hold fast, den er rimmeligt vild og nogle gamer vil muligvis dø bare ved tanken, men hvad med at bruge noget af teknologien fra laptops og lave grafik kort til desktios der bruger under 100watt? OK de vil ikke kunne rendere Toy Story i real time, men mund ikke vi i længden bliver mere glade for vi ikke over sviner vores plant til og bruger alle resurser på at lave strøm, frem få at vi alle (ok ikke alle men dem der har penge nok) kan rendere Toy Story i real time...
Bare en ide, fra en der en gang i fremtid ønsker at få børn, der når de vokser op ikke er tvunget til at rejse væk fra planet (og kun rejse væk hvis de selv ønsker det)...
Bare en ide, fra en der en gang i fremtid ønsker at få børn, der når de vokser op ikke er tvunget til at rejse væk fra planet (og kun rejse væk hvis de selv ønsker det)...
Opret dig som bruger i dag
Det er gratis, og du binder dig ikke til noget.
Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.