mboost-dp1

unknown
- Forside
- ⟨
- Forum
- ⟨
- Nyheder
Jeg gad godt vide hvor meget sådan et kort kommer til at koste, og om man kan gøre det-der smarte med at have to kort i sin maskine på een gang, med de her kort.
Nogen der kan svare mig på de spørgsmål?
Edit: Sorry, skulle læse TFA. 512MB udgaven af X1800XT kommer til at koste $549, og 256MB udgaven kommer til at koste $499 - I USA, i hvert fald.
Nogen der kan svare mig på de spørgsmål?
Edit: Sorry, skulle læse TFA. 512MB udgaven af X1800XT kommer til at koste $549, og 256MB udgaven kommer til at koste $499 - I USA, i hvert fald.
Dejligt kort, specielt når der smides en masse AA og AF på, hvilket man naturligvis gør med så dyrt et kort og så er der HDR AA support som den eneste serie, lækkert :)
Det er dog bare for dyrt her i starten, set i forhold til 7800gtx, men sådan er det jo _altid_ med nye kort, så det er nok værd at vente eller kan man ikke, så købe et 7800gtx nu.
Personligt venter jeg til næste generation, kunne godt tænke mig at se r580 med 32 pipes :)
Det er dog bare for dyrt her i starten, set i forhold til 7800gtx, men sådan er det jo _altid_ med nye kort, så det er nok værd at vente eller kan man ikke, så købe et 7800gtx nu.
Personligt venter jeg til næste generation, kunne godt tænke mig at se r580 med 32 pipes :)
Personligt er jeg ikke vildt imponeret. Det er lidt synd at de ikke kunne få en 24 pp udgave til at virke ordenligt. Det havde øjensynligt set helt anderledes ud.
Lidt skuffet. Men det er dog ikke en den gentagelse af Nvidias brøler med NV30 som mange har spået at det ville være.
Lidt skuffet. Men det er dog ikke en den gentagelse af Nvidias brøler med NV30 som mange har spået at det ville være.
Det er nogle fine features ATi har fået implenteret, og at X1800XT er hurtigere end 7800GTX, med 8 færre pipelines. Men er dog skuffet over performance X1600XT, som jeg nok havde forventet at konkurrere med Geforce 6800.
Rart med konkurrence til G70, men tror at man skal vente til R580 hvis man ønsker et fremtidssikret grafikkort.
Rart med konkurrence til G70, men tror at man skal vente til R580 hvis man ønsker et fremtidssikret grafikkort.
Hvorfor er det blevet trendy at give kortene disse dybt forvirrende navne??
I gamle dage kunne det hedde:
Voodoo, Voodoo 2, Voodoo 3, Voodoo 4, Voodoo 5, osv...
eller TNT, TNT 2, GeForce, GeForce 2, GeForce 3, osv...
Det var til at fatte - nu til dags laver de jo 54.837 varianter af samme chip med 38.572.847 forskellige navne. Det er besværligt.
I gamle dage kunne det hedde:
Voodoo, Voodoo 2, Voodoo 3, Voodoo 4, Voodoo 5, osv...
eller TNT, TNT 2, GeForce, GeForce 2, GeForce 3, osv...
Det var til at fatte - nu til dags laver de jo 54.837 varianter af samme chip med 38.572.847 forskellige navne. Det er besværligt.
#4 Hurtigere?.. Af hvad jeg kan se vinder 7800GTX da stort over x1800xt.
#4
R520 og G70 er da fint fremtidssikret. De understøtter begge Shader Model 3, og indtil Vista kommer med DX10 er fint nok. Det er der over et år til og inden for denne branche er et år meget langt inde i fremtiden. Jeg tvivler på at R580 vil understøtte DX10 anyways, så det vil alt andet lige være mindre fremtidssikret end R520 da det først kommer engang i foråret.
#7
Johh. men sådan har det jo været længe.
GeForce265, Geforce 2 GTS, Geforce 2 Pro, Geforce 2 Ultra, Geforce 2 MX var f.eks alle baseret på samme chip.
R520 og G70 er da fint fremtidssikret. De understøtter begge Shader Model 3, og indtil Vista kommer med DX10 er fint nok. Det er der over et år til og inden for denne branche er et år meget langt inde i fremtiden. Jeg tvivler på at R580 vil understøtte DX10 anyways, så det vil alt andet lige være mindre fremtidssikret end R520 da det først kommer engang i foråret.
#7
Johh. men sådan har det jo været længe.
GeForce265, Geforce 2 GTS, Geforce 2 Pro, Geforce 2 Ultra, Geforce 2 MX var f.eks alle baseret på samme chip.
#8
Så kigger du forkert. De ligger nogenlunde lige uden AF og AA, men slår man disse ting til, (og det gør man jo når man har så hurtigt et kort) vinder X1800XT komfortabelt samlet set.
I lave opløsninger har Nvidiakortene med at være hurtigere, men det har højst sansynligt noget at gøre med driverene. Og det er jo ligegyldigt om man får 140 eller 160 FPS.
Så kigger du forkert. De ligger nogenlunde lige uden AF og AA, men slår man disse ting til, (og det gør man jo når man har så hurtigt et kort) vinder X1800XT komfortabelt samlet set.
I lave opløsninger har Nvidiakortene med at være hurtigere, men det har højst sansynligt noget at gøre med driverene. Og det er jo ligegyldigt om man får 140 eller 160 FPS.
.... Hmmm, må sgu indrømme jeg havde forventet mere, men hva fanden, det er den samme forskel som altid, altså ATI er nedre enkelte steder og omvendt. Glæder mig til at høre en battle om graffikkortene igen så... har vel ikke andet valg?
Det betyder dog bare at Nvidia har en stor fordel nu da det er først på markedet, billigere pris og ca samme performance(generalt). Sooo, in my oppinion, så er det ATI "fan boys/girls" som køber det. Men self ikke helt korrekt da kortet da har sin charme enkelte steder, men absolut ikke et kort der får mig til at springe ud af skabet og gå over på den anden side af gaden.
Det betyder dog bare at Nvidia har en stor fordel nu da det er først på markedet, billigere pris og ca samme performance(generalt). Sooo, in my oppinion, så er det ATI "fan boys/girls" som køber det. Men self ikke helt korrekt da kortet da har sin charme enkelte steder, men absolut ikke et kort der får mig til at springe ud af skabet og gå over på den anden side af gaden.
#8
#9
Det jeg mener er mere at ydelsen er mere eller mindre "forældet", så hvis man ville have uber performance skulle man have købt G70. R520 er simpelthen kommet på markedet forsent!
TR: In Direct3D games, the X1800 XT is usually faster than the 7800 GTX.
ET: The fastest, most feature-rich card we've tested so far.
G3D: The X1800 XT is a beast, really. It's big, it's fast yes it is the new flagship in the graphics card arena. NVIDIA has been de-crowned on a pure performance level, period.
#9
Det jeg mener er mere at ydelsen er mere eller mindre "forældet", så hvis man ville have uber performance skulle man have købt G70. R520 er simpelthen kommet på markedet forsent!
Tak for bidraget, vi har bragt din nyhed, men vi har fundet det nødvendigt at taget credit for den da vi har skrevet nyheden om, og derfor ikke mener du skal hæfte for den tekst vi har skrevet.
muhahaha - old news - fra igår :D
muhahaha - old news - fra igår :D
Kan allerede afsløre at den næste serie der udkommer i 2007, hedder Radeon X2800 XT, X2800 XL osv.
Men hvad gør Nvidia med de nye navne?
nye navne som SupNovidia A8310 Ultra, SupNovidia B4310 Ultra og SupNovidia C2310 Ultra.
Men hvad gør Nvidia med de nye navne?
nye navne som SupNovidia A8310 Ultra, SupNovidia B4310 Ultra og SupNovidia C2310 Ultra.
Jeg begynder at undre mig over hvorfor der skal så mange Mhz til at kunne få det samme ydelse, man kan tydeigt se at begge kort yder ens, men taktfrekvensen er jo totalt hen i vejret, ligner et desperat forsøg af ATI, men kan være deres nye teknologi er basert på mange hertz.
Det er trods alt ca. 200Mhz forskel, og den må udvikle en del mere varme med sin 2-slot køling system (hmm mener at ati users gjorde nar af det før...)
Synes også at der blev sagt at det var 32 pipelines, hvor der kun er 16, selv i deres største kort.
er det bare mig der synes det ?
Det er trods alt ca. 200Mhz forskel, og den må udvikle en del mere varme med sin 2-slot køling system (hmm mener at ati users gjorde nar af det før...)
Synes også at der blev sagt at det var 32 pipelines, hvor der kun er 16, selv i deres største kort.
er det bare mig der synes det ?
#20 årsagen til at der skal så mange flere MHz til er jo netop fordi det er et 16 pipe kort og ikke et 24 som gtx er. Havde de fået lavet et 24 pipe havde det set meget anderledes ud, men det kunne de ikke og så måtte de skrue op for hastigheden på ram og core, samt smide en dual løsning på.
Iøvrigt syntes jeg kritikken om dual løsning er åndsvag og var åndsvag, det er meget få der ikke har plads til et dual slot løsning, det er vel kun Shuttle brugere som har et ekstra kort i og de beder IMO også selv om det, når de køber noget så presset :)
Jeg kører selv med en dual slot løsning (artic cooling) og netop pga. det er dual slot kan det køles effektivt samtidigt med det er lydløst :)
Iøvrigt syntes jeg kritikken om dual løsning er åndsvag og var åndsvag, det er meget få der ikke har plads til et dual slot løsning, det er vel kun Shuttle brugere som har et ekstra kort i og de beder IMO også selv om det, når de køber noget så presset :)
Jeg kører selv med en dual slot løsning (artic cooling) og netop pga. det er dual slot kan det køles effektivt samtidigt med det er lydløst :)
#9
Jeg tror nu personligt at R580 vil understøtte DX10. SM4 er jo så godt som på plads, så det vil da være dumt af ATI og nVidia ikke at understøtte det i deres næste generation.
Se f.eks. denne video fra Microsoft Professional Developers Conference af Cryteks brug af SM4: Crytek engine DX10
GeForce MX serierne var nu altid grafikkort, hvis GPU var mindst en generation gammel. GF2 MX brugte GF1 og GF4 MX brugte GF2. Det var derfor det var så som så med ydelsen på dem ;)
Jeg tror nu personligt at R580 vil understøtte DX10. SM4 er jo så godt som på plads, så det vil da være dumt af ATI og nVidia ikke at understøtte det i deres næste generation.
Se f.eks. denne video fra Microsoft Professional Developers Conference af Cryteks brug af SM4: Crytek engine DX10
GeForce MX serierne var nu altid grafikkort, hvis GPU var mindst en generation gammel. GF2 MX brugte GF1 og GF4 MX brugte GF2. Det var derfor det var så som så med ydelsen på dem ;)
#7: X= 10
dvs
X800 = 10800 (10 serie, model 800)
X1800 = 11800 (11 serie, model 800)
hvilket da giver fint mening, grunden til at de vælger romerske tal først er så naturligvist udfra et marketings-aspekt.
modelnumrene er så valgt udfra det segment de retter sig imod:
2-300 low-end
5-700 mid-end
8-900 highend
At det så bliver lidt forvirrende med efternavnene er jeg enig i
dvs
X800 = 10800 (10 serie, model 800)
X1800 = 11800 (11 serie, model 800)
hvilket da giver fint mening, grunden til at de vælger romerske tal først er så naturligvist udfra et marketings-aspekt.
modelnumrene er så valgt udfra det segment de retter sig imod:
2-300 low-end
5-700 mid-end
8-900 highend
At det så bliver lidt forvirrende med efternavnene er jeg enig i
#24
SM4.0 kommer før Vista og DX10. Derfor kan R580 godt understøtte SM4.0 uden at understøtte DX10.
Skiftet fra DX9 til DX10 er jo ikke som hidtidige skift har været. DX10 er ikke bagudkompatibel med gamle versioner af DX. En software fortolker kommer til at tage sig af at fortolke pre-DX10 kode. Jeg tror derfor at ATI vil få problemer med at være klar med DX10 understøttelse i R580.
Og nu er GF1 og GF2 jo bare to forskellige revideringer af samme chip. Så nej... der er ikke en generationsforskel mellem GF2MX og GF2 serien. Det er rigtigt at GF4MX var en underlig størelse men det er jo en helt anden historie.
SM4.0 kommer før Vista og DX10. Derfor kan R580 godt understøtte SM4.0 uden at understøtte DX10.
Skiftet fra DX9 til DX10 er jo ikke som hidtidige skift har været. DX10 er ikke bagudkompatibel med gamle versioner af DX. En software fortolker kommer til at tage sig af at fortolke pre-DX10 kode. Jeg tror derfor at ATI vil få problemer med at være klar med DX10 understøttelse i R580.
Og nu er GF1 og GF2 jo bare to forskellige revideringer af samme chip. Så nej... der er ikke en generationsforskel mellem GF2MX og GF2 serien. Det er rigtigt at GF4MX var en underlig størelse men det er jo en helt anden historie.
Denne omgang af ATI vs Nvidia viser mere end nogensinde at i dag handler det mest af alt om hvilke computerspil man spiller mest der skal være afgørende for ens valg af kort. Visse spil som FarCry og Chaos Theory står der bare ATI over, hvor OpenGL som Chronicles of Riddick og Doom3 har Nvidia som kongen.
Præcis som #11 skriver, så vil dette nok ikke føre til de store skred i verdensmarkedet. Det er stadig mest ATI's homeboys, der vil købe deres kort. Jeg er vokset op med Nvidia og derfor vil jeg aldrig købe ATI. Kald mig dum, kald mig konservativ, men der skal meget til at ændre min mening.
Og når man ser på den test (ATI's utestede drivere og selve pålideligheden i benchmark'en taget i betragtning), så er der sgu ikke den store forskel mellem de to flagskibe. Det handler om image. Jeg er da ligeglad, om jeg kører HL2 i 53.59 eller 52.03 FPS i 1280x1024 - er i ikke det?
Mennesket har alligevel svært ved at se forskel over 24 FPS.
Bottomline må være, at det handler om de features og små finurligheder i kortets software/hardware, der giver den edge, som man leder efter.
Og når man ser på den test (ATI's utestede drivere og selve pålideligheden i benchmark'en taget i betragtning), så er der sgu ikke den store forskel mellem de to flagskibe. Det handler om image. Jeg er da ligeglad, om jeg kører HL2 i 53.59 eller 52.03 FPS i 1280x1024 - er i ikke det?
Mennesket har alligevel svært ved at se forskel over 24 FPS.
Bottomline må være, at det handler om de features og små finurligheder i kortets software/hardware, der giver den edge, som man leder efter.
#24
Du tænker på DX9.0L tror jeg. Det er så vidt jeg ved, den nuværende betegnelse på DX9 m. SM4.0 support.
Jeg tror nu stadig at ATI (Og nVidia) vil have fuld DX10 support i deres næste generation GPUer. De har jo begge udtalt at den generation dukker op i Q2/Q3 2006 med DX10, men med alle de paper-launches vi ser fra de 2 store, er hele den diskussion vel egentligt mere akademisk end noget andet.
GF2 kan man ikke bare kalde en revidering. Der var trods alt en forskel på 3M transistorer i forhold til NV11 (GF2 MX) :)
Du tænker på DX9.0L tror jeg. Det er så vidt jeg ved, den nuværende betegnelse på DX9 m. SM4.0 support.
Jeg tror nu stadig at ATI (Og nVidia) vil have fuld DX10 support i deres næste generation GPUer. De har jo begge udtalt at den generation dukker op i Q2/Q3 2006 med DX10, men med alle de paper-launches vi ser fra de 2 store, er hele den diskussion vel egentligt mere akademisk end noget andet.
GF2 kan man ikke bare kalde en revidering. Der var trods alt en forskel på 3M transistorer i forhold til NV11 (GF2 MX) :)
#28
Klart nok, ligesom mig: jeg er vokset op med C64 og derfor vil jeg aldrig købe en ZX Spectrum... ;)
Ja det er givetvis svært at registrere og opfatte over 24 frames i sekundet, men det er ganske let at se hvis grafikkortet leverer færre FPS end skærmens opdateringshastighed: hakkende bevægelser.
Ontopic:
Må give #27 ret, ATI og NVidia styrer i hver deres gruppe spil. Men det eneste der kunne få mig til at opgradere lige nu, var hvis der kom et PASSIVT kølet grafikkort med super performance...
Jeg er vokset op med Nvidia og derfor vil jeg aldrig købe ATI
Klart nok, ligesom mig: jeg er vokset op med C64 og derfor vil jeg aldrig købe en ZX Spectrum... ;)
Mennesket har alligevel svært ved at se forskel over 24 FPS.
Ja det er givetvis svært at registrere og opfatte over 24 frames i sekundet, men det er ganske let at se hvis grafikkortet leverer færre FPS end skærmens opdateringshastighed: hakkende bevægelser.
Ontopic:
Må give #27 ret, ATI og NVidia styrer i hver deres gruppe spil. Men det eneste der kunne få mig til at opgradere lige nu, var hvis der kom et PASSIVT kølet grafikkort med super performance...
Afventer lidt den følgende udvikling af X1xxx kortenes launch.
Men umiddelbart virker launchen klodset - markedsmæssigt og strategisk præget af produktionsproblemer.
Selve anmeldelserne og deres resultater virker præget af de individuelle siders indstilling til ATI, men umiddelbart ser topkortene (X1800XL/XT) ud til at være på niveau med Nvidias Geforce 7800 GT/GTX kort +/- 10% (set over et bredt udvalg af spil).
Om ikke andet kan det betyde en øget konkurrence indenfor de nuværende segmenter, og måske til faldende priser på især topkortene. Især hvis det lykkedes ATI at levere korte indenfor 'rimelig tid'.
Pt. hælder jeg hverken til røde eller grønne side, men vil nok vælge mit næste grafikkort efter pris/ydelse.
Men umiddelbart virker launchen klodset - markedsmæssigt og strategisk præget af produktionsproblemer.
Selve anmeldelserne og deres resultater virker præget af de individuelle siders indstilling til ATI, men umiddelbart ser topkortene (X1800XL/XT) ud til at være på niveau med Nvidias Geforce 7800 GT/GTX kort +/- 10% (set over et bredt udvalg af spil).
Om ikke andet kan det betyde en øget konkurrence indenfor de nuværende segmenter, og måske til faldende priser på især topkortene. Især hvis det lykkedes ATI at levere korte indenfor 'rimelig tid'.
Pt. hælder jeg hverken til røde eller grønne side, men vil nok vælge mit næste grafikkort efter pris/ydelse.
EN test viste at piloter kan registrere et fly og fortælle om det, billedet var kun vidst i 1/200 af et sekund, så det må vel være 400 billeder med duble buffer ?
GF2 er vel afstammer af GF256 og ikke GF1 som jeg husker som et forvokset TNT2 (en enkelt pixel pipe til det var alt) men GF256 ha ved 256bit bred mem bus, kan ikke huske om den haved T&L
#30
GF7800 serien var ikke paper launch, de kunne købes på dagen, selv i DK.
GF2 er vel afstammer af GF256 og ikke GF1 som jeg husker som et forvokset TNT2 (en enkelt pixel pipe til det var alt) men GF256 ha ved 256bit bred mem bus, kan ikke huske om den haved T&L
#30
GF7800 serien var ikke paper launch, de kunne købes på dagen, selv i DK.
okay, fedt at der kommer nye kort heletiden, men har sqda ikke penge til alt det nyt der kommer hele tiden.
nogen der kan fortælle så om det kan betale sig at købe et gf6800 eller skal jeg over og invesere i ATi's kort som nok flader lidt i pris pga af de nye ?
:D
EDIT tihihi fniz--- > sry stavefel
nogen der kan fortælle så om det kan betale sig at købe et gf6800 eller skal jeg over og invesere i ATi's kort som nok flader lidt i pris pga af de nye ?
:D
EDIT tihihi fniz--- > sry stavefel
#36
Geforce 256 havde T&L, men "kun" 128-bit memory controller. Geforce 256 navnet kom af, at Nvidia sammenlagde en masse spændende tal som stencil buffer, farvedybde m.m.; bedst beskrevet af Thomas Pabst fra én af de første anmeldelser af Geforce256 på THG, 1999
( http://graphics.tomshardware.com/graphic/19991011/... )
"But let's get back to the magic '256'. I could hardly believe my ears when I was finally told what the '256' stands for. NVIDIA adds the 32-bit deep color, the 24-bit deep Z-buffer and the 8-bit stencil buffer of each rendering pipeline and multiplies it with 4, for each pipeline, which indeed ads up to 256. So far about the fantasy of marketing people, they are a very special breed indeed."
Jeg citerer sjældent THG, men her må jeg give ham ret.
Geforce 256 havde T&L, men "kun" 128-bit memory controller. Geforce 256 navnet kom af, at Nvidia sammenlagde en masse spændende tal som stencil buffer, farvedybde m.m.; bedst beskrevet af Thomas Pabst fra én af de første anmeldelser af Geforce256 på THG, 1999
( http://graphics.tomshardware.com/graphic/19991011/... )
"But let's get back to the magic '256'. I could hardly believe my ears when I was finally told what the '256' stands for. NVIDIA adds the 32-bit deep color, the 24-bit deep Z-buffer and the 8-bit stencil buffer of each rendering pipeline and multiplies it with 4, for each pipeline, which indeed ads up to 256. So far about the fantasy of marketing people, they are a very special breed indeed."
Jeg citerer sjældent THG, men her må jeg give ham ret.
Sådan som merkedet generelt ser ud indenfor PC-hardware, så er det hele faktisk uoverskueligt. Alene på CPU-siden laver både AMD og Intel så mange forskellige at det må være svært for den mindre øvede forbruger, at skelne hvilken hardware han har brug for og hvad han kan betale. Med hensyn til ATi's nye serie, må man vel gå ud fra, at det højeste navn er det bedste... indtil der så lige er nogen der har kørt test på det og fundet ud af, at et "mindre" kort kan presses til mere. Nu forvirrer jeg også mig selv.
Man må dog sige, at den test som The Inquirer har lavet, ikke er videre imponerende... :-/
Man må dog sige, at den test som The Inquirer har lavet, ikke er videre imponerende... :-/
Jeg havde nok nærmere valgt XI800.
Så er mit 7800GTX bestilt, jeg kunne godt forestille mig at forsyningen af X1800XT stadigt vil være et problem et godt stykke ind i december og vil koste mere end 7800GTX, selvom de umiddelbart skulle være prissat ens.
under alle omstændigheder vil begge kort jo være håbløst forældede om et år ;), så der er ingen grund til at trække pinen ud.
Så er mit 7800GTX bestilt, jeg kunne godt forestille mig at forsyningen af X1800XT stadigt vil være et problem et godt stykke ind i december og vil koste mere end 7800GTX, selvom de umiddelbart skulle være prissat ens.
under alle omstændigheder vil begge kort jo være håbløst forældede om et år ;), så der er ingen grund til at trække pinen ud.
Opret dig som bruger i dag
Det er gratis, og du binder dig ikke til noget.
Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.