mboost-dp1

AMD
- Forside
- ⟨
- Forum
- ⟨
- Nyheder
Det lyder godt, men det lyder også for godt til at være sandt.
Hvis rygterne er bare nogenlunde korrekte, så vil Fermi chip for chip være bedre end AMD's Evergreen-serie. AMD vil derfor sikkert slå topkortet blandt Fermi-serien, da deres HD5970-topkort er en GPU med en dualchip-konfiguration.
Nvidia vil selvfølgelig smide en dualchip Fermi på gaden senere, og så har AMD problemer, for så sidder de hverken på "ydelsestronen" - hverken med et singlechip-grafikkort eller dualchip-grafikkort.
Og, hånden på hjertet, så tvivler jeg stærkt på, at AMD når at smide en nye serie på gaden - enten i form af en voldsomt forbedret Evergreen (i HD59xx-serien) eller en ny HD68xx/HD69xx-serie på gaden (som skulle hede "Northern Islands"?).
Derfor: De bluffer...
Hvis rygterne er bare nogenlunde korrekte, så vil Fermi chip for chip være bedre end AMD's Evergreen-serie. AMD vil derfor sikkert slå topkortet blandt Fermi-serien, da deres HD5970-topkort er en GPU med en dualchip-konfiguration.
Nvidia vil selvfølgelig smide en dualchip Fermi på gaden senere, og så har AMD problemer, for så sidder de hverken på "ydelsestronen" - hverken med et singlechip-grafikkort eller dualchip-grafikkort.
Og, hånden på hjertet, så tvivler jeg stærkt på, at AMD når at smide en nye serie på gaden - enten i form af en voldsomt forbedret Evergreen (i HD59xx-serien) eller en ny HD68xx/HD69xx-serie på gaden (som skulle hede "Northern Islands"?).
Derfor: De bluffer...
Kan nu godt lide AMD, men syntes altid at NVIDIA har haft de bedste drivere / opsætning af dem.
Er også spændende at se hvordan de kommer til at klare sig mod Intel!
Er også spændende at se hvordan de kommer til at klare sig mod Intel!
Törleif Val Viking (2) skrev:Kan nu godt lide AMD, men syntes altid at NVIDIA har haft de bedste drivere / opsætning af dem.
Er også spændende at se hvordan de kommer til at klare sig mod Intel!
Intel droppede deres Larrabee til consumer-markedet, så "it's never gonna happen".
Indtil videre er Intel derfor ude af markedet for grafikkort til gaming og vil sikkert være det i mindst 3 år endnu.
LupusGrey (4) skrev:Producenterne omtaler altid deres næste produkt som produktet der kan alt, inklusiv at lave kaffe. At Fermi bliver så god som de siger.... vi får at se. At Ati bagefter kan slå dem igen... vi får at se, især når vi får at se hvad Fermi kan.
Du har helt ret, men på papiret er Ferma bare bedre. Specifikationerne er bedre på de fleste, hvis ikke alle, punkter.
Spørgsmålet er så bare, om Nvidia kan optimere kortet, og det er selvfølgelig det mest interessante.
Her skal det nævnes, at begge grafikkortserier vil bygges over samme proces, altså, 40 nm. Nvidias vil dog bruge væsentligt mere strøm end AMD's, så mon ikke, at deres også yder mere, når det bruger mere strøm?
vandfarve (1) skrev:Det lyder godt, men det lyder også for godt til at være sandt.
Hvis rygterne er bare nogenlunde korrekte, så vil Fermi chip for chip være bedre end AMD's Evergreen-serie. AMD vil derfor sikkert slå topkortet blandt Fermi-serien, da deres HD5970-topkort er en GPU med en dualchip-konfiguration.
Nvidia vil selvfølgelig smide en dualchip Fermi på gaden senere, og så har AMD problemer, for så sidder de hverken på "ydelsestronen" - hverken med et singlechip-grafikkort eller dualchip-grafikkort.
Og, hånden på hjertet, så tvivler jeg stærkt på, at AMD når at smide en nye serie på gaden - enten i form af en voldsomt forbedret Evergreen (i HD59xx-serien) eller en ny HD68xx/HD69xx-serie på gaden (som skulle hede "Northern Islands"?).
Derfor: De bluffer...
Men nVidias kort kommer sikkert til at koste en milliard, hvor AMD's kort altid har været fornuftigt prissat.
Du har vist ikke haft et AMD kort i lang tid.. Eller også er det bare fordi der ikke problemer med mit kort :)Törleif Val Viking (2) skrev:Kan nu godt lide AMD, men syntes altid at NVIDIA har haft de bedste drivere / opsætning af dem.
Er også spændende at se hvordan de kommer til at klare sig mod Intel!
Man kunne håbe at ati priserne falder når de nye kort fra nvidia kommer, jeg trænger nemlig at få mit skiftet, og vil gerne have et ati kort igen.
Mit x1900xtx har fanme gjort det godt, og det imponere mig sku lidt at sådan en fætter selv den dag idag kan håndtere spil som prototype, batman og modern warfare 2, uden at slække på detaljerne.
Mit x1900xtx har fanme gjort det godt, og det imponere mig sku lidt at sådan en fætter selv den dag idag kan håndtere spil som prototype, batman og modern warfare 2, uden at slække på detaljerne.
SpYkE112 (6) skrev:Men nVidias kort kommer sikkert til at koste en milliard, hvor AMD's kort altid har været fornuftigt prissat.
Hmm... Du har ret, men ofte ligger AMD og Nvidia rimelig lige, når vi snakker om forholdet pris/ydelse. Det nye er blot, at AMD nu er langt bedre i watt/ydelse, hvor Nvidia før havde den "krone".
Nvidia bliver dog nødt til at modsvare AMD's lave priser, evt. ved at prissætte deres sub-topkort (altså, alle andre kort end topkortet eller topkortene) meget aggresivt, mens de så kan høste en højere profit på lige præcis deres topkort.
Det skyldes, at dem, der ofte går topkortene er ligeglad med prisen og ofte endda er meget loyale. Derfor behøver de ikke - og de gør de heller ikke - kæmpe om de samme kunder, da de kun kæmper om delsegmenter.
Resten af segmenterne udgøres af loyale brugere, der "bare" skal have et nyt kort, koste hvad det koste vil.
SpYkE112 (6) skrev:Men nVidias kort kommer sikkert til at koste en milliard, hvor AMD's kort altid har været fornuftigt prissat.
kun siden hd3000 serien har amd gået efter godt pris/ydelse fremfor rå power til 5000kr for noget der er 10% hurtigere. end en til 3000kr.
men ellers ja.
Var der ikke noget med at Nvidia's kort var varmere, brugte mere strøm og var endnu større end ATI's kort? Så de har faktisk kun 1 ting som de kan score ekstra point på og det er hastigheden. Prisen ved jeg ikke noget om, og tjae de har da hver deres features, men det er typisk ikke det som sælger kortet (jo måske EyeFinity, men det er jo bare indtil at Nvidia kommer med deres 3D Vision Surround eller hva det hedder).
Men det lyder da super spændende, hvis ATI kommer med nye kort ... men de fleste spil er maxet i detaljer i forevejen, så det er kun ting som eyefinity, som kan få de helt store kort til at sælge som varmt smør - det er ihvertfald min mening :)
Men det lyder da super spændende, hvis ATI kommer med nye kort ... men de fleste spil er maxet i detaljer i forevejen, så det er kun ting som eyefinity, som kan få de helt store kort til at sælge som varmt smør - det er ihvertfald min mening :)
#13 Undskyld mig, men jeg er rimeligt sikker på at du kan spille ca. alle spil med ATI kort :)
Det kan godt være at nogen spil ikke lige understøtter CrossFire fra ATI, men det er bare indtil efterspørgelsen er stor nok, så kommer der en hotfix fra ATI og voila - så kører bussen.
Men jeg kan godt følge dig ang. det med loyalitet - f.eks. skal jeg aldrig have en AMD processor. Men på grafikkort markedet syns jeg der er åbent hus :)
Det kan godt være at nogen spil ikke lige understøtter CrossFire fra ATI, men det er bare indtil efterspørgelsen er stor nok, så kommer der en hotfix fra ATI og voila - så kører bussen.
Men jeg kan godt følge dig ang. det med loyalitet - f.eks. skal jeg aldrig have en AMD processor. Men på grafikkort markedet syns jeg der er åbent hus :)
#13
Vrøvl.
De fleste spilproducenter arbejde faktisk samme med både ATI og Nvidia.
Det ville da også være idioti at afskrive alle med ATI kort fra at kunne købe ens spil.
Det virker sgu ikke specielt begavet at komme med sådan en kommentar som enhver fornuftigt tænkende menneske kan se er helt ude i skpven
Vrøvl.
De fleste spilproducenter arbejde faktisk samme med både ATI og Nvidia.
Det ville da også være idioti at afskrive alle med ATI kort fra at kunne købe ens spil.
Det virker sgu ikke specielt begavet at komme med sådan en kommentar som enhver fornuftigt tænkende menneske kan se er helt ude i skpven
Remmerboy (11) skrev:kun siden hd3000 serien har amd gået efter godt pris/ydelse fremfor rå power til 5000kr for noget der er 10% hurtigere. end en til 3000kr.
men ellers ja.
Mit gamle 9600Pro kostede bestemt ikke 5000,- og den kunne overclockes 200MHz over stock bedre pris/ydelse fandtes ikke dengang.
Ah, jeg giver nu ikke så meget for den snak.
nVidia forsøger at dæmpe lysten til ATI-kort ved at fortælle om, hvor overlegen FERMI er (eller bliver), og AMD/ATI reagerer ved at fortælle, at FERMI slet ikke er dem overlegen.
(Terra: Du plejer at have styr på nVidia) - kan det tænkes at Richard Huddy antyder, at nVidia vil hav et problem med at lave en dual-FERMI-GPU-løsning på ét kort? Jeg har forstået at GPU'en skulle være temmeligt stor, strømslugende og varmeudviklende; det er dét, der giver mig tanken.
nVidia forsøger at dæmpe lysten til ATI-kort ved at fortælle om, hvor overlegen FERMI er (eller bliver), og AMD/ATI reagerer ved at fortælle, at FERMI slet ikke er dem overlegen.
(Terra: Du plejer at have styr på nVidia) - kan det tænkes at Richard Huddy antyder, at nVidia vil hav et problem med at lave en dual-FERMI-GPU-løsning på ét kort? Jeg har forstået at GPU'en skulle være temmeligt stor, strømslugende og varmeudviklende; det er dét, der giver mig tanken.
.dot (17) skrev:
Mit gamle 9600Pro kostede bestemt ikke 5000,- og den kunne overclockes 200MHz over stock bedre pris/ydelse fandtes ikke dengang.
dit gamle 9600pro var nu heller ikke et high-end kort (har du nogensinde set midrange kort der kostede 5000kr?). 9800pro kostede knaster dengang i dagens penge (mener at det kostede forbi 3000kr). købte selv et 9600xt dengang til god penge, hvor der fulgte et hl2 key med. bedste køb ever :)
Jeg har brugt Nvidia siden mit ATI 9800XT brændte sammen (jeg har betalt 4749kr for den... jeg har stadig kvittering!)
Jeg VAR en Nvidia FAN boy (sidste kort 9800GX2 Black Edition)!!! ...men jeg har fået en HD5870 og indtil videre er jeg ikke andet end imoneret over perfomance!
Ja... Drivere har altid performet bedre hos nvidia... men f.eks. Age of Conan kørte 100 gange bedre på ATI kort end på Nvidia...(siger det ud fra hvad folk skrev på forums i sin tid).
Jeg VAR en Nvidia FAN boy (sidste kort 9800GX2 Black Edition)!!! ...men jeg har fået en HD5870 og indtil videre er jeg ikke andet end imoneret over perfomance!
Ja... Drivere har altid performet bedre hos nvidia... men f.eks. Age of Conan kørte 100 gange bedre på ATI kort end på Nvidia...(siger det ud fra hvad folk skrev på forums i sin tid).
Det er selvfølgeligt vigtigt for ATI at pointere, at de stadig er med efter marts (hvor GF100 angiveligt kommer ud), ligesom Nvidia var hurtige til at fremvise en præsentation af deres Fermi chip, da ATI sendte HD5870'eren på markedet. Business as usual.
Jeg vil gerne se Fermi blive anmeldt, før jeg spekulerer mere på dens ydelse.
Jeg vil gerne se Fermi blive anmeldt, før jeg spekulerer mere på dens ydelse.
Med sådan en udmelding må de virkelig ha' noget ret så seriøst i ærmet... Ja jeg siger bare at siden de tager det så køligt hos AMD --kan der jo være noget om snakken..
DOG har jeg et lille spørgsmål... HVOR FANDEN skal jeg bruge mere ydelse i forhold til de nyeste grafik-kort pt ?
Det eneste sted jeg ser at jeg kan få mere ydelse er måske i Crysis - men det er så også nogenlunde det eneste spil hvor jeg ser der er behov for et boost.
Alle de nye titler har vi ingen problemer med - med nuværende generation.. Og ja det kan vi takke røv og nøgler for... Altså konsollerne ikke :D
DOG har jeg et lille spørgsmål... HVOR FANDEN skal jeg bruge mere ydelse i forhold til de nyeste grafik-kort pt ?
Det eneste sted jeg ser at jeg kan få mere ydelse er måske i Crysis - men det er så også nogenlunde det eneste spil hvor jeg ser der er behov for et boost.
Alle de nye titler har vi ingen problemer med - med nuværende generation.. Og ja det kan vi takke røv og nøgler for... Altså konsollerne ikke :D
Kører Nvidia i øjeblikket, men de sidste par grafikkort jeg har haft var ATI kort som også kørte uden problemer.
Hardwaremæssig, hælder jeg til ATI, softwaremæssig til Nvidia.
Så alt i alt, så undersøger jeg hvilket kort der yder bedst i forhold til prisen. Ofte kan man spare 60% ved at "nøjes" med et 5% langsommere kort. Af samme grund, så sidder jeg og griner af dem der køber det aller dyreste kort på markedet, for 2 måneder senere at opdage at man kan få et der yder bedre til 1/5 pris.
Hardwaremæssig, hælder jeg til ATI, softwaremæssig til Nvidia.
Så alt i alt, så undersøger jeg hvilket kort der yder bedst i forhold til prisen. Ofte kan man spare 60% ved at "nøjes" med et 5% langsommere kort. Af samme grund, så sidder jeg og griner af dem der køber det aller dyreste kort på markedet, for 2 måneder senere at opdage at man kan få et der yder bedre til 1/5 pris.
nioxic (26) skrev:i modsætningen til de forrige år hvor de havde satset på at give den næstbedste, helt bevidst!
Faktisk ja. At gå målrettet efter performance kronen er et ganske markant skift for ATI. De har tidligere slået meget mere på performance pr $ (hvor de for øvrigt længe har tævet nvidia)
#3 og 6#
I stand corrected. Mente selvfølgelig hvordan AMD kommer til at klare sig på processor markedet :)
I stand corrected. Mente selvfølgelig hvordan AMD kommer til at klare sig på processor markedet :)
Jeg har sjovt nok tiltro til ATI i øjeblikket. De lagde sig lidt forsigtigt bag nVidia et stkke tid, men satte i gear i rette øjeblik. Og hvis de engang i 2010/11 kan udnytte Global Foundries til at producere GPU-chips, er ATI samtidigt uafhængig af flere fejl fra TSMCs side af.
--
Vedr. 2 Fermi chips på ét kort:
Et HD5870 bruger max. omkring 210W. med 2 milliarder transistorer, kan man forvente at Fermi er oppe på ca 300W med 3 milliarder. Så 2 Fermi chips kan forventes at bruge et pææænt stykke over 500W.
Spørgsmålet er så om det på nogen måde vil være fornuftigt overhovedet at lave et sådant kort, da evt. blæserlarm vil være tæt på at gøre en døv.....
--
Vedr. 2 Fermi chips på ét kort:
Et HD5870 bruger max. omkring 210W. med 2 milliarder transistorer, kan man forvente at Fermi er oppe på ca 300W med 3 milliarder. Så 2 Fermi chips kan forventes at bruge et pææænt stykke over 500W.
Spørgsmålet er så om det på nogen måde vil være fornuftigt overhovedet at lave et sådant kort, da evt. blæserlarm vil være tæt på at gøre en døv.....
Personligt holder jeg mig til nvidia.. har haft ati grafikkort 1 gang (et par år siden), og jeg har kun oplevet skrammel instillinger og underlige fejl og finurligheder mht til drivers og hvad ved jeg ..
nvidia det spiller bare, perfekt!
rent ydelses mæssigt og "billede kvali"-mæssigt kan det sq være ligemeget
nvidia det spiller bare, perfekt!
rent ydelses mæssigt og "billede kvali"-mæssigt kan det sq være ligemeget
17 & 24.. tilgengæld holdte mit 9600 pro ikke længe.. Det virkede måske 2 måneder.. og mit 9250se (eller sådan noget) var ligeså nitte..
Vil langt hellere betale 500 kr mere for at nvidia kort end jeg ville købe et tilsvarrende ati kort.. Både på grund at de første jeg skrev, deres driveres.. Men nu ligeså meget den anden nyhed med physx - så vil jeg hellere give min penge til nvidia..
Vil langt hellere betale 500 kr mere for at nvidia kort end jeg ville købe et tilsvarrende ati kort.. Både på grund at de første jeg skrev, deres driveres.. Men nu ligeså meget den anden nyhed med physx - så vil jeg hellere give min penge til nvidia..
Opret dig som bruger i dag
Det er gratis, og du binder dig ikke til noget.
Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.