mboost-dp1

Nvidia

Nvidia annoncerer super-grafikkortet Titan

- Via Hot Hardware -

I kapløbet om at have den kraftigste grafikchip, annoncerede Nvidia allerede i maj sidste år deres GK110 GPU, som så lyset få måneder senere i deres professionelle Tesla-serie. Nu er de klar med en udgave til det private marked, med lanceringen af GeForce GTX Titan.

Den nye GPU er uden sammenligning den kraftigste fra Nvidia til dato. Den er baseret på Kepler arkitekturen, som også anvendes i GeForce 600-serien, men er væsentlig kraftigere.

GPU’en har gået under navnet Big Kepler og det er ikke uden grund. Den er opbygget af ikke mindre end 7,1 milliarder transistorer, der sammen danner 2.688 shader-kerner, 48 ROPs og 224 teksturenheder.

Den arbejder ved 826 MHz og kan komme op på 876 MHz ved boost. Den kommer med 6 GB DDR5 RAM, der tilgås via et 384 bit interface, som kan flytte 288,4 GB data i sekundet. I rå ydelse kan GPU levere 4,5 teraflops.

Til sammenligning kan Intels kraftigste processor, Core i7 3960X, levere 0,316 teraflops ved et transistorantal på 2,3 milliarder.

Selvfølgelig understøtter Titan også SLI, hvor det er muligt at sætte tre af slagsen i en computer. Her er det vigtigt at have en kraftig PSU, idet TDP for kortet er på 250 W.

Ud over mere rå ydelse kommer kortet også med flere nye funktioner, blandt andet muligheden for at “overclocke” ens skærm. Næsten alle LCD-skærme arbejder ved 60 Hz, men nogle paneler kan godt vise hurtigere opdateringshastigheder. Dette er muligt at udnytte via Titan, der kan ignorere EDID-signalet (Extended Display Identification Data) fra ens monitor.

Endnu er der ikke kommet nogle benchmarks, men det forventes, at kortet vil placere sig et sted mellem Nvidias GTX 680 og GTX 690 kort, med hovedvægt mod 690-kortet. Prisen på det nye grafikkort er oplyst til $1.000 i USA og omkring €950 i Tyskland, hvilket vil give en pris herhjemme på knap 7.000 kroner, når det udkommer den 25. februar.





Gå til bund
Gravatar #1 - Mort
20. feb. 2013 07:24
Jeg ved godt at det her ikke er tråden til dumme spørgsmål, men jeg stiller det lige alligevel:

Hvis GTX Titan er det kræftigste grafikkort som NVidia nogensinde har lavet, hvordan kan det så være at man forventer at det ligger mellem GTX 680 og GTX 690 i performance?

Burde det ikke ligger over begge to, hvis det er det kræftigste de har lavet?
Gravatar #2 - Izaaq
20. feb. 2013 07:29
#1 GTX690 Indeholder 2 chips. Titan er den hurtigste enkelt-chip i verden ;)
Gravatar #3 - majbom
20. feb. 2013 07:29
-> #1 - GPU'en er den kraftigste - der er 2GPU'er på 690-kortet.
Gravatar #4 - Eldrups
20. feb. 2013 07:48
Sammenlignede du lige teraflops for en GPU og en CPU? *facepalm*

Og hvorfor skal man have en "kraftig PSU", når det kun trækker 250W TDP? Det er jo ingenting. Så peaker 3 kort altså ikke over 1000W. Og alt under 1000W er ikke "kraftigt", det er ganske normalt.

Og er det nyt at overclocke en skærm til at køre over 60 Hz? Måske skulle du lige tilføje en stor fed advarsel om, at de færreste skærme kan holde til det.
Gravatar #5 - Bangstrup
20. feb. 2013 07:53
#4 - Jeg tror at han mener at hvis man nu skal have 3 af dem, så skal du bruge 750W bare til grafikkortene, som stadigvæk er okay meget, selvfølgelig kan du få meget mere, men bare fordi det ikke er over 1000W betyder det ikke at det ikke er kraftigt ;-)
Gravatar #6 - triedset
20. feb. 2013 07:59
Tror jeg skal have den til at kører crossfire :D
Gravatar #7 - Gabriel
20. feb. 2013 08:07
#6: Good luck siger jeg bare... Hvis du får det til at lykkedes, så underret tech-pressen. :P
Gravatar #8 - Eldrups
20. feb. 2013 08:09
Bangstrup (5) skrev:
#4 - Jeg tror at han mener at hvis man nu skal have 3 af dem, så skal du bruge 750W bare til grafikkortene, som stadigvæk er okay meget, selvfølgelig kan du få meget mere, men bare fordi det ikke er over 1000W betyder det ikke at det ikke er kraftigt ;-)


"Selvfølgelig understøtter Titan også SLI, hvor det er muligt at putte tre af slagsen i en computer. Her er det vigtigt at have en kraftig PSU, idet TDP for kortet er på 250 W"

250W TDP for verdens bedste single-core grafikkort. Det er jo VANVITTIGT.... lavt! Prøv at se hvad forrige generationer bruger.

Og 750W ved PEAK for 3 grafikkort er ingenting. At man kan have 3 af verdens bedste single-core grafikkort + den vildeste OC'ede CPU på en 1000W PSU, det er jo for vildt.

For et par år siden skulle du have 1000W for at trække ÉT grafikkort.

Min pointe er bare... Teksten burde være formuleret anderledes, det burde være stik modsat af hvad der står i nyheden.
Gravatar #9 - -N-
20. feb. 2013 08:09
/politimand on

Var det ikke lidt fesent, ikke at fortælle, hvorfor du griner ad ham?

/politimand off

Crossfire er fra ATI/AMD

SLI er fra nVidia

:-D
Gravatar #11 - MortenBR
20. feb. 2013 08:35
Det jeg godt kunne tænke mig at vide. Kommer der et midrange version af kortet ? noget ala 660TI
Gravatar #12 - terracide
20. feb. 2013 08:55
##11:
Nope....der kommmer muligvis en 13SMX 3GB version....men vi snakker high end her....ikke midrange.

Det bedste er dog....full DP...ikke cut down^^
Gravatar #13 - MortenBR
20. feb. 2013 08:56
ender nok bare med og købe mig et GTX 660TI næste uge så.
Gravatar #14 - terracide
20. feb. 2013 08:57
Mort (1) skrev:
Jeg ved godt at det her ikke er tråden til dumme spørgsmål, men jeg stiller det lige alligevel:

Hvis GTX Titan er det kræftigste grafikkort som NVidia nogensinde har lavet, hvordan kan det så være at man forventer at det ligger mellem GTX 680 og GTX 690 i performance?

Burde det ikke ligger over begge to, hvis det er det kræftigste de har lavet?


Di kan ikke sammenligne multi-GPU FPS med single GPU FPS direkte.
AFR, microstutter, profiels, bad scaling.....multi GPU har issues single GPU ikke har.....og 60 FPS på en single GPU kan være bedre end 120 FPS på multi GPU.....the devel is in the details.
Gravatar #15 - triedset
20. feb. 2013 09:05
#7: også bare ment som en joke :P
Gravatar #16 - Keeper32
20. feb. 2013 09:14
Egentligt lidt overrasket over at Crysis slet ikke er blevet nævnt.
In other news.

Se den lille fyr kunne jeg godt tænke mig. Jeg har ikke noget synderligt at bruge det til lige for tiden, men det ville føles godt!
Gravatar #17 - Psylocke
20. feb. 2013 09:39
Pernicious skal ikke lave artikler mere, jeg vil simpelhen ikke se på det, det er jo pinligt?, hvorfor sammenligne en GPU med en CPU, da det er forskellige beregninger der bliver foretaget????

Hvorfor claimer han at 250W er MEGET? det er INGENTING for et HIGHEND graffikkort til de 1000 dollars som der bliver sagt den bliver solgt for i USA....

At overclocke sin skærm er allerede muligt med et 670, dog er det kun et gain på 6hz hvilket er ligemeget..
Link:


Du skal lære:
At sætte ting i perspektiv; 250 watt er ikke meget

en overclock af en skærm på 6hz er ikke en sensation eller noget værd at blæse op somom det er et kæmpe gain.

Ikke sammenligne forskellige ting bare fordi du har lyst.


jeg har slet ikke lyst til at læse her inde hvis kvaliteten af nyhederne er så lave.

Pernicious HVIS DU VIL VÆRE JOURNALIST, SÅ LAV RESEARCH FØRST.
Gravatar #18 - Skovsneglen
20. feb. 2013 09:47
Selvom mit EVGA GTX670 FTW! er rated til 170watt så 250watt jo ikke meget mere..

Test viser af SLI og Triple SLI sluger imellem 500-1000 watt anyway.. men foretrækker singlekort ;)
Gravatar #19 - Eldrups
20. feb. 2013 10:04
terracide (14) skrev:
Di kan ikke sammenligne multi-GPU FPS med single GPU FPS direkte.


Selvfølgelig kan man det, under de rette omstændigheder. Og microstuttering er meget subjektivt. Det er bestemt ikke noget alle oplever. Profiles er også stort set altid ude til de største titler. Ligesom nærmest alle større titler scaler super godt.

Det sagt, så vil jeg altid foretrækket ét enkelt kort, til helt almindelig hverdags-gaming. Et HD7970 eller GTX670 kan også køre stort set alt der er på markedet, i 1080p.

Og $1000... Den pris er fuldstændig absurd. Du kan få et HD7970 GHz edition til $400. 2 af dem vil stadig være bedre end ét Titan.
Gravatar #20 - terracide
20. feb. 2013 10:17
Sjovt at review sites mere og mere dropper rene FPS og kigger på frametimes...de gør dette uden grund...riiiiiiiiiiiiight.

Folk kan vælge at tro at frammes ikke betyder noget.

Og at du så vælger attage 2 crossfire kort....oh the irony!!!

http://www.rage3d.com/reviews/video/his_hd7970_ice...

info:
http://techreport.com/blog/24247/as-the-second-tur...

selv AMD ved den er gal:
http://techreport.com/review/24218/a-driver-update...
Gravatar #21 - p1x3l
20. feb. 2013 10:21
så det godt man køber for ~5600 inde udkommer i danmark, kan ik leve på at være opstarter og betale +1400 mere for et kort, og nej har slet ik haft råd til deres "pro" udgave -.-
Gravatar #22 - terracide
20. feb. 2013 10:22
#21:
Det her et et "pro" kort...1/3 DP...ikke 1/24...
Gravatar #23 - p1x3l
20. feb. 2013 10:26
#22 quote fucking nyhed {
kapløbet om at have den kraftigste grafikchip, annoncerede Nvidia allerede i maj sidste år deres GK110 GPU, som så lyset få måneder senere i deres professionelle Tesla-serie
}

vis du er i tvivl om hva jeg mener jeg ik lige har haft råd til, så læs starten af "nyhed"
Gravatar #24 - engfeh
20. feb. 2013 10:26
#21

Hvad er det du prøver at sige?
Gravatar #25 - p1x3l
20. feb. 2013 10:29
#24
US: 1000$ = 5588 DKK
tyskland: 950€ = 7086,91 DKK
DK: +7000

held og lykke med eu´s økonomi og de vil ha vi ska bruge det ska nok rede det hele (vis det endlig var så giv det mening istedet for at opfordre til at handle udenfor) .... lols

og samtigt påstå at velkomme iværksætter når give mere til dr end bruger på net til folket ideen med dr var viden til folket men det gået fløjten nu ska bare betale 1200+ pr år pga har en internet forbindelse der koster +400 per md ... kan efterhånden kun grine af det
Gravatar #26 - terracide
20. feb. 2013 10:34
#25:
Ja, for NVIDIA ved ikke hvordan de skal prissætte for at tjene penge:
http://www.engadget.com/2013/02/13/nvidia-posts-q4...



Butthurt whiner er buthurt whiner...
Gravatar #27 - p1x3l
20. feb. 2013 10:35
#26 du misforstår meget nemt jeg whiner ik jeg blev spurgt hva jeg mente... sagde køber billigre, brokker mig ik påpeger det bare og får et billigt grin... gratis oplysning du ska ik betale licens for det så luk X :)
Gravatar #28 - Eldrups
20. feb. 2013 10:36
terracide (20) skrev:
Sjovt at review sites mere og mere dropper rene FPS og kigger på frametimes...de gør dette uden grund...riiiiiiiiiiiiight.

Folk kan vælge at tro at frammes ikke betyder noget.

Og at du så vælger attage 2 crossfire kort....oh the irony!!!

http://www.rage3d.com/reviews/video/his_hd7970_ice...

info:
http://techreport.com/blog/24247/as-the-second-tur...

selv AMD ved den er gal:
http://techreport.com/review/24218/a-driver-update...


Prøver du at være morsom? Du siger selv at man ikke kan sammenligne single-GPU FPS med multi-GPU FPS direkte... Selvfølgelig kan man det.

Om multi-GPU løsningen er bedre, bare fordi den har højere FPS, er noget helt andet, og jeg skriver ret tydeligt at jeg personligt altid ville foretrække single-GPU løsningen.

Og hvad er pointen med dit link? Det første link, deres konklusion:

"We award the HIS Radeon HD 7970 GHz Edition IceQ X2 card 4 stars; it's a solid buy if you're in the mood for turning dials and tweaking settings to enjoy gaming with what could be one of the fastest single GPU cards available."



p1x3l (21) skrev:
så det godt man køber for ~5600 inde udkommer i danmark, kan ik leve på at være opstarter og betale +1400 mere for et kort, og nej har slet ik haft råd til deres "pro" udgave -.-


Brokker du dig helt alvorligt over at vi har moms osv. i EU? Hvis du ikke kan forstå hvorfor tingene hænger sådan sammen, så ville det være mere passende at du holdt din ligegyldige mening for dig selv.
Gravatar #29 - p1x3l
20. feb. 2013 10:40
#28 det jo ik momsen kun, vis bare var det havde jeg nok ik "brokket" mig, var også mere bare for at påpeje det ...

general moms (gælder elektronik) i tyskland er 19% ... vi har 25% i danmark og det bliver godt 7000(lad os sige 6900) i flg artikel men 950€ = 7100

så tyskland har 19% vi har 25% og det billigre her
Gravatar #30 - terracide
20. feb. 2013 10:40
#28:
Nej man kan ikke.
FPS er ikke hele historien.
30 FPS kan være bedre end 60 eller 30 FPS FPS....kommer an på frametimes:

Gravatar #31 - terracide
20. feb. 2013 10:42
p1x3l (29) skrev:
#28 det jo ik momsen kun, vis bare var det havde jeg nok ik "brokket" mig, var også mere bare for at påpeje det ...


Så flyt til USA?
Gravatar #32 - p1x3l
20. feb. 2013 10:44
#31 wtf hvorfor ik forslå / gøre opmærksom på der måske er et problem som kan blive rettet til det bedre ... hva det for en indstilling gå tilbage i hjørnet og tal ned til dig selv eller flyt selv kunne være du kunne finde hjemme på et us site, du passer nok aligevel bedre ind der
Gravatar #33 - terracide
20. feb. 2013 10:47
p1x3l (32) skrev:
#31 wtf hvorfor ik forslå / gøre opmærksom på der måske er et problem som kan blive rettet til det bedre ... hva det for en indstilling gå tilbage i hjørnet og tal ned til dig selv eller flyt selv kunne være du kunne finde hjemme på et us site, du passer nok aligevel bedre ind der


π
Gravatar #34 - nwinther
20. feb. 2013 10:51
Jeg ved ikke, hvad en gennemsnits-PSU yder, men jeg synes da at 250W lyder som forholdsvis meget alene til grafikkortet.

Jeg kan umiddelbart se, at "budget"-computeres PSU yder ca. 500W. Og jeg ved godt, at man nok ikke vil sætte sådan et kort i en budget-PC, men alligevel - det ville trække halvdelen af den tilgængelige ydelse.

Og strømforsyninger på over 1000W er vist forholdsvis sjældne. Selv på de kraftigere gamer-PC'er ligger strømforsyningen på 750W. Så er der ikke strøm til mere, hvis du sætter tre kort i.

Med andre ord lyder det ikke som en ligegyldig "advarsel" Pernicious kommer med, mht. strømforsyningens ydeevne.
Gravatar #35 - p1x3l
20. feb. 2013 10:55
#34 og fleste cpuér trækker max 125/135w .. og tommel fingerrelgel fra gamle dage 10/15w per endhed udover så bundkort 2 ram klodser og en hhd = 60w, .. = 450 .. så en 500watt burde gøre til en "budget" pc med highend gfx men der ik plads til flere :) eller meget andet
Gravatar #36 - terracide
20. feb. 2013 10:59
nwinther (34) skrev:
Jeg ved ikke, hvad en gennemsnits-PSU yder, men jeg synes da at 250W lyder som forholdsvis meget alene til grafikkortet.

1x6 & 1x8 powerplugs.
7970 trækker 210watt stock:
http://www.pcgamer.com/2013/02/20/crytek-next-gen-...
Gravatar #37 - Eldrups
20. feb. 2013 11:25
terracide (30) skrev:
#28:
Nej man kan ikke.
FPS er ikke hele historien.
30 FPS kan være bedre end 60 eller 30 FPS FPS....kommer an på frametimes:


Kan du for en gangs skyld ikke lade vær' med at være så arrogant?

Man kan godt sammenligne FPS med FPS. Man kan ikke sammenligne FPS med en decideret oplevelse af om der er microstuttering osv. det siger jo sig selv.

Men selve FRAMES PER SECOND kan godt sammenlignes med FRAMES PER SECOND. Ja faktisk kan FPS _KUN_ sammenlignes med FPS. Brug knolden...

Nej, 30 FPS kan IKKE være bedre end 60 FPS. Men et single-GPU kort der kører 30fps smooth, uden stuttering, kan godt føles bedre end multi-GPU @ 60fps med stuttering. Men så sammenligner man heller ikke FPS, så sammenligner man den subjektive oplevelse af kortenes performance.

Ja faktisk forklarer dit link helt perfekt hvad jeg mener. Og de "opfinder" en helt ny måleenhed, da FPS vs FPS ikke er en god måde at sammenligne på.



p1x3l (29) skrev:
#28 det jo ik momsen kun, vis bare var det havde jeg nok ik "brokket" mig, var også mere bare for at påpeje det ...

general moms (gælder elektronik) i tyskland er 19% ... vi har 25% i danmark og det bliver godt 7000(lad os sige 6900) i flg artikel men 950€ = 7100

så tyskland har 19% vi har 25% og det billigre her


Du betaler ikke moms, told eller noget som helst hvis du køber et produkt fra et andet EU land, til privat brug. Så hvad er din pointe? Priserne i Danmark og Tyskland er tæt på hinanden. Tyskland er lidt billigere at købe hardware i, men det er ikke meget.

I USA tjener man heller ikke 100kr i timen som minimum, så hvis vi kunne købe produkter til amerikanske priser ville hele markedet blive ødelagt, ingen EU virksomheder kunne konkurrere, da de skal betale deres ansatte EU løn.

nwinther (34) skrev:
Jeg ved ikke, hvad en gennemsnits-PSU yder, men jeg synes da at 250W lyder som forholdsvis meget alene til grafikkortet.

Jeg kan umiddelbart se, at "budget"-computeres PSU yder ca. 500W. Og jeg ved godt, at man nok ikke vil sætte sådan et kort i en budget-PC, men alligevel - det ville trække halvdelen af den tilgængelige ydelse.

Og strømforsyninger på over 1000W er vist forholdsvis sjældne. Selv på de kraftigere gamer-PC'er ligger strømforsyningen på 750W. Så er der ikke strøm til mere, hvis du sætter tre kort i.

Med andre ord lyder det ikke som en ligegyldig "advarsel" Pernicious kommer med, mht. strømforsyningens ydeevne.


Denne nyhed drejer sig om entusiast-segmentet, og der er ingen med respekt for sig selv der har en PSU under 600W. Komponenterne i denne generation bruger mindre og mindre strøm, så kravene til PSU er ligeledes blevet mindre.

Men 1kW PSU'er er ikke unormalt, slet ikke til dem der rent faktisk ville bruge penge på et Titan kort.

Igen, min pointe er at skribenten slet ikke har styr på hvad der foregår i denne del af hardware verdenen, hvis man synes 1kW PSU'er er unormale.

Og kig på 400/500 serien, og se hvad de kort bruger af strøm. GTX480 var også på 250W TDP.

Og et grafikkort oplyst til 250W TDP trækker jo ikke 250W i praksis.
Gravatar #38 - Izaaq
20. feb. 2013 11:57
Eldrups og terracide:

Såså børnlil! Nu skal onkel Izaaq slå op i sin stoore eventyrbog om matematikkens verden og fortælle jer den gode, gamle historie om, hvorfor et gennemsnit intet er værd uden angivelsen af varians eller spredning.

I øvrigt kan terracide ikke undlade at være arrogant. Hele hans brandingstrategi handler om at være 60% gammelklog og 40% bittermopset (NU: +15% ekstra skrigeskinke i pakken!)

:-)
Gravatar #39 - terracide
20. feb. 2013 12:04
#32:
Frametimes har relevans, både AMD og NVIDIA erkender microstutter findes og har relevans....beklager, men kan DU være mere arrogant og ignorant? ^^

Gravatar #40 - Paranoid_Monkey
20. feb. 2013 12:09
Men kan den køre Crysis? If yes, Can it blend?
Gravatar #41 - Izaaq
20. feb. 2013 12:15
#39 Ved du om man kan forhindre micro stuttering ved at slå VSYNC til?

Problemet med micro stuttering må være, at de to grafikkort skal blive enige om at køre med samme frekvens, men en halv frame forskudt. Det kræver jo så, at grafikkortene skal forudse, hvor lang tid det tager at beregne næste frame for at kunne synkronisere på den måde (med VSYNC slået fra). Men når scenen ændrer sig, og beregningstiden går op og ned, så vil de to kort kunne komme til at glitche i forhold til hinanden.

Det er vel som så ikke et problem, man kan gøre så meget ved. Andet end at skrue ned for grafikken og slå VSYNC til, måske?
Gravatar #42 - terracide
20. feb. 2013 12:26
Gravatar #43 - mee
20. feb. 2013 13:13
terracide (42) skrev:


Den gut er sagme sjov at høre på Nvidia Titan "low noise" min bare.

Oven i det hele en OCZ SSD, for det er jo et fantastisk firma.

Alt samme i et "lille" kabinet på 19 liter.
Den klods er millimeter fra mATX størrelse.

Eldrups (37) skrev:
terracide (30) skrev:
#28:
Nej man kan ikke.
FPS er ikke hele historien.
30 FPS kan være bedre end 60 eller 30 FPS FPS....kommer an på frametimes:


Kan du for en gangs skyld ikke lade vær' med at være så arrogant?


Det er Terra, han er født som en nar og vil dø som en nar.
Hvis du ikke kan grine af hans lort, skal du holde dig fra Nvidia og AMD nyheder.

Terras point uden at være en nar:
Problemet med at måle FPS er "opløsningen". Et 60 FPS tal kan godt indeholde 59 frames der renderes i den første tiendedel af sekundet og så en frame i de sidste ni tiendedele.
Tallet ser godt ud, men oplevelsen vil være rimelig dårlig.

Dette har fået en del steder til at kigge på tiden det tager at rendere de enkelte frames.
Desværre kan de ikke blive enige om hvor store udsving der skal til for måle en god eller dårlig oplevelse.
De kan let finde tiden for at du taber et refresh for en 60 Hz monitor, men hvornår og hvor slemt det er diskuteres en del.
techreport.com har en del om emnet.
Gravatar #44 - terracide
20. feb. 2013 13:57
mee (43) skrev:
Den gut er sagme sjov at høre på Nvidia Titan "low noise" min bare.


Ser ud til du skal smide bukserne, Mr. selvmål:

http://www.pcgameshardware.de/Geforce-Titan-Hardwa...
Gravatar #45 - Eldrups
20. feb. 2013 14:16
#39,
Hvad har det med sagen at gøre? Du siger at single-GPU FPS ikke kan sammenlignes med multi-GPU FPS.

Høj FPS er ikke lig med en god oplevelse, men derfor er det stadig en målbar metode til at sammenligne 2 grafikkort.

Hvad er det du ikke forstår ved det?

Jeg har haft både SLi, dual-GPU kort, PhysX kort, dual-GPU + PhysX kort, men jeg (som skrevet tidligere) vil altid foretrække ET kraftigt grafikkort.

En benchmark som KUN fortæller FPS, men ikke microstuttering, og bare hvor flydende alting føles generelt (svært da det er meget subjektivt) kan man selvfølgelig ikke bruge til ret meget.

Hvis jeg fik en krone for hver gang jeg skulle gentage mig selv....

#43,
Jeg forstår udemærket hans pointe, det har jeg gjort fra starten af. Han forstår bare ikke at noget af det han lukker ud er gylle :-)
Gravatar #46 - mee
20. feb. 2013 14:16

terracide (44) skrev:
Ser ud til du skal smide bukserne, Mr. selvmål:

http://www.pcgameshardware.de/Geforce-Titan-Hardwa...


mee (43) skrev:

Det er Terra, han er født som en nar og vil dø som en nar.
Hvis du ikke kan grine af hans lort, skal du holde dig fra Nvidia og AMD nyheder.


Selvmål?

Jeg tror på at det er stille, når jeg har set et SPCR review.
Efter hvad jeg har hørt om kortet, så er det langt fra at matche en stille blæser fra Noiseblocker, scythe eller Noctua.

Sagme trist at fylde en computer med blæsere af den kvalitet og så overdøver GPUen det hele.
Gravatar #47 - Eldrups
20. feb. 2013 14:21
terracide (44) skrev:
Ser ud til du skal smide bukserne, Mr. selvmål:

http://www.pcgameshardware.de/Geforce-Titan-Hardwa...


Et af dine tidligere links beskrev hvordan Titan larmede utroligt meget. Om det kun var i SLi, det kan jeg ikke huske. Man skal ikke kaste med sten....

Og helt ærligt, sidder du og spiller smart over reference kølere?

Tag da i det mindste og sammenlign den samme køler, hvis du vil sammenligne AMD med nVidia. Alt andet er til grin.
Gravatar #48 - mee
20. feb. 2013 14:27
Eldrups (47) skrev:
Et af dine tidligere links beskrev hvordan Titan larmede utroligt meget. Om det kun var i SLi, det kan jeg ikke huske. Man skal ikke kaste med sten....

Og helt ærligt, sidder du og spiller smart over reference kølere?

Tag da i det mindste og sammenlign den samme køler, hvis du vil sammenligne AMD med nVidia. Alt andet er til grin.


For at være fair, så er der Nvidia kort med, og et GTX670 larmer åbenbart mindre end det Titan kort.

Det sjove ved de målinger, er at den reklame anmeldelse ikke indeholder noget info om hvordan de måler.
Sidder det i en åben bench, hvad er afstanden til mikrofonen, hvilken mikrofon anvender de, hvilke frekvenser måler de osv. osv. osv.
Komplet ubrugeligt.

EDIT:
MortenBR (13) skrev:
ender nok bare med og købe mig et GTX 660TI næste uge så.

Fornuftigt valg, hvis du har en almindelig 1080p skærm.

Dobbelt EDIT:
Jeg skal lære at læse teksten i et billede.

Mere EDIT:
Fandt mit billede: http://www.pcgameshardware.de/Geforce-Titan-Hardwa...
Et 670 larmer virkelig mindre end det Titan kort.
Gravatar #49 - terracide
20. feb. 2013 14:39
#48:
Ved du hvad du mener nu?

Gravatar #50 - terracide
20. feb. 2013 14:42
Prisen er ej heller random:

http://www.overclock.net/t/1362327/various-gtx-titan-previews/880#post_19334621 skrev:
Okay guys here's the deal:

Nvidia actually wants to price their big dies (500mm^2+) higher than $500. This is because they're very expensive, have a lot of R&D money put into them and have low yields.

What made the 480 and 580 cost $500 then? Competition.

Let's look at the circumstances at the launch of the past pew NV flagships:

GTX 280: Huge die, priced at $650 with basic high end GPU features, has to drop in price very soon because of AMD releasing a GTX 260 matching 4870 for ~$300. NV has to stay competitive and was relying on their high end GPU for the mainstream stuff as well, they have to lower the price in order to sell it because G92 isn't cutting it anymore.

GTX 285: Same story but without the initial high price because of AMD already having their cards out. Only shrinking the process and a bit higher OCs and better thermals aren't enough to price it much above the then discounted 280. NV is still using G92 for their lower end parts and has to still manage some of the mainstream ($300 range) with the expensive GT200b. GT200b did though save them from making a nearly 600mm^2 die for mainstream cards which is probably the reason for why it was even die shrinked. The price can't go higher because of AMD's 4890.

GTX 480: Again a massive die, card is massively late, hogs more power than ever seen before (single GPU) and has lots of bad publicity even before launch. The performance barely warrants the $500 price compared to the $400 5870. NV tries to market the card with more VRAM, CUDA, PhysX etc. They also have to use the die for 470s and 465s again making it a mainstream chip as well. This isn't a choice, it's a must for them because of AMD's product range. The smaller GF104 appears much later and is no match for AMD's products and can't be used to counter high end products.

GTX 580: NV is unaware of what AMD might release after seeing the 5870 matching 6870 (well almost). The 580 provides 10% increase over the older 480 while actually decreasing the die just a tad, improving thermals etc. They can't price it much higher than their own card because the 400 series wasn't even selling well and the 5870 had been discounted to around $370. a $500 price is set as a counter to possible future AMD GPUs, however the 6970 that was originally planned as a $500 card (leaks showing listings from different etailers etc. showed this) barely matches the 480 and can't compete with the 580, AMD has to price the card similarly to the discounted 5870.

At this point NV saw how important the GF104, GF114, GK104 die was due to the huge volume of sales they produced. A decision is made to give the mainstream chip more attention so it will be on the market sooner.

GTX 680: This time NV already knows the performance of the 7970 which has launched at an expensive $550. Multiple leaks originating from before 7970 era launch plans of NV (drivers, early cooler images etc) show GK104 being introduced as GTX670Ti due to NV thinking it can't match a single 7970. After seeing how AMD's new card performs and where it is priced though NV can bump the name of GK104 up to GTX 680 and grab a big portion of the high end GPU market by releasing it at $500. GK100 is either failed or too expensive to use for anything at this point. Being able to compete with a smaller die, GK104, is a huge plus for NV who have achieved a much bigger jump in performance than AMD (per mm^2), the biggest jump since G80 in fact. Added plus is the GK104 memory controller that blows even NV engineers away and makes it possible for the GK104 to function as a high end GPU even in situations that might need high bandwidth. After this AMD launches a price war, bundle war, renaming war and a driver war to make their lineup more lucrative but the damage has already been done and the 600 series has very good rep outside the enthusiast scene.

GTX Titan: GK110 is expensive to produce, supercomputer firms, universities, etc. are screaming for GK110 based teslas which NV provides as soon as they have tens of thousands of GK110s that have low enough leakage and enough working SMXs. K20s are being sold in late september before the launch of the official cards. One of the customers is the Titan supercomputer, needing around 16,000 units.
As usual NV intends to sell the more leaky chips as GeForce ones as has been speculated for well over half a year. Nvidia has a card that can without any trouble beat a 680 and a 7970, the performance difference is much bigger than anything we've seen before, high enough that the card doesn't have any competition at all in the single GPU arena, even less so than the 580. On top of this the card is also almost 100% sure to not have any single GPU competition in the next year or even after that because of AMD and NV being stuck on the 28nm process. Nvidia has also been catching flak for bad compute features lately.
Nvidia doesn't need this expensive chip to compete with AMD and thus has no intentions of releasing it as a normal card part of their normal naming scheme and lineup. That task is reserved for GK114 most likely. However the performance doesn't quite warrant the price of a halo-card-esque pricing of the 690. A decision is made to still release GK110 as Titan for $999 but to load the card with features to make up for the performance that isn't quite up there with the 690. The cooler is similar, users will have full overclocking abilities, etc. And on top of this DP performance is left untouched making the card lucrative for individuals who wish to do GPGPU work but unattractive for big companies. The card is also a huge marketing tool which shows when looking at the emphasis on thermals and OEM systems like those of Origin PC's maingear's etc. The card will enhance NV's brand by setting all the records and being the best. A high price will only reinforce this effect even if it might be bad for the average consumer.
Titan is a product of no competition in the same performance range at all aside from multi GPU setups which don't really matter due to Titan being able to do 4-way SLI, taking less space, being quieter, having the ability to be installed in SFF builds etc.

Pricing has everything to do with the competition. Everything.

So no, your $500 high end GPU isn't going anywhere. If AMD releases the 8970 or the 9970 as powerful enough to make using GK114 or GM104 impossible, NV will be forced to use GK110 or GM100 for normal GPUs. And unless AMD pulls a miracle out of their ass (something like the next version of pitcairn/smaller level chips performing on the level or above NV GK114/GM104) they can't price their cards higher either.

The only thing that allows TItan to be priced at $999 is the huge jump in performance made with kepler. If the manufacturers want to keep raising prices they have to be able to make lower end chips handily outperform previous high end chips. This might have happened once or twice but it is not by any definition the norm and in normal circumstances a price hike of the extreme high end products isn't possible. Due to the huge advances made with kepler NV is most likely going to struggle with Maxwell when trying to maintain similar advances in performance of their chips (they hit the jackpot once, now a new architecture that is better than an incredible one is very hard to do). The jump will most likely be smaller forcing the price of the top of the line chip down. This is of course assuming that AMD keeps putting out GPUs at a steady pace.
Gå til top

Opret dig som bruger i dag

Det er gratis, og du binder dig ikke til noget.

Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.

Opret Bruger Login