mboost-dp1

Nvidia

Nvidias næste GPU-generation starter nedefra

- Via X-bit labs - , redigeret af Pernicious

Hjemmesiden 4Gamers.net har fået fat i en række oplysninger omkring Nvidias kommende GPU, der går under kodenavnet Kepler.

Ifølge 4Gamers.net vil Nvidia starte med at frigive de mindste versioner af Kepler-GPU’erne først, Her drejer det sig om modellerne GK107 og GK106, der har en hukommelsesbus på henholdsvis 128 bit og 256 bit. Disse to lowend-modeller vil heller ikke understøtte den nye PCI Express 3.0 standard.

Storebroderen GK104 vil få PCIe 3.0 understøttelse og have en hukommelsesbus på 384 bit. En dualchip udgave baseret på GK104, kaldet GK110, vil blive frigivet samtidigt med GK104, hvilket vil ske efter at GK106 og GK107 er blevet frigivet.

Topmodellen GK112, vil få en hukomelsesbus på 512 bit og være en singlechip løsning på linje med GTX 580. Denne model forventes først frigivet i slutningen af 2012.

At de mindre modeller frigives først, hænger også sammen med, at Nvidia har fået mange aftaler i hus omkring levering af Kepler baserede GPU’er til producenter af bærbare computere, fordi Kepler har et meget energieffektivt design, hvorfor man har satset på at få de mindre GPU-designs færdig først, der typisk bruges i bærbare computere.





Gå til bund
Gravatar #1 - TormDK
1. dec. 2011 10:59
WHAT!?

Hvorfor laver de om på den slags når jeg kun sidder og venter på Ivybridge og Kepler for at bygge en ny spand!

Gah - så skal man vente endnu længere, eller købe gammel teknologi :(
Gravatar #2 - Alrekr
1. dec. 2011 11:00
Ulogisk navngivning ftw!
Gravatar #3 - Slettet Bruger [4022487939]
1. dec. 2011 11:01
hvorfor er 104 bedre end 107 når 112 er bedst?

De navne giver ikke mening. :(
Gravatar #4 - izym
1. dec. 2011 11:03
#1

Vent på IB og køb et godt GTX 580. Du kan også købe 2 stk. GTX 560 Ti, men hold dig til 2GB-udgaverne. Sidstnævnte vil, i spil der understøtter SLI vel og mærke, jorde et GTX 580.

#2/#3 (<- Er det muligt, at få SNES til at parse det korrekt, eller bruger jeg forkert syntaks?)

Det er kodenavne.
Gravatar #5 - TormDK
1. dec. 2011 11:08
#4 Jeg har et 480GTX nu, det var mere derfor jeg helst ville hoppe 5xx serien over og gå direkte til et 680GTX fordi Nvidia plejede at smide deres største kort på markedet først.

Men nu skal de så til at lave om på tingene, gah!
Gravatar #6 - izym
1. dec. 2011 11:20
#5

Ah, okay. Ellers kan jeg anbefale, at du smider en Accelero Xtreme Plus II køler på i mellemtiden. Jeg får nogle et ret pænt overclock ud af det (950 MHz core), og det larmer stadig meget mindre end stock køler.

Jeg har dog et GTX 580, men det gælder sådan set stadig. Men husk at tjekke op på om dit kort er af reference design.
Gravatar #7 - mech0z
1. dec. 2011 11:21
Nu hvor det er ny process (28nm) kan det også være svært at lave store chips (680GTX) uden stor fejl, så synes det her giver ok mening indtil processen er "mature".

#4 Køb et ATI kort? Hvis de 50% performance increase er korrekt så burde det være rigeligt med mindre du køre 3 skærme og absurd opløsning
Gravatar #8 - PHP-Ekspert Thoroughbreed
1. dec. 2011 11:21
Det var bedre i "gamle dage" ...

GeForce < GeForce 2 < GeForce 3 < GeForce 4

Og ditto med ATi ... Fatter snart ikke hvad der er godt, og hvad der er skidt - gid de kunne lave en gang "største tal er bedst"-navngivning, så man var sikker på at et AMD 6650 var bedre end et 5890 og ikke omvendt!
Gravatar #9 - B230FT
1. dec. 2011 11:22
Efter "nVidia-gate" synes jeg bare helt generelt, at det er svært at stole på dét firma.

At man på den måde pressede udgifterne ved produktionsprocessen, og lod hånt om sine kunder, siger alt om nVidia.

/B230FT

P.S. Havde selv "fornøjelsen" af 2 fejlende nVidia produkter i 8600 serien - både en bærbar (som blev ordnet på garantien) samt et grafikkort (som var lige til at hælde ud)
Gravatar #10 - Slettet Bruger [4022487939]
1. dec. 2011 11:23
B230FT (9) skrev:
nVidia-gate


wat
Gravatar #11 - PHP-Ekspert Thoroughbreed
1. dec. 2011 11:24
mech0z (7) skrev:
Nu hvor det er ny process (28nm) kan det også være svært at lave store chips (680GTX) uden stor fejl, så synes det her giver ok mening indtil processen er "mature".

#4 Køb et ATI kort? Hvis de 50% performance increase er korrekt så burde det være rigeligt med mindre du køre 3 skærme og absurd opløsning


Har selv 2 ATi/AMD 5770 der kører crossfire på 2 19" 4:3 skærme i opløsningen 2560x1024 og jeg er endnu ikke stødt på et spil jeg ikke kunne køre i den opløsning på full settings (bortset fra dumme spil der kun understøtter en skærm, som f.eks. Splinter Cell: Conviction)
Gravatar #12 - p1x3l
1. dec. 2011 11:25
GK106 107 110 105 103 min røv omg fandme værste navne/model nummer ever de ik engang i rækkefælge efter Kraftigste ?

btw de kølere der bliver smidt på nogle af gigabyte´s kort = guld ska ik ud og købe bedre vis vil oc... kunne producenter af gfx lære noget af .. noget af det jeg kigger meget på er selve blæser og mængde alu de ofre på det

#8 er sådan i det fleste tilfælde 66** serien er bedre end 58** hva andgår effectivitiet bruger mindre strøm for at lave det samme.. at du i nogle tlf ka få mere ud af 57/58/59 kortne det er lidt provo men selve navngivninge er da bedre end her hvor det direkte er byttet om på det
Gravatar #13 - izym
1. dec. 2011 11:25
mech0z (7) skrev:
#4 Køb et ATI kort? Hvis de 50% performance increase er korrekt så burde det være rigeligt med mindre du køre 3 skærme og absurd opløsning

Hvilke 50%?

Thoroughbreed (11) skrev:
Har selv 2 ATi/AMD 5770 der kører crossfire på 2 19" 4:3 skærme i opløsningen 2560x1024 og jeg er endnu ikke stødt på et spil jeg ikke kunne køre i den opløsning på full settings (bortset fra dumme spil der kun understøtter en skærm, som f.eks. Splinter Cell: Conviction)

2 skærme? Hvad sker der så med dit sigtekorn?
Gravatar #14 - Hatsen
1. dec. 2011 11:27
#8

Mon ikke kun det er deres kodenavne?

Fermi kortene var jo også kendt som GF 100-serien i starten. Men blev altså til GTX 400.
Gravatar #15 - TormDK
1. dec. 2011 11:27
#7 Jeg er Nvidia fanboi - så vil helst holde mig til den djævel jeg kender.

Men jeg har overvejet en 560 ti SLI løsning sådan lige hurtigt nu hvor jeg kan se min oprindelige plan ikke kommer til at holde.
Gravatar #16 - B230FT
1. dec. 2011 11:29
#10 - nVidia-gate er historien om skandalen omkring nVidias fejlramte GPU'er - omhandlende hvordan man bevidst pressede produktionsomkostningerne ned, så man _bad_ om problemer :-(

/B230FT
Gravatar #17 - Blackwater
1. dec. 2011 11:29
p1x3l (12) skrev:
GK106 107 110 105 103 min røv omg fandme værste navne/model nummer ever de ik engang i rækkefælge efter Kraftigste ?

btw de kølere der bliver smidt på nogle af gigabyte´s kort = guld ska ik ud og købe bedre vis vil oc... kunne producenter af gfx lære noget af .. noget af det jeg kigger meget på er selve blæser og mængde alu de ofre på det

#8 er sådan i det fleste tilfælde 66** serien er bedre end 58** hva andgår effectivitiet bruger mindre strøm for at lave det samme.. at du i nogle tlf ka få mere ud af 57/58/59 kortne det er lidt provo men selve navngivninge er da bedre end her hvor det direkte er byttet om på det


Det er ikke navne, det er kodenavne for kortene. De kommer til at hedde noget andet på markedet, sikkert det samme som GTX 200, 400 og 500 serien hvor de har GTX 560, 570, 580 osv.

f.eks. hedder et GTX 580 rigtigt GF110 (hvor GF står Geforce Fermi) Der vil jeg da stærkt gå ud fra at det nye GK kommer til at stå for Geforce Kepler. Så regn med at de kommer til at hedde GTX 660, 670, 680 igen.
Gravatar #18 - izym
1. dec. 2011 11:29
p1x3l (12) skrev:
btw de kølere der bliver smidt på nogle af gigabyte´s kort = guld ska ik ud og købe bedre vis vil oc... kunne producenter af gfx lære noget af .. noget af det jeg kigger meget på er selve blæser og mængde alu de ofre på det

Det er nu fint nok, at de smider sådan nogle "turbine" blæsere på som stock køling. Det er ikke alle, der har ordenligt airflow i deres kabinet. Ved blæsere som dem på Gigabytes kort (eller Accelero Xtreme Plus II) slippes varmen i væsentlig større grad ud i kabinettet. Der kræves også et større frirum foran kortet.
Gravatar #19 - izym
1. dec. 2011 11:31
TormDK (15) skrev:
Men jeg har overvejet en 560 ti SLI løsning sådan lige hurtigt nu hvor jeg kan se min oprindelige plan ikke kommer til at holde.

Som jeg skrev før, så bare husk at få fat i nogle 2GB udgaver. 1GB VRAM er lige trængt nok til et sådan setup. I hvert fald når man kommer over en opløsning på 1920x1080, eller skal bruge nogle high res texture packs.

Husk på at hukommelse ikke deles mellem kort, så selvom man har 2 kort med 1GB VRAM i hver, vil det ikke give 2GB i praksis.
Gravatar #20 - TormDK
1. dec. 2011 11:36
#19 Yup, men det skal vente en ~4 måneders tid alligevel, for Ivybridge ser vi nok ikke før slutning af Q1 2012 alligevel.

Men ja, mere ram skal der helt sikkert til. Mit kort har 1.5gb nu, og nye kort skal bestemt ikke have mindre.

Hvis det falder på en 560TI SLI løsning bliver det nok den nye rehash de kalder CUDA 448 cores
Gravatar #21 - izym
1. dec. 2011 11:37
TormDK (20) skrev:
Yup, men det skal vente en ~4 måneders tid alligevel, for Ivybridge ser vi nok ikke før slutning af Q1 2012 alligevel.

Så vidt jeg husker skulle den da komme i slutningen af Q1.

TormDK (20) skrev:
Men ja, mere ram skal der helt sikkert til. Mit kort har 1.5gb nu, og nye kort skal bestemt ikke have mindre.

Jeg har det på samme måde med mit 580. Det er egentlig lidt trist, at det skal være hvad, der holder en tilbage til tider.
Gravatar #22 - TormDK
1. dec. 2011 11:41
#21 Well, udviklerne bruger jo ikke rigtigt rammen alligevel sådan for alvor.

Se på Skyrim - En sprit ny titel hvor communitiet er nød til at lave en work-around for at der kan bruges mere end 2gb ram som standard.

Forhåbentligt åbner næste generations konsollerne op for at udviklerne får fingeren ud og kommer igang med at sætte RAM forbruget op.

Mere vil have mere :) Sådan er det bare. Spørgsmålet er bare hvornår nok er nok. Jeg regner ikke med at skulle købe nyt hardware igen når min næste spand bliver bygget før der igen er gået en 3-4 år. Jeg ser ikke rigtigt nogen grund til at gå op over HD opløsning lige pt, for jeg har alligevel ikke en skærm der kan følge med.

Gravatar #23 - PHP-Ekspert Thoroughbreed
1. dec. 2011 12:12
izym (13) skrev:
Hvilke 50%?

Thoroughbreed (11) skrev:
Har selv 2 ATi/AMD 5770 der kører crossfire på 2 19" 4:3 skærme i opløsningen 2560x1024 og jeg er endnu ikke stødt på et spil jeg ikke kunne køre i den opløsning på full settings (bortset fra dumme spil der kun understøtter en skærm, som f.eks. Splinter Cell: Conviction)

2 skærme? Hvad sker der så med dit sigtekorn?


Well, lidt forskelligt ...

Nogle FPS-spil understøtter kun en skærm, andre kan du flytte HUD-center og så er der desværre en masse hvor det er delt på midten (f.eks. L4D2) - men via ATi CCC (AMD-config programmet, ved ikk hvad det nu hedder) kan jeg ændre skrivebordets center, så jeg har det et par cm inde på den ene skærm ...

De to skærme er dog kun midlertidigt da jeg leger med tanken om en tredie skærm (pga spil) ... De to skærme er et must for mig ifm mit arbejdsbrug af computeren ...

Hvis man ikke spiller meget FPS er det dog en FRYD at have to skærme og den store opløsning (2560x1024)
Gravatar #24 - Alrekr
1. dec. 2011 12:20
Thoroughbreed (23) skrev:
AMD-config programmet, ved ikk hvad det nu hedder


Catalyst Control Center.
Gravatar #25 - PHP-Ekspert Thoroughbreed
1. dec. 2011 12:35
Alrekr (24) skrev:
Catalyst Control Center.


Ikke helt ... Dengang det hed ATi - CCC var det ja, CCC, nu hvor AMD har fået æren hedder det noget helt andet - men man kan også styre nogle processor-indstillinger gennem programmet... Hvis man altså har en AMD CPU :)
Gravatar #26 - Alrekr
1. dec. 2011 13:07
http://www.amd.com/us/products/technologies/amd-catalyst/pages/catalyst.aspx skrev:
The AMD Catalyst™ Control center has been designed from the ground up to give you a stable, reliable experience and also allow you to control every aspect of your GPU quickly and easily.
Gravatar #27 - PHP-Ekspert Thoroughbreed
1. dec. 2011 13:18
Alrekr (26) skrev:


Well, det er ikke det der står hvis jeg højreklikker på min desktop - før i tiden stod der sgu CCC/Catalyst Control Center :)
Gravatar #28 - Mr.Smiley
1. dec. 2011 14:10
Thoroughbreed (27) skrev:
Well, det er ikke det der står hvis jeg højreklikker på min desktop - før i tiden stod der sgu CCC/Catalyst Control Center :)


Hvor svært kan det være så at skrive det du ser der står, istedet for at starte en mindre debat op om hvem der har ret her :P
Gravatar #29 - CallOfDuty
1. dec. 2011 14:50
B230FT (17) skrev:
..omhandlende hvordan man bevidst pressede produktionsomkostningerne ned, så man _bad_ om problemer

Alle producenter af "whatever" prøver bevidst at presse produktionsomkostninger ned, det er normal forretning, og i det her tilfælde var det vidst TSMC der nævnte at man kunne bruge et andet materiale, men i sidste ende er det Nvidias ansvar at de stolede på TSMC (dem som producerer Nvidias chips).

Det kom i øvrigt til at koste Nvidia et par milliarder kroner, så jeg tror de har lært af den fejl.
Gravatar #30 - Sanity
1. dec. 2011 15:00
B230FT (17) skrev:
#10 - nVidia-gate er historien om skandalen omkring nVidias fejlramte GPU'er - omhandlende hvordan man bevidst pressede produktionsomkostningerne ned, så man _bad_ om problemer :-(

/B230FT


Tror du ikke nærmere de producerede kortet med henblik på at det skulle gå i stykker efter et givent stykke tid, f.eks. 2½ år. Jeg prøver at skrive dette uden at tage sølvpapirshatten på. Men f.eks. er det et rimelig kendt fænomen at f.eks. 9800m failede efter 2½ år (har selv ejet et kort hvor det skete). Det er desværre en rimelig normal produktions procedure i forbrugssamfundet at ting ikke skal holde for evigt og det har stået på siden 40'erne.

Se evt. The Light Bulb Conspiracy
Gravatar #31 - izym
1. dec. 2011 15:44
#22

VRAM != System RAM.
Gravatar #32 - TormDK
1. dec. 2011 16:08
#30 Jeg har faktisk en HP bærbar der havde et af de kort som Nvidia betalte 100 millioner dollar for at dække omkostningerne til RMA på.

Men HP sagde jeg kunne hoppe i havet da jeg sagde at jeg gerne ville have skiftet bundkortet efter grafikkortet stod af pga varme, hvor jeg netop henviste til den fejl.

So - No more HP products for me.
Gravatar #33 - PHP-Ekspert Thoroughbreed
1. dec. 2011 17:57
Mr.Smiley (28) skrev:
Hvor svært kan det være så at skrive det du ser der står, istedet for at starte en mindre debat op om hvem der har ret her :P


Fordi min iPhone ikke har et ATi grafikkort :D

Men sad ved den stationære for at lave noget billede halløj - der står "AMD Vision Engine Control Center"
Gravatar #34 - Clauzii
2. dec. 2011 13:59
Driveren hedder 'AMD Catalyst(tm)' og styreprogrammet (stadig) 'Catalyst(tm) Control Center'.

Eneste forskel er at der står AMD foran istedet for ATI. Ganske som #24 også påpeger.
Gravatar #35 - izym
2. dec. 2011 17:47
De omtaler det selv som "AMD Catalyst™ Control Center / AMD Vision™ Engine Control Center" jf. linket i #34.
Gravatar #36 - PHP-Ekspert Thoroughbreed
2. dec. 2011 18:14
Well, mit er stadig ikke CCC, selvom grafikkortet var fra dengang det stadig hed ATi - men på driver cd'en var det AMD VECC
Gravatar #37 - izym
2. dec. 2011 19:36
#36

Jeg tror idéen er, at de vil fase det over til, at hedde VECC.
Gravatar #38 - greylion
3. dec. 2011 02:13
Sanity (30) skrev:
Tror du ikke nærmere de producerede kortet med henblik på at det skulle gå i stykker efter et givent stykke tid, f.eks. 2½ år

"Don't attribute to malice, what can be adequately explained by stupidity."

Eftersom at nVidia ville være gået fallit, hvis alle OEM'erne (HP, Dell, IBM, osv.) havde krævet erstatning for defekte grafikchips, så nej.
De indså dog, at hvis nVidia gik fallit, så ville der kun være ATI/AMD tilbage, som så i praksis ville have monopol på at producere kraftige grafikchips.
Der er brug for nVidia til at holde prisen på grafikchips nede, desværre.

Hvis man går ud fra, at nVidia gjorde det for at begrænse levetiden af produkterne, så var effekten af de designændringer de foretog, langt større end tilsigtet. På den anden side ville det tage et par år før det gik op for dem..
Det værste er dog, at man stadig kan købe kort med de grafikchips. De burde simpelthen være blevet trukket tilbage.

For dem som har glemt det; nVidia fjernede et lag i chippene, som stivede dem af, dvs. mindskede de termiske deformationer en chip udviser, når den varmes op og køles af, og til at fæstne grafikchippen brugte de en legering, som er dårlig til at modstå kolde deformationer, dvs. den rives nemmere over.
Resultatet bliver, at efter chippen har været varmet op og kølet af nogle få hundrede gange, rives forbindelserne i kanten af chippen over, og så er der sort skærm. Forinden kan man opleve kortere eller længere perioder med flimmer, instabilitet og meget andet.

Man kan kortvarigt fikse problemet ved at opvarme chippen til ca. 210 grader med en varmepistol, hvorved tinlegeringen smelter og danner forbindelse igen, men det er kun få gange det kan lade sig gøre.
Typisk virker den kun et par uger, måske en måned, så begynder den at fejle igen, ofte meget mere brat / pludseligt end før.

Holdt man istedet fra starten af chippen ved (konstant belastning og) konstant temperatur, f.eks. 45 grader, kunne den måske holde et årti eller mere.

Til dem, som overvejer det; det er ekstremt dårlig moral/karma at opvarme en grafikchip så den virker igen, derefter sælge grafikkort/bærbar, og lade køber stå med problemet istedet.
Gravatar #39 - Sanity
3. dec. 2011 14:24
greylion (38) skrev:
For dem som har glemt det; nVidia fjernede et lag i chippene, som stivede dem af, dvs. mindskede de termiske deformationer en chip udviser, når den varmes op og køles af, og til at fæstne grafikchippen brugte de en legering, som er dårlig til at modstå kolde deformationer, dvs. den rives nemmere over.
Resultatet bliver, at efter chippen har været varmet op og kølet af nogle få hundrede gange, rives forbindelserne i kanten af chippen over, og så er der sort skærm. Forinden kan man opleve kortere eller længere perioder med flimmer, instabilitet og meget andet.


Altså, det kan godt være jeg spørger dumt, men hvad skulle fordelen ved de ændringer være, udover besparelse af 50 øre i materialer? (og muligheden for at sælge et nyt grafikkort hurtigere, eller for HP, Dell etc. en ny computer)
Gravatar #40 - Alrekr
3. dec. 2011 18:25
Sanity (39) skrev:
udover besparelse af 50 øre i materialer


50 øre x potentielt et par millioner kort?
Gravatar #41 - Clauzii
5. dec. 2011 06:02
Ang. AMD Catalyst, så er drivernavnet 'AMD Vision™ Engine Control Center' tiltænkt Axxxx CPUerne, altså dem med indbygget GPU.
Gravatar #42 - PHP-Ekspert Thoroughbreed
5. dec. 2011 06:58
Øhhhkæj? Min Phenom har ikke indbygget GPU, og mit grafikkort er ATi ... Oh well! Driveren virker!
Gå til top

Opret dig som bruger i dag

Det er gratis, og du binder dig ikke til noget.

Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.

Opret Bruger Login