mboost-dp1

Nvidia

Rygte: Nvidia venter med Kepler til april

- Via Vr-zone -

På den netop afholdte CES messe, var Nvidia meget fremme i skoene med produkter, der brugte deres Tegra 3 chip, som Nvidia satser hårdt på. På GPU-siden hørte man intet til Nvidias kommende Kepler GPU, men ifølge kilder indenfor grafikkortbranchen er der en god grund til dette.

Nvidia ønsker ikke, at lave en såkaldt “paper launch” igen, hvor de ved lanceringen af deres næste GPU ikke har nogen produkter klar til salg. Man venter derfor i øjeblikket på, at partnere får styr på deres produktion, så man har nok grafikkort klar til salg ved lanceringen, til at håndtere den første bølge af kunder.

Den oprindelig plan fra Nvidias side var ellers, at lancere Kepler i første kvartal 2012, men det ser altså nu ud til, at dette skubbes til starten af andet kvartal.





Gå til bund
Gravatar #1 - Marve
17. jan. 2012 17:22
Det bliver da interessant at finde ud af ydeevnen af sådan en Kepler kort!
Gravatar #2 - bobolobo
17. jan. 2012 17:23
Eller fremvise og lancerer specifikationer så tidligt at konkurrenten kort tid efter har bedre kort på markedet igen.
Gravatar #3 - Baker
17. jan. 2012 18:25
Gad vide om det har noget at gøre med at 7970 lige er udkommet og nVidia føler sig presset til at lave ændringer(Core og RAM Mhz osv.)
Gravatar #4 - TormDK
17. jan. 2012 18:43
#3 Måske, men jeg tvivler.

De få gange hvor AMD er kommet med noget der har vippet Nvidia ned fra Single GPU tronen, er det kommet stærkt igen.

Gravatar #5 - XsiX
17. jan. 2012 20:43
En af de store nyheder er jo mindre strømforbrug.

Men for satan det er da irriterende at det bliver udsat helt til April! Har ventet siden midten af 2011 da rygterne startede med en mulig release i slutning af året.
Gravatar #6 - Mnc
17. jan. 2012 20:48
#5
"troværdige rygter" (som jeg læser nyheden) siger at det er for at give folk et 'rigtigt' launch istedet for et paper launch.

Så det virker ikke umiddelbart til, at du vil skulle vente længere på et færdigt produkt.
Gravatar #7 - lysseslukker
17. jan. 2012 21:05
#4
det kommer vel an på hvordan du vender den. Nvidia har jo haft længere tid til at lave deres chip:D
Gravatar #8 - terracide
17. jan. 2012 23:17
Baker (3) skrev:
Gad vide om det har noget at gøre med at 7970 lige er udkommet og nVidia føler sig presset til at lave ændringer(Core og RAM Mhz osv.)


Næppe, NVIDIA har designet Kepler før Fermi kom ud...det tager fang tid at redesigne en core.

Som en sidenote kan jeg sige at sidste gang NVIDIA var så stille og tightlipped (selv min kontakter er meget tavse)...var op til lanceringen af G80.

Når NVIDIA er stille plejer det at være fordi de sidder på noget godt.
Gravatar #9 - fidomuh
18. jan. 2012 01:15
#8

Eller fordi de har lavet poelser i bukserne :)
Gravatar #10 - terracide
18. jan. 2012 05:42
fidomuh (9) skrev:
#8

Eller fordi de har lavet poelser i bukserne :)


G70, G80(specielt) og G200 var GPU's hvor NVIDIA var tavse.

NV30 og GF100 lavede NVIDIA meget larm

Kepler minder meget om tavsheden før G80)

You do the math...og så ved jeg ikke hvad "poelser" er.
Gravatar #11 - Clauzii
18. jan. 2012 07:36
OffT:
terracide (10) skrev:
...og så ved jeg ikke hvad "poelser" er.


Så må du hellere faa dine skolepenge tilbage.. Eller huske at Fidomuh sidder uden DK tastatur..?

OnT:
nVidia har bare at komme med noget godt, for den nye serie fra ATI er fabelagtig. Og en ren overclocking-haj, som skalere stort set liniært op til ihf. 1200 MHz. på GPUen. Og Med en RAM hastighed v. OC på +320 GB/s, skal nVidia virkelig have noget godt i ærmet.

And you know it..
Gravatar #12 - terracide
18. jan. 2012 08:05
Clauzii (11) skrev:
OffT:

Så må du hellere faa dine skolepenge tilbage.. Eller huske at Fidomuh sidder uden DK tastatur..?


Så du mener at fidofail i 2012 ikke kan finde ud af dansk charsæt?
OS er ligegald med hvad der bogstaver der er trykt på tasterne BTW...jeg kunne sidde med et japansk keybaord...og stadig skrive æ,ø & å.

OnT:
nVidia har bare at komme med noget godt, for den nye serie fra ATI er fabelagtig. Og en ren overclocking-haj, som skalere stort set liniært op til ihf. 1200 MHz. på GPUen. Og Med en RAM hastighed v. OC på +320 GB/s, skal nVidia virkelig have noget godt i ærmet.

And you know it..


512 Cuda cores på 40 nm -> 1024 CUDA core på 28nm...you'd better believe it ;)
Gravatar #13 - Clauzii
18. jan. 2012 08:17
Personligt tror jeg 640 eller 768 er mere realistisk.

Ang. tastature og caharsets: Har selv engang siddet med US-keys med DK chars. Pain in the a.., hvis du spør' mig.
Gravatar #14 - terracide
18. jan. 2012 08:41
Clauzii (13) skrev:
Personligt tror jeg 640 eller 768 er mere realistisk.

Ang. tastature og caharsets: Har selv engang siddet med US-keys med DK chars. Pain in the a.., hvis du spør' mig.


Ikke på deres high-end single GPU ;)
Hvilket passer fint med denne slide:
http://www.abload.de/img/pcgaming_nv01pym.jpg
Gravatar #15 - mee
18. jan. 2012 10:10
Clauzii (13) skrev:
Personligt tror jeg 640 eller 768 er mere realistisk.

Ang. tastature og caharsets: Har selv engang siddet med US-keys med DK chars. Pain in the a.., hvis du spør' mig.


Hvis NVIDIA skal leve op til deres løfter, er de nok nød til at lave en 1024 CUDA core chip.
Selv forventer jeg ikke 1024 kerner, og hvis der er et 1024 kerne kort, så går det nok ligesom sidst de fordoblede antallet af kerner med 400 serien, hurtig, men varm og støjende.

Jeg er bare spændt på om de kan levere de lovede 3 til 4x mere FP ydelse per watt i forhold til Fermi.
Gravatar #16 - terracide
18. jan. 2012 10:41
mee (15) skrev:
Clauzii (13) skrev:
Personligt tror jeg 640 eller 768 er mere realistisk.

Ang. tastature og caharsets: Har selv engang siddet med US-keys med DK chars. Pain in the a.., hvis du spør' mig.


Hvis NVIDIA skal leve op til deres løfter, er de nok nød til at lave en 1024 CUDA core chip.
Selv forventer jeg ikke 1024 kerner, og hvis der er et 1024 kerne kort, så går det nok ligesom sidst de fordoblede antallet af kerner med 400 serien, hurtig, men varm og støjende.

Jeg er bare spændt på om de kan levere de lovede 3 til 4x mere FP ydelse per watt i forhold til Fermi.

GF100- > GF110 viste at det ikke var chippen, men TMCS process der bar meget af skylden.

Du skulle måske også kigge på Fermi revisited:
http://benchmarkreviews.com/index.php?option=com_c...

Samme arkitektur...mere moden process.

Og du skal huske på de snakker DP, ikke SP performance.
Og det får du mest ud af på QUADRO kort da GeForce kort er låst til 1/8 DP performance.
Gravatar #17 - mee
18. jan. 2012 11:41
terracide (16) skrev:

GF100- > GF110 viste at det ikke var chippen, men TMCS process der bar meget af skylden.

Du skulle måske også kigge på Fermi revisited:
http://benchmarkreviews.com/index.php?option=com_c...

Samme arkitektur...mere moden process.


Det var ikke første gang NVIDIA ikke kunne finde ud af en ny process node hos TSMC, som havde en del problemer med 40nm. AMD var kvikke nok til at lave 4770 som en test chip ved 40 nm, mens NVIDIA brasede frem med ny arkitektur på ny process node.

Resultatet blev at AMD kendte TSMC's design krav og begrænsninger når de bestilte 5K serien hos TSMC. Samtidig måtte NVIDIA slås med en lidt uheldig 400 serie, rette designet til og udgive en 500 serie baseret på samme arkitektur.

NVIDIA's 400 -> 500 skift ikke et tilfælde af samme arkitektur...mere moden process. Det er et tilfælde af samme arkitektur, korrekt design og mere moden process.

Det ser ud til at AMD kunne finde ud af ny node og ny arkitektur samtidig med 28 nm, det bliver spændende at se om NVIDIA har lært det denne gang.
Gravatar #18 - terracide
18. jan. 2012 12:32
mee (17) skrev:
terracide (16) skrev:

GF100- > GF110 viste at det ikke var chippen, men TMCS process der bar meget af skylden.

Du skulle måske også kigge på Fermi revisited:
http://benchmarkreviews.com/index.php?option=com_c...

Samme arkitektur...mere moden process.


Det var ikke første gang NVIDIA ikke kunne finde ud af en ny process node hos TSMC, som havde en del problemer med 40nm. AMD var kvikke nok til at lave 4770 som en test chip ved 40 nm, mens NVIDIA brasede frem med ny arkitektur på ny process node.

Resultatet blev at AMD kendte TSMC's design krav og begrænsninger når de bestilte 5K serien hos TSMC. Samtidig måtte NVIDIA slås med en lidt uheldig 400 serie, rette designet til og udgive en 500 serie baseret på samme arkitektur.

NVIDIA's 400 -> 500 skift ikke et tilfælde af samme arkitektur...mere moden process. Det er et tilfælde af samme arkitektur, korrekt design og mere moden process.

Det ser ud til at AMD kunne finde ud af ny node og ny arkitektur samtidig med 28 nm, det bliver spændende at se om NVIDIA har lært det denne gang.


Det er satme en løs omgang med sandhende du har...du læser vist for mege forum og for lidt fakta.

TMSC's process overholdt ikke specs...NVIDIA stoelde på TMSC's og brugte 1 intercoonect, AMD havde lært at TMCS's process ikke levede op til specs og brugte 2 interconnects.
NVIDIA betalte prisen med defekte kredsløb og lave yields.

Men læs nu det link jeg smed!
Så slipper jeg for at skære ting ud i pap:
http://benchmarkreviews.com/index.php?option=com_c...

As you can see, 36°C at idle on the ENGTX480 is a far cry from 53°C produced by NVIDIA's engineering sample. 82°C under synthetic 100% load is also notably cooler, a full 11°C cooler than the early media samples. Obviously, there are the temperatures NVIDIA should have launched the product with from day one, but six months later consumers can reap the rewards of improved development.


http://benchmarkreviews.com/index.php?option=com_c...

...to more reasonable power consumption levels. When Benchmark Reviews first tested the NVIDIA GeForce GTX 480 engineering sample, the idle power draw was a thirsty 52 watts of electricity, and perhaps among the highest idle power draw we've measured for any single-GPU DX11-generation graphics cards. This level of consumption is slightly higher than the 48W we measured for the dual-GPU AMD Radeon HD 5970, and more than twice the demand of AMD's Radeon HD5870 and HD5850.

Similar to the dramatic decrease in temperature due to mature firmware, the Fermi GPU cores have been tamed to use less idle power on the ASUS GeForce GTX 480 than before... down to 39 watts at idle. The GF100 GPU surely has a big power appetite, but it's nice to see ASUS has trained it to snack on only a few watts.

Once 3D-applications begin to demand power from the GPU, electrical power consumption really begins to climb. Measured at full 3D load, the NVIDIA GeForce GTX 480 engineering sample set a new maximum power record and consumed 370 watts. With a more refined BIOS controlling the ENGTX480 unit, the ASUS GeForce GTX 480 slimmed down to 315W... a decrease of 55W


GF100 - GF110 er et resultat af at have ændret GPU til at tage højde for at TMCS ikke lever op til specs:
http://www.anandtech.com/show/4008/nvidias-geforce...

Furthermore GTX 480 and GF100 were clearly not the products that NVIDIA first envisioned. We never saw a product using GF100 ship with all of its SMs enabled – the consumer space topped out at 15 of 16 SMs, and in the HPC space Tesla was only available with 14 of 16 SMs. Meanwhile GF100’s younger, punchier siblings put up quite a fight in the consumer space, and while they never were a threat to GF100, it ended up being quite the surprise for how close they came.

Ultimately the Fermi architecture at the heart of this generation is solid – NVIDIA had to make some tradeoffs to get a good gaming GPU and a good compute GPU in a single product, but it worked out. The same can’t be said for GF100, as its large size coupled with TSMC’s still-maturing 40nm process lead to an unwieldy combination that produced flakey yields and leaky transistors. Regardless of who’s ultimately to blame, GF100 was not the chip it was meant to be.


NVIDIA brugte et helt ny trick for at komme uden om TMSC's process problemer:
http://www.anandtech.com/show/4008/nvidias-geforce...

Beyond the specific architectural improvements for GF110 we previously discussed, NVIDIA has also been tinkering with their designs at a lower level to see what they could do to improve their performance in conjunction with TSMC’s 40nm manufacturing process.


For GF110, NVIDIA included a 3rd type of transistor, which they describe as having “properties between the two previous ones”. Or in other words, NVIDIA began using a transistor that was leakier than a slow transistor, but not as leaky as the leakiest transistors in GF100. Again we don’t know which types of transistors were used where, but in using all 3 types NVIDIA ultimately was able to lower power consumption without needing to slow any parts of the chip down. In fact this is where virtually all of NVIDIA’s power savings come from, as NVIDIA only outright removed few if any transistors considering that GF110 retains all of GF100’s functionality.


Så GF100 - GF110 så NVIDA ændrede på texture hardware (taget fra GF104), en ny køler, en 3 type transistor, double interconnects.

Selv AMD led under TMSC's process:
http://www.xbitlabs.com/news/other/display/2010012...

AMD var ende på 20-30% yield...selv med double interconnects...

Terra - Brug for mere info?!
Gravatar #19 - lysseslukker
18. jan. 2012 12:37
#18
hvorfor skifter de så ikke fabrikant. Kan de andre ikke være med eller?
Gravatar #20 - terracide
18. jan. 2012 12:49
#19:
Der er ikke så mange der er med på "noderne" (pun intended)

Intel er helt fremme i skoene og har deres 22nm 3D transistorere i produktion.
Så har du IMB der leger sammen med Global Foundries..og al deres kapacitet går til AMD CPU's

Det efterlader TMSC tilbage.

Både AMD og NVIDIA ville elske at kunne fabbe GPU's ved Intel på 22nm...Men de holder sig til TMSC for deres GPU'er...da GF process er bedre egnet til CPU'er ned GPU'er.

Og kigger du væk fra PR så vil jeg sidestille Intel's 32nm med TMSC's 28nm...
Gravatar #21 - fidomuh
18. jan. 2012 13:21
#10

You do the math...og så ved jeg ikke hvad "poelser" er.


Ah, beklager. I dit land hedder det jo "korvar". :P
Gravatar #22 - mee
18. jan. 2012 13:33
@Terra

Daaam, der er en der keder sig på sit arbejde.

Jeg gider knageme ikke citere alt det møg du har sat ind.

At AMD lavede tingene anderledes ændrer ikke på at de var forberedt på problemerne ved en ny process node. AMD var ved hjælp af 4770 kortet forberedt på de designkrav og begrænsninger brugen af TSMC's nye 40nm node betød. Reelt giver du mig ret ved at skrive om at AMD havde flere interconnects. Jeg mindes der var flere/andre ting AMD også tog højde for, men point taken, og det er et point til mig.

At der ved senere revisioner af kortene til GF100 aka. 400 serien har været reduceret temperatur samt strømforbrug ændrer ikke på at NVIDIA var nødt til at gå tilbage til tegnebrættet og fixe lidt på GF100 designet, så vi kunne få det Fermi skulle have været fra starten af med 500 serien.

som der endda står i en af dine citater.


Ultimately the Fermi architecture at the heart of this generation is solid – NVIDIA had to make some tradeoffs to get a good gaming GPU and a good compute GPU in a single product, but it worked out. The same can’t be said for GF100, as its large size coupled with TSMC’s still-maturing 40nm process lead to an unwieldy combination that produced flakey yields and leaky transistors. Regardless of who’s ultimately to blame, GF100 was not the chip it was meant to be.


+ 1 point til mig igen.

Samt som du selv citerer (igen).


Beyond the specific architectural improvements for GF110 we previously discussed, NVIDIA has also been tinkering with their designs at a lower level to see what they could do to improve their performance in conjunction with TSMC’s 40nm manufacturing process.


+1 point til mig igen (igen).

NVIDIA var nødt til at bruge tid på at passe Fermi designet til. Samtidig kunne AMD sælge 5K kort og kigge på hvordan de kunne strække deres VLIW idés levetid længe nok til at de kunne blive færdig med GCN.

At både AMD og NVIDIA ikke fik mange chips fra TSMC ændrer ikke på at AMD havde færre problemer med overgangen til 40nm.
Da 580 kortet kom fra var det tydeligt hvor dårlige NVIDIA havde været til at forberede sig på 40nm.

lysseslukker (19) skrev:
#18
hvorfor skifter de så ikke fabrikant. Kan de andre ikke være med eller?


For at svare på en høfligere måde end Terra.
Der er snak om at AMD vil skifte noget GPU produktion fra TSMC til Gkobal Foundries, men det er ikke ligetil.
Her er et link med en kort artikel der nævner det.
http://www.anandtech.com/show/4548/28nm-radeon-chi...

Det er dog flere "udfordringer" end Anandtech lige skriver.
Gravatar #24 - terracide
19. jan. 2012 05:15
#22:
At du prøver at forslå at GF skulle lave AMD's high-wnsGPU viser for mig du læser for meget på fora og ikke fatter hvad der forgår...kig på processsen...madre mia LOL

Og at jeg kan huske hvad jeg læser og hvorhenne, betyder ikke at jeg brugte mee end 5 min på det indlæg, tudefjæs ;)
Gravatar #25 - terracide
19. jan. 2012 05:16
#22:
Og så kan du ikke læse og forstå....minus 1000 point til dig LOL
Gravatar #26 - mee
19. jan. 2012 11:04
terracide (24) skrev:
#22:
At du prøver at forslå at GF skulle lave AMD's high-wnsGPU viser for mig du læser for meget på fora og ikke fatter hvad der forgår...kig på processsen...madre mia LOL

Og at jeg kan huske hvad jeg læser og hvorhenne, betyder ikke at jeg brugte mee end 5 min på det indlæg, tudefjæs ;)


Yeah, så skiftede Terra emne, det klassiske tegn på at han ikke aner hvad han skal fyre af.

Jeg linkede til et rygte lagt op som en artikel på anand, det var et høfligt svar til lysseslukker. Du vælger så i blind idioti at kaste det gamle emne fra dig og brokke dig over en simpel beskrivelse af at TSMC -> GF skift ikke bare lige kan gøres, magen til uhøfligt fjols skal man lede længe efter.

terracide (25) skrev:
#22:
Og så kan du ikke læse og forstå....minus 1000 point til dig LOL


Double up, nu går du ud i en "min far kan tæve din far" tilgang. Her kan jeg se at det er ligegyldigt hvad jeg skriver, så jeg vil citere en forumtrolds kommentar og lade alt hvad du skriver herefter stå uden kommentarer fra mig.

http://newz.dk/nvidia-lancerer-geforce-gtx-480-og-...

terracide (38) skrev:

Hopper over denne omgang og venter på en 512 core, B1 refresh...


Det B1 refresh viste sig at være et redesign, det tog noget tid at få det ud af døren og det hedder i dag GTX580.

@andre

Egentlig sjovt at Terra har så travlt med at forsvare en serie kort, 400 serien, som han ikke selv gad eje.

http://newz.dk/nvidia-vores-naeste-gpu-kan-foerst-...
Gravatar #27 - terracide
19. jan. 2012 11:59
#26:
Hvis du ikke kan forstå et TMCS's 40nm ikke overholdt specs og det betød at man ikke kunne følge deres design specs (1 interconnect) uden at det gav så mange fejl trannies at både ydelse og yiled led, men var tvunget til at gå ud over specs (2 intercooencts) så er det dig der ikke er værd at spilde tid p.

Læg mærke til hvordan du er vævet udenom:

- AMD og NVIDIA led begge under TMSC's 40nm issues.
- At GF100 kører anderledes på en mere moden 40nm...selv om det er samme gPU....og samme process specs.
- At GF110's design var lavet til at komme uden om TMCS's 40nm issues (3rd type tranny)

Så kan du bræge videre...ændre ikke på fakta ;)

Terra - Ved du overheovedet hvad en interconnect er? (men det gør du vel nu da wiki er kommet op...*host*)
Gravatar #28 - terracide
19. jan. 2012 12:01
fidomuh (21) skrev:
#10

Ah, beklager. I dit land hedder det jo "korvar". :P


*kigger på passet*
Har Danmark lavet et nyt ord?

Og du kan stadig ikke lave æ,ø og å...fidofail...inkompetent siden fødsel
Gravatar #29 - fidomuh
19. jan. 2012 13:47
#28

*kigger på passet*
Har Danmark lavet et nyt ord?


Staar der Danmark paa din adresse da? :)

Og du kan stadig ikke lave æ,ø og å...fidofail...inkompetent siden fødsel


I det mindste ved jeg hvad inkompetent betyder, men som et hint kan jeg jo fortælle at problemet ikke ligger i hvad jeg kan.
Gravatar #30 - XorpiZ
19. jan. 2012 13:57
terracide (28) skrev:
inkompetent siden fødsel


siger ham, der forveksler/ikke kender forskellen på java og javascript :D
Gravatar #31 - terracide
19. jan. 2012 20:45
XorpiZ (30) skrev:
siger ham, der forveksler/ikke kender forskellen på java og javascript :D


Har jeg generet dig?
Godt!
Cry me a river! :D

On a sidenote...hell just froze over...Char-lie stopped balsting NVIDIA:
http://semiaccurate.com/2012/01/19/nvidia-kepler-v...

/thermometer...
Gravatar #32 - XorpiZ
19. jan. 2012 21:02
#31

Ikke specielt. Men det klinger så hult, så hult, når du sprøjter dig om dig med svinere om folks kompetencer, når du ikke ved noget så basalt som, at der er forskel på java og javascript.
Gravatar #33 - terracide
19. jan. 2012 21:33
XorpiZ (32) skrev:
#31

Ikke specielt. Men det klinger så hult, så hult, når du sprøjter dig om dig med svinere om folks kompetencer, når du ikke ved noget så basalt som, at der er forskel på java og javascript.


Nårh lille pusser da...du lyder nu butthurt...keep posting ;)
Gravatar #34 - XorpiZ
20. jan. 2012 07:20
Nah, jeg morer mig bare over, at du er så hyklerisk :)
Gravatar #35 - Mnc
20. jan. 2012 10:28
#34
Så må du have hulket af grin siden sommeren '05. ^^

Det må da gøre nas i mavemusklerne efterhånden.
Gravatar #36 - XorpiZ
20. jan. 2012 10:30
Det er vanvittig god træning.
Gravatar #37 - terracide
21. jan. 2012 13:41
More info:
http://twitter.com/drewhenry

"2012 is going to be great"

http://www.legitreviews.com/news/12324/

During CES 2012 we sat down with NVIDIA and they wouldn't talk about Kepler on the record, but off the record that they expected to see more from the AMD Radeon HD 7970. From our face-to-face conversation with NVIDIA we walked away with the feeling that they were underwhelmed by what they saw and that Kepler would be able to easily leap frog the Radeon HD 7900 series. Time will obviously tell if this is the truth, but if the GK-104 is faster than the AMD Radeon HD 7970 the folks over at AMD better get back to work


I smell another G80...
Gravatar #38 - fidomuh
23. jan. 2012 12:19
Gå til top

Opret dig som bruger i dag

Det er gratis, og du binder dig ikke til noget.

Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.

Opret Bruger Login