mboost-dp1

Nvidia

Nvidia: Vores næste GPU kan først købes i 2012

- Via X-bit labs - , redigeret af Avenger-

Da Nvidias medgrundlægger Chris Malachowsky for nylig kunne oplyse, at det ville være muligt at få Nvidias næste GPU, Kepler, allerede i år, var han lidt for tidligt ude, da Nvidia nu har dementeret dette.

Nvidia oplyser, at den nye GPU måske nok er færdig i år, men egentlig produktion først starter i 2012.

Ken Brown, Nvidia skrev:
Although we will have early silicon this year, Kepler-based products are actually scheduled to go into production in 2012. We wanted to clarify this so people wouldn’t expect product to be available this year,

Det forventes, at produkter baseret på Kepler vil komme til at hedde GeForce 600-serien og introducere en række nye teknologier, der skal gøre GPU’en endnu mere brugbar til andre ting end blot grafik.





Gå til bund
Gravatar #1 - julepalme
5. aug. 2011 17:15
det lyder lækkert, tror nu jeg beholder mit GTX580 lidt endnu.

Glæder mig til at se flere mainstream programmer begynde at udnytte direct compute
Gravatar #2 - Mr.Smiley
5. aug. 2011 17:39
Jeg klare mig nu temmelig godt med mit (nu efterhånden lidt gamle..) GTX260.. Det køre bare.. Så denne nyhed gjorde intet for mig :)

Men det lyder da fint at de vil sætte den til mere "end bare grafik".. Hvad de så helt præcis har planer om, og hvordan det 100% vil fungere, må vi jo så se til den tid :)
Gravatar #3 - izym
5. aug. 2011 18:37
Mr.Smiley (2) skrev:
Jeg klare mig nu temmelig godt med mit (nu efterhånden lidt gamle..) GTX260.. Det køre bare.. Så denne nyhed gjorde intet for mig :)

Tillykke med det.

Mr.Smiley (2) skrev:
Men det lyder da fint at de vil sætte den til mere "end bare grafik".. Hvad de så helt præcis har planer om, og hvordan det 100% vil fungere, må vi jo så se til den tid :)

Sådan har det nu været længe, bare med CUDA i stedet for DirectCompute.
Gravatar #4 - TormDK
5. aug. 2011 19:33
Yup, som vi forudsagde i den anden nyhed omkring Nvidia's nye produkter så kan vi vel først købe dem omkring samtidig med vi alligevel skal ud og købe Ivybridge.
Gravatar #5 - ipwn
5. aug. 2011 20:53
#1 Med C++ AMP bliver det vel mainstream, da det vil kunne benyttes som og i sammenhæng med STL libraries. De fleste stykker software er jo allerede lavet i C++, og kan derved direkte udvides da sproget og dets libraries er uforandret, modsat CUDA f.eks.
Gravatar #6 - vandfarve
6. aug. 2011 02:12
Nyheden skrev:
Det forventes, at produkter baseret på Kepler vil komme til at hedde GeForce 600-serien og introducere en række nye teknologier, der skal gøre GPU'en endnu mere brugbar til andre ting end blot grafik.


... og således vil nVidia løbe tør for nye navne om 1-3 serier, efter hvordan de ønsker at regne.

Jeg kan simpelthen ikke forstå, hvorfor grafikkortproducenterne ikke snart laver nogle forståelige, meningsfulde og levedygtige navne. Jeg mindes, at særligt nVidia opfordrede til, at producenterne skulle have nogle forståelige navne, men det giver ingen mening, når deres næste generation kommer til at hedde 6xx og derfor snart mister muligheder for at følge navnelogikken.

Jebus - hvor svært kan det være?

/rant
Gravatar #7 - TormDK
6. aug. 2011 07:06
#6 Så kan de jo kalde dem X-et-eller-andet. Eller lave marketing på at "It's over Nine Thousand!!11".
Gravatar #8 - terracide
6. aug. 2011 07:53
vandfarve (6) skrev:
... og således vil nVidia løbe tør for nye navne om 1-3 serier, efter hvordan de ønsker at regne.

Jeg kan simpelthen ikke forstå, hvorfor grafikkortproducenterne ikke snart laver nogle forståelige, meningsfulde og levedygtige navne. Jeg mindes, at særligt nVidia opfordrede til, at producenterne skulle have nogle forståelige navne, men det giver ingen mening, når deres næste generation kommer til at hedde 6xx og derfor snart mister muligheder for at følge navnelogikken.

Jebus - hvor svært kan det være?

/rant


Faggot, jeg har ejet følgende kort, kun en IT n00b ville have svært ved at følge med:

RIVA TNT2 Ultra
GeForce 256
GeFGeForce2 Ultra
GeForce3 Ti 500
GeForce4 Ti 4600
Radeon Pro 9800 (farisær)
GeForce 6800 GT
GeForce 7800 GT(+) Et Gainwars 7800GTX til AGP.
GeForce 8800 GT
*hoopede 9x00 serien over*
GeForce GTX 285
*hoppede 4x0 serien over*
GeForce GTX 580

Her snakker vi GPU's fra 1999 til 2011, så selvfølgelig giver det ikke menning hvis du kigger fra 2011 og tilabe til 1999...men sådan virker IT(og gamig nhardware ikke, der er +5 år MEGET lang tid), men fra generation til generation skal man være mongol eller failfarve for ikke at kunne følge med...

Gravatar #9 - knekker
6. aug. 2011 08:44
Så din mor er altså en mongol, godt vi fik det afklaret. Nu forstår Jeg bedre hvorfor du er sådan en påståelig kegle.
Gravatar #10 - terracide
6. aug. 2011 08:47
#9:
At du vælger at bruge ratingen "flamebait" for selv at forsætte i samme dur gør dig til amatørtroll...eller bare dum...*shrugs*
Gravatar #11 - buchi
6. aug. 2011 09:24
terracide (10) skrev:
#9:
At du vælger at bruge ratingen "flamebait" for selv at forsætte i samme dur gør dig til amatørtroll...eller bare dum...*shrugs*


ProTroll Oh Yeah! ;)

Jeg glæder mig til de her kort kommer på banen :) Håber de laver nogle low power udgaver :)
Gravatar #12 - bjoeg
6. aug. 2011 11:42
#11 Hear ya. Kampen mellem ATi, undskyld AMD og Nvidia gør blot at det handler om at få noget kram hurtigt på gaden. Lav for dulen da noget som bruger minimal strøm, eller rettere OGSÅ bruger minimal strøm.

Vi skal jo redde miljøet, os selv, isbjørnene, spare på Co2'en og gerne hjælpe til med Folding@Home, SETI, Cure4Cancer og bitcoin på samme tid.
Gravatar #13 - terracide
6. aug. 2011 13:19
#12:
Isbjørnen kan rende mig, jeg vil hellere have højere FPS/I.Q.
Gravatar #14 - ShamblerDK
6. aug. 2011 15:54
#11: Hvorfor low-power? Det betyder typisk mindre ydelse... gør som jeg; køb en 1200Watt PSU så du ikke behøver tænke på at købe en ny hver gang du køber en ny computer. Den jeg har er fra ThermalTake og den er MIL-godkendt :-)

Jeg hader at indrømme det, men terracide har fat i noget dér...
Gravatar #15 - Clauzii
6. aug. 2011 16:21
#14:
Nu er det bare sådan at en strømforsynings udnyttelsesgrad sædvanligvis bliver lavere, jo mere 'overskud' den har.
Gravatar #16 - ShamblerDK
7. aug. 2011 11:41
#15: Selvfølgelig, det er jo logik for perlehøns! Men hvis du har en strømforsyning der kun lige kan trække din computer vil du belaste den i en sådan grad at der vil gå energi til spilde i form af varme afsat i strømforsyningen og der ved reducere dens levetid. Det er altid fornuftigt at ha' en Strømforsyning der ligger minimum et par hundrede Watt over resten af ens hardware's maximum load.

Men givet, min 1200Watt PSU er måske lidt voldsom til min nuværende computer, men den er købt dengang jeg skulle trække mit Geforce 8800 Ultra, der alene åd 300Watt under maximum load hvilket jeg kørte det ved tit. Desuden kørte jeg med 6 harddiske og det gør jeg stadig.
Gravatar #17 - vandfarve
7. aug. 2011 15:51
ShamblerDK (16) skrev:
#15: Selvfølgelig, det er jo logik for perlehøns! Men hvis du har en strømforsyning der kun lige kan trække din computer vil du belaste den i en sådan grad at der vil gå energi til spilde i form af varme afsat i strømforsyningen og der ved reducere dens levetid. Det er altid fornuftigt at ha' en Strømforsyning der ligger minimum et par hundrede Watt over resten af ens hardware's maximum load.


Frit fra hukommelen yder en PSU bedst ved en belastning omkring 50-90 % af nominal ydelse.

Sandsynligheden er derfor, at din 1.200 watt PSU givetvis er langt mindre effektiv, end hvad der stod på den fine indpakning, og du selv tror.

Så det er logik for burhøns at skalere alle komponenterne til hinanden. :)
Gravatar #18 - buchi
7. aug. 2011 17:19
ShamblerDK (14) skrev:
#11: Hvorfor low-power? Det betyder typisk mindre ydelse... gør som jeg; køb en 1200Watt PSU så du ikke behøver tænke på at købe en ny hver gang du køber en ny computer. Den jeg har er fra ThermalTake og den er MIL-godkendt :-)

Jeg hader at indrømme det, men terracide har fat i noget dér...


Der er mange ting i det :) Jeg sidder normalt på linux, men vil gerne kunne game til lejlighed :)

Derudover bliver et lille værelse meget hurtigt meget varmt, når computer lukker 800 watt ud:)

Og igen, så skal du altså betale for den strøm du bruger ;)
Gravatar #19 - gensplejs
7. aug. 2011 18:16
terracide (13) skrev:
#12:
Isbjørnen kan rende mig

Tro mig... det ønsker du ikke... de bæster kan bidde hårdt. :-)
Gå til top

Opret dig som bruger i dag

Det er gratis, og du binder dig ikke til noget.

Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.

Opret Bruger Login