mboost-dp1

Nvidia

Nvidia: Næste GPU generation efter Maxwell bliver Pascal

- Via Nvidia blogs - , redigeret af Pernicious

Det er ikke mange dage siden, at Nvidia sendte sine første Maxwell baserede grafikkort på gaden, i form af GeForce GTX 750 og Ti varianten. På GPU Technology Conference har Jen-Hsun Huan, administrerende direktør for Nvidia, løftet sløret for flere oplysninger, omkring den næste generation af GPU’er efter Maxwell.

Den nye generation hedder Pascal, opkaldt efter den franske matematiker Blaise Pascal, men nogle vil måske huske den under navnet Volta, som Nvidia kaldte den ved GTC 2013.

Nvidia lover naturligvis, at Pascal vil blive hurtigere, bruge mindre strøm og fylde mindre. Dette skal opnås ved brug at to nye teknologier Jen-Hsun Huang kom nærmere ind på, samt andre han først vil løfte sløret for senere.

Den ene teknologi er NVLink, der er lavet som en afløser for PCIe 3.0 og skal stå for kommunikationen mellem CPU og GPU, men også mellem GPU og GPU. Nvidia angiver en hastighed der er 4 til 12 gange hurtigere end PCIe 3.0. Med NVLink er det muligt at have flere GPU’er koblet sammen, så de ses som en stor GPU.

Den anden teknologi er Stacked Memory eller 3D Memory, hvor hukommelsen laves i samme chip som GPU’en, oven på denne, i flere lag. Dette giver en voldsom stigning i båndbredden, hvor Nvidia lover op til 4 gange så stor båndbredde i forhold til i dag.

Størrelsen af et grafikkort kan også reduceres væsentligt, man skal derfor forvente, at de med Pascal kun fylder en tredjedel af hvad vi er vant til.





Gå til bund
Gravatar #1 - carbonic
27. mar. 2014 07:36
Så igen laver Nvidia deres egen standard i stedet for at finde sammen med konkurrenterne og lave en åben standard?

Jamen tak for at ødelægge pc markedet yderligere Nvidia+Intel.
Gravatar #2 - Fafler
27. mar. 2014 07:44
Der er en smule mere information om NVLink her: http://nvidianews.nvidia.com/Releases/NVIDIA-Launc...

Det er godt nok skidt hvis Nvidia vil bruge en properitaer bus mellem CPU og GPU. Det kraever vel ogsaa egenproducerede chipsaet, men havde de ikke trukket sig ud af det marked?
Gravatar #3 - dingeling
27. mar. 2014 08:17
Hvis Intel + Nvidia begeynder at køre deres egen løb, så vil jeg mene, at AMD også bliver nødt til det for at beholde markedsandele. Så ender man højest sandsynligt op med, at der to lukkede standarder (en Intel/Nvidia og en AMD).

Dvs. når man har valgt Intel som CPU, bliver man nødt til at have et Nvidia grafikkort og ved AMD cpu skal have et AMD ATI grafikkort, for at kunne opnå det fulde potentiale af de lukkede standarder

Det ville være pænt træls hvis det ender sådan.
Gravatar #4 - Slettet Bruger [2315229367]
27. mar. 2014 08:29
#3 det ville tage livet af AMD
Gravatar #5 - naggert
27. mar. 2014 09:31
dingeling (3) skrev:
Det ville være pænt træls hvis det ender sådan.

Er det ikke allerede på vej i den retning? Synes AMD vs Intel er hele Windows vs OSX (pc vs mac) om igen.

De færreste af mine nørd venner ville bruge en AMD CPU med et Nvidia grafikkort
Gravatar #6 - mee
27. mar. 2014 09:35
Ret mig endelig, men Intel er nok ikke synderligt interesserede i NVlink, og jeg mindes alle eksemplerne viste at kortene kørte op imod ting fra IBM.
Så i skal nok ikke forvente NVlink i almindelige desktop/laptop processorer fra Intel og AMD.

Det er fint nok at Nvidia kan lave det hele mindre, men de løber ind i samme problem som de har kritiseret AMD for.
Jo mindre tingene bliver, jo hårdere skal du kæmpe for at få varmen ud af dem.
Gravatar #7 - Curon
27. mar. 2014 10:07
Det bare interessant at Nvidia intet nævner om Maxwell kortene til konferencen. Der står kun 2014.

Kan selvfølgelig godt sætte mig ind i at de skal holde det hemmeligt for deres egen skyld, men de er slemme til at vente til sidste øjeblik med at udgive info om de nyeste kort fra Nvidia. Det gør selvfølgelig at der bliver solgt en masse 700 serie kort imellemtiden, men det er jo lidt at malke kunderne til det yderste.

Med det mener jeg at, der er brugere som gerne vil skifte grafikkort, men ikke ved hvornår de nye 800 serie kort bliver udgivet. De skal så endten købe nu eller vente ubestemt tid på de nye kort. Og nogen er jo ikke i stand til at vente for længe af forskellige årsager.
Gravatar #8 - TormDK
27. mar. 2014 11:01
Curon (7) skrev:
Det bare interessant at Nvidia intet nævner om Maxwell kortene til konferencen. Der står kun 2014.

Kan selvfølgelig godt sætte mig ind i at de skal holde det hemmeligt for deres egen skyld, men de er slemme til at vente til sidste øjeblik med at udgive info om de nyeste kort fra Nvidia. Det gør selvfølgelig at der bliver solgt en masse 700 serie kort imellemtiden, men det er jo lidt at malke kunderne til det yderste.

Med det mener jeg at, der er brugere som gerne vil skifte grafikkort, men ikke ved hvornår de nye 800 serie kort bliver udgivet. De skal så endten købe nu eller vente ubestemt tid på de nye kort. Og nogen er jo ikke i stand til at vente for længe af forskellige årsager.


Standard business practice, det er ikke unikt til Nvidia. AMD annoncerer jo heller ikke lang tid i forvejen om hvornår der kommer et nyt kort.

Hvorfor skulle de også det.

Nyeste generations kort selv i mid-range segmentet kan jo snildt holde 4+ år, vi har ikke behovet endnu fordi 2560x1920 skærmene ikke er standard opløsningen på desktop Pc's endnu.

Gravatar #9 - Karstenkranvogn
27. mar. 2014 12:54
#8 Jeg er ikke helt enig i at kort der er 4+ år kører helt optimalt. Det afhænger vist meget af hvilke spil man spiller og hvilke krav man stiller sig selv til performance.
Gravatar #10 - Curon
27. mar. 2014 13:51
TormDK (8) skrev:


Standard business practice, det er ikke unikt til Nvidia. AMD annoncerer jo heller ikke lang tid i forvejen om hvornår der kommer et nyt kort.

Hvorfor skulle de også det.

Nyeste generations kort selv i mid-range segmentet kan jo snildt holde 4+ år, vi har ikke behovet endnu fordi 2560x1920 skærmene ikke er standard opløsningen på desktop Pc's endnu.


Jeg er som #9 heller ikke helt enig at 4 år er realistisk for mid-range kort, medmindre man ikke stiller særlig mange krav til texture eller overall graphics quality (jeg snakker ikke om AA x8, HBAO samt max AF). Det er rigtigt nok at et grafikkort kan holde 4 år hvis man kører lavere graphic settings i spil der ikke hiver meget fra GPUen.

Du nævner 2560x1920. Det er klart at grafikkort har sværere ved høje detaljer og settings samtidig med god fps jo højere man kommer op i opløsning. Nu har jeg selv prøvet at game på 2560x1440 i en 1½ års periode, og der var det tydeligt at se fps drop pga overgangen fra 1920x1080 -> 2560x1440.

Selvom grafikkortet ikke skal bruges til højere end 1080p gaming, betyder det ikke at mid-range holder i 4 år :)

Jeg har et 590 og kører 1080p, og det kan ikke trække de nyeste spil i særlig høje detaljer. Og det var ikke et mid-range kort (kostede 5k dengang).
Gravatar #11 - Hack4Crack
27. mar. 2014 14:24
For ikke at gentage mig selv fra sidste år, så kunne det godt være man skulle så små, begynde at overveje, en afløser til mig Geforce 9800 GT
Gravatar #12 - kurt7
27. mar. 2014 15:44
dingeling (3) skrev:
Dvs. når man har valgt Intel som CPU, bliver man nødt til at have et Nvidia grafikkort og ved AMD cpu skal have et AMD ATI grafikkort, for at kunne opnå det fulde potentiale af de lukkede standarde


http://nvidianews.nvidia.com/Releases/NVIDIA-Launches-World-s-First-High-Speed-GPU-Interconnect-Helping-Pave-the-Way-to-Exascale-Computin-ad6.aspx
skrev:
Although future NVIDIA GPUs will continue to support PCIe, NVLink technology will be used for connecting GPUs to NVLink-enabled CPUs as well as providing high-bandwidth connections directly between multiple GPUs.

Gravatar #13 - DrHouseDK
28. mar. 2014 14:13
Curon (10) skrev:
Jeg har et 590 og kører 1080p, og det kan ikke trække de nyeste spil i særlig høje detaljer. Og det var ikke et mid-range kort (kostede 5k dengang).


Det forstår jeg så ikke. BF4 og CoD: Ghosts er intet problem i 1080p på High, på mit GTX580... Hvilken CPU har du det koblet sammen med? Jeg kører med Core i7-2600K (stock clock) og 16 gb ram...
Gravatar #14 - Slettet Bruger [2315229367]
28. mar. 2014 14:26
#13 Der er forskel på spil, COD og BF4 er relativt konsol-fikserede spil, det afspejler sig ofte i pc udgaverne.

Prøv du at fyr op for Metro Last light.
Gravatar #15 - Curon
28. mar. 2014 18:43
DrHouseDK (13) skrev:
Det forstår jeg så ikke. BF4 og CoD: Ghosts er intet problem i 1080p på High, på mit GTX580... Hvilken CPU har du det koblet sammen med? Jeg kører med Core i7-2600K (stock clock) og 16 gb ram...


Samme CPU her :)
(kører dog ved 4GHz+)

Jeg gamer dog ikke BF4 eller CoD, men hovedsageligt PlanetSide 2 når det omhandler mere krævende online spil. (Jeg ved godt at Forgelight engine ikke er help optimeret endnu, men jeg ved så også at det kører mærkbart bedre på de nyere grafikkort så som GTX 780 versus mit 590.



SlettetBruger (14) skrev:
#13 Der er forskel på spil, COD og BF4 er relativt konsol-fikserede spil, det afspejler sig ofte i pc udgaverne.

Prøv du at fyr op for Metro Last light.


Der er nemlig forskel på hvilken engine man "udsætter" sit gfx for :)
Gravatar #16 - terracide
28. mar. 2014 20:18
SlettetBruger (14) skrev:
#13 Der er forskel på spil, COD og BF4 er relativt konsol-fikserede spil, det afspejler sig ofte i pc udgaverne.

Prøv du at fyr op for Metro Last light.


Det sjove er at CoD og BF kiddies skændes om hvilken af deres crappy console-shooter on rails der er den bedste...når begge stinker af consolittis...
Gravatar #17 - CBM
2. apr. 2014 17:27
;-)

Så er det frem med Turbo Pascal, så skal der skrives GPU software
Gå til top

Opret dig som bruger i dag

Det er gratis, og du binder dig ikke til noget.

Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.

Opret Bruger Login