Annonce

Indsend nyhed

Del dine opdagelser!

Afstemning

Hvad er din ynglingsbrowser

  • 64%Chrome
  • 22%Firefox
  • 7%Internet Explorer
  • 4%Safari
  • 2%Opera
  • 1%en helt tredje...
  • 0%SRWare Iron
  • 0%Avant Browser
  • 0%Comodo Dragon
  • 0%Maxthon Cloud
  • 0%Sleipner
  • 0%Lunascape
  • 0%K-Meleon
  • 0%RockMelt

NVIDIA letter på sløret for GT300 - Fermi

1. okt. 2009 07:44Efter den succesfulde lancering af ATI's Radeon HD58xx serie af grafikkort er NVIDIA ved at være klar med den nye GT300 (kodenavn Fermi) GPU - en chip, der ifølge NVIDIA er et helt nyt design.

Der er tale om en CUDA-GPU med 3 milliarder transistorer og DirectX 11-understøttelse. Shadermæssigt består chippen af 16 klynger med hver 32 shader-enheder, altså 512 shadere i alt, og vil understøtte "Half Speed IEEE 754 Double Precision"-regneoperationer, hvilket betyder, at beregninger foregår med halv hastighed ift. Single Precision-beregninger. En stor forbedring for NVIDIA, der ellers har haltet lidt bagefter ATI på dette punkt. Den nye GPU kan desuden programmeres direkte i C++.

Cache-hukommelsen har gennemgået store forbedringer ift. NVIDIAs tidligere GT200-design, og størrelsen er også forøget: Hver af de 16 klynger vil have 64 KB level 1 cache og have direkte tilgang til hinanden via en fælles 768 KB unified level 2 cache. Det er et design meget tæt på den opbygning, man kender fra CPU-verdenen, og understreger NVIDIAs fokusering på brugen af grafikkort til generelle regneopgaver fremover.

Der er også kommet understøttelse af GDDR5 RAM (DDR3 kan stadig anvendes) og med en bus-bredde på 384-bit (50 % mere end Radeon HD58xx), er der mulighed for en RAM-båndbredde et pænt stykke over 200 GB/s med 5 Gb/s chips.

Med en RAM-mængde på op til 6 GB, og ECC-beskyttelse (fejlkorrigering, nødvendigt for matematiske beregninger) alt efter konfiguration, er der altså lagt op til tunge sager fra NVIDIAs side .

Clock- og RAM-hastigheder samt prisen kendes ikke endnu, men der hersker ingen tvivl om at ATI får kamp til stregen, med dette nye udspil fra NVIDIA.

De første billeder af kortet kommer fra den igangværende "GPU Technology Conference" i San Jose, Californien. Konferencen løber fra d. 30. september til d. 2. oktober og kan følges her.

En uddybende artiklel om Fermi - GT300-arkitekturen kan læses på Real World Tecnologies - Inside Fermi.

#1: vRod

1. okt. 2009 08:03

Er jeg den eneste som glæder mig til at se GT300 i aktion? :)

#2: Törleif Val Viking

1. okt. 2009 08:19

Giftig satan

-- ( ) Man skal ikke smadre trapper ö Hvis man selv bor i et fyrtårn

#3: gzz

1. okt. 2009 08:25

Kun mig der tænker på hvilket sindsygt strømforbrug denne killer chip med sikkerhed vil bruge ?

Synes der er noget helt galt, når man på kassen til gfx kort skriver "minimum 550 watt psu" Ikke at kortet bruger det, men et eller andet må jo trække sindsygt meget startstrøm eller noget i den stil.

#4: SHAREONLINE

1. okt. 2009 08:27

sorry to say this but...

ATI GO HOME:)

Dette bliver uden tvivl et ubetaleligt kort for mange af os, og det trækker helt sikkert tænder ud af PSU'en, men dammit hvor glæder jeg mig til det kort kommer lidt ned i pris...

www.360firmware.dk - opdatering af firmware fra 200,-

#5: LordMike

1. okt. 2009 08:28

Bliver interessant at se om dette kort kan banke ATI's HD'er i bruteforcing :)

Så bliver det nemmerlig cool :)

An expert is a person who has made all mistakes in a very narrow profession - Niels Bohr Core i7 3770 @ 3.4 Ghz - 16GB DDR3 (1600 Mhz) - 120 GB...

#6: PorreKaj

1. okt. 2009 08:33

ATI GO HOME:) SHAREONLINE (#4)

Svare vel lidt til at råbe nVIDIA GO HOME når ATI annoncere at de på et eller andet tidspunkt i fremtiden vil lave en vild GPU ??

#7: terracide

1. okt. 2009 08:38

#3:
den har 8+6 power plugins, you do the math...

Linux is only free if your sparetime has no value & AMD is only cheaper if your (spare)time has no value...

#8: AlienDarkmind

1. okt. 2009 08:45

Hmm, kan vel lige så godt begynde at spare op nu, tror sku jeg skal have det bedste kort med den her chip til sin tid.. Håber bare ikke det bliver større end mit nuværende GTX260 kort, har nemlig ikke plads til det så..

"So they sent a helpless child to kill me. Well I'm not going out without a fight!" - Bender /furturama

#9: terracide

1. okt. 2009 08:49

#8:
Du skal nok regne med GTX280/285 størrelse for high-end.

Linux is only free if your sparetime has no value & AMD is only cheaper if your (spare)time has no value...

#10: jewwe

1. okt. 2009 08:53

sorry to say this but...

ATI GO HOME:)

SHAREONLINE (#4)

ATI har altid haft den fordel at deres kort er langt bedre prissat, kontra deres ydelse, hvor Nvidia generelt set har været de dyre drenge.
Et hurtigt kig i mit Axapta vindue fortalte mig at et GTX295 koster ca. 2500kr i indkøb. Et 4870x2 koster ca. 1850kr i indkøb.

Men on topic:
Det skal nok blive spændende. Glæder mig til at se de to kort sat op imod hinanden, og generationen før :)

#11: -N-

1. okt. 2009 08:54

#6 Tjaa... De har jo tilsyneladende en et færdigt produkt på billederne, så der går nok heller ikke flere år før det kommer.

#0 Så vild lyder den heller ikke, hvis den skal konkurre med en 5870x2, så lyder den måske til at være lidt i underkanten.

Den force er helt klart båndbredden til rammen og den betyder jo rigtig meget på et gfxkort. Men hvis ati x2 kort har to mem kontrollere så er nvidia også fucked på det punkt.

Men ja det bliver spændende at se om nvidia kan holde deres performance crown i en nvidia vs. ati x2.

Ati satser på multi gpu kort og mere simple gpuer, så mener at en x2 vs. single chip må være en fair test.

#12: Decipher

1. okt. 2009 09:04

Den væsentligste forskel er at nVidia stadig ikke har en release - det er klart de laver noget pressegejl efter AMDs release af 58xx. Tal på papir er bare ikke så imponerende.

Uenig er ikke det samme som irrelevant.

#13: Bean

1. okt. 2009 09:11

Lidt mere info omkring kortet:

http://hardwareonline.dk/nyheder.aspx?nid=10384

#14: nezz_dk

1. okt. 2009 09:14

jeg er nu ikke helt sikker på jeg vil have sådan en "Femi" grafikkort, det kunne jo ske man blev drillet!

#15: lindysign

1. okt. 2009 09:16

Jeg tør næsten vædde med at der ikke sidder en eneste bruger her på newz endnu, som har hardware der ellers kan udnytte Nvidias kort, eller for den sags skyld, ATI's nyeste kort... Og mon ikke de få der har det, ikke vil være nok til at vælte markedet?!?

Dog er det godt at de hele tiden ligger i konkurrence, og selv om jeg bruger begge dele, så har jeg fået en forkærlighed for ATI, da de faktisk aldrig har givet mig problemer, mens Nvidias kort altid har haft problemer med driver eller default-indstillinger ved video-overlay osv.

Jeg glæder mig til at de begynder at fokusere lidt mere på brugervenlighed, til dem der skal programmere til kortene. Tænk på hvor gode spil vi kunne få, hvis bare folk der lavede spil, kunne nå at optimere et spil til et kort, før der kom en ny generation af kort. :)

#16: terracide

1. okt. 2009 09:56

#15:
Min i7 @ 3.5Ghz med 12 GB RAM kan godt bruge lidt mere GPU-powah...det vil sige, et nyt single CPU kort, med mere ydelse...mit GTX285 er begyndt at vise dets alder...menbare for morskabens skyld...hvad hardware regner du med der ikke kan udnytte en ny GPU?

Linux is only free if your sparetime has no value & AMD is only cheaper if your (spare)time has no value...

#17: Mock

1. okt. 2009 10:14

hmm ubetaligt, jeg regner da med at smide sådan et kort i min computer. har ikke været ude for andre grafikkort end quadro kortende som har virket ret dyre.

Linux is only free if your sparetime has no value & AMD is only cheaper if your (spare)time has no value...

#18: reonekot

1. okt. 2009 10:15

Det er muligt jeg tager fejl, men Nvidia har ikke annonceret nye grafikkort produkter. De har fremvist deres nye GPU arkitektur, Fermi / GF100, som kommende produkter vil være baseret på. Det er i følge [H] tvivlsomt om vi ser nogen produkter baseret på teknologien i andet end "paper launch" i 2009. Realworldtech artiklen der henvises til snakker heller ikke om GT300, men om Fermi / GF100, og skriver:

Nvidia has chosen to primarily discuss architecture and not to disclose most microarchitecture or implementation details in this announcement. Where possible, our educated speculation fills these gaps and will be clearly noted as such. The lack of details is partially due to the fact that products based on Fermi will not be out for several months – and even this timeline is unclear.

Endvidere fra Anandtech:

Then timing is just as valid, because while Fermi currently exists on paper, it's not a product yet. Fermi is late. Clock speeds, configurations and price points have yet to be finalized. NVIDIA just recently got working chips back and it's going to be at least two months before I see the first samples. Widespread availability won't be until at least Q1 2010.Kilde

#19: Scapegoat

1. okt. 2009 10:22

Er jeg den eneste som tænker at de snart støder lidt Intel.
De ender jo med at møde hinanden på midten af en Larrabee/CUDA-bro.

Som altid, fedt at høre om et nyt produkt. Men ATI står altså også stærkt med deres sidste skud for stammen. Lyder bare som om at Nvidia er stærkere i GPU/CPU kombinationen. Hvilket i sig selv er lidt en sjov tanke når konkurrenten er AMD/ATI.

"I wanna watch the scary monkey show!" Gir - Invader Zim

#20: ipwn

1. okt. 2009 10:33

#19 Det kan jeg helt klart forestille mig.

De bevæger sig jo fra kun at være en GPU til også at være en floating point processor. Hvis jeg får én, skal jeg da helt klar til at bruge den til alle mine beregninger, frem for CPU'en. Men det virker ikke som om den kan være et alternativ til en CPU dog, mere end ekstra processor specielt optimeret til matematik.

Jeg har CUDA SDK'et, men har ikke prøvet at programmere til det endnu - virker lidt kringlet. Hvis det kan understøtte standard C++, bliver det jo helt klart noget jeg kan give mig i kast med.

I R Fernius Maximus

#21: OxxY

1. okt. 2009 10:39

Men kan den bitstreame HD lydsignaler via HDMI ligesom ATI 5xxx kan?

#22: mech0z

1. okt. 2009 10:43

Jeg tror det kommer til at blive 10-20 % hurtigere end 5870 i spil højst men langt bedre i Folding@Home ting, men samtidig tror jeg også prisen bliver meget højere for det dyreste kort (Måske tilbage til de gamle 5000krs dage for highend kort?)
Jeg tror ikke deres bedste kort (Udover GX2) kommer til at kunne overgå HD5870X2, men vi får se..

#23: terracide

1. okt. 2009 10:45

#18:
Du skulle læse igen.

Hvad NVIDIA gjorde her i går var at snakke til cGPU (GCGPU) folket.
"GF100" er deres nye kerne....også til consumer-desktop 3D gaming,
Du venter på (og fejlbasere derfor dine oplysninger) på NVIDIA gamer konference, hvor de vil tale om spil.

Det her er en NY arkitektur, den første fra NVIDIA siden "G80" og ikke bare som "GT200" et refresh af "G80"

NVIDIA mener at HPC markedet har større muligheder (flere $$$) end 3D gamer markedet og derfor har de taget højde for dette i GF100.
Du skal dog passe på med at tro at dette kort ikke vil yde i spil, da med undtagelse af ECC og Double Precision, vil alle de nye ting hjælpe til med ydelsen i spil.

Mit bud er af GF100 vil yde ~40-45% bedre end HD5870..i spil (dx9/dx10/dx11/OpenGL 3.2).

Vi snakker 3 millarder seriøse trannies i en ny GPU/CPU hybrid arkitektur.

#19:
NVIDIA har det problem at både Intel og AMD har deres x86 CPU.
GF100 er et forsøg på at elliminere den mangel....at deres GPU så kommer til at minde meget om Larabee, viser jo så bare at det nok ikke er helt kudt ved siden af...

Linux is only free if your sparetime has no value & AMD is only cheaper if your (spare)time has no value...

#24: terracide

1. okt. 2009 11:24

#15:
Misbruger du ratings, gengælder jeg tjenesten...

Linux is only free if your sparetime has no value & AMD is only cheaper if your (spare)time has no value...

#25: reonekot

1. okt. 2009 11:27

#23: Jeg har svært ved at se hvordan det du skriver har relevans til min pointe, der er, at dette ikke er en annoncering af de næste kort i Geforce serien, men annoncering af deres næste generations arkitektur. De har ikke annonceret nogen konkrete produkter, så vidt jeg kan læse.
Og ja GF100 er spændende i GPGPU sammenhæng, men der er ikke noget af det jeg har set der fortæller noget om hvad vi kan forvente i spil. Exception handling, v-tables osv. sluger sandsynligvis en masse transitorer, men får ikke indflydelse på DX11 og ældre spil. De har ikke annonceret antal TMU's, ROPs, clock frekvens osv. for deres "gamer" prodult.

#26: -N-

1. okt. 2009 11:29

#23 Er de 3mia. transistorer ikke på GF300 og det må være tre generationer ude i fremtiden.

Jeg synes det er lidt forvirrende og egentligt virker det lidt som om nVidia er lidt desperate efter opmærksomhed. Hvorfor snakker de om deres GF300 teknologi, hvis de kun har GF100 i hus? - Eller er GF300, som beskrevet i nyheden, deres næste GPU der kommer på markedet?

#27: terracide

1. okt. 2009 11:37

#25:
Nok fordi konferencen er for GPGPU folket og ikke gamning markedet, den konference kommer senere.
Mange har taget fejl af dette og nogle har sågar fået den bizarre ide at fordi NVIDIA ikke snakkede om DX11 så er GF100 ikke en DX11 GPU.

Her er hvad du kan forvente at se på dekstopmarkedet:

3.0B transistors @ TSMC, 40nm
2 x 16-way FMA SM, IEEE754-2008, 16 SMs
Each SM has four SFUs
384-bit GDDR5
~650/1700/4200MHz (base/hot/mem)
16 pixels clock address and filter per SM
48 ROPs, 8Z/C clock
64KiB L1/smem per SM (48/16 or 16/48 per clock config)
Unified 768 KiB L2
Unified memory space (hardware TLB, 1TiB address, 40-bit)

For highend.

Det du har gang i svarer til at du læser om "G80" og så siger "der kommer aldrig et 8800GTX "...det hænger ikke sammen.

Linux is only free if your sparetime has no value & AMD is only cheaper if your (spare)time has no value...

#28: terracide

1. okt. 2009 11:38

#26:
"GT300" var ikke det korrekte kodenavn, NVIDIA nye arkitektur hedder GF100 (Geforce Fermi 100) eller bare "Fermi"

Linux is only free if your sparetime has no value & AMD is only cheaper if your (spare)time has no value...

#29: Systran

1. okt. 2009 12:12

jeg er nu ikke helt sikker på jeg vil have sådan en "Femi" grafikkort, det kunne jo ske man blev drillet!nezz_dk (#14)

Så misforstår du. Fermi var en af vor tids største fysikere. Han var en af de første til at arbejde med atomfysik :)

Alle er enten ligeglade eller liderlige. :(

#30: terracide

1. okt. 2009 12:27

#29:
Ja og da GF100 er meget bedre til at arbejde med atomics ned alle andre GPU'er, kan man forstå de har valgt lgie netop det navn ;)

http://en.wikipedia.org/wiki/Atomic_operation

Linux is only free if your sparetime has no value & AMD is only cheaper if your (spare)time has no value...

#31: TormDK

1. okt. 2009 13:15

Men understøtter nvidia DX11 Out of the box?

Vi skal se noget real world application! :) De kan ikke blive ved med at være bagud på DX fronten.

#32: Clauzii

1. okt. 2009 13:22

Jeg undskylder forvirringen omkring navngivningen:

Den nye GPU-chip hedder ganske rigtigt 'Fermi' (GF100). Denne GPU forventes så at blive brugt på den nye GT3xx-serie af grafikkort, derfor overskriften. (men det har #30 vist også allerede forklaret ;)

Jeg er personligt ret spændt på at se hvad NVIDIA får ud af denne nye arkitektur, og om det skalere godt op, eller om de store forandringer i både cache, pipelinestrukturen og 'shader'-enhederne vil være 'i vejen' for normale GPU-ting.

--

#31:
Ja, 'Fermi' er en DirectX 11 chip.

"The downside of warp drives: Annihilating whole star systems when you arrive."

#33: reonekot

1. okt. 2009 13:30

#27: Jeg ved ikke hvordan du læser ud af mit indlæg, at jeg påstår der ikke kommer et desktop / gamer produkt. Det har jeg på ingen vis skrevet, så vidt jeg selv kan læse. Der kommer produkter til gamers ud fra denne arkitektur, men det er ikke de produkter de har annonceret. (Hvilket News nyheden ikke gjorde klart IMO., da de snakkede om GT300 osv.)

Mht. til specs du poster, så har jeg ikke se clock frekvens, rop, tmu's fra officielle kilder. En del sider spekulere og de har givet vis ret. (om end jeg har læst de skulle gå nærmere efter 750MHz core) Så vidt jeg har læst er Tesla produktet heller ikke annonceret, hvilket jo egentlig er det kort de snakker om. (og der er billeder af)

#31: Tror roligt du kan regne med at der er fuld DX11 understøttelse ved lancering, når der engang kommer nogle produkter der basere sig på GF100 arkitekturen. (Om end tesselation sandsynligvis foregår i "software", mod AMD's enhed i hardware. Nu må vi se om det overhovedet er en feature der vil bliver brugt, eller om det bliver ligegyldigt.)

#34: reonekot

1. okt. 2009 13:33

#30: På GPGPU markedet kommer GF100 arkitekturen også til at konkurrere mod Larrabee. Tiden må vist vise hvem der bliver vinder på det marked. (Ingen af produkterne er trods alt på hylderne for om flere måneder...)

#35: soda

1. okt. 2009 13:36

Nu er mit ATI 5750 bestilt og ser frem til, at det skal afløse mit 4850 kort.

Syntes det er ganske glimrende, at nVIDIA kommer med noget nyt, men er ikke interesseret før jeg reelt kan se nogle test af kortet. Talene er imponerende, men eftersom kortet først vil være tilgængeligt engang i Q1 2010, hvilket er alt fra 3-9 måneder fra nu, så kan jeg ikke vente på dette.

Desuden er mit primære mål med opgraderingen lavere strømforbrug end hvad jeg har nu og der løber 5850 mit problem. Desuden får jeg også bedre ydelse i de spil jeg spiller, så alt i alt er jeg tilfreds.

GT300 er primært blevet til for, at yde bedre ydelse i GPGPU sitautioner og ikke spil, hvor det blot skal være bedre end det nurværende, hvilket også vil være tilfældet. nVIDIA går mod business med denne nye chip, men secondært gamere, hvor ATI primært går mod gamere.

#36: terracide

1. okt. 2009 13:43

Jeg kan anbefale folk der ikke tror af GF100 vil yde i spil til at klikke sig ind på denne side:
http://www.nvidia.com/object/gpu_technology_conference.html#webcast

Og se første webcast på siden...og så husk da for helvede (gamer burde have bare LIDT hjerne!?) at dette var en GPGPU konference, rettet imod GPGPU indistrien og ikke spil...

Linux is only free if your sparetime has no value & AMD is only cheaper if your (spare)time has no value...

#37: soda

1. okt. 2009 13:56

#35 5850 mente jeg selvfølgelig.

#38: terracide

1. okt. 2009 13:58

#35:
Igen, det er kun ECC og DP (under 10% af diespace), der ikke vil hjælpe i spil...ved du overhovedet hvad du snakker om? :)

Linux is only free if your sparetime has no value & AMD is only cheaper if your (spare)time has no value...

#39: terracide

1. okt. 2009 14:38

BTW, det er ikke noget nyt med de kodenavne, NVIDIA har brugt dem længe:

Celsius (NV10)
Kelvin (NV20)
Rankine (NV30)
Curie (NV40)
Tesla (NV50)

Linux is only free if your sparetime has no value & AMD is only cheaper if your (spare)time has no value...

#40: reonekot

1. okt. 2009 15:02

Hvor er det du mener exception handling, atomic writes, v-tables etc. vil gavne DX11 (og ældre) spil? (Eller spil de næster 5 år) Det er dyre ting at implementere i hardware i en så parallel arkitektur, hvilket er grunden til vi ikke har set det på tidligere GPU'er.

Btw. ECC (og DP?) er med stor sandsynligvis kun tilgængelig i deres Tesla linie.

#41: terracide

1. okt. 2009 16:10

#40:
Du burde kigge på PhysX...dette kort er skkræædersyet til at køre 3D spil, med MEGET bedre resultater, nuværnede hardware kan trække ca. 64.000 partikler i soft hydrotermic physics...GF100 skulle kunne trække 1.000.000....*ding-ding*

Igen, så kan jeg kun morer mig over folk der ikke forstår at dette var en GPGPU konference og ikke en 3D gaming konference og så (grundet lav IQ/manglende viden?) kommer til den konklusion at GF100 ikke er specilet egent til 3D spil...med fryns.

Linux is only free if your sparetime has no value & AMD is only cheaper if your (spare)time has no value...

#42: AenimA

1. okt. 2009 21:47

Igen, før vi spekulerer over ydelse, pris, konkurrencemæssige fordele/ulemper etc. Så lad os se de færdige kort, underkastet uafhængige tests. Det her lyder altsammen spændende men også rimelig teoretisk.

#43: mee

2. okt. 2009 12:58

Og se første webcast på siden...og så husk da for helvede (gamer burde have bare LIDT hjerne!?) at dette var en GPGPU konference, rettet imod GPGPU indistrien og ikke spil...terracide (#36)

Desværre har online gaming bevist at gamere ikke behøver have en velfungerende hjerne :-/

Selv glæder jeg mig til de her kort kommer på markedet, nyt er jo spændende, men det afløser helt sikkert ikke mit "vilde" 8500GT :-)

[quote=XorpiZ (54)]Missede du den del, hvor jeg skrev (ret tydeligt endda), at beløbet var hevet ud af røven?

Opret dig som bruger i dag

Det er gratis, og du binder dig ikke til noget.

Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.

Opret bruger