mboost-dp1
Nvidia
- Forside
- ⟨
- Forum
- ⟨
- Nyheder
Kun mig der tænker på hvilket sindsygt strømforbrug denne killer chip med sikkerhed vil bruge ?
Synes der er noget helt galt, når man på kassen til gfx kort skriver "minimum 550 watt psu" Ikke at kortet bruger det, men et eller andet må jo trække sindsygt meget startstrøm eller noget i den stil.
Synes der er noget helt galt, når man på kassen til gfx kort skriver "minimum 550 watt psu" Ikke at kortet bruger det, men et eller andet må jo trække sindsygt meget startstrøm eller noget i den stil.
sorry to say this but...
ATI GO HOME:)
Dette bliver uden tvivl et ubetaleligt kort for mange af os, og det trækker helt sikkert tænder ud af PSU'en, men dammit hvor glæder jeg mig til det kort kommer lidt ned i pris...
ATI GO HOME:)
Dette bliver uden tvivl et ubetaleligt kort for mange af os, og det trækker helt sikkert tænder ud af PSU'en, men dammit hvor glæder jeg mig til det kort kommer lidt ned i pris...
SHAREONLINE (4) skrev:ATI GO HOME:)
Svare vel lidt til at råbe nVIDIA GO HOME når ATI annoncere at de på et eller andet tidspunkt i fremtiden vil lave en vild GPU ??
Hmm, kan vel lige så godt begynde at spare op nu, tror sku jeg skal have det bedste kort med den her chip til sin tid.. Håber bare ikke det bliver større end mit nuværende GTX260 kort, har nemlig ikke plads til det så..
SHAREONLINE (4) skrev:sorry to say this but...
ATI GO HOME:)
ATI har altid haft den fordel at deres kort er langt bedre prissat, kontra deres ydelse, hvor Nvidia generelt set har været de dyre drenge.
Et hurtigt kig i mit Axapta vindue fortalte mig at et GTX295 koster ca. 2500kr i indkøb. Et 4870x2 koster ca. 1850kr i indkøb.
Men on topic:
Det skal nok blive spændende. Glæder mig til at se de to kort sat op imod hinanden, og generationen før :)
#6 Tjaa... De har jo tilsyneladende en et færdigt produkt på billederne, så der går nok heller ikke flere år før det kommer.
#0 Så vild lyder den heller ikke, hvis den skal konkurre med en 5870x2, så lyder den måske til at være lidt i underkanten.
Den force er helt klart båndbredden til rammen og den betyder jo rigtig meget på et gfxkort. Men hvis ati x2 kort har to mem kontrollere så er nvidia også fucked på det punkt.
Men ja det bliver spændende at se om nvidia kan holde deres performance crown i en nvidia vs. ati x2.
Ati satser på multi gpu kort og mere simple gpuer, så mener at en x2 vs. single chip må være en fair test.
#0 Så vild lyder den heller ikke, hvis den skal konkurre med en 5870x2, så lyder den måske til at være lidt i underkanten.
Den force er helt klart båndbredden til rammen og den betyder jo rigtig meget på et gfxkort. Men hvis ati x2 kort har to mem kontrollere så er nvidia også fucked på det punkt.
Men ja det bliver spændende at se om nvidia kan holde deres performance crown i en nvidia vs. ati x2.
Ati satser på multi gpu kort og mere simple gpuer, så mener at en x2 vs. single chip må være en fair test.
Jeg tør næsten vædde med at der ikke sidder en eneste bruger her på newz endnu, som har hardware der ellers kan udnytte Nvidias kort, eller for den sags skyld, ATI's nyeste kort... Og mon ikke de få der har det, ikke vil være nok til at vælte markedet?!?
Dog er det godt at de hele tiden ligger i konkurrence, og selv om jeg bruger begge dele, så har jeg fået en forkærlighed for ATI, da de faktisk aldrig har givet mig problemer, mens Nvidias kort altid har haft problemer med driver eller default-indstillinger ved video-overlay osv.
Jeg glæder mig til at de begynder at fokusere lidt mere på brugervenlighed, til dem der skal programmere til kortene. Tænk på hvor gode spil vi kunne få, hvis bare folk der lavede spil, kunne nå at optimere et spil til et kort, før der kom en ny generation af kort. :)
Dog er det godt at de hele tiden ligger i konkurrence, og selv om jeg bruger begge dele, så har jeg fået en forkærlighed for ATI, da de faktisk aldrig har givet mig problemer, mens Nvidias kort altid har haft problemer med driver eller default-indstillinger ved video-overlay osv.
Jeg glæder mig til at de begynder at fokusere lidt mere på brugervenlighed, til dem der skal programmere til kortene. Tænk på hvor gode spil vi kunne få, hvis bare folk der lavede spil, kunne nå at optimere et spil til et kort, før der kom en ny generation af kort. :)
Det er muligt jeg tager fejl, men Nvidia har ikke annonceret nye grafikkort produkter. De har fremvist deres nye GPU arkitektur, Fermi / GF100, som kommende produkter vil være baseret på. Det er i følge [H] tvivlsomt om vi ser nogen produkter baseret på teknologien i andet end "paper launch" i 2009. Realworldtech artiklen der henvises til snakker heller ikke om GT300, men om Fermi / GF100, og skriver:
Endvidere fra Anandtech:
Nvidia has chosen to primarily discuss architecture and not to disclose most microarchitecture or implementation details in this announcement. Where possible, our educated speculation fills these gaps and will be clearly noted as such. The lack of details is partially due to the fact that products based on Fermi will not be out for several months – and even this timeline is unclear.
Endvidere fra Anandtech:
http://www.anandtech.com/video/showdoc.aspx?i=3651 skrev:Then timing is just as valid, because while Fermi currently exists on paper, it's not a product yet. Fermi is late. Clock speeds, configurations and price points have yet to be finalized. NVIDIA just recently got working chips back and it's going to be at least two months before I see the first samples. Widespread availability won't be until at least Q1 2010.
Er jeg den eneste som tænker at de snart støder lidt Intel.
De ender jo med at møde hinanden på midten af en Larrabee/CUDA-bro.
Som altid, fedt at høre om et nyt produkt. Men ATI står altså også stærkt med deres sidste skud for stammen. Lyder bare som om at Nvidia er stærkere i GPU/CPU kombinationen. Hvilket i sig selv er lidt en sjov tanke når konkurrenten er AMD/ATI.
De ender jo med at møde hinanden på midten af en Larrabee/CUDA-bro.
Som altid, fedt at høre om et nyt produkt. Men ATI står altså også stærkt med deres sidste skud for stammen. Lyder bare som om at Nvidia er stærkere i GPU/CPU kombinationen. Hvilket i sig selv er lidt en sjov tanke når konkurrenten er AMD/ATI.
#19 Det kan jeg helt klart forestille mig.
De bevæger sig jo fra kun at være en GPU til også at være en floating point processor. Hvis jeg får én, skal jeg da helt klar til at bruge den til alle mine beregninger, frem for CPU'en. Men det virker ikke som om den kan være et alternativ til en CPU dog, mere end ekstra processor specielt optimeret til matematik.
Jeg har CUDA SDK'et, men har ikke prøvet at programmere til det endnu - virker lidt kringlet. Hvis det kan understøtte standard C++, bliver det jo helt klart noget jeg kan give mig i kast med.
De bevæger sig jo fra kun at være en GPU til også at være en floating point processor. Hvis jeg får én, skal jeg da helt klar til at bruge den til alle mine beregninger, frem for CPU'en. Men det virker ikke som om den kan være et alternativ til en CPU dog, mere end ekstra processor specielt optimeret til matematik.
Jeg har CUDA SDK'et, men har ikke prøvet at programmere til det endnu - virker lidt kringlet. Hvis det kan understøtte standard C++, bliver det jo helt klart noget jeg kan give mig i kast med.
Jeg tror det kommer til at blive 10-20 % hurtigere end 5870 i spil højst men langt bedre i Folding@Home ting, men samtidig tror jeg også prisen bliver meget højere for det dyreste kort (Måske tilbage til de gamle 5000krs dage for highend kort?)
Jeg tror ikke deres bedste kort (Udover GX2) kommer til at kunne overgå HD5870X2, men vi får se..
Jeg tror ikke deres bedste kort (Udover GX2) kommer til at kunne overgå HD5870X2, men vi får se..
#18:
Du skulle læse igen.
Hvad NVIDIA gjorde her i går var at snakke til cGPU (GCGPU) folket.
"GF100" er deres nye kerne....også til consumer-desktop 3D gaming,
Du venter på (og fejlbasere derfor dine oplysninger) på NVIDIA gamer konference, hvor de vil tale om spil.
Det her er en NY arkitektur, den første fra NVIDIA siden "G80" og ikke bare som "GT200" et refresh af "G80"
NVIDIA mener at HPC markedet har større muligheder (flere $$$) end 3D gamer markedet og derfor har de taget højde for dette i GF100.
Du skal dog passe på med at tro at dette kort ikke vil yde i spil, da med undtagelse af ECC og Double Precision, vil alle de nye ting hjælpe til med ydelsen i spil.
Mit bud er af GF100 vil yde ~40-45% bedre end HD5870..i spil (dx9/dx10/dx11/OpenGL 3.2).
Vi snakker 3 millarder seriøse trannies i en ny GPU/CPU hybrid arkitektur.
#19:
NVIDIA har det problem at både Intel og AMD har deres x86 CPU.
GF100 er et forsøg på at elliminere den mangel....at deres GPU så kommer til at minde meget om Larabee, viser jo så bare at det nok ikke er helt kudt ved siden af...
Du skulle læse igen.
Hvad NVIDIA gjorde her i går var at snakke til cGPU (GCGPU) folket.
"GF100" er deres nye kerne....også til consumer-desktop 3D gaming,
Du venter på (og fejlbasere derfor dine oplysninger) på NVIDIA gamer konference, hvor de vil tale om spil.
Det her er en NY arkitektur, den første fra NVIDIA siden "G80" og ikke bare som "GT200" et refresh af "G80"
NVIDIA mener at HPC markedet har større muligheder (flere $$$) end 3D gamer markedet og derfor har de taget højde for dette i GF100.
Du skal dog passe på med at tro at dette kort ikke vil yde i spil, da med undtagelse af ECC og Double Precision, vil alle de nye ting hjælpe til med ydelsen i spil.
Mit bud er af GF100 vil yde ~40-45% bedre end HD5870..i spil (dx9/dx10/dx11/OpenGL 3.2).
Vi snakker 3 millarder seriøse trannies i en ny GPU/CPU hybrid arkitektur.
#19:
NVIDIA har det problem at både Intel og AMD har deres x86 CPU.
GF100 er et forsøg på at elliminere den mangel....at deres GPU så kommer til at minde meget om Larabee, viser jo så bare at det nok ikke er helt kudt ved siden af...
#23: Jeg har svært ved at se hvordan det du skriver har relevans til min pointe, der er, at dette ikke er en annoncering af de næste kort i Geforce serien, men annoncering af deres næste generations arkitektur. De har ikke annonceret nogen konkrete produkter, så vidt jeg kan læse.
Og ja GF100 er spændende i GPGPU sammenhæng, men der er ikke noget af det jeg har set der fortæller noget om hvad vi kan forvente i spil. Exception handling, v-tables osv. sluger sandsynligvis en masse transitorer, men får ikke indflydelse på DX11 og ældre spil. De har ikke annonceret antal TMU's, ROPs, clock frekvens osv. for deres "gamer" prodult.
Og ja GF100 er spændende i GPGPU sammenhæng, men der er ikke noget af det jeg har set der fortæller noget om hvad vi kan forvente i spil. Exception handling, v-tables osv. sluger sandsynligvis en masse transitorer, men får ikke indflydelse på DX11 og ældre spil. De har ikke annonceret antal TMU's, ROPs, clock frekvens osv. for deres "gamer" prodult.
#23 Er de 3mia. transistorer ikke på GF300 og det må være tre generationer ude i fremtiden.
Jeg synes det er lidt forvirrende og egentligt virker det lidt som om nVidia er lidt desperate efter opmærksomhed. Hvorfor snakker de om deres GF300 teknologi, hvis de kun har GF100 i hus? - Eller er GF300, som beskrevet i nyheden, deres næste GPU der kommer på markedet?
Jeg synes det er lidt forvirrende og egentligt virker det lidt som om nVidia er lidt desperate efter opmærksomhed. Hvorfor snakker de om deres GF300 teknologi, hvis de kun har GF100 i hus? - Eller er GF300, som beskrevet i nyheden, deres næste GPU der kommer på markedet?
#25:
Nok fordi konferencen er for GPGPU folket og ikke gamning markedet, den konference kommer senere.
Mange har taget fejl af dette og nogle har sågar fået den bizarre ide at fordi NVIDIA ikke snakkede om DX11 så er GF100 ikke en DX11 GPU.
Her er hvad du kan forvente at se på dekstopmarkedet:
3.0B transistors @ TSMC, 40nm
2 x 16-way FMA SM, IEEE754-2008, 16 SMs
Each SM has four SFUs
384-bit GDDR5
~650/1700/4200MHz (base/hot/mem)
16 pixels clock address and filter per SM
48 ROPs, 8Z/C clock
64KiB L1/smem per SM (48/16 or 16/48 per clock config)
Unified 768 KiB L2
Unified memory space (hardware TLB, 1TiB address, 40-bit)
For highend.
Det du har gang i svarer til at du læser om "G80" og så siger "der kommer aldrig et 8800GTX "...det hænger ikke sammen.
Nok fordi konferencen er for GPGPU folket og ikke gamning markedet, den konference kommer senere.
Mange har taget fejl af dette og nogle har sågar fået den bizarre ide at fordi NVIDIA ikke snakkede om DX11 så er GF100 ikke en DX11 GPU.
Her er hvad du kan forvente at se på dekstopmarkedet:
3.0B transistors @ TSMC, 40nm
2 x 16-way FMA SM, IEEE754-2008, 16 SMs
Each SM has four SFUs
384-bit GDDR5
~650/1700/4200MHz (base/hot/mem)
16 pixels clock address and filter per SM
48 ROPs, 8Z/C clock
64KiB L1/smem per SM (48/16 or 16/48 per clock config)
Unified 768 KiB L2
Unified memory space (hardware TLB, 1TiB address, 40-bit)
For highend.
Det du har gang i svarer til at du læser om "G80" og så siger "der kommer aldrig et 8800GTX "...det hænger ikke sammen.
#29:
Ja og da GF100 er meget bedre til at arbejde med atomics ned alle andre GPU'er, kan man forstå de har valgt lgie netop det navn ;)
http://en.wikipedia.org/wiki/Atomic_operation
Ja og da GF100 er meget bedre til at arbejde med atomics ned alle andre GPU'er, kan man forstå de har valgt lgie netop det navn ;)
http://en.wikipedia.org/wiki/Atomic_operation
Jeg undskylder forvirringen omkring navngivningen:
Den nye GPU-chip hedder ganske rigtigt 'Fermi' (GF100). Denne GPU forventes så at blive brugt på den nye GT3xx-serie af grafikkort, derfor overskriften. (men det har #30 vist også allerede forklaret ;)
Jeg er personligt ret spændt på at se hvad NVIDIA får ud af denne nye arkitektur, og om det skalere godt op, eller om de store forandringer i både cache, pipelinestrukturen og 'shader'-enhederne vil være 'i vejen' for normale GPU-ting.
--
#31:
Ja, 'Fermi' er en DirectX 11 chip.
Den nye GPU-chip hedder ganske rigtigt 'Fermi' (GF100). Denne GPU forventes så at blive brugt på den nye GT3xx-serie af grafikkort, derfor overskriften. (men det har #30 vist også allerede forklaret ;)
Jeg er personligt ret spændt på at se hvad NVIDIA får ud af denne nye arkitektur, og om det skalere godt op, eller om de store forandringer i både cache, pipelinestrukturen og 'shader'-enhederne vil være 'i vejen' for normale GPU-ting.
--
#31:
Ja, 'Fermi' er en DirectX 11 chip.
#27: Jeg ved ikke hvordan du læser ud af mit indlæg, at jeg påstår der ikke kommer et desktop / gamer produkt. Det har jeg på ingen vis skrevet, så vidt jeg selv kan læse. Der kommer produkter til gamers ud fra denne arkitektur, men det er ikke de produkter de har annonceret. (Hvilket News nyheden ikke gjorde klart IMO., da de snakkede om GT300 osv.)
Mht. til specs du poster, så har jeg ikke se clock frekvens, rop, tmu's fra officielle kilder. En del sider spekulere og de har givet vis ret. (om end jeg har læst de skulle gå nærmere efter 750MHz core) Så vidt jeg har læst er Tesla produktet heller ikke annonceret, hvilket jo egentlig er det kort de snakker om. (og der er billeder af)
#31: Tror roligt du kan regne med at der er fuld DX11 understøttelse ved lancering, når der engang kommer nogle produkter der basere sig på GF100 arkitekturen. (Om end tesselation sandsynligvis foregår i "software", mod AMD's enhed i hardware. Nu må vi se om det overhovedet er en feature der vil bliver brugt, eller om det bliver ligegyldigt.)
Mht. til specs du poster, så har jeg ikke se clock frekvens, rop, tmu's fra officielle kilder. En del sider spekulere og de har givet vis ret. (om end jeg har læst de skulle gå nærmere efter 750MHz core) Så vidt jeg har læst er Tesla produktet heller ikke annonceret, hvilket jo egentlig er det kort de snakker om. (og der er billeder af)
#31: Tror roligt du kan regne med at der er fuld DX11 understøttelse ved lancering, når der engang kommer nogle produkter der basere sig på GF100 arkitekturen. (Om end tesselation sandsynligvis foregår i "software", mod AMD's enhed i hardware. Nu må vi se om det overhovedet er en feature der vil bliver brugt, eller om det bliver ligegyldigt.)
Nu er mit ATI 5750 bestilt og ser frem til, at det skal afløse mit 4850 kort.
Syntes det er ganske glimrende, at nVIDIA kommer med noget nyt, men er ikke interesseret før jeg reelt kan se nogle test af kortet. Talene er imponerende, men eftersom kortet først vil være tilgængeligt engang i Q1 2010, hvilket er alt fra 3-9 måneder fra nu, så kan jeg ikke vente på dette.
Desuden er mit primære mål med opgraderingen lavere strømforbrug end hvad jeg har nu og der løber 5850 mit problem. Desuden får jeg også bedre ydelse i de spil jeg spiller, så alt i alt er jeg tilfreds.
GT300 er primært blevet til for, at yde bedre ydelse i GPGPU sitautioner og ikke spil, hvor det blot skal være bedre end det nurværende, hvilket også vil være tilfældet. nVIDIA går mod business med denne nye chip, men secondært gamere, hvor ATI primært går mod gamere.
Syntes det er ganske glimrende, at nVIDIA kommer med noget nyt, men er ikke interesseret før jeg reelt kan se nogle test af kortet. Talene er imponerende, men eftersom kortet først vil være tilgængeligt engang i Q1 2010, hvilket er alt fra 3-9 måneder fra nu, så kan jeg ikke vente på dette.
Desuden er mit primære mål med opgraderingen lavere strømforbrug end hvad jeg har nu og der løber 5850 mit problem. Desuden får jeg også bedre ydelse i de spil jeg spiller, så alt i alt er jeg tilfreds.
GT300 er primært blevet til for, at yde bedre ydelse i GPGPU sitautioner og ikke spil, hvor det blot skal være bedre end det nurværende, hvilket også vil være tilfældet. nVIDIA går mod business med denne nye chip, men secondært gamere, hvor ATI primært går mod gamere.
Jeg kan anbefale folk der ikke tror af GF100 vil yde i spil til at klikke sig ind på denne side:
http://www.nvidia.com/object/gpu_technology_confer...
Og se første webcast på siden...og så husk da for helvede (gamer burde have bare LIDT hjerne!?) at dette var en GPGPU konference, rettet imod GPGPU indistrien og ikke spil...
http://www.nvidia.com/object/gpu_technology_confer...
Og se første webcast på siden...og så husk da for helvede (gamer burde have bare LIDT hjerne!?) at dette var en GPGPU konference, rettet imod GPGPU indistrien og ikke spil...
Hvor er det du mener exception handling, atomic writes, v-tables etc. vil gavne DX11 (og ældre) spil? (Eller spil de næster 5 år) Det er dyre ting at implementere i hardware i en så parallel arkitektur, hvilket er grunden til vi ikke har set det på tidligere GPU'er.
Btw. ECC (og DP?) er med stor sandsynligvis kun tilgængelig i deres Tesla linie.
Btw. ECC (og DP?) er med stor sandsynligvis kun tilgængelig i deres Tesla linie.
#40:
Du burde kigge på PhysX...dette kort er skkræædersyet til at køre 3D spil, med MEGET bedre resultater, nuværnede hardware kan trække ca. 64.000 partikler i soft hydrotermic physics...GF100 skulle kunne trække 1.000.000....*ding-ding*
Igen, så kan jeg kun morer mig over folk der ikke forstår at dette var en GPGPU konference og ikke en 3D gaming konference og så (grundet lav IQ/manglende viden?) kommer til den konklusion at GF100 ikke er specilet egent til 3D spil...med fryns.
Du burde kigge på PhysX...dette kort er skkræædersyet til at køre 3D spil, med MEGET bedre resultater, nuværnede hardware kan trække ca. 64.000 partikler i soft hydrotermic physics...GF100 skulle kunne trække 1.000.000....*ding-ding*
Igen, så kan jeg kun morer mig over folk der ikke forstår at dette var en GPGPU konference og ikke en 3D gaming konference og så (grundet lav IQ/manglende viden?) kommer til den konklusion at GF100 ikke er specilet egent til 3D spil...med fryns.
terracide (36) skrev:
Og se første webcast på siden...og så husk da for helvede (gamer burde have bare LIDT hjerne!?) at dette var en GPGPU konference, rettet imod GPGPU indistrien og ikke spil...
Desværre har online gaming bevist at gamere ikke behøver have en velfungerende hjerne :-/
Selv glæder jeg mig til de her kort kommer på markedet, nyt er jo spændende, men det afløser helt sikkert ikke mit "vilde" 8500GT :-)
Opret dig som bruger i dag
Det er gratis, og du binder dig ikke til noget.
Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.