mboost-dp1

Nvidia
- Forside
- ⟨
- Forum
- ⟨
- Nyheder
#5
Ah, okay. Ellers kan jeg anbefale, at du smider en Accelero Xtreme Plus II køler på i mellemtiden. Jeg får nogle et ret pænt overclock ud af det (950 MHz core), og det larmer stadig meget mindre end stock køler.
Jeg har dog et GTX 580, men det gælder sådan set stadig. Men husk at tjekke op på om dit kort er af reference design.
Ah, okay. Ellers kan jeg anbefale, at du smider en Accelero Xtreme Plus II køler på i mellemtiden. Jeg får nogle et ret pænt overclock ud af det (950 MHz core), og det larmer stadig meget mindre end stock køler.
Jeg har dog et GTX 580, men det gælder sådan set stadig. Men husk at tjekke op på om dit kort er af reference design.
Nu hvor det er ny process (28nm) kan det også være svært at lave store chips (680GTX) uden stor fejl, så synes det her giver ok mening indtil processen er "mature".
#4 Køb et ATI kort? Hvis de 50% performance increase er korrekt så burde det være rigeligt med mindre du køre 3 skærme og absurd opløsning
#4 Køb et ATI kort? Hvis de 50% performance increase er korrekt så burde det være rigeligt med mindre du køre 3 skærme og absurd opløsning
Det var bedre i "gamle dage" ...
GeForce < GeForce 2 < GeForce 3 < GeForce 4
Og ditto med ATi ... Fatter snart ikke hvad der er godt, og hvad der er skidt - gid de kunne lave en gang "største tal er bedst"-navngivning, så man var sikker på at et AMD 6650 var bedre end et 5890 og ikke omvendt!
GeForce < GeForce 2 < GeForce 3 < GeForce 4
Og ditto med ATi ... Fatter snart ikke hvad der er godt, og hvad der er skidt - gid de kunne lave en gang "største tal er bedst"-navngivning, så man var sikker på at et AMD 6650 var bedre end et 5890 og ikke omvendt!
Efter "nVidia-gate" synes jeg bare helt generelt, at det er svært at stole på dét firma.
At man på den måde pressede udgifterne ved produktionsprocessen, og lod hånt om sine kunder, siger alt om nVidia.
/B230FT
P.S. Havde selv "fornøjelsen" af 2 fejlende nVidia produkter i 8600 serien - både en bærbar (som blev ordnet på garantien) samt et grafikkort (som var lige til at hælde ud)
At man på den måde pressede udgifterne ved produktionsprocessen, og lod hånt om sine kunder, siger alt om nVidia.
/B230FT
P.S. Havde selv "fornøjelsen" af 2 fejlende nVidia produkter i 8600 serien - både en bærbar (som blev ordnet på garantien) samt et grafikkort (som var lige til at hælde ud)
mech0z (7) skrev:Nu hvor det er ny process (28nm) kan det også være svært at lave store chips (680GTX) uden stor fejl, så synes det her giver ok mening indtil processen er "mature".
#4 Køb et ATI kort? Hvis de 50% performance increase er korrekt så burde det være rigeligt med mindre du køre 3 skærme og absurd opløsning
Har selv 2 ATi/AMD 5770 der kører crossfire på 2 19" 4:3 skærme i opløsningen 2560x1024 og jeg er endnu ikke stødt på et spil jeg ikke kunne køre i den opløsning på full settings (bortset fra dumme spil der kun understøtter en skærm, som f.eks. Splinter Cell: Conviction)
GK106 107 110 105 103 min røv omg fandme værste navne/model nummer ever de ik engang i rækkefælge efter Kraftigste ?
btw de kølere der bliver smidt på nogle af gigabyte´s kort = guld ska ik ud og købe bedre vis vil oc... kunne producenter af gfx lære noget af .. noget af det jeg kigger meget på er selve blæser og mængde alu de ofre på det
#8 er sådan i det fleste tilfælde 66** serien er bedre end 58** hva andgår effectivitiet bruger mindre strøm for at lave det samme.. at du i nogle tlf ka få mere ud af 57/58/59 kortne det er lidt provo men selve navngivninge er da bedre end her hvor det direkte er byttet om på det
btw de kølere der bliver smidt på nogle af gigabyte´s kort = guld ska ik ud og købe bedre vis vil oc... kunne producenter af gfx lære noget af .. noget af det jeg kigger meget på er selve blæser og mængde alu de ofre på det
#8 er sådan i det fleste tilfælde 66** serien er bedre end 58** hva andgår effectivitiet bruger mindre strøm for at lave det samme.. at du i nogle tlf ka få mere ud af 57/58/59 kortne det er lidt provo men selve navngivninge er da bedre end her hvor det direkte er byttet om på det
mech0z (7) skrev:#4 Køb et ATI kort? Hvis de 50% performance increase er korrekt så burde det være rigeligt med mindre du køre 3 skærme og absurd opløsning
Hvilke 50%?
Thoroughbreed (11) skrev:Har selv 2 ATi/AMD 5770 der kører crossfire på 2 19" 4:3 skærme i opløsningen 2560x1024 og jeg er endnu ikke stødt på et spil jeg ikke kunne køre i den opløsning på full settings (bortset fra dumme spil der kun understøtter en skærm, som f.eks. Splinter Cell: Conviction)
2 skærme? Hvad sker der så med dit sigtekorn?
p1x3l (12) skrev:GK106 107 110 105 103 min røv omg fandme værste navne/model nummer ever de ik engang i rækkefælge efter Kraftigste ?
btw de kølere der bliver smidt på nogle af gigabyte´s kort = guld ska ik ud og købe bedre vis vil oc... kunne producenter af gfx lære noget af .. noget af det jeg kigger meget på er selve blæser og mængde alu de ofre på det
#8 er sådan i det fleste tilfælde 66** serien er bedre end 58** hva andgår effectivitiet bruger mindre strøm for at lave det samme.. at du i nogle tlf ka få mere ud af 57/58/59 kortne det er lidt provo men selve navngivninge er da bedre end her hvor det direkte er byttet om på det
Det er ikke navne, det er kodenavne for kortene. De kommer til at hedde noget andet på markedet, sikkert det samme som GTX 200, 400 og 500 serien hvor de har GTX 560, 570, 580 osv.
f.eks. hedder et GTX 580 rigtigt GF110 (hvor GF står Geforce Fermi) Der vil jeg da stærkt gå ud fra at det nye GK kommer til at stå for Geforce Kepler. Så regn med at de kommer til at hedde GTX 660, 670, 680 igen.
p1x3l (12) skrev:btw de kølere der bliver smidt på nogle af gigabyte´s kort = guld ska ik ud og købe bedre vis vil oc... kunne producenter af gfx lære noget af .. noget af det jeg kigger meget på er selve blæser og mængde alu de ofre på det
Det er nu fint nok, at de smider sådan nogle "turbine" blæsere på som stock køling. Det er ikke alle, der har ordenligt airflow i deres kabinet. Ved blæsere som dem på Gigabytes kort (eller Accelero Xtreme Plus II) slippes varmen i væsentlig større grad ud i kabinettet. Der kræves også et større frirum foran kortet.
TormDK (15) skrev:Men jeg har overvejet en 560 ti SLI løsning sådan lige hurtigt nu hvor jeg kan se min oprindelige plan ikke kommer til at holde.
Som jeg skrev før, så bare husk at få fat i nogle 2GB udgaver. 1GB VRAM er lige trængt nok til et sådan setup. I hvert fald når man kommer over en opløsning på 1920x1080, eller skal bruge nogle high res texture packs.
Husk på at hukommelse ikke deles mellem kort, så selvom man har 2 kort med 1GB VRAM i hver, vil det ikke give 2GB i praksis.
#19 Yup, men det skal vente en ~4 måneders tid alligevel, for Ivybridge ser vi nok ikke før slutning af Q1 2012 alligevel.
Men ja, mere ram skal der helt sikkert til. Mit kort har 1.5gb nu, og nye kort skal bestemt ikke have mindre.
Hvis det falder på en 560TI SLI løsning bliver det nok den nye rehash de kalder CUDA 448 cores
Men ja, mere ram skal der helt sikkert til. Mit kort har 1.5gb nu, og nye kort skal bestemt ikke have mindre.
Hvis det falder på en 560TI SLI løsning bliver det nok den nye rehash de kalder CUDA 448 cores
TormDK (20) skrev:Yup, men det skal vente en ~4 måneders tid alligevel, for Ivybridge ser vi nok ikke før slutning af Q1 2012 alligevel.
Så vidt jeg husker skulle den da komme i slutningen af Q1.
TormDK (20) skrev:Men ja, mere ram skal der helt sikkert til. Mit kort har 1.5gb nu, og nye kort skal bestemt ikke have mindre.
Jeg har det på samme måde med mit 580. Det er egentlig lidt trist, at det skal være hvad, der holder en tilbage til tider.
#21 Well, udviklerne bruger jo ikke rigtigt rammen alligevel sådan for alvor.
Se på Skyrim - En sprit ny titel hvor communitiet er nød til at lave en work-around for at der kan bruges mere end 2gb ram som standard.
Forhåbentligt åbner næste generations konsollerne op for at udviklerne får fingeren ud og kommer igang med at sætte RAM forbruget op.
Mere vil have mere :) Sådan er det bare. Spørgsmålet er bare hvornår nok er nok. Jeg regner ikke med at skulle købe nyt hardware igen når min næste spand bliver bygget før der igen er gået en 3-4 år. Jeg ser ikke rigtigt nogen grund til at gå op over HD opløsning lige pt, for jeg har alligevel ikke en skærm der kan følge med.
Se på Skyrim - En sprit ny titel hvor communitiet er nød til at lave en work-around for at der kan bruges mere end 2gb ram som standard.
Forhåbentligt åbner næste generations konsollerne op for at udviklerne får fingeren ud og kommer igang med at sætte RAM forbruget op.
Mere vil have mere :) Sådan er det bare. Spørgsmålet er bare hvornår nok er nok. Jeg regner ikke med at skulle købe nyt hardware igen når min næste spand bliver bygget før der igen er gået en 3-4 år. Jeg ser ikke rigtigt nogen grund til at gå op over HD opløsning lige pt, for jeg har alligevel ikke en skærm der kan følge med.
izym (13) skrev:Hvilke 50%?Thoroughbreed (11) skrev:Har selv 2 ATi/AMD 5770 der kører crossfire på 2 19" 4:3 skærme i opløsningen 2560x1024 og jeg er endnu ikke stødt på et spil jeg ikke kunne køre i den opløsning på full settings (bortset fra dumme spil der kun understøtter en skærm, som f.eks. Splinter Cell: Conviction)
2 skærme? Hvad sker der så med dit sigtekorn?
Well, lidt forskelligt ...
Nogle FPS-spil understøtter kun en skærm, andre kan du flytte HUD-center og så er der desværre en masse hvor det er delt på midten (f.eks. L4D2) - men via ATi CCC (AMD-config programmet, ved ikk hvad det nu hedder) kan jeg ændre skrivebordets center, så jeg har det et par cm inde på den ene skærm ...
De to skærme er dog kun midlertidigt da jeg leger med tanken om en tredie skærm (pga spil) ... De to skærme er et must for mig ifm mit arbejdsbrug af computeren ...
Hvis man ikke spiller meget FPS er det dog en FRYD at have to skærme og den store opløsning (2560x1024)
Alrekr (24) skrev:Catalyst Control Center.
Ikke helt ... Dengang det hed ATi - CCC var det ja, CCC, nu hvor AMD har fået æren hedder det noget helt andet - men man kan også styre nogle processor-indstillinger gennem programmet... Hvis man altså har en AMD CPU :)
http://www.amd.com/us/products/technologies/amd-catalyst/pages/catalyst.aspx skrev:The AMD Catalyst™ Control center has been designed from the ground up to give you a stable, reliable experience and also allow you to control every aspect of your GPU quickly and easily.
Alrekr (26) skrev:
Well, det er ikke det der står hvis jeg højreklikker på min desktop - før i tiden stod der sgu CCC/Catalyst Control Center :)
Thoroughbreed (27) skrev:Well, det er ikke det der står hvis jeg højreklikker på min desktop - før i tiden stod der sgu CCC/Catalyst Control Center :)
Hvor svært kan det være så at skrive det du ser der står, istedet for at starte en mindre debat op om hvem der har ret her :P
B230FT (17) skrev:..omhandlende hvordan man bevidst pressede produktionsomkostningerne ned, så man _bad_ om problemer
Alle producenter af "whatever" prøver bevidst at presse produktionsomkostninger ned, det er normal forretning, og i det her tilfælde var det vidst TSMC der nævnte at man kunne bruge et andet materiale, men i sidste ende er det Nvidias ansvar at de stolede på TSMC (dem som producerer Nvidias chips).
Det kom i øvrigt til at koste Nvidia et par milliarder kroner, så jeg tror de har lært af den fejl.
B230FT (17) skrev:#10 - nVidia-gate er historien om skandalen omkring nVidias fejlramte GPU'er - omhandlende hvordan man bevidst pressede produktionsomkostningerne ned, så man _bad_ om problemer :-(
/B230FT
Tror du ikke nærmere de producerede kortet med henblik på at det skulle gå i stykker efter et givent stykke tid, f.eks. 2½ år. Jeg prøver at skrive dette uden at tage sølvpapirshatten på. Men f.eks. er det et rimelig kendt fænomen at f.eks. 9800m failede efter 2½ år (har selv ejet et kort hvor det skete). Det er desværre en rimelig normal produktions procedure i forbrugssamfundet at ting ikke skal holde for evigt og det har stået på siden 40'erne.
Se evt. The Light Bulb Conspiracy
#30 Jeg har faktisk en HP bærbar der havde et af de kort som Nvidia betalte 100 millioner dollar for at dække omkostningerne til RMA på.
Men HP sagde jeg kunne hoppe i havet da jeg sagde at jeg gerne ville have skiftet bundkortet efter grafikkortet stod af pga varme, hvor jeg netop henviste til den fejl.
So - No more HP products for me.
Men HP sagde jeg kunne hoppe i havet da jeg sagde at jeg gerne ville have skiftet bundkortet efter grafikkortet stod af pga varme, hvor jeg netop henviste til den fejl.
So - No more HP products for me.
Mr.Smiley (28) skrev:Hvor svært kan det være så at skrive det du ser der står, istedet for at starte en mindre debat op om hvem der har ret her :P
Fordi min iPhone ikke har et ATi grafikkort :D
Men sad ved den stationære for at lave noget billede halløj - der står "AMD Vision Engine Control Center"
Driveren hedder 'AMD Catalyst(tm)' og styreprogrammet (stadig) 'Catalyst(tm) Control Center'.
Eneste forskel er at der står AMD foran istedet for ATI. Ganske som #24 også påpeger.
Eneste forskel er at der står AMD foran istedet for ATI. Ganske som #24 også påpeger.
Well, mit er stadig ikke CCC, selvom grafikkortet var fra dengang det stadig hed ATi - men på driver cd'en var det AMD VECC
Sanity (30) skrev:Tror du ikke nærmere de producerede kortet med henblik på at det skulle gå i stykker efter et givent stykke tid, f.eks. 2½ år
"Don't attribute to malice, what can be adequately explained by stupidity."
Eftersom at nVidia ville være gået fallit, hvis alle OEM'erne (HP, Dell, IBM, osv.) havde krævet erstatning for defekte grafikchips, så nej.
De indså dog, at hvis nVidia gik fallit, så ville der kun være ATI/AMD tilbage, som så i praksis ville have monopol på at producere kraftige grafikchips.
Der er brug for nVidia til at holde prisen på grafikchips nede, desværre.
Hvis man går ud fra, at nVidia gjorde det for at begrænse levetiden af produkterne, så var effekten af de designændringer de foretog, langt større end tilsigtet. På den anden side ville det tage et par år før det gik op for dem..
Det værste er dog, at man stadig kan købe kort med de grafikchips. De burde simpelthen være blevet trukket tilbage.
For dem som har glemt det; nVidia fjernede et lag i chippene, som stivede dem af, dvs. mindskede de termiske deformationer en chip udviser, når den varmes op og køles af, og til at fæstne grafikchippen brugte de en legering, som er dårlig til at modstå kolde deformationer, dvs. den rives nemmere over.
Resultatet bliver, at efter chippen har været varmet op og kølet af nogle få hundrede gange, rives forbindelserne i kanten af chippen over, og så er der sort skærm. Forinden kan man opleve kortere eller længere perioder med flimmer, instabilitet og meget andet.
Man kan kortvarigt fikse problemet ved at opvarme chippen til ca. 210 grader med en varmepistol, hvorved tinlegeringen smelter og danner forbindelse igen, men det er kun få gange det kan lade sig gøre.
Typisk virker den kun et par uger, måske en måned, så begynder den at fejle igen, ofte meget mere brat / pludseligt end før.
Holdt man istedet fra starten af chippen ved (konstant belastning og) konstant temperatur, f.eks. 45 grader, kunne den måske holde et årti eller mere.
Til dem, som overvejer det; det er ekstremt dårlig moral/karma at opvarme en grafikchip så den virker igen, derefter sælge grafikkort/bærbar, og lade køber stå med problemet istedet.
greylion (38) skrev:For dem som har glemt det; nVidia fjernede et lag i chippene, som stivede dem af, dvs. mindskede de termiske deformationer en chip udviser, når den varmes op og køles af, og til at fæstne grafikchippen brugte de en legering, som er dårlig til at modstå kolde deformationer, dvs. den rives nemmere over.
Resultatet bliver, at efter chippen har været varmet op og kølet af nogle få hundrede gange, rives forbindelserne i kanten af chippen over, og så er der sort skærm. Forinden kan man opleve kortere eller længere perioder med flimmer, instabilitet og meget andet.
Altså, det kan godt være jeg spørger dumt, men hvad skulle fordelen ved de ændringer være, udover besparelse af 50 øre i materialer? (og muligheden for at sælge et nyt grafikkort hurtigere, eller for HP, Dell etc. en ny computer)
Opret dig som bruger i dag
Det er gratis, og du binder dig ikke til noget.
Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.