mboost-dp1

Nvidia
- Forside
- ⟨
- Forum
- ⟨
- Nyheder
Jeg klare mig nu temmelig godt med mit (nu efterhånden lidt gamle..) GTX260.. Det køre bare.. Så denne nyhed gjorde intet for mig :)
Men det lyder da fint at de vil sætte den til mere "end bare grafik".. Hvad de så helt præcis har planer om, og hvordan det 100% vil fungere, må vi jo så se til den tid :)
Men det lyder da fint at de vil sætte den til mere "end bare grafik".. Hvad de så helt præcis har planer om, og hvordan det 100% vil fungere, må vi jo så se til den tid :)
Mr.Smiley (2) skrev:Jeg klare mig nu temmelig godt med mit (nu efterhånden lidt gamle..) GTX260.. Det køre bare.. Så denne nyhed gjorde intet for mig :)
Tillykke med det.
Mr.Smiley (2) skrev:Men det lyder da fint at de vil sætte den til mere "end bare grafik".. Hvad de så helt præcis har planer om, og hvordan det 100% vil fungere, må vi jo så se til den tid :)
Sådan har det nu været længe, bare med CUDA i stedet for DirectCompute.
Nyheden skrev:Det forventes, at produkter baseret på Kepler vil komme til at hedde GeForce 600-serien og introducere en række nye teknologier, der skal gøre GPU'en endnu mere brugbar til andre ting end blot grafik.
... og således vil nVidia løbe tør for nye navne om 1-3 serier, efter hvordan de ønsker at regne.
Jeg kan simpelthen ikke forstå, hvorfor grafikkortproducenterne ikke snart laver nogle forståelige, meningsfulde og levedygtige navne. Jeg mindes, at særligt nVidia opfordrede til, at producenterne skulle have nogle forståelige navne, men det giver ingen mening, når deres næste generation kommer til at hedde 6xx og derfor snart mister muligheder for at følge navnelogikken.
Jebus - hvor svært kan det være?
/rant
vandfarve (6) skrev:... og således vil nVidia løbe tør for nye navne om 1-3 serier, efter hvordan de ønsker at regne.
Jeg kan simpelthen ikke forstå, hvorfor grafikkortproducenterne ikke snart laver nogle forståelige, meningsfulde og levedygtige navne. Jeg mindes, at særligt nVidia opfordrede til, at producenterne skulle have nogle forståelige navne, men det giver ingen mening, når deres næste generation kommer til at hedde 6xx og derfor snart mister muligheder for at følge navnelogikken.
Jebus - hvor svært kan det være?
/rant
Faggot, jeg har ejet følgende kort, kun en IT n00b ville have svært ved at følge med:
RIVA TNT2 Ultra
GeForce 256
GeFGeForce2 Ultra
GeForce3 Ti 500
GeForce4 Ti 4600
Radeon Pro 9800 (farisær)
GeForce 6800 GT
GeForce 7800 GT(+) Et Gainwars 7800GTX til AGP.
GeForce 8800 GT
*hoopede 9x00 serien over*
GeForce GTX 285
*hoppede 4x0 serien over*
GeForce GTX 580
Her snakker vi GPU's fra 1999 til 2011, så selvfølgelig giver det ikke menning hvis du kigger fra 2011 og tilabe til 1999...men sådan virker IT(og gamig nhardware ikke, der er +5 år MEGET lang tid), men fra generation til generation skal man være mongol eller failfarve for ikke at kunne følge med...
#11 Hear ya. Kampen mellem ATi, undskyld AMD og Nvidia gør blot at det handler om at få noget kram hurtigt på gaden. Lav for dulen da noget som bruger minimal strøm, eller rettere OGSÅ bruger minimal strøm.
Vi skal jo redde miljøet, os selv, isbjørnene, spare på Co2'en og gerne hjælpe til med Folding@Home, SETI, Cure4Cancer og bitcoin på samme tid.
Vi skal jo redde miljøet, os selv, isbjørnene, spare på Co2'en og gerne hjælpe til med Folding@Home, SETI, Cure4Cancer og bitcoin på samme tid.
#11: Hvorfor low-power? Det betyder typisk mindre ydelse... gør som jeg; køb en 1200Watt PSU så du ikke behøver tænke på at købe en ny hver gang du køber en ny computer. Den jeg har er fra ThermalTake og den er MIL-godkendt :-)
Jeg hader at indrømme det, men terracide har fat i noget dér...
Jeg hader at indrømme det, men terracide har fat i noget dér...
#15: Selvfølgelig, det er jo logik for perlehøns! Men hvis du har en strømforsyning der kun lige kan trække din computer vil du belaste den i en sådan grad at der vil gå energi til spilde i form af varme afsat i strømforsyningen og der ved reducere dens levetid. Det er altid fornuftigt at ha' en Strømforsyning der ligger minimum et par hundrede Watt over resten af ens hardware's maximum load.
Men givet, min 1200Watt PSU er måske lidt voldsom til min nuværende computer, men den er købt dengang jeg skulle trække mit Geforce 8800 Ultra, der alene åd 300Watt under maximum load hvilket jeg kørte det ved tit. Desuden kørte jeg med 6 harddiske og det gør jeg stadig.
Men givet, min 1200Watt PSU er måske lidt voldsom til min nuværende computer, men den er købt dengang jeg skulle trække mit Geforce 8800 Ultra, der alene åd 300Watt under maximum load hvilket jeg kørte det ved tit. Desuden kørte jeg med 6 harddiske og det gør jeg stadig.
ShamblerDK (16) skrev:#15: Selvfølgelig, det er jo logik for perlehøns! Men hvis du har en strømforsyning der kun lige kan trække din computer vil du belaste den i en sådan grad at der vil gå energi til spilde i form af varme afsat i strømforsyningen og der ved reducere dens levetid. Det er altid fornuftigt at ha' en Strømforsyning der ligger minimum et par hundrede Watt over resten af ens hardware's maximum load.
Frit fra hukommelen yder en PSU bedst ved en belastning omkring 50-90 % af nominal ydelse.
Sandsynligheden er derfor, at din 1.200 watt PSU givetvis er langt mindre effektiv, end hvad der stod på den fine indpakning, og du selv tror.
Så det er logik for burhøns at skalere alle komponenterne til hinanden. :)
ShamblerDK (14) skrev:#11: Hvorfor low-power? Det betyder typisk mindre ydelse... gør som jeg; køb en 1200Watt PSU så du ikke behøver tænke på at købe en ny hver gang du køber en ny computer. Den jeg har er fra ThermalTake og den er MIL-godkendt :-)
Jeg hader at indrømme det, men terracide har fat i noget dér...
Der er mange ting i det :) Jeg sidder normalt på linux, men vil gerne kunne game til lejlighed :)
Derudover bliver et lille værelse meget hurtigt meget varmt, når computer lukker 800 watt ud:)
Og igen, så skal du altså betale for den strøm du bruger ;)
Opret dig som bruger i dag
Det er gratis, og du binder dig ikke til noget.
Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.