mboost-dp1

unknown

nVidia Introducerer nForce2-bundkort

- Via Tom's Hardware -

Siden sidste år, hvor nVidia introducerede deres nForce-chipsæt, har de arbejdet hård på, at forbedre chipsættet, så det kan få den success de mener det har fortjent. Nu introducere de 2 udgaver af chipsættet. Et, hvor det førhen northbrigde-integrede grafikkort ikke længere er en del af designet og så en revideret udgave, hvor der nu er integreret et Geforce4MX. Dette var bl.a. en af grundene til, at kortet aldrig fik success blandt high-end brugere. Af nye ting på kortet kan nævnes support for Dual DDR400.





Gå til bund
Gravatar #1 - TYBO
16. jul. 2002 15:53
aghhhhh...skod...sgu da ikke Geforce4MX...hvad tænker de på.
Gravatar #2 - BurningShadow
16. jul. 2002 15:54
#1
Kvinder...
Gravatar #3 - rext
16. jul. 2002 16:11
Ville det ikke være at skyde sig selv i foden hvis der var indbygger et Geforce 4 TI4200 i motherboardet??
Hvor mange grafikkort tror du de villle sælge??
på denne måde skal man jo ud og købe en nyt grafikkort når man køber et kort med Nforce2 og opdager at man ikke kan kører de nye spil ;)
Gravatar #4 - Denzil
16. jul. 2002 16:11
For det ville jo være rigtig fedt med et GF4 Ti 4600 på bundkortet der skal dele ram med cpu'en :-)
Men ok, man kunne selvfølgelig integrere et helt GF4 Ti 4600 på kortet, men så er det nok ikke ligefrem microATX længere ;-)
Jeg syntes nu det ser ganske lovende ud..
Gravatar #5 - nihil
16. jul. 2002 16:41
pointen med det 'dårlige' grafikkort, er jo til dem der ikke gider at bruge penge på et super-ninja-hyper grafikort, og sagtens kan leve med den acceptable ydelse gf4mx leverer
Gravatar #6 - Hektor
16. jul. 2002 17:22
#1 TYBO:
Flere ting:
1) Et GF4TI på bundkortet vil være overkill af flere grunde:
a) pris
b) pris
c) pris
for ikke at glemme:
d) pris

2) Et GF4 MX420 er FINT til den almindelige hjemmebruger. Super-lamer-gamers og andre køber et nForce2 UDEN indbygget grafikkort.

3) Se 1)
Gravatar #7 - faetteren
16. jul. 2002 21:23
Det med DUAL DDR400 ( 200 Mhz ddr ram ). Det er ikke noget med 800 Mhz MEM effektiv FSB, Det er DDR400 til FSB og DDR400 til den GF4MX Chip på kortet, så det er en rigtig fin budget pc man kan lave af sådanne et kort, for det er det Absolut højst ydende gfx man kan finde indbygget, men hvormeget er det indbygget hvis man bruger en stang 200 Mhz DDR ram kun til GFX chippen ?. det er stort set et mainboard hvor man har mulighed for at sløve pcen ved lade system og GFX ram være delt, hvilket skulle være fint til kontor PC'er, og hvis man vil opgradere maskinen skal der RAM i den anden ram kanal, hvilket vil ophæve delingen af ram mellem system og GFX. og så har man et DDR bundkort med et gf4mx bygget ind i, det er sejt. Men jeg vil ikke eje et bundkort fra Nvidia. hvorfor ?. Det er bare fordi.....

Nvidia har ikke ret meget erfaring med MB's derfor. Jeg bliver ved med at købe intel chipset indtil jeg er overbevist fra anden side om at de kan lave mere stabile bundkort. Jeg husker en test jeg var med til ved et mini lan. vi var en 20 stykker som skulle se hvilken maskine var mest stabil. og inden 9 timer var alle maskiner braget ned på nær de med intel chipset ( mange var overclocked ). der var dog 1 maskine med intel chipset som også bragede ned, den var syg. tit er intel chipset'ne også hurtigere, ikke altid, men jeg behøver ikke have en god benchmark maskine, bare den er stabil og kan det jeg har brug for så er jeg tilfreds, der for altid intel chipset. Jeg vil gerne have en amd cpu igen, hvis intel kommer med et chipset som kan køre den.
Gravatar #8 - Simm
16. jul. 2002 22:28
#7: "Jeg vil gerne have en amd cpu igen, hvis intel kommer med et chipset som kan køre den."

Det skal du nok ikke regne med, eftersom de to firmaer er ærkefjender
Gravatar #9 - SilverWolf
17. jul. 2002 01:13
#7

Hmm, Så har de da været mega ustabile de computere i testede med... Min athlon går da aldrig ned... Hvor får i fra at AMD er ustabil?, det er da fordi at ens drivere ikke er installeret korrekt, at det går ned.

Jeg sidder med 1800XP, 768mb DDR 2100 og et Geforce 4 TI4600... Går den ned?, hvorfor skulle den?... Bare man installere noget køling... Så det med at intel chipsæt er bedst... tja, det sagde jeg os om IBM Harddiske indtil de fuckede i det...
Gravatar #10 - Hektor
17. jul. 2002 04:34
#7 faetteren:
Mht den første del; er du sikker på, du ved, hvad du taler om?
Gravatar #11 - C#
17. jul. 2002 06:57
#7 faetteren:
Mht den sidste del; er du sikker på, du ved, hvad du taler om?

:)
Må godt nok have været nogle fail opsat/samlet comps hvis de går ned efter kun 9 timer med andre chipsets end intel.
Gravatar #12 - *Iceman
17. jul. 2002 09:25
#7 : Måske skulle du lige bruge de 5 min ekstra til at læse artiklen igen, for det med Dual ram har du tydeligvis ikke forstået helt. Jeg sakser lige fra siden :

As with the nForce, the memory interface of the nForce2 is twice as important. For one thing, the dual memory controller enables the bandwidth to double, because the interface can work with 128-bit instead of 64-bit. This means up to 6.4 GB/s with dual DDR400, 5.4 GB/s with DDR333 and 4.2 GB/s with DDR266. These are values that make the 3.2 GB/s of dual PC800 RDRAM seem quite low.

Her står der, at bundkortet understøtter PC3200 DDR moduler, og ved hjælp af dens dual-controller kan fordoble dens båndbredde fra 3.2 GB/s til 6.4 GB/s....men du har helt ret i, at rammen på diverse gfx-kort kører noget hurtigere. Men så langt fra er det ikke, da (så vidt jeg ved) PC3200 er 400 Mhz ram. Men hvis du har andre facts, som jeg ikke kender til, så er jeg åben overfor at skifte mening!
Gravatar #13 - Deternal
17. jul. 2002 13:07
PC3200 er da 200MHz ram, det er jo det der er pointen ved DDR ram, at den kører med 'dobbelt' hastighed.

Btw, hvor lidt fatter Tom?
"As the name suggests, DualNet consists of two network controllers. Upon closer scrutiny, this proves to be a welcome feature. Because the traditional modem is being replaced by more modern technologies, such as DSL, a network card is pretty much indispensable these days."

Ja 1? Nu gad man fixe en switch med uplink istedet for det der? Og nej et gaming chipset til en server (gateway, proxy etc.)? lyder tåbeligt.

"Even if UltraATA/133 will be perfectly sufficient for the time being, it is still curious as to why NVIDIA, for all its apparent perfectionism, didn't go directly to integration of Serial ATA in the chipset."
Jada, er jo også meget billigere med Serial ATA hd's - er jo helt vildt så mange af de HD's jeg har set på markedet...

"If you were hoping for a chipset for the Pentium 4 - sorry! nForce2, just like the nForce, is only for AMD Athlon XPs. It can only be speculated as to exactly why NVIDIA took this stance, but indirectly, NVIDIA also offers a technically similar chip for the Pentium III. The Xbox contains such a variant of the nForce technology. Because of this, rumors have it that NVIDIA might soon introduce an appropriate chipset for the Pentium 4."
Ja nemlig - var jo ikke fordi MS havde licensen til P4 bussen og Intel ikke vil give nvidia en.... har intet med det at gøre, og nvidia kommer helt sikkert med en alligevel? GG Tom....eller Patrick Schmid som forfatteren hedder. Man skulle næsten tro at et kvalitets check af deres info ville være indført efterhånden :|

Anyway, et motherboard med SPP og MCP-T ville da være nice noc til en lille gaming comp ;P

Og så lige et parhelia eller et r300 på og så kører vi :P
Gravatar #14 - Hektor
17. jul. 2002 13:42
#13 Deternal:
Hvorfor har nVidia ikke en licens til P4?

Fordi Intel vil have 5$ per solgt chipset, der bruger licencen. Et nForce-chipset koster omkring 22$ i forvejen, så en 5'er yderligere på er ret meget - især når deres konkurenters chipsets allerede koster ~15$.
Gravatar #15 - Locudo
17. jul. 2002 15:46
Håber sku det bliver et godt bundkort, det var ellers ved at gå lidt i stå med bundkort til AMD, men nu sker der vist noget igen VIA er på vej med deres KT400 og SiS med 746DX og det ser også ud til at der kommer en del til Hammer.

PS: Har endnu ikke haft en AMD CPU der er gået ned i windows.:)

Locudo
Gravatar #16 - Onde Pik
17. jul. 2002 15:58
En smule OT hehe men.


:savle: :savle: :savle:

2 timer tilbage hvis alt går vel.

:savle: :savle: :savle:

http://voodooninja.50megs.com/A1.jpg


http://voodooninja.50megs.com/A2.jpg
Gravatar #17 - Hektor
17. jul. 2002 16:01
#16 OndePik:
Ja, smid den på en SPP-MCP-T-nForce2, så kan man ting og trix.
Gravatar #18 - Onde Pik
17. jul. 2002 16:19
#17

LOL, så sandt så sandt. Læg venligst mærke til "fully support DirectX® 9.0" hehe nam nam.
Gravatar #19 - Hektor
17. jul. 2002 16:27
#18 OndePik:
De har tilsyneladende fået fikset deres bugs, siden de er gået fra "extensive" til "full" understøttelse ... det kan være, de har fusket noget software-understøttelse sammen ... ;-)
Gravatar #20 - Onde Pik
17. jul. 2002 21:34
Nå ja for søren, det må være det ;)
Gravatar #21 - faetteren
17. jul. 2002 22:23
Til alle jer som flamede vedr stabilitets testen, vi testede ikke med noget spec. Den gang vi alle havde ~90-133 Mhz cpu'er hvor vi alle brugte intel's GTL bus, Ja cyrix, amd og intel cpu'er kunne jo køre på samme bræt. Den gang kunne de små maskiner ikke lide at blive presset slet ikke når vi kun havde win95a at gøre godt med, og det enda med buggy drivere, ikke ret meget directX over det, og Hardware 3D accel var noget man kun brugte i WAY-HIGH-END systemer, der var noget med at man kunne så en SGI maskine til 100k som havde lidt hardware 3d, men det var jo latterligt at tænke serligt meget på, DIAMOND multimedia havde godt nok puslet med noget 3d accel. til spillet NASCAR, men 3000 for et skærm kort " LATTERLIGT ". Vi spillede i mod hinanden og havde det sjovt, på en liste skrev vi ned hvilke computere der var gået ned CRASH!. chipset, CPU og RAM.

Det pentium chip set som hed OPTI VIPER var det klart dårligste også det langsomste, men billigt var det. Så det er ikke en test som kan bruges til ret meget, men jeg er blevet i min tro da jeg tit har rodet med div billige lorte kort. Det værste er VIA's 4in1 de første mange mange mange releases var "install and PRAY". nogen af jer som har mistet filer eller lign ved at opgradere 4in1 drivere ????. eller fået den lamme performance ud af det. Jeg har om installeret flere pc'er fordi NAR hoveder tror at fordi der findes en nyere release så skal den installeres, Hvis man ikke har en test platform så VENT til man har hørt / set / læst MERE end 1 sted at det er godt.

Jeg har ikke sagt at AMD's cpu'er er USTABILE "i denne omgang " ( noget andet med deres K6-2 cpu'er dem har jeg HAGLET ned sååå mange gange ). men der hvor det er galt er at INTEL har sat standarden og tildels stadig gør det, så langt de fleste rettelser tilgode ser intel's chips mere end andre, måske har det også noget med at intel sidder på en "lille" bunke penge og hvis skittet er godt på en intel platform så går det nok ikke helt galt. ( hint da TNT2 chippen kom kunne den kun køre fuld skrald på intel's 440BX chipset ), senere fik VIA / SIS / ALI, fundet ud af hvad der skulle til. havde nvidia sovet eller var der penge som skiftede hænder et eller andet sted ??????.

Så det jeg mener med at jeg godt vil have en AMD CPU igen er hvis jeg kan få et bræt med intel chipset som taler en bus som kan drive en AMD cpu !!!!. ikke umuligt, men hvem skal komme med standarden og hvem skal betale licens til hvem ?

BTW et spørgsmål, er der nogen som tør spå hvilken system bus VIA vil bruge til deres næste generation(er) af cpu'er. lige nu køre C3 cpu'erne på en socket 370. ( GTL+ intel's Pentium Pro bus "celeron/pentium2/3/coopermine/tualatin bruger den også". Vil via skifte til en AMD bus eller kommer de til at bruge en intel BUS ????? jeg tør ikke gætte. Jeg tror bare ikke de vil lave deres egen det koster for meget i research men man ved aldrig.

#12 Iceman, Jeg bliver rettet med rette af dig, Jeg har bare, tidligere tror da der kom første presse meddelse om Nforce2, fået læst deres spec forkert eller også har det været meningen at man skulle kunne give gfx kortet sin egen RAM kanal, men det har de åbenbart droppet igen for at give den SYGE båndbrede til CPU'en når man stopper et andet gfx kort i maskinen. sejt nok, det gør at MB'et holder længere hvis fremtidige cpu'er forbliver compatible længe nok.

flame away, korektur flames bliver ignoreret :)
Gravatar #22 - flywheel
17. jul. 2002 23:17
1# GF4MX er en direkte videreudvikling af NV17, der blev brugt sammen med nForce ... den er skræddersyet til formålet - derfor har den kun to pipelines. At nVidia så har sluppet den løs på gaden til andre formål er forkasteligt og det at de endda kalder den for GF4MX er direkte bondefangeri.
Gravatar #23 - Deternal
18. jul. 2002 07:38
#14: Om det er det sammem for nForce2 er jeg self ikke 100 på - men til nForce chipsettet ville nVidia gerne udgive til Intel (de havde jo allerede lavet chipsettet stortset). Men Intel nægtede at give dem licens. Jeg kan ikke umiddelbart forestille mig det har ændret sig, om end det self ikke er umuligt.
Gå til top

Opret dig som bruger i dag

Det er gratis, og du binder dig ikke til noget.

Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.

Opret Bruger Login