mboost-dp1

Nvidia

Nvidia vil fokusere på multi-GPU løsninger

- Via X-bit labs - , redigeret af Net_Srak

Normalt så lancerer Nvidia nye produkter 2 gange om året, i foråret og efteråret, hvor efterårs-lanceringen er den mest interessante, da det er her ny teknologi lanceres. Sådan har det ikke været i år, og står det til Nvidias direktør, Jen-Hsun Huang, så vil GeForce 8800 Ultra være det hurtigste kort et stykke tid endnu.

Efterårets nye grafikkort fra Nvidia blev GeForce 8800 GT, hvis største forskel i forhold til de andre modeller i 8800 serien, er at den er produceret i 65nm proces, mod tidligere 90nm.

Jen-Hsun Huang mener at folk der ønsker vildere grafikkort, i stedet bør satse på SLI. Med mulighederne for både triple- og quad-SLI løsninger kan man komme op på kraftige løsninger.

ATI (AMD) er ligeledes begyndt at fokusere på deres Crossfire teknologi, for også at promovere multi-GPU løsninger. En af årsagerne er at udviklingen af nye meget store GPU’er er dyrt, og med et transistorantal der nærmer sig 1 milliard, er det også meget kompliceret.





Gå til bund
Gravatar #1 - Staeren
13. nov. 2007 09:11
Når nu de benytter sig af 65nm teknologi, kan de så ikke placere 2 GPU'er på samme kort?

65nm GPU'ens behov for køling og strømtilførsel var jo så drastisk sænket, at det da burde kunne lade sig gøre inden for rimelighedens grænser.

At begynde på quad SLI/Crossfire løsninger er jo direkte absurt, så længe priserne er som de er. Og i de SLI/Crossfire tests jeg har set, der gav det ikke meget mere end 30-50% ydekraft at slutte endnu et kort til, tør slet ikke tænke på hvor lidt ekstra ydelsekraft 3. og 4. kort kommer ned at give.

Ville da være federe, hvis de fandt en ordentlig løsning, så ydelseskraften steg liniært med antallet af GPU'er
Gravatar #2 - el_senator
13. nov. 2007 09:13
Hmz, det er da underlig udtalelse de kommer med der. De kunne lige så godt sige "Vi er lidt ligeglade med miljøet, så vi synes bare i skal bygge et kraftværk i baghaven og installere en 2000 w psu i jeres maskiner, så i kan købe jer fattige i halvfesne SLI løsninger.".

Jeg er godt klar over at PC markedet skrumper ind, blandt andet fordi DX10 er et kæmpeflop(højst sandsynligt fordi det er Vista only), så den normale migrering er slået i stykker. Det lugter lidt af at nVIDIA er ved at kigge på græsset på den anden side af gærdet. Altså, måske overvejer de at satse på et helt andet marked og forsøger nu at presse citronen med hensyn til det traditionelle GPU marked.
Gravatar #3 - bjarkehingrumme
13. nov. 2007 09:22
#1 To GPU'er på en gang vil benytte sig af SLI for at arbejde sammen uanset om de sidder på samme kort eller ej.
Gravatar #4 - RMJdk
13. nov. 2007 09:23
Ja sli har meget performance, men det er jo til en hvertid bedre med nyere teknologi, kan jo være et god tegn for ATI at de kan nå at hente ind på nVidia igen, hvis de har den holdning.
Gravatar #5 - luuuuu
13. nov. 2007 09:55
#2

det er som sådan ikke en underlig udtalelse.

så vidt jeg husker havde intel også lidt den ide engang for længe siden, og selvom de så valgte at gå helt bananas nu, så vælger nvidia måske også at satse mere på udvikling af smartere gpu'er der bruger meget mindre strøm og måske har plads til to/tre/fire stk per kort, som man så kan sli afsted med.

det er måske ikke nødvendigvis ny teknologi på den gamle måde. det bliver måske nærmere gammel/nuværende teknologi, men på en ny måde.


desuden, det er da efterhånden svært at få bedre grafik end det man får med 2 stk 8800gtx ultra... eller tager jeg fejl? man kan jo trods alt ikke gøre grafikken bedre end fotorealistisk.. :S

det eneste problem bliver vel bare at man ikke kan indlæse hele crysis spillet på sit grafikkort. ØV BØV HVA? :P
Gravatar #6 - Mr.DNA
13. nov. 2007 09:59
kun 1.19% af computerne i steam hardware survey har SLI/Crossfire så man kan undre sig over hvilket markedet det er henvender sig til med tripple SLI og Quad crossfire. Hvis GPU'erne så i det mindste altid skalerede mindst 70% og gerne mere kunne det måske være interessant, men da det ikke er tilfældet så er det ikke særligt rentabelt at indkøbe kort nummer 2, for slet ikke nr 3.
Gravatar #7 - Mr.DNA
13. nov. 2007 10:00
kun 1.19% af computerne i steam hardware survey har SLI/Crossfire så man kan undre sig over hvilket markedet det er henvender sig til med tripple SLI og Quad crossfire. Hvis GPU'erne så i det mindste altid skalerede mindst 70% og gerne mere kunne det måske være interessant, men da det ikke er tilfældet så er det ikke særligt rentabelt at indkøbe kort nummer 2, for slet ikke nr 3.
Gravatar #8 - Mr.DNA
13. nov. 2007 10:01
oops dobbelt post.
Gravatar #9 - el_senator
13. nov. 2007 10:01
#5, Well, der er i hvert fald mindre og mindre forskel i de skridt der bliver taget rent visuelt på de nye grafikkort. De færreste kan se forskel på om et objekt har 100.000 polygoner eller 200.000 polygoner, så det er marginalerne vi snakker om nu om stunder.

Jeg mener bare, SLI er jo en niche løsning - noget kun de allerfærreste bruger. Så virker det lidt underligt hvis de vælger at fokusere ekstra på det, når folk jo tydeligvis ikke gider have noget med det at gøre. Og det er jo ikke manglende fokus der har gjort at SLI ikke er brugt, for det har været meget oppe i medierne tidligere. Det er bare faldet til jorden igen, og det tror jeg ikke ændrer sig.
Gravatar #10 - Staeren
13. nov. 2007 10:35
#3
To GPU'er på en gang vil benytte sig af SLI for at arbejde sammen uanset om de sidder på samme kort eller ej.


Også derfor jeg slutter af med at sige "Ville da være federe, hvis de fandt en ordentlig løsning, så ydelseskraften steg liniært med antallet af GPU'er"

Læs hvad jeg skriver inden du kritiserer det, please :P

Trods min umiddelbare kritik af SLI, så kunne jeg da godt blive lokket til at købe et 8800 gts til, men først når prisen kommer ned på omkring 1500 dkr, eftersom det ville koste mig en ny PSU, da den jeg har kun er på 400W. Og dur slet ikke med 4 interne diske. :P

Hvis nu man kan få 30-40% ekstra ydelse for omrking 2000 kroner, så er det da værd at se på, istedet for at skulle ud i næste generation af grafikkort, som måske ikke engang ville levere ekstra ydelse, selvom det koster det dobbelt af en SLI løsning.
Gravatar #11 - emilbp
13. nov. 2007 10:39
Man kan sætte 2 grafikkort sammen med SLI. Er Quad-SLI så 4 eller 8 grafikkort sat sammen?
Gravatar #12 - Staeren
13. nov. 2007 10:41
4 kort... :)
Gravatar #13 - AenimA
13. nov. 2007 10:45
Jeg er selv skiftet fra et 8800 GTS 640 MB SLI setup til et enkelt Geforce 8800 Ultra. Hvorfor? Fordi:

1) SLI fylder afsindigt i kabinettet. Efter SLI kortene var installeret, var der kun plads til ét sølle PCI kort.

2) Varme = støj = højt strømforbrug. Varmeafviklingen fra 2 GTS er mere end fra 1 Ultra kort. Det kunne mærkes - desuden var SLI kortene så tæt på trådløse netværkskort, at det tit blev ustabilt pga. varme. Og jeg har et Maxi-tower.

3) Ydelse. I et best case scenario kunne FPS fordobles (standard var dog ca. 30-40% hurtigere), men der var også tilfælde hvor spillene kørte dårligere, eller mere hakkende, pga. manglende driversupport m.m. Hvilket bringer mig videre til..

4) Mere arbejde. Mere arbejde med at få spillene til at virke med SLI, enten gennem Nhancer, eller ved pille ved de avancerede indstillinger gennem Nvidia control panel. Det var ikke meget arbejde, men igen et lag, man skulle igennem for at nyde SLI.

Jeg siger ikke SLI ikke kan bruges til noget, men personligt synes jeg det er en dyr, upraktisk løsning. Efter at have prøvet det igennem 3 mdr., var det ikke en svær beslutning at skifte til et enkelt grafikkort.
Gravatar #14 - AenimA
13. nov. 2007 10:46
Det positive ved den udmelding er dog, at vi for en gangs skyld ikke bliver ramt opgraderingsstorm. Der har været lidt ro om 8800 serien, og det må trodsalt skabe nogle bedre optimerede spil på sigt.
Gravatar #15 - Staeren
13. nov. 2007 11:45
Gad vide, om det egentlig er rentabelt at producere multi-kernede GPU'er, og om det ville give en reel fordel i form af ydelse.

Ved ikke så meget om GPU'er, bortset fra at de lader til at være radikalt anderledes opbygget end regulære CPU'er...
Gravatar #16 - Max_Payne
13. nov. 2007 12:17
Er der nogle, som det er lykkedes for at få fat i et 8800gt ? Jeg synes sgu ingen forhandlere har det på lager før ultimo november / primo december?
Gravatar #17 - nikolajp
13. nov. 2007 12:20
De færreste kan se forskel på om et objekt har 100.000 polygoner eller 200.000 polygoner, så det er marginalerne vi snakker om nu om stunder.


En lidt naiv kommentar. Så mange mennesker har tidligere taget fejl, da de påstod at udviklingen umuligt kunne fortsætte og nok var nok.

Realisme har vi LANGT fra nået. Måske hvis man kun kigger på still-billedet. Problemer er dog, at alting kommer til at virke mere underligt (eller out-of-place) jo mere vi nærmer os realisme.

Derfor går den moderne GPU teknik mere og mere på fysik og avancerede shadere der kan simulere depth-of-field, blur, hud, flydende ting (vand) osv. Her mangler der meget, og det er utroligt krævende beregninger der ligger forude.

Man kan sige at kravet til hardware stiger eksponentielt jo mere vi nærmer os realisme. Vi kommer aldrig helt derhen, da en simulation af alle partikler i universet er urealistisk. Men vi kan komme et godt stykke og der mangler stadig meget. HalfLife2 har bevæget sig derhenad med sine utroligt realistiske ansigts-animationer og god lyssætning. Dog er der stadig noget der virker underligt - de er ikke helt overbevisende, men meget tættere end andre spil.

Forestil dig Crysis hvor vander reelt var flydende. Man kunne måske sprænge dæmninger osv. Mht. polygoner så er der ALTID brug for flere. Man kan jo tydeligt se manglende detaljer i alle spil, når man kommer tæt på objekterne. Specielt i RTS spil, hvor man kan zoome meget ind og ud.

Der er ALTID et behov for mere. På et tidspunkt bliver behovet kun for de aller-mest krævende - f.eks. behøver vi ikke biler der kører 400 km i timen - men der er vi slet ikke. Måske om 30-40 år.
Gravatar #18 - Siggehandf
13. nov. 2007 12:33
Okay helt seriøst. Hvad skal vi med fuldstændig realisme i spil. De er spil, det skal være sjove og anderledes end virkeligheden imho. Tag eksempelvis World of Warcraft. Grafikken er god fordi den holder sig til et koncept og et farvepalette ikke fordi den ser realistisk ud. Der er ingen spil som bliver bedre af at se realistisk ud. Der er noget som kun hollywood operer med og de er ved at være så gode, at folk sluger det råt.

Men det er den evige problematik med spil markedet. Lave nogle fancy screenshots som ser fede ud og folk køber det. Det er min holdning at spil idag har aldrig haft så lavt "play time" som de har idag. Og det skyldes, at alt for meget tid og penge bliver brugt på grafiske forbedringer. Dette er jo også let at få penge til. For hvis man først skal overbevise en flokke investorer om at give penge, så er det utroligt nemmere med flottet screenshot end kompliceret game design som 9/10 af dem sikkert ikke fatter en brik af.
Gravatar #19 - Staeren
13. nov. 2007 12:55
#18 Hvad siger du så til at spille Katamari Damacy renderet i fuld HD, 16xAA/AF, HDRi lighting og med 8000x8000 displacement maps? Det ville stadig være det samme spil, dog ville det være ufatteligt mere lækkert at se på, hvilket også ville have noget at sige.

Et spil må altså også gerne være æstetisk behageligt. Så bestemt grafikken kan gøre meget for den generelle spiloplevelse - derved et bedre spil.

Et spil som WoW ville også blive super meget mere lækkert af at få kastet overstående features på sig. For lige for at slå det fast, så er grafikken i World of Warcraft helt og aldeles elendig. Folk som er i tvivl, er dem som ikke har forstand på selvsamme emne.

Animationen er middelmådig, deres polycounts er til grin og deres maps er af en ækel opløsning. Dog har de et somewhat behageligt udseende, fordi de bruger meget mættede farver og et meget konkret design, som ikke afviger fra det man forventer af universet. Alt ud over det er til at grine højlydt af. Seriøst.

Når først DX10 slår igennem hos udviklerne, så kommer vi til at se rigtig store ændringer på hvor lækre spil kan komme til at se ud. Har købt Hellgate London, og den motionblur de presser ud af DX10 er helt og aldeles fantastisk. At de så har lagt det ud på en engine som hverken trækker frem eller tilbage er så noget af et kiks. Vil slet ikke kommentere animationen, da det måske ville afkrække potentielle spillere, for spillet er vildt godt lavet, og klart værd at prøve. Man skal bare ikke spille en Templar, da man ikke kan se fra 1-st person når man bruger melee våben, og.... ja.... det er igen animationen... :)
Gravatar #20 - RMJdk
13. nov. 2007 14:40
Næste generation GFX kort som er top eller tæt på top kadidat levere altid mere ydelse end 2 kort af forrige generation i sli .
Gravatar #21 - Siggehandf
13. nov. 2007 15:29
#19

Det er noget fis, at kalde wow grimt. Det bygger på tegnefilms concept og det levere det fuldt ud. Alt er stilrent hele vejen igennem. Dvs alt ser ud til at det høre til i verdenen. Det er meget meget mere svært at gennemføre end bare alt forsøge at få noget til at se realistisk ud.

Der ud over kan du tage et spil some Lineage II, verdenen i lineage II slår alt og alle. Alt er gennem tænkt og udført med præcision.

Wow og Lineage II er beviser for at computer spil kan være kunst. (Der er flere titler men disse er dem jeg kender til).

Virkelighedens realisme er meget meget meget end bare "høje systemkrav". Det er ligeså meget at udtænke biologisk forhold i den kunstige verden du skaber. Det kan godt være du ikke lægger mærke til det i din hverdag, men de er der. Der en grund til at der er X dyr der, at disse trær kun vokser hvor de gør osv. Hvis du skal realisme ind i computerspil skal du kunne udtænke dem også eller hjælper det lige meget med alt dit grafik.
Gravatar #22 - spartacuz
13. nov. 2007 18:53
Nu er det ikke så tit jeg kommer med kommentarer på newz, men læser meget ofte artiklerne. Jeg er lidt en spil nørd og har ikke en rygende fis forstand på hardware. Jeg har en pc med et 2 år gammelt grafik kort, kan ikke huske om den har turbo og intercooler eller om det i det hele taget kan opgradreres med lyserødt plys eller alu-fælge. Jeg har lige siddet og spillet Call of Duty 4... Ja det var en pirat kopi og hva så... Ville prøve inden jeg ville ønske mig det til jul. jeg fandt ud af følgende... Lortet fylder 6,6 giga... Grafikken er total iorden, det mest gennemførte/realistiske jeg har set længe, selvom jeg kørte det på lav opløsning uden skygger og alt det andet crap man nu kan slå fra for at jeg skulle kunne trække det og stadig var det utrolig realistisk grafik. Jeg er helt sikker på at der har siddet nogle programmører i meget lang tid for at lave spillet. men jeg vil ikke ønske mig det til jul. Okay grafikken er fed, men et spil man kan gennemføre på under 3 timer er ikke 5-600 kroner værd. Jeg ville ønske spil fabrikanterne ville ta den lidt med ro og lige overveje hva de sender på gaden. Noget der kan gennemføres på 3 timer er sku da en demo.
Jeg tabte lige min oprindelige tanke til denne tråd på gulvet og nu har hunden spist den...
Hva det angår hardware som denne tråd handler om så har jeg ikke en dyt forstand på det men syntes også at de grafikkort der allerede findes virker kanon...
Gravatar #23 - Törleif Val Viking
13. nov. 2007 20:58
Vil bare sige at grafik er med til at skabe stemning!
WoW skaber stemning fordi man er i fantacy land hvor alt kan ske.
Universet er ment som en efterfølger til warcraft3 hvilket jeg synes spillet lever 100% op til.
Dog ville jeg aldrig kunne forestille mig Doom3 med WoW grafik da begge dele ingen sammenhæng har.
En mørk gyde i WoW er på ingen måde skræmmende som en mørk gyde i Doom3
Gravatar #24 - Staeren
14. nov. 2007 08:24
#19 Som sædvanlig kan folk ikke finde ud af at læse et helt indlæg igennem inden deres pis kommer i kog...
Animationen er middelmådig, deres polycounts er til grin og deres maps er af en ækel opløsning. Dog har de et somewhat behageligt udseende, fordi de bruger meget mættede farver og et meget konkret design, som ikke afviger fra det man forventer af universet. Alt ud over det er til at grine højlydt af. Seriøst.

Hvis du havde bare en lille smule forstand på animation, så ville du hurtigt kunne se hvor grimt og tåbeligt karaktererne i WoW er animeret. Det er ikke ondsindet bashing, det er kolde fakta.

At det antal af polygoner de bruger er så lavt som det er, giver i nogle tilfæle problemer med deres ringe animation, hvor der kommer virkelig grim "stretching", hvilket er alt andet end pænt.

Og hvis du havde brugt et program mere avanceret end paint, så ville du også vide, at de texture maps WoW bruger er af virkelig, virkelig dårlig opløsning. Når de nu har sparet så meget på alt andet, polygoner især, så ville det være dejligt, hvis de så piftede det hele lidt op med (om ikke andet, bare muligheden for) lidt højere opløsning maps, samt lidt normal mapping.

Men når jeg siger at WoW fra et objektivt synspunkt (hvilket burde have været ret åbentlyst, at det var), så har jeg helt og aldeles ret.

Jeg nævner derimod også, at WoW er behageligt at se på, hvilket det i sandhed også er, men mest af alt, så holder det sig tro til det univers det er bygget på. Det er nævneværdigt, men grafikken er nu en gang ikke det helt store. Udseendet er i top, men der er stor forskel på de to.

Og når du siger, at det er meget meget sværere at skabe et stilrent design end realisme, så er der noget som siger mig, at du nok aldrig har siddet mere end 10 minutter ved et kreativt program.
Gravatar #25 - Mr.DNA
14. nov. 2007 13:56
-> #15 GPU'er er egentligt allerede multicore. G80 har 128 stream processorer , 32 texture mapping units (TMU), 24 raster operation units (ROP). De mindre modeller har så fået "slukket" for nogle af disse. Med den nye 65/55nm proces teknologi burde de godt kunne få plads til lidt flere processorer, TMU's og ROP's, men indtil videre har de satset på at få et kort på markedet som har et meget stort markede pga af den lave pris sammen med den relativ høje ydelse. Men det bliver interessant om ikke G90 "bare" bliver en G80 med DX10.1 understøttelse og lidt mere af det hele, og ikke nogen revolution. Ligesom overgangen fra GF 6800 til 7800.
Gå til top

Opret dig som bruger i dag

Det er gratis, og du binder dig ikke til noget.

Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.

Opret Bruger Login