mboost-dp1

Nvidia
- Forside
- ⟨
- Forum
- ⟨
- Nyheder
#1
Hvis jeg læser dig rigtigt så er jeg dybt uenig. Der er masser af beregninger hvor delresultater er meningsløse for brugeren. De fleste af de krævende beregninger jeg kan komme i tanke om at have stødt på (primært diværse analyse opgaver, f.eks. data mining) giver først mening når de er langt i processen eller helt slut. F.eks. clustering analyse i data mining er iterativ, og de føste mange iterationer kan ikke bruges til noget som helst.
Men det er ikke for at erstatte noget, normalt vil du jo netop gerne have resulaterne efterhånden, istedet for at få dem alle samtidigt.
Hvis jeg læser dig rigtigt så er jeg dybt uenig. Der er masser af beregninger hvor delresultater er meningsløse for brugeren. De fleste af de krævende beregninger jeg kan komme i tanke om at have stødt på (primært diværse analyse opgaver, f.eks. data mining) giver først mening når de er langt i processen eller helt slut. F.eks. clustering analyse i data mining er iterativ, og de føste mange iterationer kan ikke bruges til noget som helst.
#0
Hvorfra læser du at Intel er verdens største producent af mikroprocessorer? Langt størstedelen af alle mikroprocessorer 8 bit mikroprocessorer, hvor jeg tvivler på at Intel er de største, og på supercomputer markedet er Freescale vist de største, så Intels position på desktop markedet er vist ikke helt relevant.
Personligt ser jeg NVidias produkt som et meget interessant tiltag. Godt nok kan vil processoren sandsynligvis ikke kunne branche (og være langt fra Turing komplet), men GPU'er har jo tidligere vist sig som værende meget brugbare til specifikke opgaver, så en GPU lavet med det specifikke mål, og lavet af en af verdens største GPU producenter, skal da nok blive sjovt. Synes dog det er noget interessant at de ikke laver en GPU der understøtter shader model 3.0 (og dermed understøtter branching, til en hvis grad)
Hvorfra læser du at Intel er verdens største producent af mikroprocessorer? Langt størstedelen af alle mikroprocessorer 8 bit mikroprocessorer, hvor jeg tvivler på at Intel er de største, og på supercomputer markedet er Freescale vist de største, så Intels position på desktop markedet er vist ikke helt relevant.
Personligt ser jeg NVidias produkt som et meget interessant tiltag. Godt nok kan vil processoren sandsynligvis ikke kunne branche (og være langt fra Turing komplet), men GPU'er har jo tidligere vist sig som værende meget brugbare til specifikke opgaver, så en GPU lavet med det specifikke mål, og lavet af en af verdens største GPU producenter, skal da nok blive sjovt. Synes dog det er noget interessant at de ikke laver en GPU der understøtter shader model 3.0 (og dermed understøtter branching, til en hvis grad)
Hvorfor er det lige de sammenligner med x86 processorer, det de laver er da nærmere et alternativ til FPGA'er? eller sammenligner de med x86 fordi de mener de har noget der er lige så nemt at kode til?
#3
Men delresultaterne er ikke meningsloese for selve programmet?
Det kan give en kaempe forskel i specifikke situationer hvor hvert enkelt delresultat kan bruge for sig selv, men hvis du leder efter et samlet resultat, saa er du noed til at vente paa samtlige delresultater uanset hvad :)
Hvis jeg læser dig rigtigt så er jeg dybt uenig. Der er masser af beregninger hvor delresultater er meningsløse for brugeren.
Men delresultaterne er ikke meningsloese for selve programmet?
Det kan give en kaempe forskel i specifikke situationer hvor hvert enkelt delresultat kan bruge for sig selv, men hvis du leder efter et samlet resultat, saa er du noed til at vente paa samtlige delresultater uanset hvad :)
jeg kan da godt se fordelene ved at man regner milisekunder hurtigere, inden for den industrielle verden. men hvad vil det gavne os, ingenting tror jeg! tværtimod, for når de ligger sig på flere hardware dele, vil de ende i at smelte dem sammen ergo: du køber et motherboard fra xxxxx med indbygget nvidia processor og grafikkort! ergo du kan ikke opgradere din pc, på den måde vil nvidia sikre salg af processorer når de hænger sammen med deres hurtige grafik acceleratorer! ergo de vil få et kæmpe udbytte, men det vil bare få en negativ effekt på den normale forbruger!
#9 Måske er det mig der har misforsået det, men det her har da slet ikke noget med "normale brugere" at gøre?! Medmindre du selv har brug for at lave videnskabelige beregninger derhjemme :)
GPUen indeholder sikkert nogle snedige metoder til at foretage div. signalbehandlings opgaver. Feks. heftige FIR-fltre og det er er værre. Her kan virkelig hentes noget kraft og saft til både behandling af lyd og billeder - glæder mig til at læse noget dokumentation om sådan en fætter!
#5
Skal ikke kunne sige specifikt angående microprocessors, men hvad angår ICs, har Intel været nummer et i meget lang tid:
http://www.icinsights.com/news/bulletins/bulletins...
Skal ikke kunne sige specifikt angående microprocessors, men hvad angår ICs, har Intel været nummer et i meget lang tid:
http://www.icinsights.com/news/bulletins/bulletins...
#2
“Hvis du ser på, hvordan en CPU og en GPU fungerer, så er det som en bog, hvor CPU'en starter på side et, mens en GPU vil rive bogen i 1000 stykker og klare prossessen parallelt, udtaler Andy Keane, general manager i Nvidia, til Financial Times."
Jeg kan da ikke stå til regnskab og forklarer andre personers udtalelser ? :)
#5
http://www.icinsights.com/news/bulletins/bulletins...
#15
Eller på wiki.
http://en.wikipedia.org/wiki/GPGPU
“Hvis du ser på, hvordan en CPU og en GPU fungerer, så er det som en bog, hvor CPU'en starter på side et, mens en GPU vil rive bogen i 1000 stykker og klare prossessen parallelt, udtaler Andy Keane, general manager i Nvidia, til Financial Times."
Jeg kan da ikke stå til regnskab og forklarer andre personers udtalelser ? :)
#5
http://www.icinsights.com/news/bulletins/bulletins...
#15
Eller på wiki.
http://en.wikipedia.org/wiki/GPGPU
Opret dig som bruger i dag
Det er gratis, og du binder dig ikke til noget.
Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.