mboost-dp1

Lyric Semiconductor
- Forside
- ⟨
- Forum
- ⟨
- Nyheder
I stedet for at angive et svar som enten eller - 0 eller 1 - så anvender firmaet en analogløsning, hvor de måler en spænding i 256 trin, hvilket angiver sandsynligheden.
Jeg troede netop at det var DET der var grunden til at man bruger to-tals-systemet. Det er ganske enkelt for svært at have for mange analoge tilstande, når man snakker strøm. 0 og 1 er derfor gode.
Hvordan kan 256 analoge tilstande være pålidelige?
Jeg troede netop at det var DET der var grunden til at man bruger to-tals-systemet. Det er ganske enkelt for svært at have for mange analoge tilstande, når man snakker strøm. 0 og 1 er derfor gode.
Hvordan kan 256 analoge tilstande være pålidelige?
Bean (6) skrev:I stedet for at angive et svar som enten eller - 0 eller 1 - så anvender firmaet en analogløsning, hvor de måler en spænding i 256 trin, hvilket angiver sandsynligheden.
Jeg troede netop at det var DET der var grunden til at man bruger to-tals-systemet. Det er ganske enkelt for svært at have for mange analoge tilstande, når man snakker strøm. 0 og 1 er derfor gode.
Hvordan kan 256 analoge tilstande være pålidelige?
Måske er idéen netop at pålideligheden ikke er nær så vigtig når man bruger analoge tilstande til at repræsentere netop sandsynligheder? Der er jo ofte lidt "give and take" involveret alligevel - om sandsynligheden beregnes til at være 42/256 eller 43/256 betyder nok knap så meget, som hvis et alfanumerisk tegn i f.eks. et password pludselig vendes fra "a" til "b".
#7 + #8:
Det lyder rigtigt nok, men hvis de skal bruge så mange tal -- jeg går ud fra at det ikke er en ja/nej sandsynlighed, som vi regnede med i Gymnasiet!! -- så bliver pålideligheden jo hurtigt dalende. Tænk hvis afvigelsen er 0,5%, men man skal lave 100.000 udregninger !! Av for en skævert.
Enten det, eller også forstår jeg ikke princippet.
Det lyder rigtigt nok, men hvis de skal bruge så mange tal -- jeg går ud fra at det ikke er en ja/nej sandsynlighed, som vi regnede med i Gymnasiet!! -- så bliver pålideligheden jo hurtigt dalende. Tænk hvis afvigelsen er 0,5%, men man skal lave 100.000 udregninger !! Av for en skævert.
Enten det, eller også forstår jeg ikke princippet.
Halløj kvantemekanik ;)
Tænk på floating points... De er heller ikke altid lige præcise så snart man kommer ud i for mange decimaler.
Jeg går stærkt ud fra at denne cpu ikke er tiltænkt integer operationer, men nærmere ting der ikke har brug for så stor præcision. Kunne forestille mig at den ville være usædvanligt god som FPU (evt. bruges til 3D grafik og physics), specielt da den sikkert kan gøre skidtet en del hurtigere med meget lavere energiforbrug.
Tænk på floating points... De er heller ikke altid lige præcise så snart man kommer ud i for mange decimaler.
Jeg går stærkt ud fra at denne cpu ikke er tiltænkt integer operationer, men nærmere ting der ikke har brug for så stor præcision. Kunne forestille mig at den ville være usædvanligt god som FPU (evt. bruges til 3D grafik og physics), specielt da den sikkert kan gøre skidtet en del hurtigere med meget lavere energiforbrug.
Well, der er flere områder hvor man laver software der i princippet bare gætter, fx nogle af koncepterne bag neurale netværk og anvendelserne deraf. Den slags software vil nok sagtens kunne anvende denne type CPU.
Bean (9) skrev:#7 + #8:
Det lyder rigtigt nok, men hvis de skal bruge så mange tal -- jeg går ud fra at det ikke er en ja/nej sandsynlighed, som vi regnede med i Gymnasiet!! -- så bliver pålideligheden jo hurtigt dalende. Tænk hvis afvigelsen er 0,5%, men man skal lave 100.000 udregninger !! Av for en skævert.
Så kan man måske udføre beregningen mere end en gang eller lignende for at opnå redundans? Heltals-operationer er jo sygeligt præcise i en almindelig digital processor, også når det ikke er strengt nødvendigt - som jeg ser det giver en chip som denne programmøren større frihed til at vælge et trade-off mellem præcision og performance, der passer til anvendelsen.
Tag den her i stedet for den Inquirer nyhed der bliver linket til:
http://arstechnica.com/hardware/news/2010/08/probabilistic-processors...
Der er en lidt mere teknisk forklaring på hvordan den virker.
http://arstechnica.com/hardware/news/2010/08/probabilistic-processors...
Der er en lidt mere teknisk forklaring på hvordan den virker.
mcmini (15) skrev:Nedern at spille CS med sådan en processor, hvis den gætter hvor ens skud rammer :D.
Der er faktisk lidt af sådan noget i CS som en del af deres lag-compensation og recoil implementation. Men det bliver self beregnet digitalt :)
Well, som jeg forstår det, giver denne processor en række instrukser, der gør implementering af algoritmer til beregning af sandsynlighed lettere.
Grunden til at man bruger 2 tals-system i computere (binær talsystem) er fordi man kan bruge boolsk algebra, der gør det ganske nemt at implementere de regneregler vi bruger til daglig ( + - * /) og fordi teorien bag er lettere = mere overskueligt.
Grunden til at man bruger 2 tals-system i computere (binær talsystem) er fordi man kan bruge boolsk algebra, der gør det ganske nemt at implementere de regneregler vi bruger til daglig ( + - * /) og fordi teorien bag er lettere = mere overskueligt.
#20: Nej det er ej. Grunden til at normale cpu'er er binære, er at det er nemmere at vurdere om en spænding svarer til 0 eller 1 på den måde.
spejlkugle (16) skrev:Tag den her i stedet for den Inquirer nyhed der bliver linket til:
http://arstechnica.com/hardware/news/2010/08/probabilistic-processors...
Der er en lidt mere teknisk forklaring på hvordan den virker.
Kaster ikke rigtig lys over #6's meget relevante spørgsmål. Men de skriver da:
Linket skrev:The technology allows a resolution of about 8 bits; that is, they can discriminate between about 2^8 = 256 different values (different probabilities) between 0 and VDD.
...hvilket må fortolkes som at chippen ikke kan repræsentere 256 diskrete tilstande pålideligt.
Faergemeister (21) skrev:#20: Nej det er ej. Grunden til at normale cpu'er er binære, er at det er nemmere at vurdere om en spænding svarer til 0 eller 1 på den måde.
Jamen fint :D
Jeg stiller dig en udfordring:
Lav en kredsløb, der kan lægge tal af vilkårlig base sammen. (vi kan starte med bare at sige trinære). Du skal anvende n spændingstilstande og må ikke bruge binær repræsentation :)
Jeg indrømmer gerne jeg tager fejl, hvis det modsatte bliver bevist :)
buchi (23) skrev:Jamen fint :D
Jeg stiller dig en udfordring:
Lav en kredsløb, der kan lægge tal af vilkårlig base sammen. (vi kan starte med bare at sige trinære). Du skal anvende n spændingstilstande og må ikke bruge binær repræsentation :)
Jeg indrømmer gerne jeg tager fejl, hvis det modsatte bliver bevist :)
eh
Så vidt jeg kan forstå på videoen er det her ikke en CPU, og det er ikke meningen at den skal erstatte CPU'en. Det er en co-processor, ligesom fx en GPU, som er specialiseret i at udregne sandsynligheder, og kan gøre dette meget bedre end digital chip kan gøre det. Den fylder mindre, bruger mindre strøm og koster mindre end en digital chip der kan det samme.
Et definitivt ja eller nej er selvfølgelig godt at have til nogle operationer. Jeg tror fx ikke det kan lade sig gøre at bruge denne sandsynlighedschip til at lave en computer med.
Sagen er bare den, at vi ikke altid har brug for et definitivt ja eller nej, fordi dette simpelthen ikke beskriver en given situation fyldestgørende nok (verden er ikke sort/hvid osv.). Til at tilfredsstille dette formål, har vi indtil nu, implementeret sandsynlighedsberegning i digitale kredsløb. Problemet med dette er at det kræver mange beregninger (og dermed strøm) og plads at gøre dette vha. digitale kredsløb. Denne chip kan udføre den samme opgave som et digitalt kredsløb der regner sandsynlighed på kortere tid, brugende mindre plads og mindre strøm.
Bean (6) skrev:Jeg troede netop at det var DET [pålidelighed] der var grunden til at man bruger to-tals-systemet. Det er ganske enkelt for svært at have for mange analoge tilstande, når man snakker strøm. 0 og 1 er derfor gode.
Hvordan kan 256 analoge tilstande være pålidelige?
Et definitivt ja eller nej er selvfølgelig godt at have til nogle operationer. Jeg tror fx ikke det kan lade sig gøre at bruge denne sandsynlighedschip til at lave en computer med.
Sagen er bare den, at vi ikke altid har brug for et definitivt ja eller nej, fordi dette simpelthen ikke beskriver en given situation fyldestgørende nok (verden er ikke sort/hvid osv.). Til at tilfredsstille dette formål, har vi indtil nu, implementeret sandsynlighedsberegning i digitale kredsløb. Problemet med dette er at det kræver mange beregninger (og dermed strøm) og plads at gøre dette vha. digitale kredsløb. Denne chip kan udføre den samme opgave som et digitalt kredsløb der regner sandsynlighed på kortere tid, brugende mindre plads og mindre strøm.
Som jeg forstår det, handler det også om at minimere benyttelsen af 0/1-transistorer, når man regner på floating points. Det de siger i videoen er vel, at istedet for at bruge en masse bits på at opnå en-eller-anden præcision (say, 50 decimaler), så kan de ramme "nogenlunde" samme float med kun 1 bit. Så længe man kender præcisionen, kan man altid korrigere og benytte endnu en sandsynlighedsbit for at opnå bedre præcision.
Jeg synes faktisk #15 rammer hovedet på sømmet: Nej, det er ikke nederen, hvis bare præcisionen på gættet er godt nok. CS bruger sikkert komma-tal til skudbanerne, men hvis der skal presses 32bit gennem processoren for at angive retningen med 24 betydende cifre (bare et gæt) kan det være at sandsynligehedsprocessoren kan klare det med 2 bits, der hver især rammer nogenlunde i omegnen, men tilsammen måske giver en bedre præcision.
Sådan en processor må tilgengæld stinke til integer-beregninger.
mcmini (15) skrev:Nedern at spille CS med sådan en processor, hvis den gætter hvor ens skud rammer :D.
Jeg synes faktisk #15 rammer hovedet på sømmet: Nej, det er ikke nederen, hvis bare præcisionen på gættet er godt nok. CS bruger sikkert komma-tal til skudbanerne, men hvis der skal presses 32bit gennem processoren for at angive retningen med 24 betydende cifre (bare et gæt) kan det være at sandsynligehedsprocessoren kan klare det med 2 bits, der hver især rammer nogenlunde i omegnen, men tilsammen måske giver en bedre præcision.
Sådan en processor må tilgengæld stinke til integer-beregninger.
marty (31) skrev:
Jeg synes faktisk #15 rammer hovedet på sømmet: Nej, det er ikke nederen, hvis bare præcisionen på gættet er godt nok. CS bruger sikkert komma-tal til skudbanerne, men hvis der skal presses 32bit gennem processoren for at angive retningen med 24 betydende cifre (bare et gæt) kan det være at sandsynligehedsprocessoren kan klare det med 2 bits, der hver især rammer nogenlunde i omegnen, men tilsammen måske giver en bedre præcision.
Sådan en processor må tilgengæld stinke til integer-beregninger.
Jeg er rimelig sikker på at CS anvender vektor-regning, udelukkende ved brug af heltal :)
Det er meget spændende med den slags chips. Hjernens neuroner fungerer også på et lignende princip, hvor der er en række inputs, som måske/måske ikke trigger et output. Groft sagt.
Vi skal måske bare til at vænne os til at stille andre spørgsmål til computeren end vi er vant til.
Hvis du f.eks. spørger en alm. computer om hvor lang tid det tager at køre fra Århus til København, så får du et meget præcist svar baseret fra en masse oplysninger om hastighed og afstand mv.
Men som menneske ved du jo godt at svaret ikke passer. Der kommer jo altid en idiot som spærrer på motorvejen, en turist som sidder fast i brobizzen, et rødt lys og lidt vejarbejde. Dvs. at der skal tages højde for en masse sandsynligheder/tilfældigheder, hvis du vil have et bedre svar.
Jeg tror nu ikke umiddelbart at denne chip er voldsomt revolutionerende, men den er vel et skridt på vejen, hvis vi skal tænke udover den sædvanlige ja/nej tænkning.
Vi skal måske bare til at vænne os til at stille andre spørgsmål til computeren end vi er vant til.
Hvis du f.eks. spørger en alm. computer om hvor lang tid det tager at køre fra Århus til København, så får du et meget præcist svar baseret fra en masse oplysninger om hastighed og afstand mv.
Men som menneske ved du jo godt at svaret ikke passer. Der kommer jo altid en idiot som spærrer på motorvejen, en turist som sidder fast i brobizzen, et rødt lys og lidt vejarbejde. Dvs. at der skal tages højde for en masse sandsynligheder/tilfældigheder, hvis du vil have et bedre svar.
Jeg tror nu ikke umiddelbart at denne chip er voldsomt revolutionerende, men den er vel et skridt på vejen, hvis vi skal tænke udover den sædvanlige ja/nej tænkning.
Det her princip er slet ikke nyt. Windows fungerer sådan inden i: Alle bits svæver et sted mellem 1 og 0. Ja, man kan bedst forklare det ved at sætte ordet "næsten" ind i alle sætninger, der har med Windows at gøre:
"Du har næsten installeret din printerdriver."
"Du er nu næsten på internettet."
"Din USB stick kan næsten læses."
- Find selv på flere...
"Du har næsten installeret din printerdriver."
"Du er nu næsten på internettet."
"Din USB stick kan næsten læses."
- Find selv på flere...
Det er praktisk i søgemaskiner, som i forvejen forsimpler problemer til sandsynlighed eller fuzzy logik. Graden af en hjemmesides opfyldelse af en række søgekriterier kan sagtens måles ud fra en næsten vurdering. Som det også bruges i Baysian networks o.a. neural-lignende netværk.
Det er også en misforståelse at det er upræcist, fordi det er probabilistisk. Sandsynligheder har altid samme svar, med samme udgangspunkt.
Som co-processor kan dette sætte farten op på spændende ting som AI i spil, søgealgoritmer, intelligente agenter, vejrprognoser, kriminalitetsforebyggelse, osv.
Desuden har man kendt til udvidede logiksystemer siden '40'erne, se: http://en.wikipedia.org/wiki/Ternary_logic
Det er hele det matematiske grundlag. Læg mærke til at der ikke er noget tilfældigt i udfaldet af regneoperationer.
Forresten så er binær logik meget ældre:
http://en.wikipedia.org/wiki/De_Interpretatione
Det er også en misforståelse at det er upræcist, fordi det er probabilistisk. Sandsynligheder har altid samme svar, med samme udgangspunkt.
Som co-processor kan dette sætte farten op på spændende ting som AI i spil, søgealgoritmer, intelligente agenter, vejrprognoser, kriminalitetsforebyggelse, osv.
Desuden har man kendt til udvidede logiksystemer siden '40'erne, se: http://en.wikipedia.org/wiki/Ternary_logic
Det er hele det matematiske grundlag. Læg mærke til at der ikke er noget tilfældigt i udfaldet af regneoperationer.
Forresten så er binær logik meget ældre:
http://en.wikipedia.org/wiki/De_Interpretatione
PaulPeterPorges (37) skrev:Det er også en misforståelse at det er upræcist, fordi det er probabilistisk. Sandsynligheder har altid samme svar, med samme udgangspunkt.
Diskussionen om præcision handler ikke om at det er probabilistisk, men om at det er analogt. At nogen i starten af tråden tror at probabilistisk betyder flere svar og lign. er så noget andet.
buchi (32) skrev:marty (31) skrev:
Jeg synes faktisk #15 rammer hovedet på sømmet: Nej, det er ikke nederen, hvis bare præcisionen på gættet er godt nok. CS bruger sikkert komma-tal til skudbanerne, men hvis der skal presses 32bit gennem processoren for at angive retningen med 24 betydende cifre (bare et gæt) kan det være at sandsynligehedsprocessoren kan klare det med 2 bits, der hver især rammer nogenlunde i omegnen, men tilsammen måske giver en bedre præcision.
Sådan en processor må tilgengæld stinke til integer-beregninger.
Jeg er rimelig sikker på at CS anvender vektor-regning, udelukkende ved brug af heltal :)
Altså, nu har jeg ikke set på koden i spillet, men jeg kan fortælle at når du fx bruger plugins som Eventscripts og SourceMod, og laver test-plugins til at fortælle dig spillernes præcise positioner, angiver den svaret som floating point.
Så måske kunne denne slags processor også bruges i 3d-computerspil?
Uden at være sikker i min sag overhovedet, så ville jeg da tro sådan en fætter kunne bruges til bruteforce / dictionary attacks bedre end en standard CPU hvis den regner efter sansynligheder istedet for at gå slavisk til værks? Hvis de to kunne køre som helhed (altså en standard CPU og den nye CPU), ville man så ikke kunne få en pænt hurtig maksine til at cracke passwords?
Anders Feder (38) skrev:Diskussionen om præcision handler ikke om at det er probabilistisk, men om at det er analogt. At nogen i starten af tråden tror at probabilistisk betyder flere svar og lign. er så noget andet.
Netop, det var den teori jeg angreb.
De har allerede lavet en chip til flash-ram, så teknologien virker. De mangler bare at opskalere den til større processorer.
I stedet for at angive et svar som enten eller - 0 eller 1 - så anvender firmaet en analogløsning, hvor de måler en spænding i 256 trin, hvilket angiver sandsynligheden.
Hmm. At måle en spænding i 256 trin er vel netop ikke analogt, det er diskret, og dermed digitalt, så vidt jeg kan se.
Når der måles om en bit er 1 eller 0, er det jo også en ("analog") spænding, - som varierer lidt fra tid til anden - men denne spænding måles så kun i 2 trin, og udfra dette bestemmes det om den er 1 eller 0.
http://en.wikipedia.org/wiki/Discrete_signal#Digit...
Opret dig som bruger i dag
Det er gratis, og du binder dig ikke til noget.
Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.