mboost-dp1

unknown
- Forside
- ⟨
- Forum
- ⟨
- Nyheder
Damn man skal godtnok sidde sent oppe om aftenen for at regne sådan noget ud!
He he but damn nice, ay!
He he but damn nice, ay!
Jeg synes da ikke, det er så lang tid siden, der var snak om, at den blev "overhalet" i løbet af i år...?
Nåååå .. Det er det der sker, når nogen bliver så kloge at de til sidst bliver sindsyg af det.... Man lærer alt for meget, så "tanketætheden" bliver alt for tæt, og så til sidst kommer der lige et hul forbi og tager alt energien fra ens hjerne..
Det sidder jo så tæt sammen..
Og så står man tilbage med et hovede hvor næsten alt er suget væk af et sort hul...
Konklusion... Slap af, ryg en fed, og så slappe af. :-)
Men anyway.. Jeg skal på arbejde.
Mojner
Det sidder jo så tæt sammen..
Og så står man tilbage med et hovede hvor næsten alt er suget væk af et sort hul...
Konklusion... Slap af, ryg en fed, og så slappe af. :-)
Men anyway.. Jeg skal på arbejde.
Mojner
det bliver hverken størrelsen eller tætheden der bliver det næste umiddelbare problem, som stopper den 'lov'.
Det bliver EMI problemer. jo mindre transistore, jo lavere spænding. Ergo jo højere overfølsomhed overfor støj. Jeg tror ikke der går mere end 20 år, før de skal finde på andre løsninger - f.eks. lys
Det bliver EMI problemer. jo mindre transistore, jo lavere spænding. Ergo jo højere overfølsomhed overfor støj. Jeg tror ikke der går mere end 20 år, før de skal finde på andre løsninger - f.eks. lys
#5 Ja eller EMI beskyttelse, der er producenter der er gået i gang med at EMI beskytte hele kabinettet fra støj udenfra. Kabler på PSU bliver også EMI beskyttet. Men så er det bare om det er nok.
Men til gengæld tror jeg også at vi har alternativer om 20 år. Lys og Organiske baserede gates er da vist på vej frem?
Desuden er Moore's lov ikke lidt "bop bop" allerede?
Men til gengæld tror jeg også at vi har alternativer om 20 år. Lys og Organiske baserede gates er da vist på vej frem?
Desuden er Moore's lov ikke lidt "bop bop" allerede?
Det må jo også betyde at mængden af data der kan lagres i en hvilken som helst genstand er konstant, da man på et tidspunkt når en størrelse hvor man ikke længere er i stand til at lagre mere information og samtidigt være i stand til at læse dem igen. Og hvad er så den mindste ting i universet vi kan manipulere med? Er det ikke fotoner? En foton er jo et kvantefelt af energi, og dermed hverken en bølge eller en partikel, men vi kan ikke lagre fotoner i et medie på nogen måde, men kun lære om et medie ved ændringer i kvantefeltets impulser? Så fotoner kan vi heller ikke bruge, hvad er så den mindste ting vi kan måle på med disse fotoner? Det må jo være et enkelt atom? Puha, hvis hvert atom kun kan have 2 tilstande, 1 eller 0, skal der alligevel ret mange atomer til for at opbevare en mængde data.
Så en terning af 1cm * 1cm, med et optimalt materiale, hvor hvert atom kan holde 1 bit, så render man hurtigt ind i barrierer :) - hvis man altså ønsker at lagre temmeligt meget porn.
Så en terning af 1cm * 1cm, med et optimalt materiale, hvor hvert atom kan holde 1 bit, så render man hurtigt ind i barrierer :) - hvis man altså ønsker at lagre temmeligt meget porn.
Skal vi nu ikke se at få harddiske og ram med også så?
I min og de fleste andres maskiner er det ikke cpu'en der er flaske halsen men hardisken.
Da jeg opgraderede min cpu, mærkede jeg en lille forøgelse af hastigheden.
Simpelthen fordi en 7200 rpm disk med 8mb cache stadig er ALT for langsom.
I min og de fleste andres maskiner er det ikke cpu'en der er flaske halsen men hardisken.
Da jeg opgraderede min cpu, mærkede jeg en lille forøgelse af hastigheden.
Simpelthen fordi en 7200 rpm disk med 8mb cache stadig er ALT for langsom.
Og folk kalder mig nørd?
Man er godt nok noget for sig, når man begynder at regne på universets udvidelses indflydelse på transitore.
Man er godt nok noget for sig, når man begynder at regne på universets udvidelses indflydelse på transitore.
#9
Det er vel interessant i sig selv at informations tætheden hænger sammen med universets udvidelse, måske ikke så brugbart, men det fortæller os da om nogle fysiske egenskaber der er rimeligt interessante. Jeg havde aldrig i midt vildeste LSD trip forestillet mig at universets udvidelse, der er så stor, kunne påvirke noget, der er så småt :)
Det er vel interessant i sig selv at informations tætheden hænger sammen med universets udvidelse, måske ikke så brugbart, men det fortæller os da om nogle fysiske egenskaber der er rimeligt interessante. Jeg havde aldrig i midt vildeste LSD trip forestillet mig at universets udvidelse, der er så stor, kunne påvirke noget, der er så småt :)
#6 Det løser ikke problemet med interferens fra forskellige dele af selve processoren. Man kan sammenligne det lidt med at lave en vandcomputer af pap. Når rørene bliver for tynde vil vandet (elektronerne) sive fra det ene rør til det andet.
#7 Jeg korrigerer lige lidt:
Lys og røntgenstråling er typisk 100-1000X større end elektroner, så det vinder man ikke meget ved. Af samme grund kan man ikke måle på et enkelt atom med lys (det kan man til gengæld med elektroner). Alt stof har iøvrigt partikel-bølge dualitet. Man kan faktisk godt fange lys f.eks. mellem to spejle. I en cm^3 er der rundt regnet 10^24 atomer svarende til ca. 113 milliarder terabyte efter din regnemetode. Det er da alligevel nok til et par vabler ikke ;)
#10 så småt? Er pointen i undersøgelsen ikke at selv hvis man har ubegrænset lagringsplads, vil udvidelsen gøre at hvis man har skrevet på en del af sin hukommelse der er mere end et bestemt stykke fra en vil man aldrig kunne læse på det fordi det fjerner sig så hurtigt fra en på grund af universets udvidelse. At man altså taler om en hukommelse der er mange gange større end det nære univers? Eller er det mig der er WAY out i hampen? Jeg har i hvert fald svært ved at se hvordan man ellers kan nå op på 10^120 bits. Til sammenligning vil 10^120 atomer fylde en terning med en sidelængde på ca. en milliard milliard milliard kilometer..... (= 105 tusinde milliarder lysår = 7000X universets omtrentlige diameter.)
Det er som flere andre har indvendt nok noget andet der stopper Moores lov....
P.s. der tages forbehold for regnefejl....
#7 Jeg korrigerer lige lidt:
Lys og røntgenstråling er typisk 100-1000X større end elektroner, så det vinder man ikke meget ved. Af samme grund kan man ikke måle på et enkelt atom med lys (det kan man til gengæld med elektroner). Alt stof har iøvrigt partikel-bølge dualitet. Man kan faktisk godt fange lys f.eks. mellem to spejle. I en cm^3 er der rundt regnet 10^24 atomer svarende til ca. 113 milliarder terabyte efter din regnemetode. Det er da alligevel nok til et par vabler ikke ;)
#10 så småt? Er pointen i undersøgelsen ikke at selv hvis man har ubegrænset lagringsplads, vil udvidelsen gøre at hvis man har skrevet på en del af sin hukommelse der er mere end et bestemt stykke fra en vil man aldrig kunne læse på det fordi det fjerner sig så hurtigt fra en på grund af universets udvidelse. At man altså taler om en hukommelse der er mange gange større end det nære univers? Eller er det mig der er WAY out i hampen? Jeg har i hvert fald svært ved at se hvordan man ellers kan nå op på 10^120 bits. Til sammenligning vil 10^120 atomer fylde en terning med en sidelængde på ca. en milliard milliard milliard kilometer..... (= 105 tusinde milliarder lysår = 7000X universets omtrentlige diameter.)
Det er som flere andre har indvendt nok noget andet der stopper Moores lov....
P.s. der tages forbehold for regnefejl....
Intel har sagt at de vil gå over til dobbelt processor integreret i en enkelt chip fra næste år.
illustreret videnskab skriver vores hjerne består af 100 milliarder neuroner som arbejder sammen i et komplekst netværk hvor hver neuron har forbindelse til 1000 andre. så man har regnet frem til at den svare til en 20 millioner GHz processor.
Bill Gates har sagt at hvis ikke han var blevet programmør var han blevet biolog.
jeg tror fremtidens processore er biologiske netværk af mange processore der efteligner hjernen.
illustreret videnskab skriver vores hjerne består af 100 milliarder neuroner som arbejder sammen i et komplekst netværk hvor hver neuron har forbindelse til 1000 andre. så man har regnet frem til at den svare til en 20 millioner GHz processor.
Bill Gates har sagt at hvis ikke han var blevet programmør var han blevet biolog.
jeg tror fremtidens processore er biologiske netværk af mange processore der efteligner hjernen.
Tjaa, kan godt være at Moores lov falder sammen (fordobling af antallet transistorer). Lagerplads kan også blive et problem, men det vil komme meget senere. Hastigheden af compturere tvivler jeg dog meget på vil falde. Grunden til dette er kvantecomputere, hvor du kan få en exponentiel vækst ved at tilføje et lineart antal elementer. Herved er det algoritmer der skal udvikles, for at kunne benytte regnekraften, og disse har som bekendt ikke et loft der er lige op over.
Harddiske er kun flaskehalse, når der læses/skrives fra/til dem.. Dit 3D shooterspil bliver ikke hurtigere fordi din disk bliver det (forudsat du har rimeligt med RAM). Kryptering/dekryptering, CAD, Folding@home, kompilering eller lign. beregninger bliver ikke påvirket af dine diske..
Med en hurtigere disk starter XP/office und so weiter hurtigere. Men når først prgrammet er startet betyder disken pludslig meget lidt. Databaser bliver hurtigere. Photoshop bliver hurtigere, når du arbejder med stor graffik.
Altså der hvor spillenørden eller programmeringsnørden mangler saft er processor/RAM/GFX
Når i siger, min pc blev kun lidt hurtigere af skiftet cpu, hvad måler i det på?
Med en hurtigere disk starter XP/office und so weiter hurtigere. Men når først prgrammet er startet betyder disken pludslig meget lidt. Databaser bliver hurtigere. Photoshop bliver hurtigere, når du arbejder med stor graffik.
Altså der hvor spillenørden eller programmeringsnørden mangler saft er processor/RAM/GFX
Når i siger, min pc blev kun lidt hurtigere af skiftet cpu, hvad måler i det på?
#16 du har stadig problemet med at distillere dine resultater fra EPR-parrene. Derudover kan du kun operere ens på alle qubit'erne, og du har stadig et problem med datalagring (så vidt jeg husker...). Men hvem HULEN har også brug for at behandle 10^120 bit data?
Kom til at tænke på, hvilket lagermedie, der kan holde data uden vedvarende strømforsyning er egenligt hurtigst... Kunne jo være lidt nice at flashe sin computers hukommelse ned på et jævla hurtigt medie, man så kan lade puteren gå i dvale på og starte op på i stedet for at skulle vente på at windows får læst dem fra hdd'en. Hurtige computere drejer sig jo også om at undgå at flaskehalse bliver et problem :)
Øhhh Moores lov siger IKKE at computere bliver dobbelt så hurtige på 2 år men at prisen på et produkt falder til det halve ;)
selvfølgelig hvis man sætter prisen konstant, så kræver det at computerkraften vokser kraftigt, og i dagen samfund er den konstant :P
selvfølgelig hvis man sætter prisen konstant, så kræver det at computerkraften vokser kraftigt, og i dagen samfund er den konstant :P
#12 HDD'en er 20,000 gange langsommere end rammene
Det skal nok passe, hvis du kigger på søgetiden. Men dataraten ved sekventielle læsninger er der ikke så stor forskel på. Mine harddiske kan levere 55MB/sek hver. Jeg har endnu ikke hørt om en RAM blok, der kan levere 1TB/sek.
#23 Moores lov siger IKKE at computere bliver dobbelt så hurtige på 2 år men at prisen på et produkt falder til det halve
Øh mig bekendt siger Moores lov, at transistortætheden fordobles. Og prisen på produktionsfaciliteterne stiger også, det er kun pga. masseproduktion, at chipene kan blive så billige.
Jeg læste også en gang (så vidt jeg husker i en artikel i Ingeniøren), at de er nødt til at bygge deres fabrikker med fundamenter i klippegrund, for at de står solidt nok til at ikke påvirke produktionsprocesserne.
Det skal nok passe, hvis du kigger på søgetiden. Men dataraten ved sekventielle læsninger er der ikke så stor forskel på. Mine harddiske kan levere 55MB/sek hver. Jeg har endnu ikke hørt om en RAM blok, der kan levere 1TB/sek.
#23 Moores lov siger IKKE at computere bliver dobbelt så hurtige på 2 år men at prisen på et produkt falder til det halve
Øh mig bekendt siger Moores lov, at transistortætheden fordobles. Og prisen på produktionsfaciliteterne stiger også, det er kun pga. masseproduktion, at chipene kan blive så billige.
Jeg læste også en gang (så vidt jeg husker i en artikel i Ingeniøren), at de er nødt til at bygge deres fabrikker med fundamenter i klippegrund, for at de står solidt nok til at ikke påvirke produktionsprocesserne.
big news. Det er da ingen nyhed at Moores lov ikke holder i længden. Det er derfor Ray Kurweil udvidede den. Man kan blandt andet læse om det i "Ånden i maskinen". Han udvider den både til fortiden og fremtiden. Defineret i beregner pr. sekundt man kan købe for 1000$ (eller er det 100, ka ik lige huske det)
læs mer' her http://www.kurzweilai.net/brain/frame.html?startTh...
læs mer' her http://www.kurzweilai.net/brain/frame.html?startTh...
#2 hehe
#19 Hvor får du det der 10^120 bits fra? Så længe vi bruger elektroner til bestemmelse af 0 og 1, vil 10^120 i silicium, eller for den sags skyld, et hvilken som helst andet grundstof fylde flere galakser af materiale. Kun når vi kan få gang i noget kvante/kvark teknologi, kan vi begynde at tale om 10^120 bits.
#19 Hvor får du det der 10^120 bits fra? Så længe vi bruger elektroner til bestemmelse af 0 og 1, vil 10^120 i silicium, eller for den sags skyld, et hvilken som helst andet grundstof fylde flere galakser af materiale. Kun når vi kan få gang i noget kvante/kvark teknologi, kan vi begynde at tale om 10^120 bits.
10^120 bits er den grænse der blev nævnt i artiklen.
Se iøvrigt min post #13 (galakser er slet ikke store nok ;) ).
i #19 påpeger jeg blot at der er enorme praktiske problemer med at få sorteret resultaterne af en kvantecomputerberegning på flere qubits ad gangen. Så selv om man beregningskraften stiger eksponentielt med antallet af qubits i beregningen, er det ikke sikkert at man kan få nok qubits med til at det virkelig batter. De energier der skal til at manipulere quarks må være fantastisk store, så jeg tvivler på at der nogensinde vil være økonomi i en computer baseret på quarkmanipulation (men jeg er ikke partikelfysiker så oplys mig endelig hvis jeg har misset noget)...
Se iøvrigt min post #13 (galakser er slet ikke store nok ;) ).
i #19 påpeger jeg blot at der er enorme praktiske problemer med at få sorteret resultaterne af en kvantecomputerberegning på flere qubits ad gangen. Så selv om man beregningskraften stiger eksponentielt med antallet af qubits i beregningen, er det ikke sikkert at man kan få nok qubits med til at det virkelig batter. De energier der skal til at manipulere quarks må være fantastisk store, så jeg tvivler på at der nogensinde vil være økonomi i en computer baseret på quarkmanipulation (men jeg er ikke partikelfysiker så oplys mig endelig hvis jeg har misset noget)...
Opret dig som bruger i dag
Det er gratis, og du binder dig ikke til noget.
Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.