mboost-dp1

Samsung
- Forside
- ⟨
- Forum
- ⟨
- Nyheder
Så håber vi bare der kommer fuld understøttelse af dette når Windows 7 engang kommer på markedet.
Men husker stadig da man havde 16MB ram i sin PC! :D Det var altså vildt dengang!
Men husker stadig da man havde 16MB ram i sin PC! :D Det var altså vildt dengang!
Er det bare mig, eller virker det ikke lidt som om at udviklingen er ved at løbe fra det reelle behov. Medmindre man er i servermiljøer.
Jeg sidder med hvad mange nok vil mener er håbløst bagude. P4 2.8 GHz/ 2 gb ram / ATI X1650 pro / 2 x 22" som jeg bl.a kører Autocad inventor upåklagelig på.
Når vi kommer til gaming, så går jeg alligevel gameplay og ikke efter Max opløsning med ditten og datten koblet til. Det meste på skærmen er alligevel kun lir, som forvirrer mere end det hjælper.
Så 4 x 16 GB ram, lyder som Brian i sin 1000hk golf 2 fra 1986, total overfløddig!!!
Desuden er det vel kun takke være Microsoft, at mængden af ram pr computer er så højt.
#4 Husker også at man brugte timer på at optimerer autoexec.bat og config.sys, for at få så meget op i upper memory som muligt . :D
Jeg sidder med hvad mange nok vil mener er håbløst bagude. P4 2.8 GHz/ 2 gb ram / ATI X1650 pro / 2 x 22" som jeg bl.a kører Autocad inventor upåklagelig på.
Når vi kommer til gaming, så går jeg alligevel gameplay og ikke efter Max opløsning med ditten og datten koblet til. Det meste på skærmen er alligevel kun lir, som forvirrer mere end det hjælper.
Så 4 x 16 GB ram, lyder som Brian i sin 1000hk golf 2 fra 1986, total overfløddig!!!
Desuden er det vel kun takke være Microsoft, at mængden af ram pr computer er så højt.
#4 Husker også at man brugte timer på at optimerer autoexec.bat og config.sys, for at få så meget op i upper memory som muligt . :D
#6
Teknologien har hele tiden bevæget sig hen mod større og større forbrug af CPU kraft og RAM.
I computerens stenalder bestemte spil og programmer komplet over hardwaren, og der var ikke mulighed for at køre flere programmer på samme tid. Derfor kunne de lave fede spil og programmer som f.eks. fyldte langt under 64K når de kørte på en Commodore 64.
Så kom skiftet til at man skulle have et operativsystem, specielt for at kunne køre mere end et program ad gangen. Brugeren ville gerne kunne skrive lidt tekstbehandling og så hoppe over i regneark osv.
Det gav straks et meget højere forbrug af ram. 16MB ram og deromkring var jo noget vildere end de tidligere systemer. Men er vel egentlig minimum selvom man bare "bare vil multitaske".
Så kom det der "indernet". Hvor en PC før kun skulle arbejde på ganske små simple datatyper som tekststrenge, skal de nu kunne vise mere komplicerede dokumenter.
F.eks. HTML som godt nok ikke fylder meget i sig selv, men som for at kunne vises på skærmen først skal parses. (Kort sagt er parsing er opbygning af en træstruktur som består af divs. objekter. i hukommelsen. En tommelfingerregel er at et parset dokument fylder mindst 20 gange så meget som sin binære repræsentation.)
Hertil kommer billeder og alt det andet lir som skal være på en side i dag.
Jeg vil mene at man bare for at skulle surfe forholdsvist normalt i dag nok skal have flere hundrede MB RAM.. bare til nogle sølle hjemmesider.
Sammen med internettet kom der jo også behovet for Anti-virus og meget mere sikkerhed. Den slags koster CPUkraft og RAM. Vi rammer vel her at ca. 1GB RAM nok er minimum til OS, Programmer og så rent faktisk de data som brugeren skal arbejde med.
Vejen fremad går mod mere og mere virtualisering og mere og mere abstrakte måder at køre sine programmer på. F.eks. er det jo smart med sandboxing af applikationer, så de ikke kan ødelægge andre applikationer osv. Et andet eksempel er applikationer som skal køre både på Windows, Mac, Unix osv. Den slags kræver f.eks .NET eller JAVA, som kræver en virtuel maskine til at fortolke koden. Den slags koster oceaner af CPUkraft og RAM.
Ikke ret mange applikationer benytter sig af de teknologier endnu. Når det sker skal vi nok ramme et forbrug som er langt højere end de 4GB som mange har i dag.
Oven på denne lange liste kan du tilføje alt det lir som en bruger også forventer i dag.
Og vi kører stadig ikke engang hele operativsystemet fra RAM endnu!
IMHO er der er laaaang vej inden vi rammer hvad der er "et rimeligt forbrug" af CPU / RAM.
Og ingen af disse ting er Microsofts skyld... Det er bare udviklingen.
Teknologien har hele tiden bevæget sig hen mod større og større forbrug af CPU kraft og RAM.
I computerens stenalder bestemte spil og programmer komplet over hardwaren, og der var ikke mulighed for at køre flere programmer på samme tid. Derfor kunne de lave fede spil og programmer som f.eks. fyldte langt under 64K når de kørte på en Commodore 64.
Så kom skiftet til at man skulle have et operativsystem, specielt for at kunne køre mere end et program ad gangen. Brugeren ville gerne kunne skrive lidt tekstbehandling og så hoppe over i regneark osv.
Det gav straks et meget højere forbrug af ram. 16MB ram og deromkring var jo noget vildere end de tidligere systemer. Men er vel egentlig minimum selvom man bare "bare vil multitaske".
Så kom det der "indernet". Hvor en PC før kun skulle arbejde på ganske små simple datatyper som tekststrenge, skal de nu kunne vise mere komplicerede dokumenter.
F.eks. HTML som godt nok ikke fylder meget i sig selv, men som for at kunne vises på skærmen først skal parses. (Kort sagt er parsing er opbygning af en træstruktur som består af divs. objekter. i hukommelsen. En tommelfingerregel er at et parset dokument fylder mindst 20 gange så meget som sin binære repræsentation.)
Hertil kommer billeder og alt det andet lir som skal være på en side i dag.
Jeg vil mene at man bare for at skulle surfe forholdsvist normalt i dag nok skal have flere hundrede MB RAM.. bare til nogle sølle hjemmesider.
Sammen med internettet kom der jo også behovet for Anti-virus og meget mere sikkerhed. Den slags koster CPUkraft og RAM. Vi rammer vel her at ca. 1GB RAM nok er minimum til OS, Programmer og så rent faktisk de data som brugeren skal arbejde med.
Vejen fremad går mod mere og mere virtualisering og mere og mere abstrakte måder at køre sine programmer på. F.eks. er det jo smart med sandboxing af applikationer, så de ikke kan ødelægge andre applikationer osv. Et andet eksempel er applikationer som skal køre både på Windows, Mac, Unix osv. Den slags kræver f.eks .NET eller JAVA, som kræver en virtuel maskine til at fortolke koden. Den slags koster oceaner af CPUkraft og RAM.
Ikke ret mange applikationer benytter sig af de teknologier endnu. Når det sker skal vi nok ramme et forbrug som er langt højere end de 4GB som mange har i dag.
Oven på denne lange liste kan du tilføje alt det lir som en bruger også forventer i dag.
Og vi kører stadig ikke engang hele operativsystemet fra RAM endnu!
IMHO er der er laaaang vej inden vi rammer hvad der er "et rimeligt forbrug" af CPU / RAM.
Og ingen af disse ting er Microsofts skyld... Det er bare udviklingen.
Opret dig som bruger i dag
Det er gratis, og du binder dig ikke til noget.
Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.