mboost-dp1

Intel
- Forside
- ⟨
- Forum
- ⟨
- Nyheder
OG dagens andre nyheder: Vand er stadig vådt.
Uddybelse: Dette er et KENDT problem og SSD-producenterne har i årevis kæmpet med dette. Der har da også været nyheder herinde om det før.
F.eks. i december 2010 hvor Micron præsenterede sin ECC-flash for at komme dette til livs og den nyhed er her, på newz.dk. Ca. 1 1/4 år gammel.
http://newz.dk/micron-paa-vej-med-selvkorrigerende...
Uddybelse: Dette er et KENDT problem og SSD-producenterne har i årevis kæmpet med dette. Der har da også været nyheder herinde om det før.
F.eks. i december 2010 hvor Micron præsenterede sin ECC-flash for at komme dette til livs og den nyhed er her, på newz.dk. Ca. 1 1/4 år gammel.
http://newz.dk/micron-paa-vej-med-selvkorrigerende...
Trentors (2) skrev:OG dagens andre nyheder: Vand er stadig vådt.
Nope - http://static.black-frames.net/images/dehydrated-w...
Hvis de skulle vise sig at få ret er det da i sandhed en historisk situation... Så lur mig om ikke der som altid bliver fundet en smart løsning. Fx virker det oplagt at foretage yderligere parallelisering for at overkomme en evt. langsommere (eller bare ikke SÅ meget hurtigere) hukommelsesteknologi - påstanden om at en SSD på 16TB om 12 år skulle være langsommere end en SSD i dag vil jeg sætte ca. alle mine penge på kommer til at være forkert.
Jeg tror/håber flashhukommelse i alle former er totalt outdatet inden vi overhovedet nærmer os en tid hvor det kunne være relevant at optimere på dem for at bibeholde deres hastighed.
En SLC NAND-celle kan skrives og slettes mellem 50.000 og 100.000 gange....
betyder det at man kun kan lave fx en txt fil og slette den igen
25k-50k gange også står din ssd af?
betyder det at man kun kan lave fx en txt fil og slette den igen
25k-50k gange også står din ssd af?
#7
husk på at det er cellerne man snakker om og ikke hele SSD'en.
dvs. at HELE disken eller den SAMME del af disken skrives 50.000 gange. Så teoretisk før at hele disken bliver uskrivelig er 50k x kapaciteten. Men du skan stadig LÆSE fra disken, så den står sådan set ikke af. Den "lukker" bare for flere skrivninger.
Så en ssd på 100 GB kan makismalt skrives 50.000 x 100 GB = 5.000.000 GB. Så der vil gå en del år før det er opnået, med mindre du konstant fylder disken helt op og sletter det hele igen rigtig mange gange! Det er derfor TRIM er indbygget i nyere SSD'er for at den ikke bare overskriver samme sted hele tiden, men skriver på en mere logisk måde, det skal dog være en del af operativsystemet for at virke. Men nyere windows som windows vista og 7 har det allerede indbygget. Nyere linux kerne og visse fil systemer undstøtter også TRIM.
http://en.wikipedia.org/wiki/TRIM
husk på at det er cellerne man snakker om og ikke hele SSD'en.
dvs. at HELE disken eller den SAMME del af disken skrives 50.000 gange. Så teoretisk før at hele disken bliver uskrivelig er 50k x kapaciteten. Men du skan stadig LÆSE fra disken, så den står sådan set ikke af. Den "lukker" bare for flere skrivninger.
Så en ssd på 100 GB kan makismalt skrives 50.000 x 100 GB = 5.000.000 GB. Så der vil gå en del år før det er opnået, med mindre du konstant fylder disken helt op og sletter det hele igen rigtig mange gange! Det er derfor TRIM er indbygget i nyere SSD'er for at den ikke bare overskriver samme sted hele tiden, men skriver på en mere logisk måde, det skal dog være en del af operativsystemet for at virke. Men nyere windows som windows vista og 7 har det allerede indbygget. Nyere linux kerne og visse fil systemer undstøtter også TRIM.
http://en.wikipedia.org/wiki/TRIM
Oh noes? Det må jo betyde at i 2024 har vi meget langsommere diske end i dag!
Fordi al udvikling går jo i stå, og problemet med skrivninger er fuldstændigt uløseligt, og desuden er der ikke nogen, der har fantasi til at forestille sig, at man bruger noget andet end NAND om 12 år.
Fordi al udvikling går jo i stå, og problemet med skrivninger er fuldstændigt uløseligt, og desuden er der ikke nogen, der har fantasi til at forestille sig, at man bruger noget andet end NAND om 12 år.
Problem solved:
http://www.physorg.com/news/2012-02-physicists-mag...
Så skal vi bare bruge de næste 12 år på at finpudse teknologien og pumpe diskene op i +10 TB størrelse :)
http://www.physorg.com/news/2012-02-physicists-mag...
Så skal vi bare bruge de næste 12 år på at finpudse teknologien og pumpe diskene op i +10 TB størrelse :)
Det kan godt være jeg bare har misset en pointe - men hvad forhindrer producenterne i at lave SLC eller MLC- nand ved de samme 6,5nm de snakker om i artiklen?
hvem siger at de skal skifte til 3-4 bit i hver celle?
blot at skifte til en produktionsmetode som er en 1/3 størrelse - burde give mere samlet plads på disken. På nuværende tidspunkt kan man få 1TB SSD diske - Virksomheder kan få 100TB løsninger - så jeg ser ikke problemet?
hvem siger at de skal skifte til 3-4 bit i hver celle?
blot at skifte til en produktionsmetode som er en 1/3 størrelse - burde give mere samlet plads på disken. På nuværende tidspunkt kan man få 1TB SSD diske - Virksomheder kan få 100TB løsninger - så jeg ser ikke problemet?
Chucara (10) skrev:Fordi al udvikling går jo i stå, og problemet med skrivninger er fuldstændigt uløseligt, og desuden er der ikke nogen, der har fantasi til at forestille sig, at man bruger noget andet end NAND om 12 år.
Tja, men Flash blev opfundet i 1980 og er essentielt uændret i dag. NAND og NOR hentyder til hvordan de er forbundet, ikke til selve cellen. Ikke al teknologi udvikler sig lige hurtigt, og du medgiver vel at vi fx ikke kommer ned under 0nm i størrelse, bare for at tage en parameter ud.
Flash er ikke en disk, der er ikke nogen roterende skive i en SSD (Solid State Drive)
Hastigheden på en enkelt NAND celle har nødvendigvis heller ikke noget med performance for hele flash modulet/drevet at gøre. Det er fordi man laver parallelle operationer at et flash modul/drev overhovedet er hurtig.
Problemerne med holdbarhed er allerede løst af firmaer som purestorage og sandisk, ved at ligge smart software ovenpå.
Og til sidst hvem tror på at NAND flash er fremtiden?, SSD'er kan laves med mange forskellige solid state teknologier.
Hastigheden på en enkelt NAND celle har nødvendigvis heller ikke noget med performance for hele flash modulet/drevet at gøre. Det er fordi man laver parallelle operationer at et flash modul/drev overhovedet er hurtig.
Problemerne med holdbarhed er allerede løst af firmaer som purestorage og sandisk, ved at ligge smart software ovenpå.
Og til sidst hvem tror på at NAND flash er fremtiden?, SSD'er kan laves med mange forskellige solid state teknologier.
#13
Så kan du skrive meget hurtigt til disken, men så vidt jeg ved er læsehastigheden den samme som den er i dag.
Er jeg den eneste her der tror at MEMRISTOR-hukommelse overtager ingen for de næste 5 år, hvilket burde gøre denne diskussion ret irrelevant?
Jeg håber det er tilfældet, glæder mig meget til at se hvad RRAM kommer til at gøre for pc'erne. Jeg håber også at det fører til en fundemantal ændring af måden computere er bygget op på, for designet af computere har ikke ændret sig meget siden 386'ere.
Så kan du skrive meget hurtigt til disken, men så vidt jeg ved er læsehastigheden den samme som den er i dag.
Er jeg den eneste her der tror at MEMRISTOR-hukommelse overtager ingen for de næste 5 år, hvilket burde gøre denne diskussion ret irrelevant?
Jeg håber det er tilfældet, glæder mig meget til at se hvad RRAM kommer til at gøre for pc'erne. Jeg håber også at det fører til en fundemantal ændring af måden computere er bygget op på, for designet af computere har ikke ændret sig meget siden 386'ere.
Winnick (14) skrev:Det kan godt være jeg bare har misset en pointe - men hvad forhindrer producenterne i at lave SLC eller MLC- nand ved de samme 6,5nm de snakker om i artiklen?
Det udgør ikke problemet, men er bare en forudsætning for mandens forudsigelse mht. størrelse og generel udviklingstendens.
Winnick (14) skrev:
hvem siger at de skal skifte til 3-4 bit i hver celle?
Fordi man så kan proppe flere stumper ind i den fast definerede fysiste størrelse som vi nu har vennet os til er standard
Samme princip som DVD'er i to lag og flere skiver oven på hinanden inden i en rotations harddisk idet produktionsmetoden på et givet tidspunkt kun rækker til at lave tingene så og så småt. Større kapacitet i samme færdige enhed.
Winnick (14) skrev:
blot at skifte til en produktionsmetode som er en 1/3 størrelse - burde give mere samlet plads på disken.
Det vil det også gøre. Du kan bare ikke lave tingene mindre fordi at nu vil du altså lige det. Der går en del arbejde i at udvikle produktionsteknoligi også. Samt at teste produktionsresultaterne.
Winnick (14) skrev:
På nuværende tidspunkt kan man få 1TB SSD diske - Virksomheder kan få 100TB løsninger - så jeg ser ikke problemet?
1 SSD Disk = 1 SSD Disk
1 SSD Løsning = n SSD Diske
Der er altså en forskel i den fysiske størrelse af de to.
Man vil have Lagringskapaciteten af din SSD løsning proppet ned i samme fysiske størrelse som din SSD disk.
Mindre cellestørrelse rækker kun så langt. Tilbage er muligheden så for at gemme mere data i hver celle i stedet.
Pointen er så, at også denne løsning har sine begrænsninger fordi tolerancerne for de forskellige signalstyrker bliver mindre og mindre.
f-style (9) skrev:#7
husk på at det er cellerne man snakker om og ikke hele SSD'en.
dvs. at HELE disken eller den SAMME del af disken skrives 50.000 gange. Så teoretisk før at hele disken bliver uskrivelig er 50k x kapaciteten. Men du skan stadig LÆSE fra disken, så den står sådan set ikke af. Den "lukker" bare for flere skrivninger.
Så en ssd på 100 GB kan makismalt skrives 50.000 x 100 GB = 5.000.000 GB. Så der vil gå en del år før det er opnået, med mindre du konstant fylder disken helt op og sletter det hele igen rigtig mange gange! Det er derfor TRIM er indbygget i nyere SSD'er for at den ikke bare overskriver samme sted hele tiden, men skriver på en mere logisk måde, det skal dog være en del af operativsystemet for at virke. Men nyere windows som windows vista og 7 har det allerede indbygget. Nyere linux kerne og visse fil systemer undstøtter også TRIM.
http://en.wikipedia.org/wiki/TRIM
Øh.. Det er altså ikke det 'TRIM' er der for .
TRIM er der fordi en 'tom' celle (altså en celle der er klar til at blive skrevet til DIREKTE, uden at hele 'pagen' skal slettes først) defineres ved at den har værdien '0' . Hvis nu vore OS'er rent faktisk 'slettede' slettet data, ved at overskrive det med '0' behøvede man slet ikke TRIM
Det du snakker om hedder 'wear-leveling' og formålet med det er at sikre at alle celler skrives til lige meget, for at sprede 'slitagen' ud over HELE disken .
Desuden har langt de fleste SSD'er faktisk et ganske pænt overskud af kapacitet der er reserveret til netop wear-leveling og
Bad-block management .
Nogen af jer har måske en af de der OZC-SSD'er hvor kapaciteten
skifter, alt efter hvilken firmware-version man bruger ?
Se fex https://www.micron.com/~/media/Documents/Products/...
@20 - fint - så har jeg forstået korrekt - tak for udpenslingen :-)
så er min pointe blot at jeg ikke forstår hvorfor det bliver stillet op som et problem. Vi snakker om 12 år frem i tiden - selv hvis vi antager at der ikke sker noget nyt ud over mindre fabrikationsprocesserne og små forbedringer (der bliver her nævnt nedgang fra 25nm til 6,5nm - så vil der stadig kunne produceres SSD'er med SLC og MLC.
Og eftersom dette kan gøres i dag op til 1TB med hastighed X - hvorfor skulle virksomheder der ikke kan nøjes med x/2 (hastighed med 3-4 bit pr celle - grebet ud af den blå luft som eksempel) - så ikke kunne fortsat kunne købe SSD'er med SLC og MLC?
De får det til at lyde som om fremtidens hastighed kun kan gå nedaf fordi der pinedød skal proppes flere bits ind i hver celle.
Det vil vel blot blive en afvejning - højere hastighed vs mere plads - så kan folk selv vælge deres teknologier
køb model X - 1TB - læse/skrive 500mb/sek - 500k skrivninger - SLC
køb model Y - 10TB - læse/skrive 100mb/sek - 100k skrivninger - TLC
så er min pointe blot at jeg ikke forstår hvorfor det bliver stillet op som et problem. Vi snakker om 12 år frem i tiden - selv hvis vi antager at der ikke sker noget nyt ud over mindre fabrikationsprocesserne og små forbedringer (der bliver her nævnt nedgang fra 25nm til 6,5nm - så vil der stadig kunne produceres SSD'er med SLC og MLC.
Og eftersom dette kan gøres i dag op til 1TB med hastighed X - hvorfor skulle virksomheder der ikke kan nøjes med x/2 (hastighed med 3-4 bit pr celle - grebet ud af den blå luft som eksempel) - så ikke kunne fortsat kunne købe SSD'er med SLC og MLC?
De får det til at lyde som om fremtidens hastighed kun kan gå nedaf fordi der pinedød skal proppes flere bits ind i hver celle.
Det vil vel blot blive en afvejning - højere hastighed vs mere plads - så kan folk selv vælge deres teknologier
køb model X - 1TB - læse/skrive 500mb/sek - 500k skrivninger - SLC
køb model Y - 10TB - læse/skrive 100mb/sek - 100k skrivninger - TLC
Det er lidt friskt at forudsige fremtiden 12 år frem.
I 2000-2005 var man meget bekymret for lækstrømme i chips, hvor man hen imod 2005 var oppe på over 50% af den afsatte effekt i CPUer skyldtes lækstrømme.
Så fandt man på high-k dielectrika. Efterfølgende fandt man ud af, at gå over 4GHz ikke gav ret meget mening, men i stedet gå i bredden med multikerne-chips og så holde frekvensen konstant. Og for at toppe den af, så fandt man på at voltage scale chips, så den automatisk skruer ned for spændingen, når dele af chippen ikke benyttes (lækstrømmen er mere end kvadratisk afhængigt at forsyningsspændingen). Sammenlagt fik det has på problemet (eller standset udviklingen i hvert fald).
Det er svært at spå - specielt om fremtiden. ;)
I 2000-2005 var man meget bekymret for lækstrømme i chips, hvor man hen imod 2005 var oppe på over 50% af den afsatte effekt i CPUer skyldtes lækstrømme.
Så fandt man på high-k dielectrika. Efterfølgende fandt man ud af, at gå over 4GHz ikke gav ret meget mening, men i stedet gå i bredden med multikerne-chips og så holde frekvensen konstant. Og for at toppe den af, så fandt man på at voltage scale chips, så den automatisk skruer ned for spændingen, når dele af chippen ikke benyttes (lækstrømmen er mere end kvadratisk afhængigt at forsyningsspændingen). Sammenlagt fik det has på problemet (eller standset udviklingen i hvert fald).
Det er svært at spå - specielt om fremtiden. ;)
@#22 :
Jeg tror det er spørgsmål om pris ..
De har jo ikke gjort meget for at få folk til at forstå at NAND ikke bare er NAND ..
Og jeg kan godt forstå det, en elektro-ingeniør ven af mig arbejdede for IBM det meste af sit arbejdsliv, en af de ting han gjorde var at side med en hex-editor og flytte filer så de mest brugte lå tættest på læse-hovedets udgangs-position .
Når jeg begynder at tale om 'pages', 'flash-translation layer',
TRIM og wear-leveling ..
Så siger han altid at han er glad for at være pensionist !
Jeg tror det er spørgsmål om pris ..
De har jo ikke gjort meget for at få folk til at forstå at NAND ikke bare er NAND ..
Og jeg kan godt forstå det, en elektro-ingeniør ven af mig arbejdede for IBM det meste af sit arbejdsliv, en af de ting han gjorde var at side med en hex-editor og flytte filer så de mest brugte lå tættest på læse-hovedets udgangs-position .
Når jeg begynder at tale om 'pages', 'flash-translation layer',
TRIM og wear-leveling ..
Så siger han altid at han er glad for at være pensionist !
Hvis at SSD kom ned på den hastighed som almindelige harddiske har, eller måske helt ned på 10mb / sek, så vil det da næsten stadigt være det værd ift. de fordele de har. Lydløse, bliver ikke varme, ingen bevægelige dele. Jeg kunne næsten overveje at lave en raiddisk ud af en flok 32gb class 10 SD kort.
Men jeg ser godt nok frem til selv at få mig noget SSD at leje med, udover det som er i mine tablets og telefoner.
Men jeg ser godt nok frem til selv at få mig noget SSD at leje med, udover det som er i mine tablets og telefoner.
Jeg kan ikke se problemet.
Hvis man ikke inden 2024 har løst problemet vil der jo bare være 2 markeder for produkter med SSD.
1. Små og hurtige langtidsholdbare diske til boot og dagligdagslir.
2. Enorme, langsomme diske til megabackup - som så holder længe - fordi man ikke skriver ustandseligt til den.
Jeg synes lidt at artiklen markedsfører sig på det sensationelle i at sige noget, som praktisk talt ikke er korrekt.
Hvis man ikke inden 2024 har løst problemet vil der jo bare være 2 markeder for produkter med SSD.
1. Små og hurtige langtidsholdbare diske til boot og dagligdagslir.
2. Enorme, langsomme diske til megabackup - som så holder længe - fordi man ikke skriver ustandseligt til den.
Jeg synes lidt at artiklen markedsfører sig på det sensationelle i at sige noget, som praktisk talt ikke er korrekt.
Opret dig som bruger i dag
Det er gratis, og du binder dig ikke til noget.
Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.