mboost-dp1

Intel

Flash-drevs fremtid ser sort ud

- Via Computerworld USA - , redigeret af Net_Srak

Forskere fra University of California og Microsoft Research har undersøgt fremtiden for SSD’er baseret på NAND-flashhukommelse. Dette er blevet publiceret i en artikel, hvor konklusionen lyder, at selvom kapaciteten på SSD bliver større, vil svartiderne og fejlprocenten stige.

SSD bruger i dag NAND-celler med en strukturbredde på 25 nm og det forventes at man frem mod 2024 vil have reduceret det til 6.5 nm. Dette vil øge kapaciteten drastisk og vil betyde at man i 2024 formentlig vil kunne købe en SSD på 16 TB, dog vil de være væsentlig langsommere end dagens SSD enheder.

Grunden til denne noget usædvanlige trend er, at man i dag benytter sig af Multi Level Cell (MLC) og Triple Level Cell (TLC), hvor man kan gemme henholdsvis 2 og 3 bit i en enkelt NAND-celle. I en SLC, hvor man gemmer 1 bit i en NAND-celle, har man kun behov for at gemme to værdier – 0 og 1. Dette gøres ved at man bruger to spændingsniveauer over gaten i NAND-cellen, hvor der imellem disse to er et guardband, der adskiller disse to niveauer. Med MLC, hvor man gemmer 2 bit, skal man bruge 4 værdier og dermed også tre guardbands, og med TLC, som gemmer 3 bit, skal man bruge flere værdier og flere guardbands.

Med flere værdier og guardbands bliver det samme spændingsinterval inddelt i finere og finere spændingsniveauer, som skal rammes for at kunne læse og skrive i cellen. Dette betyder flere fejl og en lavere levetid for NAND-cellen. En SLC NAND-celle kan skrives og slettes mellem 50.000 og 100.000 gange, mens en TLC NAND-celle kun har en levetid på 500-1.000 gange. Fremtidens NAND-celler har mulighed for at gemme 4 bit, hvor problemet vil være endnu tydeligere.

Konklusionen på forskernes undersøgelse siger blandt andet, at mens kapaciteten stiger, vil resten af parametrene for SSD’er falde.

The Bleak Future of NAND Flash Memory skrev:
SSDs will continue to improve by some metrics (notably density and cost per bit), but everything else about them is poised to get worse.

En af forskerne Laura Grupp udtaler, at mens man er vant til at teknologi bliver bedre og bedre, vil man ikke se det samme med SSD.

Laura Grupp, University of California skrev:
It’s a pretty dramatic decline. People are used to working with technology that continues to just get better, but with NAND flash we’re going to be facing trade-offs as it evolves.





Gå til bund
Gravatar #1 - JaPeX
21. feb. 2012 10:03
Lur mig om ikke man vil kunne købe diske der er optimeret mod forskellige parametre: kapacitet/skrivning/læsning/levetid... Præcis som det er i dag, måske bare mere udpræget. I 2024 har vi da forhåbentlig også fundet på et alternativ til NAND flash.
Gravatar #2 - Trentors
21. feb. 2012 10:08
OG dagens andre nyheder: Vand er stadig vådt.



Uddybelse: Dette er et KENDT problem og SSD-producenterne har i årevis kæmpet med dette. Der har da også været nyheder herinde om det før.

F.eks. i december 2010 hvor Micron præsenterede sin ECC-flash for at komme dette til livs og den nyhed er her, på newz.dk. Ca. 1 1/4 år gammel.

http://newz.dk/micron-paa-vej-med-selvkorrigerende...
Gravatar #3 - uraniumdeer
21. feb. 2012 10:10
I 2024 har vi forhåbenligt i nogen tid haft memristor diske i hænderne.
Gravatar #4 - HerrMansen
21. feb. 2012 10:13
Trentors (2) skrev:
OG dagens andre nyheder: Vand er stadig vådt.


Nope - http://static.black-frames.net/images/dehydrated-w...
Gravatar #5 - dinmor
21. feb. 2012 10:17
Hvis de skulle vise sig at få ret er det da i sandhed en historisk situation... Så lur mig om ikke der som altid bliver fundet en smart løsning. Fx virker det oplagt at foretage yderligere parallelisering for at overkomme en evt. langsommere (eller bare ikke SÅ meget hurtigere) hukommelsesteknologi - påstanden om at en SSD på 16TB om 12 år skulle være langsommere end en SSD i dag vil jeg sætte ca. alle mine penge på kommer til at være forkert.
Gravatar #6 - uraniumdeer
21. feb. 2012 10:22
Jeg tror/håber flashhukommelse i alle former er totalt outdatet inden vi overhovedet nærmer os en tid hvor det kunne være relevant at optimere på dem for at bibeholde deres hastighed.
Gravatar #7 - blabla5000
21. feb. 2012 10:24
En SLC NAND-celle kan skrives og slettes mellem 50.000 og 100.000 gange....

betyder det at man kun kan lave fx en txt fil og slette den igen

25k-50k gange også står din ssd af?
Gravatar #8 - HenrikH
21. feb. 2012 10:27
#7: Cellerne står af enkeltvis, ligesom bad sectors på en almindelig HD - i hvert fald hvis det er en anstændig disk. Står din SSD af fuldstændig ved første celle der går, er det forhåbentlig et ret billigt og elendigt mærke :-P
Gravatar #9 - f-style
21. feb. 2012 10:33
#7
husk på at det er cellerne man snakker om og ikke hele SSD'en.
dvs. at HELE disken eller den SAMME del af disken skrives 50.000 gange. Så teoretisk før at hele disken bliver uskrivelig er 50k x kapaciteten. Men du skan stadig LÆSE fra disken, så den står sådan set ikke af. Den "lukker" bare for flere skrivninger.
Så en ssd på 100 GB kan makismalt skrives 50.000 x 100 GB = 5.000.000 GB. Så der vil gå en del år før det er opnået, med mindre du konstant fylder disken helt op og sletter det hele igen rigtig mange gange! Det er derfor TRIM er indbygget i nyere SSD'er for at den ikke bare overskriver samme sted hele tiden, men skriver på en mere logisk måde, det skal dog være en del af operativsystemet for at virke. Men nyere windows som windows vista og 7 har det allerede indbygget. Nyere linux kerne og visse fil systemer undstøtter også TRIM.
http://en.wikipedia.org/wiki/TRIM
Gravatar #10 - Chucara
21. feb. 2012 10:33
Oh noes? Det må jo betyde at i 2024 har vi meget langsommere diske end i dag!

Fordi al udvikling går jo i stå, og problemet med skrivninger er fuldstændigt uløseligt, og desuden er der ikke nogen, der har fantasi til at forestille sig, at man bruger noget andet end NAND om 12 år.
Gravatar #11 - Tharkz
21. feb. 2012 10:43
Men mon ikke SSD'ens vigtigste funktion for lagringsmediets evolution har været og vil blive at det for alvor har fået folk til at tænke i andre baner end magnetiske plader.
Gravatar #12 - AcidCrow
21. feb. 2012 10:45
Det er måske en lidt for rationel måde at tænke på af forskerne, men det får mig til at tænke på Laserdisc formatet.

Prøv at tænke på hvor stor sådan én fætter skulle være i dag, for at kunne indeholde det samme som en Bluray skive..... XD
Gravatar #13 - el_barto
21. feb. 2012 11:08
Problem solved:
http://www.physorg.com/news/2012-02-physicists-mag...

Så skal vi bare bruge de næste 12 år på at finpudse teknologien og pumpe diskene op i +10 TB størrelse :)
Gravatar #14 - Winnick
21. feb. 2012 11:09
Det kan godt være jeg bare har misset en pointe - men hvad forhindrer producenterne i at lave SLC eller MLC- nand ved de samme 6,5nm de snakker om i artiklen?

hvem siger at de skal skifte til 3-4 bit i hver celle?

blot at skifte til en produktionsmetode som er en 1/3 størrelse - burde give mere samlet plads på disken. På nuværende tidspunkt kan man få 1TB SSD diske - Virksomheder kan få 100TB løsninger - så jeg ser ikke problemet?

Gravatar #15 - cryo
21. feb. 2012 11:29
Chucara (10) skrev:
Fordi al udvikling går jo i stå, og problemet med skrivninger er fuldstændigt uløseligt, og desuden er der ikke nogen, der har fantasi til at forestille sig, at man bruger noget andet end NAND om 12 år.


Tja, men Flash blev opfundet i 1980 og er essentielt uændret i dag. NAND og NOR hentyder til hvordan de er forbundet, ikke til selve cellen. Ikke al teknologi udvikler sig lige hurtigt, og du medgiver vel at vi fx ikke kommer ned under 0nm i størrelse, bare for at tage en parameter ud.
Gravatar #16 - MNM
21. feb. 2012 11:38
Flash er ikke en disk, der er ikke nogen roterende skive i en SSD (Solid State Drive)

Hastigheden på en enkelt NAND celle har nødvendigvis heller ikke noget med performance for hele flash modulet/drevet at gøre. Det er fordi man laver parallelle operationer at et flash modul/drev overhovedet er hurtig.

Problemerne med holdbarhed er allerede løst af firmaer som purestorage og sandisk, ved at ligge smart software ovenpå.

Og til sidst hvem tror på at NAND flash er fremtiden?, SSD'er kan laves med mange forskellige solid state teknologier.
Gravatar #17 - uraniumdeer
21. feb. 2012 11:41
#13
Så kan du skrive meget hurtigt til disken, men så vidt jeg ved er læsehastigheden den samme som den er i dag.


Er jeg den eneste her der tror at MEMRISTOR-hukommelse overtager ingen for de næste 5 år, hvilket burde gøre denne diskussion ret irrelevant?

Jeg håber det er tilfældet, glæder mig meget til at se hvad RRAM kommer til at gøre for pc'erne. Jeg håber også at det fører til en fundemantal ændring af måden computere er bygget op på, for designet af computere har ikke ændret sig meget siden 386'ere.
Gravatar #18 - Net_Srak
21. feb. 2012 11:58
Vil tro at en række andre teknologier har overtaget NAND-flash teknologien længe inden 2024. Der er allerede flere teknologier der er godt på vej, bl.a. phase change RAM og Memristor
Gravatar #19 - Boding
21. feb. 2012 13:09
Der er allerede i år blevet skudt $35 millioner, i MEMRISTOR teknologien, til yderligere udvikling af teknologien.. Og de siger at allerede i 2013 kan vi forvente at se de første enheder der tager brug af MEMRISTOR teknologien til lagring.
Gravatar #20 - Tharkz
21. feb. 2012 13:21
Winnick (14) skrev:
Det kan godt være jeg bare har misset en pointe - men hvad forhindrer producenterne i at lave SLC eller MLC- nand ved de samme 6,5nm de snakker om i artiklen?

Det udgør ikke problemet, men er bare en forudsætning for mandens forudsigelse mht. størrelse og generel udviklingstendens.

Winnick (14) skrev:

hvem siger at de skal skifte til 3-4 bit i hver celle?

Fordi man så kan proppe flere stumper ind i den fast definerede fysiste størrelse som vi nu har vennet os til er standard
Samme princip som DVD'er i to lag og flere skiver oven på hinanden inden i en rotations harddisk idet produktionsmetoden på et givet tidspunkt kun rækker til at lave tingene så og så småt. Større kapacitet i samme færdige enhed.

Winnick (14) skrev:

blot at skifte til en produktionsmetode som er en 1/3 størrelse - burde give mere samlet plads på disken.

Det vil det også gøre. Du kan bare ikke lave tingene mindre fordi at nu vil du altså lige det. Der går en del arbejde i at udvikle produktionsteknoligi også. Samt at teste produktionsresultaterne.

Winnick (14) skrev:

På nuværende tidspunkt kan man få 1TB SSD diske - Virksomheder kan få 100TB løsninger - så jeg ser ikke problemet?

1 SSD Disk = 1 SSD Disk
1 SSD Løsning = n SSD Diske
Der er altså en forskel i den fysiske størrelse af de to.

Man vil have Lagringskapaciteten af din SSD løsning proppet ned i samme fysiske størrelse som din SSD disk.
Mindre cellestørrelse rækker kun så langt. Tilbage er muligheden så for at gemme mere data i hver celle i stedet.

Pointen er så, at også denne løsning har sine begrænsninger fordi tolerancerne for de forskellige signalstyrker bliver mindre og mindre.
Gravatar #21 - RobertL
21. feb. 2012 14:02
f-style (9) skrev:
#7
husk på at det er cellerne man snakker om og ikke hele SSD'en.
dvs. at HELE disken eller den SAMME del af disken skrives 50.000 gange. Så teoretisk før at hele disken bliver uskrivelig er 50k x kapaciteten. Men du skan stadig LÆSE fra disken, så den står sådan set ikke af. Den "lukker" bare for flere skrivninger.
Så en ssd på 100 GB kan makismalt skrives 50.000 x 100 GB = 5.000.000 GB. Så der vil gå en del år før det er opnået, med mindre du konstant fylder disken helt op og sletter det hele igen rigtig mange gange! Det er derfor TRIM er indbygget i nyere SSD'er for at den ikke bare overskriver samme sted hele tiden, men skriver på en mere logisk måde, det skal dog være en del af operativsystemet for at virke. Men nyere windows som windows vista og 7 har det allerede indbygget. Nyere linux kerne og visse fil systemer undstøtter også TRIM.
http://en.wikipedia.org/wiki/TRIM


Øh.. Det er altså ikke det 'TRIM' er der for .
TRIM er der fordi en 'tom' celle (altså en celle der er klar til at blive skrevet til DIREKTE, uden at hele 'pagen' skal slettes først) defineres ved at den har værdien '0' . Hvis nu vore OS'er rent faktisk 'slettede' slettet data, ved at overskrive det med '0' behøvede man slet ikke TRIM

Det du snakker om hedder 'wear-leveling' og formålet med det er at sikre at alle celler skrives til lige meget, for at sprede 'slitagen' ud over HELE disken .
Desuden har langt de fleste SSD'er faktisk et ganske pænt overskud af kapacitet der er reserveret til netop wear-leveling og
Bad-block management .
Nogen af jer har måske en af de der OZC-SSD'er hvor kapaciteten
skifter, alt efter hvilken firmware-version man bruger ?

Se fex https://www.micron.com/~/media/Documents/Products/...
Gravatar #22 - Winnick
21. feb. 2012 14:12
@20 - fint - så har jeg forstået korrekt - tak for udpenslingen :-)

så er min pointe blot at jeg ikke forstår hvorfor det bliver stillet op som et problem. Vi snakker om 12 år frem i tiden - selv hvis vi antager at der ikke sker noget nyt ud over mindre fabrikationsprocesserne og små forbedringer (der bliver her nævnt nedgang fra 25nm til 6,5nm - så vil der stadig kunne produceres SSD'er med SLC og MLC.

Og eftersom dette kan gøres i dag op til 1TB med hastighed X - hvorfor skulle virksomheder der ikke kan nøjes med x/2 (hastighed med 3-4 bit pr celle - grebet ud af den blå luft som eksempel) - så ikke kunne fortsat kunne købe SSD'er med SLC og MLC?

De får det til at lyde som om fremtidens hastighed kun kan gå nedaf fordi der pinedød skal proppes flere bits ind i hver celle.

Det vil vel blot blive en afvejning - højere hastighed vs mere plads - så kan folk selv vælge deres teknologier

køb model X - 1TB - læse/skrive 500mb/sek - 500k skrivninger - SLC
køb model Y - 10TB - læse/skrive 100mb/sek - 100k skrivninger - TLC
Gravatar #23 - Izaaq
21. feb. 2012 14:18
Det er lidt friskt at forudsige fremtiden 12 år frem.
I 2000-2005 var man meget bekymret for lækstrømme i chips, hvor man hen imod 2005 var oppe på over 50% af den afsatte effekt i CPUer skyldtes lækstrømme.

Så fandt man på high-k dielectrika. Efterfølgende fandt man ud af, at gå over 4GHz ikke gav ret meget mening, men i stedet gå i bredden med multikerne-chips og så holde frekvensen konstant. Og for at toppe den af, så fandt man på at voltage scale chips, så den automatisk skruer ned for spændingen, når dele af chippen ikke benyttes (lækstrømmen er mere end kvadratisk afhængigt at forsyningsspændingen). Sammenlagt fik det has på problemet (eller standset udviklingen i hvert fald).

Det er svært at spå - specielt om fremtiden. ;)
Gravatar #24 - RobertL
21. feb. 2012 14:20
@#22 :
Jeg tror det er spørgsmål om pris ..
De har jo ikke gjort meget for at få folk til at forstå at NAND ikke bare er NAND ..
Og jeg kan godt forstå det, en elektro-ingeniør ven af mig arbejdede for IBM det meste af sit arbejdsliv, en af de ting han gjorde var at side med en hex-editor og flytte filer så de mest brugte lå tættest på læse-hovedets udgangs-position .
Når jeg begynder at tale om 'pages', 'flash-translation layer',
TRIM og wear-leveling ..
Så siger han altid at han er glad for at være pensionist !
Gravatar #25 - RobertL
21. feb. 2012 16:50
En anden ting er at 'TLC' egentlig betyder 'Tender Loving Care' ..
Meget tyder på at NAND-producenterne burde respektere det vare-mærke !
Gravatar #26 - kblood
21. feb. 2012 20:26
Hvis at SSD kom ned på den hastighed som almindelige harddiske har, eller måske helt ned på 10mb / sek, så vil det da næsten stadigt være det værd ift. de fordele de har. Lydløse, bliver ikke varme, ingen bevægelige dele. Jeg kunne næsten overveje at lave en raiddisk ud af en flok 32gb class 10 SD kort.

Men jeg ser godt nok frem til selv at få mig noget SSD at leje med, udover det som er i mine tablets og telefoner.
Gravatar #27 - Mnc
21. feb. 2012 20:28
TLC siger også noget i stil med
don't go chasing waterfalls, please stick to the rivers and the lakes that you're used to

hvilket vel betyder "stop udviklingen!!1" i teknologiens verden. :D

Knap så brugbart. :P
Gravatar #28 - FeedMe
21. feb. 2012 21:25
Jeg kan ikke se problemet.

Hvis man ikke inden 2024 har løst problemet vil der jo bare være 2 markeder for produkter med SSD.

1. Små og hurtige langtidsholdbare diske til boot og dagligdagslir.
2. Enorme, langsomme diske til megabackup - som så holder længe - fordi man ikke skriver ustandseligt til den.

Jeg synes lidt at artiklen markedsfører sig på det sensationelle i at sige noget, som praktisk talt ikke er korrekt.
Gå til top

Opret dig som bruger i dag

Det er gratis, og du binder dig ikke til noget.

Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.

Opret Bruger Login