mboost-dp1

Fusion-io

Ny SSD læser med 1,5 GB/sek.

- Via CNET News - , redigeret af Net_Srak

Firmaet Fusion-IO, der for nylig fik en ny medarbejder, Steve Wozniak, har netop annonceret deres næste generation SSD-enhed; ioDrive-Duo.

Der er ikke tale om en almindelig SSD, der kan tilsluttes via SATA, hvilket heller ikke ville give mening. Læse- og skrivehastigheden for ioDrive-Duo er nemlig langt højere, end hvad selv SATA3 kan håndtere.

Med en kontinuerlig dataoverførelseshastighed på ikke mindre end 1,5 GB/sek ved læsning og 1,4 GB/sek. ved skrivning er det nødvendigt at tilslutte SSD’en via PCIe. Ud over at have en ekstrem høj læse- og skrivehastighed kan ioDrive-Duo også håndtere rigtig mange operationer i sekundet, helt præcis 186.000 IOPS ved læsning og 167.000 IOPS ved skrivning. Til sammenligning kan en almindelig serverharddisk klare godt 300 IOPS.

Fusion-io henvender sig til erhvervslivet med ioDrive-Duo og nævner en pris på under 30 dollar pr. GB. I første omgang kan firmaet levere modeller med kapacitet på 160 GB til 640 GB, men oplyser, at der i andet halvår vil komme en udgave på 1,28 TB.

Der kan læses yderligere detaljer om drevet på Fusion-ios hjemmeside.





Gå til bund
Gravatar #1 - wazari
12. mar. 2009 10:03
Så skal der eddermame hentes meget pr0n samtidigt!!
Gravatar #2 - briandanielsen
12. mar. 2009 10:04
Glæder mig til det bliver muligt for os dødelige mennesker at anskaffe sådan en krabat til en rimelig pris.

Tror ikke der går lang tid før vi slipper helt af med de mekaniske disks. Og hvor bliver det super fedt!
Gravatar #3 - loddo
12. mar. 2009 10:09
jeg er ca stået af.. ligemeget hvor meget min geekness tænder på extreem hardware - så når ens fatteevne ikke siger "årh, to af dem i raid".. så.. så står jeg altså bare af.

Det er jo bare for vildt, men det er så også lidt overkill at brænde sin opsparing af på dén.. medmindre man er på pussytorrents.org ;) #1
Gravatar #4 - NeoNmaN
12. mar. 2009 10:11
#3) jo? to i RAID1? :D så har du backup af dit data :P du behøves ikke mere skrive hastihed XD
Gravatar #5 - Izaaq
12. mar. 2009 10:13
Hvad med en onboard SSD disk? Altså et motherboard med påmonteret X GB SSD-chips. Så kunne man have et komplet system på et enkelt bræt. Det ville give hurtig boot og lavt strømforbrug og en meget lille æske.
Gravatar #6 - nomissenrojb
12. mar. 2009 10:17
#5 Sår forsvinder begræbet Persional Pc
Ville det ikke også være næmmere at lave noget Ssata.. (SUPERsata)
Gravatar #7 - Oddj0b
12. mar. 2009 10:20
#5 Jeg har tænkt på det samme, man kunne jo lave en begrænset udgave med bare 70 gb til styresystemet, det må da kunne mærkes hvis alle ens programmer kører derfra.
Gravatar #8 - Growly
12. mar. 2009 10:33
Nedenstående link har de godt nok fået en overførelse på 2GB/Sek, men mon ikk ioDrive Duo kommer godt der op ad.

2GB/Sek SSD RAID
Gravatar #9 - Zayin
12. mar. 2009 10:36
neonman (4) skrev:
#3) jo? to i RAID1? :D så har du backup af dit data :P du behøves ikke mere skrive hastihed XD


Uha... det er farligt at sammenlige RAID 1 med backup :)
Det er rigtigt at du har en kopi af dine data hvis den ene disk brænder af, men hvis du ved et uheld sletter en fil, ja så ryger den altså på dem begge.... så backup?? niks :)

Men super sej disk... håber at der kommer sådan en fætter i den næste iMac :)
Gravatar #10 - ....
12. mar. 2009 10:38
http://newz.dk/ultrahurtig-alternativ-til-harddisk...

Det er næsten samme nyhed som I bragte tilbage i Oktober - der er umiddelbart ikke sket meget siden lyder det til.
Gravatar #11 - Net_Srak
12. mar. 2009 10:38
De skalerer i øvrigt lineært hvis ydelsen fra en enkelt ikke skulle være nok :)
Gravatar #12 - Hornbech
12. mar. 2009 10:54
Det bliver spændende at se hvad FusionIO bidrager til IT-Verdenen. Vi har i firmaet, overvejet at anskaffe os noget hardware fra FusionIO, for at se "what the fuzz is about" :P
Gravatar #13 - meinder
12. mar. 2009 11:29
Ja de er sq for lækkere, jeg kunde godt nøjes med 2 esata 2 ssd drev i raid 0 i min hjemme pc.

#8 Bare husk på at de havede 24 stk i esata og her er kun et drev i et pci express slot.

#12 ja gør det de lyder jo for vildt hurtige og LARMER ikke gg og laver ikke så meget varme, og bruger sikkert heller ikke helt så meget strøm så scsi drev.

Gravatar #14 - CoZiD
12. mar. 2009 11:37
Skulle de gå helt ned til $10 pr. GB og med en dollar på 6,- så kan man spørge sig selv om 160 GB er det værd.... man skal ha en seriøs pengepung i hvert fald.
Gravatar #15 - kasperd
12. mar. 2009 11:39
SSD der er dyrere en RAM giver bare ingen mening for mig. OK, den kan godt nok skrive med sindsyge hastigheder. Hvis du virkelig har brug for at skrive til persistent lager med 1,5GB/s kan den måske godt give mening. Men hvor skulle alle de data komme fra? Men ville nærmest være nødt til at bundle to 10Gb/s netkort for at få så meget data ind på maskinen.

Hvis ikke man har brug for det, så er det nok en bedre forretning at installere masser af RAM til cache og så et passende RAID system. Og så burde man nok bruge et filsystem med noget intelligent journaling. Man kunne f.eks. køre sin journal på RAID-1 over to diske, og så en sjælden gang imellem flushe til RAID-5. Så vil man godt nok have to diske roterende hele tiden, men alligevel....

Izaaq (5) skrev:
Hvad med en onboard SSD disk? Altså et motherboard med påmonteret X GB SSD-chips. Så kunne man have et komplet system på et enkelt bræt. Det ville give hurtig boot og lavt strømforbrug og en meget lille æske.
Jeg har nogen af de her med CF slot på kortet http://pcengines.ch/alix2c3.htm Det er godt nok ikke specielt hurtigt, men det er da SSD næsten onboard. Hvorfor vil du gerne have det onboard? Jeg ville da foretrække at de kan skiftes ud hver for sig hvis den ene skulle fejle.
Gravatar #16 - lnc12
12. mar. 2009 11:47
Vil have
Gravatar #17 - Decipher
12. mar. 2009 11:51
Hvad er der blevet af problematikken omkring SSDers begrænsede levetid, grundet fysikken ved skriveoperationer?

Det er faktisk mere interessant for mit vedkommende at mine bits ikke forsvinder pga nedbrydning af materialet efter relativt kort tid, end at jeg kan skrive med en millard millarder bits i sekundet eller hvad det nu svarer til.
Gravatar #18 - Eniac
12. mar. 2009 11:53
Er faktisk lige gået i gang med at undersøge markedet for SSD i RAID. Det skal bare være fx. 64GB til installation af windows og programmer, og så ligger alt content jo på netværksdiskene.

Nogen der kan anbefale noget SSD RAID til mere overkommelige priser en det her? Det skal helst ikke koste meget mere end 3000kr. jeg forestiller mig 2 eller 4 drev for at øge ydelsen.
Gravatar #19 - knekker1
12. mar. 2009 11:58
17#

Når områder der indeholder data på ssd'er ikke længere fungere, vil du altid kunne læse data'en, du vil derimod bare ikke kunne skrive hen over den igen.

Så du vil aldrig kunne miste din data med de nuværende ssd, du derimod med tiden få en mindre harddisk når det kommer til genskrivninger
Gravatar #20 - XERXES
12. mar. 2009 12:00
Hvis det er ligesom deres ældre produkter, så kan man ikke boote fra dem, hvilket er lidt nederen med prisen taget i betragtning. Er der nogle der har set nogle data omkring kortets strømforbrug?
Gravatar #21 - loddo
12. mar. 2009 12:18
#9, well.. når hastigheden bliver så nasty, så ligger flaskehalsen vel bare et nyt sted (cpu'en, ramne)

#13, kan ikke læse din ironi :) de hverken larmer eller udvikler varme (ingen bevæglige dele) ..

#18 Well, ssd raid? så vidt jeg ved, så tilslutter du dine SSD diske via sata? .. sååe.. sata raid sidder vel allerede på de fleste bundkort?
Gravatar #22 - Unbound
12. mar. 2009 12:22
#21
Øhm, hvis de ikke udvikler nogen varme fordi der ikke er nogen bevægelige dele... hvor er så de bevægelige dele i min CPU ? For den bliver da lidt lun ind imellem
Gravatar #23 - Izaaq
12. mar. 2009 12:49
#15 Du har ret i, at det kunne være rart at kunne skifte disken ud ved nedbrud. Måske er en sokkel det bedste bud. Min ide var at kunne lave en ultra-lille pc, hvor der ikke er indstikskort, da alt sidder på morbrættet. Så kunne man pløkke en ekstern almindelig harddisk (snurretop) i til at lagre de store ting, og så have måske 64 GB onboard flash til at installere OS og de vigtigste ting, som vil køre hurtigt, lydløs og uden mekaniske dele. Så kan man lige stoppe PCen i lommen, når man skal afsted.

Imo er det lidt fjollet, at de laver 3,25" tomme kasser til SSD sådan at de "ligner de gamle mekaniske drev". De kunne lige så godt finde på en ny og smartere fysisk standard eller lave en sokkel eller fastmontere chipsene :)
Gravatar #24 - spazoid
12. mar. 2009 12:57
#15 Jeg kan love dig for at denne "disk" ikke vil blive købt for de høje overførselshastigheder, men for de 150.000 IOPS (svarer til ca 500x 15.000 RPM SAS diske).

Et datacenter med nogle krævende databaser som i dag fylder adskillige racks vil kunne minimeres til få eller måske endda en enkelt server med dette stykke hardware.

150.000 IOPS med 4Kbyte requests er under 600 Mbyte/sekund, hvilket igen svarer til godt og vel 4 Gbit forbindelser, hvilket ikke er spor urealistisk.
Gravatar #25 - Eniac
12. mar. 2009 13:09
#21: loddo
Ja, men der er mange forskellige drev og diske, så det kunne være meget interessant at vide hvad der giver god performance for pengene.
Gravatar #26 - spazoid
12. mar. 2009 13:40
#21

Intel's X25 serier samt OCZ's Vertex hvis du står og mangler noget lige nu. X25-E er nok for dyr for de fleste, men M-versionen følger godt med. Vertex er den eneste seriøse udfordrer til Intels diske, men der kommer snart en ny disk fra OCZ ved navn Summit som skulle være endnu bedre.

Det er dog svært at følge med på dette marked lige for tiden da der kommer nye firmwares hvert andet øjeblik hvilket kan ændre den måde en SSD performer på fuldstændigt.
Gravatar #27 - TommyB
12. mar. 2009 13:55
Det er seriøst IO :) - Glæder mig til at flytte min databaser over på sådan et kort ;)
Gravatar #28 - demolition
12. mar. 2009 14:13
#17: Det var kun et problem på de første modeller, som ikke havde wear-leveling, se evt. wiki. Jeg tvivler på at der er ret mange SSD'er der i dag ikke bruger dette, og det betyder at de generelt set holder ret længe. Intel bruger wear-leveling som fordeler sliddet ud på alle cellerne, og de skriver at deres X25-M kan holde i mindst 5 år ved 20GB skrivninger per. døgn. Og umiddelbart tror jeg at 20GB er ret højt sat for den gængse bruger, samt at en SSD fra i dag nok vil virke ret forældet om fem år, selv om den stadig virker. :)
Gravatar #29 - Dr. Phil
12. mar. 2009 14:27
@ #21:

Du finder ikke noget til den pris der kan køre RAID med de hastigheder du ønsker - Kig i stedet på Intel Matrix Raid på en F1 disk eller WD 6401 aals. Det er en mere overkommelig pris og vil give dig SSD-lignende forbedringer.

Hvis du skal have en SSD disk, så må du nøjes med 1, punge ud for et RAID setup, eller vente til de bliver billigere.
Gravatar #30 - b4@
12. mar. 2009 14:35
Jeg tror HD video industrien kunne tænke sig noget i denne stil.
Gravatar #31 - Arconaa
12. mar. 2009 14:47
SSD må være det område der sker mest i øjeblikket.
OCZ kommer også med en lignende løsning på et PCIe kort...
http://www.engadget.com/2009/03/05/oczs-z-drive-pu...
dog kun 600 MB/s.
Om ikke så længe er loading bars i spil afskaffet :)
A-DATA og Toshiba kommer snart med almindelige SSDs med 250 MB/s read
Gravatar #32 - ToFFo
12. mar. 2009 17:04
Grafikkort vs. SSD = ioDrive-Duo
(Hastigheden fra et grafikkort og teknologien bag en SSD selvf.)
Gravatar #33 - Al Bundy
12. mar. 2009 18:59
Artiklen går ud fra at jeg ved hvem "Steve Wozniak" er...det gør jeg ikke!
Gravatar #34 - engfeh
12. mar. 2009 19:35
#33

Ved du hvad Google er? Hvad med Wikipedia?
Gravatar #35 - Borg[One]
12. mar. 2009 19:54
#15:
Du kan snildt have flere netkort i den samme maskine, og nettrafik er jo ikke den eneste grund til det er rart med hurtig disk IO.
En applikation der skal transformere store mængder data, skal både kunne læse og skrive hurtigt - hvis du ikke behøver læse for meget op i RAM, vil du kunne speede et sådan applikation betydeligt op.

#28 denne her teknologi er ikke umiddelbart ment til den gængse bruger, og en DB der idag skriver under 20GB/døgnet kan ikke anses som en synderligt hårdt belastet DB...

#33:
http://lmgtfy.com/?q=Steve+Wozniak

Gravatar #36 - MNM
12. mar. 2009 21:16
IO-drive's produkter er rigtig fede, men jeg forstår ikke helt hvor man kan bruge dem henne?

80.000 - 150.000 IOPS som deres kort kan levere ville være genialt til en database server eller lign. men deres kort understøtter ikke raid, hvilket betyder man skal lave software raid og det går seriøst ud over performance. Deres kort er heller ikke hotswap kompatiblet, så man skal tage serveren ned for at skifte et kort.

Så snart de har fået løst de 2 problemer så har de et genialt produkt.
Gravatar #37 - T_A
12. mar. 2009 22:38
#36

Software raid spejl til de formål at have et andet kort til at tage over, hvis det ene kort dør behøver at nedsætte performance.

Hotswap mulighed ville dog være nice hvis den ene døde.
Gravatar #38 - kasperd
13. mar. 2009 00:01
knekker1 (19) skrev:
Når områder der indeholder data på ssd'er ikke længere fungere, vil du altid kunne læse data'en, du vil derimod bare ikke kunne skrive hen over den igen.

Så du vil aldrig kunne miste din data med de nuværende ssd, du derimod med tiden få en mindre harddisk når det kommer til genskrivninger
Sådan fungerer det altså ikke. Størrelsen af mediet er konstant set fra systemets synspunkt. Det eneste en SSD kan gøre hvis den opdager problemet, er at raportere skrivefejl. Den kunne måske skifte sig selv til read only mode hvis problemet er omfatende nok.

Det forudsætter at dårlige områder detekteres ved skrivning. Hvis de først detekteres ved læsning, så er data tabt, med mindre man har backup eller RAID.

Jeg håber at de bruger Reed-Solomon encoding internt i sådan en, men jeg føler mig ikke for sikker på det. Det ville forbedre chancen for at læse data fra beskadigede områder betydeligt.

Unbound (22) skrev:
#21
Øhm, hvis de ikke udvikler nogen varme fordi der ikke er nogen bevægelige dele... hvor er så de bevægelige dele i min CPU ? For den bliver da lidt lun ind imellem
De bevægelige dele i din CPU hedder elektroner :-p

Izaaq (23) skrev:
Imo er det lidt fjollet, at de laver 3,25" tomme kasser til SSD sådan at de "ligner de gamle mekaniske drev". De kunne lige så godt finde på en ny og smartere fysisk standard eller lave en sokkel eller fastmontere chipsene :)
Mon ikke der er nogen produkter der faktisk fylder den kasse pænt op med chips der arbejder parallelt for at få god hastighed og kapacitet.

spazoid (24) skrev:
#15 Jeg kan love dig for at denne "disk" ikke vil blive købt for de høje overførselshastigheder, men for de 150.000 IOPS (svarer til ca 500x 15.000 RPM SAS diske).
IOPS er underordnet hvis du har RAM nok. Mit forslag var at købe lige så meget RAM som man ellers ville have købt SSD plads. RAM kan fås billigere end den beskrevne SSD. Det vil sige, at hvis dine data kunne have været på den SSD, så kan de også være i RAM. Dermed vil alle læsninger kunne komme direkte fra cache, og altså være hurtigere end hvis de kom fra SSD. Skrivninger går primært til en journal på disk, og da en journal skrives sekventielt betyder det, at du kan samle mange transaktioner i en enkelt IOP. Hvis bare der sættes nok plads af til journal skal den sjældent committes. Det vil sige, at det eneste der skal kunne følge med er throughput ved skrivninger til disk.

MNM (36) skrev:
man skal lave software raid og det går seriøst ud over performance.
Det er kun RAID-5 og RAID-6 der går hårdt ud over performance. RAID-1 i software koster næsten ingen performance. Den eneste omkostning er, at skrivinger skal over busen to gange, en gang til hver disk. Men det er som regel ikke busen, men disken selv der er flaskehalsen.

Desuden er den nyeste trend, at RAID-1 funktionalitet er ved at flytte fra bloklaget til filsystemslaget. Det er der flere gode grunde til. Nogle moderne filsystemer beregner faktisk checksum af data, så hvis det ene eksemplar er beskadiget kan de bare læse det fra den anden disk. For det andet har filsystemet en bedre idé om hvad der skal resynces efter strømsvigt end bloklaget. Så jeg kan sagtens forestille mig at man i fremtiden helt vil droppe den lille performance fordel man har af RAID-1 i hardware til fordel for de fordele man kan få ved at gøre det i software.
Gravatar #39 - Arconaa
13. mar. 2009 07:00
Intel X-25-E vs Fusion I/O drive..
http://www.tomshardware.com/picturestory/493-x25-e...
Gravatar #40 - spazoid
13. mar. 2009 09:00
#38

At sige at IOPS er underordnet hvis man har "RAM nok" er da noget vrøvl. Med mindre du allokerer en logisk disk i selve RAMen er IOPS hastigheden på din disk fuldkommen uafhængig af dit systems RAM. Det er de færreste applikationer (findes der nogen?) der automatisk cacher writes i RAMen for derefter at levere data'en sekventielt til disken, og uanset hvordan du vender og drejer den, så vil det ikke kunne lade sig gøre med reads, med mindre du cacher hele disken, hvilket er lidt urealistisk med diske på 640+ GB, synes du ikke?

Det lyder som om at du fejlagtigt antager at din RAM bliver håndteret som en disk cache af dit OS.

Derudover er data tabt hvis RAMen af en eller anden årsag bliver powered down (I know, meget usandsynligt, og hvis det sker er det næsten helt sikkert en tekniker eller arkitekt der ikke har lavet sit arbejde ordentligt, men det kan ske) hvorimod data er sikret ved skrivning til en disk, så snart dataen har forladt cachen.
Gravatar #41 - kasperd
13. mar. 2009 11:50
spazoid (40) skrev:
At sige at IOPS er underordnet hvis man har "RAM nok" er da noget vrøvl. Med mindre du allokerer en logisk disk i selve RAMen er IOPS hastigheden på din disk fuldkommen uafhængig af dit systems RAM.
Jeg siger ikke at disken får flere IOPS fordi du har mere RAM. Jeg siger at med mere RAM har man ikke brug for så mange IOPS.

Det er de færreste applikationer (findes der nogen?) der automatisk cacher writes i RAMen for derefter at levere data'en sekventielt til disken,
Det er en opgave for operativsystemet. Det kan da godt være at der findes nogle databaser, der hellere vil gøre det selv i stedet for at lade filsystemet tage sig af det. Men sådan en database vil alligevel skulle gøre brug af de samme algoritmer som filsystemet, så det er ikke så afgørende om det gøres det ene eller andet sted.

Det kan godt være man skal lede lidt for at finde det optimale filsystem til opgaven, men det kan lade sig gøre.

og uanset hvordan du vender og drejer den, så vil det ikke kunne lade sig gøre med reads, med mindre du cacher hele disken, hvilket er lidt urealistisk med diske på 640+ GB, synes du ikke?
Med de priser som den nævnte SSD har, så er det billigere at købe så meget RAM end det er at købe den SSD. Du behøver selvfølgelig ikke købe mere RAM end du har brug for. Lad os antage, at du har brug for 250GB plads. Du kunne købe sådan en SSD på 250GB. Alternativt kunne du købe 256GB RAM og to 1TB harddiske, hvilket ville være billigere. Sæt dine to harddiske op i RAID-1 og brug 250GB til filsystem og 680GB til journal.

Det lyder som om at du fejlagtigt antager at din RAM bliver håndteret som en disk cache af dit OS.
RAM bliver primært brugt som disk cache.

Derudover er data tabt hvis RAMen af en eller anden årsag bliver powered down (I know, meget usandsynligt, og hvis det sker er det næsten helt sikkert en tekniker eller arkitekt der ikke har lavet sit arbejde ordentligt, men det kan ske) hvorimod data er sikret ved skrivning til en disk, så snart dataen har forladt cachen.
Det er derfor jeg siger at data skal skrives til en journal med det samme. Men en journal skrives lineært, så IOPS er underordnet, det drejer sig udelukkende om hvor meget throughput du kan få igennem.

Det eneste problem er at det tager en halv times tid at indlæse 256GB fra diskene ved genstart, og endnu længere hvis det gøres mens der udføres transaktioner. Så hvis man kan acceptere at systemet har lavere performance den første times tid efter genstart, så er der penge at spare ved at gøre det på den måde.

Det er meget få applikationer, der har brug for at tilgå alle deres data hele tiden, så rent øknomisk vil det give mere mening at kun købe RAM nok til de mest brugte data og lade transaktioner, der tilgår de mindre brugte data, være lidt langsommere.
Gravatar #42 - kasperd
13. mar. 2009 12:23
kasperd (41) skrev:
Sæt dine to harddiske op i RAID-1 og brug 250GB til filsystem og 680GB til journal.
For at undgå at bruge for meget tid på journal replays kan man med fordel interleave data og journal. Dermed opnår man at for hver gang man løber igennem disken (og dermed journalen) får man automatisk committet sin journal. For at undgå at data går tabt i tilfælde af skrivninger som ikke bliver afsluttet pga. strømsvigt er man nødt til at have et hul mellem de data man er ved at skrive og den gamle udgave med en størelse som er lidt større end mængden af buffer i diskene. Det vil sige at placeringen af et logisk sektor nummer ændrer sig lidt for hver gang man løber igennem disken.

Metoden er faktisk nøjagtigt den samme som jeg foreslog som en måde at sikre diskkryptering imod traffic analysis. Hvilket skyldes at hvilket sted på disken man er ved at skrive er fuldstændigt uafhængigt af hvilke data man tilgår (har en kraftig lighed med oblivious RAM).

Det er realistisk at overføre ca. 60MB/s på en enkelt disk. Jo større andel af pladsen man bruger på journal, des større andel af diskens throughput udnyttes til egentlige data. Hvis man har en lille journal og store mængder data vil metoden være mindre effektiv, fordi større mængder af diskens throughput bruges på at committe journal.

I det tænkte layout blev ca. to tredjedele af pladsen brugt på journal, så man kan altså håndtere skrivningre med 40MB/s. Og i journalen vil der være ca. 10 bytes overhead per skriveoperation, hvilket betyder at man har hvad der svarer til 4.000.000 IOPS, men kun 40MB/s. Men det er et valg på en skala fra 4.000.000 IOPS og 0MB/s til 0 IOPS og 40MB/s. Hvis man lægger sig i midten har man altså 2.000.000 IOPS og 20MB/s på et par diske. Eller med andre ord 1.000.000 IOPS og 10MB/s per disk.

Man kan selvfølgelig have flere par diske i en RAID 1+0 konfiguration. Man køber så mange diske som den performance man har brug for. Størrelsen af de enkelte diske er stort set underordnet. Da man kun køber dem for throughput og alligevel ikke vil bruge hele pladsen. I sidste ende er det alligevel den mængde RAM du køber der vil koste mest.

Hvis man faktisk har brug for meget throughput (og ikke blot mange IOPS), så bliver der tale om mange diske, og så kan det godt være at det bedre kan betale sig med hensyn til pris og strømforbrug at købe sådan en dyr SSD.
Gravatar #43 - spazoid
13. mar. 2009 12:32
Vi ser forskelligt på om RAM'en er diskens cache, eller disken er RAM'ens arkiv - det skal vi ikke diskutere ydeligere.

En ting i din teori der dog er forkert, indiskutabelt, er mht prisen.

Hvis du skal fylde en server med 256 GB RAM, og vi tager udgangspunkt i en, i dag meget udbredt platform, Intel Xeon, så skal du have fat i FB-DIMM moduler, og hvis vi antager at det maksimale antal DIMM's på et bundkort er 32, hvilket ikke er helt urealistisk, så skal du bruge 8 GB stænger. De koster på nuværende tidspunkt 5000 kroner inklusiv moms og eksklusiv diverse rabataftaler man måtte have som virksomhed.

Det giver 160.000,- gode danske kroner, ud over den i forvejen dyre platform.
FusionIO nævner en maks pris på 30 USD per GB, hvilket giver under 60.000,- for 320 GB disken som kan bruges i et simpelt og billigt workstation system hvis du skulle have den slags lyster.

Altså, en noget billigere løsning.

M.h.t. journaling, så aner jeg intet om det. Jeg har ingen idé om hvad det kan benyttes til, men uanset hvordan du vender og drejer den så kan jeg ikke se hvordan du kan skrive ved de hastigheder som FusionIO disken kan, selv om du skriver sekventielt, på noget der bare minder om det 2x 1TB setup du foreslog. Selv om du laver 150.000 4 Kbyte IOPS om til sekventielle skrivninger taler vi stadig om næsten 600 MB/s, hvilket i bedste fald kan gøres med mindst 6 diske i raid0, hvilket du forhåbentligt aldrig kunne finde på at implementere i dit datacenter, så realistisk set er du oppe på noget der ligner 10 diske + de 256 GB RAM.

For at være helt ærlig, de 256 GB RAM ville helt klart være den mest sexede løsning for en hardware nørd, men jeg kan altså ikke se fordelen ved den.
Gravatar #44 - kasperd
13. mar. 2009 15:02
spazoid (43) skrev:
Hvis du skal fylde en server med 256 GB RAM, og vi tager udgangspunkt i en, i dag meget udbredt platform, Intel Xeon, så skal du have fat i FB-DIMM moduler, og hvis vi antager at det maksimale antal DIMM's på et bundkort er 32, hvilket ikke er helt urealistisk, så skal du bruge 8 GB stænger. De koster på nuværende tidspunkt 5000 kroner inklusiv moms og eksklusiv diverse rabataftaler man måtte have som virksomhed.
De største moduler jeg kunne finde priser på var 4GB og koster mellem 373 og 1450 kr afhængigt af hvor man køber dem.

[blockquote]Selv om du laver 150.000 4 Kbyte IOPS om til sekventielle skrivninger taler vi stadig om næsten 600 MB/s[/blockquote]Jeg har aldrig sagt, at der skulle være tale om IOPS på 4KB. Jeg sagde at du kunne opnå 2.000.000 IOPS hvis det samlede throughput var under 20MB/s per diskpar. Det betyder at du opnår kun de 2.000.000 IOPS i det setup hvis de er på højst 10 bytes i gennemsnit.

Jeg har hele tiden sagt, at hvis du har brug for den store mængde throughput, så har du brug for flere diske. Og du kan nå op på så mange, at SSDen vil være en bedre løsning. Som jeg startede med at sige, så kan den give mening hvis du har brug for at skrive i nærheden af 1GB/s. Men hvis du bare har brug for mange IOPS og kun throughput på niveau med diske, så kan RAM og nogle få ekstra diske kompensere for manglende IOPS.

hvilket i bedste fald kan gøres med mindst 6 diske i raid0, hvilket du forhåbentligt aldrig kunne finde på at implementere i dit datacenter, så realistisk set er du oppe på noget der ligner 10 diske + de 256 GB RAM.
Jeg sagde RAID-1 eller RAID-0 ovenå RAID-1. Og 10 diske koster ikke så meget sammenlignet med den mængde RAM.

De datacentre jeg arbejder med til dagligt bruger i øvrigt slet ikke RAID. Hvis man bruger RAID-1 kan maskinen stadigvæk fejle. Så i stedet for at spejle mellem to diske på en maskine spejler vi mellem tre diske på forskellige maskiner.

Og når vi har brug for 256GB RAM, så kører vi ikke applikationen på en enkelt maskine, men designer den i stedet sådan at requests kan fordeles over flere maskiner der hver især har mindre RAM.
Gå til top

Opret dig som bruger i dag

Det er gratis, og du binder dig ikke til noget.

Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.

Opret Bruger Login