mboost-dp1

Micron Technology Inc.
- Forside
- ⟨
- Forum
- ⟨
- Nyheder
Vil nogle af alle de her billige SSD løsninger egne sig til bruger i en filserver?
Jeg tænker, kan man få nogle 500-1000GB drev som kan tåle til at være kørende hele tiden og blive brugt en del?
Eksemplet her virker jo meget spændende i den sammenhæng, men af en eller anden årsag tvivler jeg på holdbarheden til filserver brug. (og nej vi snakker ikke datacenter filserver, men mere SOHO)
Jeg tænker, kan man få nogle 500-1000GB drev som kan tåle til at være kørende hele tiden og blive brugt en del?
Eksemplet her virker jo meget spændende i den sammenhæng, men af en eller anden årsag tvivler jeg på holdbarheden til filserver brug. (og nej vi snakker ikke datacenter filserver, men mere SOHO)
#1
Jeg ville ikke benytte mig af SSD til SOHO filserver, så hellere købe nogle WD RE-diske, f.eks.: http://edbpriser.dk/Products/Listprices.asp?ID=472...
Jeg ville ikke benytte mig af SSD til SOHO filserver, så hellere købe nogle WD RE-diske, f.eks.: http://edbpriser.dk/Products/Listprices.asp?ID=472...
#1 Der findes nogle forskellige tests rund om på nettet der beregner hvor lang levetid diskene vil have under forskellige loads.
Som udgangspunkt virker det lidt til at netop i filservere er det ok anvendelige fordi der formentligt vil blive skrevet læst til hele disken løbende. Problemet med at sætte dem i en desktop maskine er, at f.eks. området til pagefilen bliver brugt langt mere og slidt langt hurtigere end den øvrige disk.
Selv med de dårligste celler/diske skulle en disk kunne holde i 4 år når den bliver skrevet/læst 1/4 af dagligt. Det må siges at være en ok levetid idet de fleste diske vil blive kaseret inden.
Derudover er der nogle earlywarning systmer der markere cellerne som bad så man ikke mister data.
Forskellen ml. traditionelle og ssd diske er at man med overvejende sandsynlighed kan beregne hvornår en disk holder med at virke, hvorimod de traditionelle er der mere tale om en sandsynlighed der har karakter af lodtrækning.
Køber du en billig ssd, så ved du at den skal skiftes om f.eks. 4 år, jeg tror at de fleste glemmer at spørge sig selv om hvor mange diske de har der er 4 år gamle inden de bliver utrygge ved SSD teknologien (mig selv inklussiv).
Som udgangspunkt virker det lidt til at netop i filservere er det ok anvendelige fordi der formentligt vil blive skrevet læst til hele disken løbende. Problemet med at sætte dem i en desktop maskine er, at f.eks. området til pagefilen bliver brugt langt mere og slidt langt hurtigere end den øvrige disk.
Selv med de dårligste celler/diske skulle en disk kunne holde i 4 år når den bliver skrevet/læst 1/4 af dagligt. Det må siges at være en ok levetid idet de fleste diske vil blive kaseret inden.
Derudover er der nogle earlywarning systmer der markere cellerne som bad så man ikke mister data.
Forskellen ml. traditionelle og ssd diske er at man med overvejende sandsynlighed kan beregne hvornår en disk holder med at virke, hvorimod de traditionelle er der mere tale om en sandsynlighed der har karakter af lodtrækning.
Køber du en billig ssd, så ved du at den skal skiftes om f.eks. 4 år, jeg tror at de fleste glemmer at spørge sig selv om hvor mange diske de har der er 4 år gamle inden de bliver utrygge ved SSD teknologien (mig selv inklussiv).
#2 du skal hvertfald selv smække et par stykker sammen da de eneste i produktion er 256gb... (ok med mig... men langt fra nok)
men hvis man kunne i teorien godt smække 2 af dem og mase dem ned i en 3.5"... men tror ikke det vil kunne betale sig... du skal betale 5-6k per disk...
desuden.. folk køber jo ikke SSD fordi det giver en bonus i pladsen... men en bonus i hastigheden... hvis laver dem for langsomme gider folk ikke give 5x normal pris...
indtil videre (for servere om at gøre) skal man holde sig til alm diske på 10-15k rpm...
men hvis man kunne i teorien godt smække 2 af dem og mase dem ned i en 3.5"... men tror ikke det vil kunne betale sig... du skal betale 5-6k per disk...
desuden.. folk køber jo ikke SSD fordi det giver en bonus i pladsen... men en bonus i hastigheden... hvis laver dem for langsomme gider folk ikke give 5x normal pris...
indtil videre (for servere om at gøre) skal man holde sig til alm diske på 10-15k rpm...
#1
Jeg anbefaler en servermaskine der bruge SCSI diske - de er nok en smule dyre, men det virker helt optimalt. Dem kan du endda hive ud (rent bogstaveligt) og skifte som de passer dig, nemt og enkelt, med den rette opsætning (RAID 5, med evt. 1 spare og nogle andre med spejl).
Men på den anden side... det er nok billigere end en 500 GB SSD opsætning! :P
Jeg anbefaler en servermaskine der bruge SCSI diske - de er nok en smule dyre, men det virker helt optimalt. Dem kan du endda hive ud (rent bogstaveligt) og skifte som de passer dig, nemt og enkelt, med den rette opsætning (RAID 5, med evt. 1 spare og nogle andre med spejl).
Men på den anden side... det er nok billigere end en 500 GB SSD opsætning! :P
#5/6 Det afhænger jo meget af behovet.
SCSI og hurtige diske larmer som et ondt år og forøvrigt kan du ikke hotplug scsi som standard.
Skal serveren stå i en stue eller et kontor hvor der sidder medarbejdere er scsi ikke lige et hit, det samme gælder for 10 og specielt 15k rpm diske. Men hvis man er så døv at man ikke kan høre et godstog køre forbi er det ikke noget problem :-D
Men til serverrumsløsninger, jep så er scsi det bedste.
Personligt synes jeg at denne raid løsning er interessant i flere tilfælde hvor støj måske er det afgørende faktorer for hvilken løsningen der vælges.
SCSI og hurtige diske larmer som et ondt år og forøvrigt kan du ikke hotplug scsi som standard.
Skal serveren stå i en stue eller et kontor hvor der sidder medarbejdere er scsi ikke lige et hit, det samme gælder for 10 og specielt 15k rpm diske. Men hvis man er så døv at man ikke kan høre et godstog køre forbi er det ikke noget problem :-D
Men til serverrumsløsninger, jep så er scsi det bedste.
Personligt synes jeg at denne raid løsning er interessant i flere tilfælde hvor støj måske er det afgørende faktorer for hvilken løsningen der vælges.
#4 Så vidt jeg ved er det efterhånden lavet gode algoritmer der sørger for, at det netop ikke er det samme område af SSD'er, der bliver brugt til pagefilen hver gang. Ved SSD'er gælder det jo netop om at fordele skrivningerne til hele disken, da der jo ikke vindes noget ved at lægge data sekventielt i et enkelt område af SSD'en.
Så det problem skulle jeg mene, slet ikke er så stort endda for desktop maskiner mere.
Så det problem skulle jeg mene, slet ikke er så stort endda for desktop maskiner mere.
#8 Det har jeg også læst, men hvis en disk køre med meget lidt fri plads er det jo ikke muligt.
Det er måske ikke så relevant i forhold til en filserver, men i forhold til en desktop det yderst relevant. Personligt har jeg sjældent mere en 10-20 gb fri plads.
Og hvis jeg investere i en SSD, som jeg meget kraftigt overvejer, så er det jo ikke for at have den stående tom :-D
Det er måske ikke så relevant i forhold til en filserver, men i forhold til en desktop det yderst relevant. Personligt har jeg sjældent mere en 10-20 gb fri plads.
Og hvis jeg investere i en SSD, som jeg meget kraftigt overvejer, så er det jo ikke for at have den stående tom :-D
Sålænge vi snakker RAID 0 (striping) eller RAID 1 (mirroring) så giver hardware controllere ikke mærkbart bedre performance i forhold til software. Derfor er det ligeså smart bare at købe to SSD-drev og køre dem i software-raid. Samme gælder for JBOD/SPAN og safeXX.
IMO giver hardware RAID kun mening, når der skal udregnes paritets-bits - dvs. RAID 3 eller 5.
IMO giver hardware RAID kun mening, når der skal udregnes paritets-bits - dvs. RAID 3 eller 5.
#7
Why?
Idag ser jeg ingen grund til at koebe SCSI fremfor SAS eller SATA.
Det giver ingen mening IMO.
SAS diske er hurtigere, mede et hurtigere interface.
SATA koster ikke en pind og holdbarheden af disse er helt paa top med SCSI ogsaa, specielt interfacet er saa ogsaa lige en tand hurtigere.
Den eneste fordel jeg ser i SCSI, er at du typisk kan chaine 15 enheder paa samme kabel, men det er en meget, meget, lille fordel ifht. de mange fordele ved SAS og SATA :)
Heriblandt prisen, hvor du med SAS og SATA kan have 10 hot spares liggende for samme pris :D
Men til serverrumsløsninger, jep så er scsi det bedste.
Why?
Idag ser jeg ingen grund til at koebe SCSI fremfor SAS eller SATA.
Det giver ingen mening IMO.
SAS diske er hurtigere, mede et hurtigere interface.
SATA koster ikke en pind og holdbarheden af disse er helt paa top med SCSI ogsaa, specielt interfacet er saa ogsaa lige en tand hurtigere.
Den eneste fordel jeg ser i SCSI, er at du typisk kan chaine 15 enheder paa samme kabel, men det er en meget, meget, lille fordel ifht. de mange fordele ved SAS og SATA :)
Heriblandt prisen, hvor du med SAS og SATA kan have 10 hot spares liggende for samme pris :D
#11 Er SAS diske ikke en SCSI variant?
*Secial attatch scsi* *host* :-D
Diskene er de samme, det er bare et andet interface, men alle principper er jo som sådan de samme. Det er i hvertfald sådan jeg har forstået det. Det er jo f.eks. et tcp/ip netværk uanset hvilken fysik kabling du bruger, men stjerne net er feks. bedre en bus net.
Men jo den gamle traditionelle er der ikke så meget sjov ved.
*Secial attatch scsi* *host* :-D
Diskene er de samme, det er bare et andet interface, men alle principper er jo som sådan de samme. Det er i hvertfald sådan jeg har forstået det. Det er jo f.eks. et tcp/ip netværk uanset hvilken fysik kabling du bruger, men stjerne net er feks. bedre en bus net.
Men jo den gamle traditionelle er der ikke så meget sjov ved.
#13:
SAS = Serial Attached SCSI. Hastigheden kommer op på 6 Gbit/s i 2009. En anden ny ting er at: SATA diske vil kunne tilsluttes SAS controllere!
Wiki er vores ven:
SAS & SCSI
SAS = Serial Attached SCSI. Hastigheden kommer op på 6 Gbit/s i 2009. En anden ny ting er at: SATA diske vil kunne tilsluttes SAS controllere!
Wiki er vores ven:
SAS & SCSI
@14
Er det ikke noget med at interfacet langt fra er ligeså selvstændigt som SCSI. Så vidt jeg ved kan controlleren bare sende en kommando til hd så laver den selv resten. Sådan er det ikke med SATA det kræver ligesom IDE masser af controller/cpu arbejde.
Men skal vi ikke droppe baggatel offtopic diskussionen og komme tilbage på topic? :-D
Er det ikke noget med at interfacet langt fra er ligeså selvstændigt som SCSI. Så vidt jeg ved kan controlleren bare sende en kommando til hd så laver den selv resten. Sådan er det ikke med SATA det kræver ligesom IDE masser af controller/cpu arbejde.
Men skal vi ikke droppe baggatel offtopic diskussionen og komme tilbage på topic? :-D
Joda :)
Men jeg synes ny ikke det er helt off-topic, da man vel også er nødt til at opveje fordele/ulemper ved de forskellige systemer.
Men A-Datas løsning er da smart, med udtag i fronten og det hele. Personligt ville jeg fortrække en enkelt slot til et externt drev. Den resterende plads i boksen skulle så indeholde et indbygget raid-set, tiltænkt systemdrev. 64 GB med 4-500 MB/s er hvad jeg tænker på her.
Men jeg synes ny ikke det er helt off-topic, da man vel også er nødt til at opveje fordele/ulemper ved de forskellige systemer.
Men A-Datas løsning er da smart, med udtag i fronten og det hele. Personligt ville jeg fortrække en enkelt slot til et externt drev. Den resterende plads i boksen skulle så indeholde et indbygget raid-set, tiltænkt systemdrev. 64 GB med 4-500 MB/s er hvad jeg tænker på her.
Jeg har set den slags enheder før, til vilkårlige 2,5" harddiske. Gad vide hvad forskellen er? Måske de bare har nævnt det med SSD for at kunne få omtale?
Jeg tror ikke på at hastighedsforøgelsen via denne dims kan gøre den store forskel. Mig bekendt er random writes det helt store problem med SSD, kun intels har formået at løse det problem, som skyldes at du skal læse en hel block for at ændre nogle få bits, og der er en latency ved at skrive.
Med de diskstørrelser som vi har i dag, så ville jeg ikke anbefale at bruge raid5 hvis du har mere end et par diske, da sandsynligheden for en rebuild fejl bliver for stor. raid6 kan gå an, men ellers raid1/raid10. 4 disks raid6 giver dog som den eneste mulighed for at miste 2 vilkårlige diske.
Hardware raid controllere er ikke altid hurtigere end software, da CPU'en tit er MEGET MEGET hurtigere end den microcontroller som sidder på hardware raid controlleren.
Desuden så har hardware raid den fundamentale fejl at hvis din controller dør, men diskene har det fint, så _SKAL_ du have en (ret) identisk controller for at kunne læse data. En anden fabrikants controller virker næppe, men måske virker en nyere controller fra samme producent. Måske. Med software raid så virker det altid, uanset hvilken controller du skifter til.
Jeg tror ikke på at hastighedsforøgelsen via denne dims kan gøre den store forskel. Mig bekendt er random writes det helt store problem med SSD, kun intels har formået at løse det problem, som skyldes at du skal læse en hel block for at ændre nogle få bits, og der er en latency ved at skrive.
Med de diskstørrelser som vi har i dag, så ville jeg ikke anbefale at bruge raid5 hvis du har mere end et par diske, da sandsynligheden for en rebuild fejl bliver for stor. raid6 kan gå an, men ellers raid1/raid10. 4 disks raid6 giver dog som den eneste mulighed for at miste 2 vilkårlige diske.
Hardware raid controllere er ikke altid hurtigere end software, da CPU'en tit er MEGET MEGET hurtigere end den microcontroller som sidder på hardware raid controlleren.
Desuden så har hardware raid den fundamentale fejl at hvis din controller dør, men diskene har det fint, så _SKAL_ du have en (ret) identisk controller for at kunne læse data. En anden fabrikants controller virker næppe, men måske virker en nyere controller fra samme producent. Måske. Med software raid så virker det altid, uanset hvilken controller du skifter til.
Man burde vel egentlig altid sætte 2 SSD i sin maskine, da hastigheden derved bliver dobbelt så stor.
Hov, man kan få 2 x 128 GB til 3400, det er fristende.
Hej lydløs PC
Hov, man kan få 2 x 128 GB til 3400, det er fristende.
Hej lydløs PC
#21
... Du har noget hardcore koeling hvis resten af din maskine er helt lydloes.
Jeg kan slet ikke hoere mine harddiske i min server ( den eneste larmende maskine jeg har ).
Jeg tror naeppe jeg vil bemaerke forskellen med SSD i mine macs.. De larmer kun under hoej load, og ville alligevel overdoeve en harddisk :D
... Du har noget hardcore koeling hvis resten af din maskine er helt lydloes.
Jeg kan slet ikke hoere mine harddiske i min server ( den eneste larmende maskine jeg har ).
Jeg tror naeppe jeg vil bemaerke forskellen med SSD i mine macs.. De larmer kun under hoej load, og ville alligevel overdoeve en harddisk :D
Opret dig som bruger i dag
Det er gratis, og du binder dig ikke til noget.
Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.