mboost-dp1

SXC - IndianSumm

Forskere foreslår forbedret RAID-teknik

- Via The Register - , redigeret af Pernicious

Forskere fra Nanyang Technological University, Singapore, har foreslået en ny måde at lave RAID på. De mener at deres RapidRAID tilbyder den bedste beskyttelse af data, mens de kræver færre ressourcer.

Den almindelige form for Redundant Array of Inexpensive Disks (RAID) er i disse år presset af større diske, som kræver flere ressourcer og af nye teknologier. En af de nye teknologier er Erasure Codes, der af nogen er blevet kaldt efterfølgeren til RAID, Redundant Array of Inexpensive Nodes (RAIN).

Ved anvendelsen af erasure codes gemmes dele af en fil over flere diske, hvor hver del af filen bliver kodet i et antal blokke. Hver kodet blok bliver så gemt på forskellige diske. Problemet med store disksystemer er, at størrelsen på delen af en fil er begrænset af processor-ressourcer, da hver node i disksystemet skal kode sine blokke af data og derefter gemme dem på de relevante diske.

Lluis Pamies-Juarez har sammen med sine kollegaer fra Nanyang Technological University fundet på en mere effektiv metode, hvor hver node i disksystemet delvis koder hver blok af data, før den delvis kodede blok af data bliver sendt videre til den næste node, hvor den sammen med andre blokke af data bliver delvis kodet.

På denne måde mener forskerne, at de kan opnå et lavere ressourceforbrug og en bedre beskyttelse af data, når der er tale om store mængder af data. Forskerne foreslår nogle også et sæt erasure codes, der giver forskellige niveauer af beskyttelse af data.





Gå til bund
Gravatar #1 - kasperd
7. aug. 2012 11:21
Baseret på mine fire års erfaring indenfor netop dette område er min vurdering at de prøver på at løse et ikke-eksisterende problem. Ud over at problemet ikke eksisterer er deres løsning heller ikke særligt effektiv.

De klassiske systemer som er afbilledet i figur 1 i artiklen udfører den komplete indkodning af et objekt på en knude. Det kræver CPU tid på den knude, og udnytter ikke CPU på andre knuder. Til gengæld kan udregningen udført på den ene CPU optimeres.

Forskernes forslag på en løsning afbilledet i figur 2 udnytter CPU på flere knuder, men til gengæld bruges der mere båndbredde fordi alle data skal sendes gennem flere hops i kæden. Det samlede CPU forbrug i deres løsning kan ikke blive mindre, da en distribueret algoritme generelt ikke kan optimeres lige så meget som en sekventiel algoritme. I bedste fald er det ekstra CPU forbrug i deres løsning så lille, at det ikke udgør noget nyt problem.

Hvis vi antager at de ikke bruger mere CPU tid i alt og har distribueret opgaven på flere knuder uden tab i CPU resurser, så har de forbedret CPU udnyttelsen ved at sprede det over flere knuder, men på bekostning af en mangedobling af forbruget af båndbredde.

I mit arbejde med systemer i denne klasse har netværksresurser langt oftere været et problem end CPU resurser. Hvis jeg var blevet tilbudt en løsning der brugte mindre CPU og mere netværk ville jeg sige nej tak.

Grunden til at problemet ikke eksisterer er at de klassiske systemer ikke kun arbejder med en enkelt indkodning ad gangen. Man arbejder med mange data samtidigt, og når en enkelt knude er travlt optaget med at behandle et objekt, så er de andre knuder ikke idle, de er i gang med at behandle andre objekter.
Gå til top

Opret dig som bruger i dag

Det er gratis, og du binder dig ikke til noget.

Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.

Opret Bruger Login