mboost-dp1

Last.fm
- Forside
- ⟨
- Forum
- ⟨
- Nyheder
Med alle disse password lækager kan man undre sig over om der er nogen lækager som ikke bliver offentliggjort...
dvs. er der password tyverier vi ikke hører om ?..
Makes you paranoid, doesn't it ?
dvs. er der password tyverier vi ikke hører om ?..
Makes you paranoid, doesn't it ?
#12
Hvad du siger er at de bare har gemt dem med en gang hash, altså uden iterationer og uden salt værdier? Det lyder nu heller ikke specielt fornuftigt.
Så vidt jeg har læst mig til, så bør man tilføje minimum en 8 byte salt værdi og køre et tilfældigt antal iterationer over 1000. Hvis man samtidig påtvinger et kodeord på over 8 tegn, så burde man være uden for de fleste rainbow-tables, plus påtvinge majuskler og minuskler, special tegn og numeriske tegn.
Et kodeord med en længe på 8 eller færre tegn og kun påført en gang hash kan genfindes på meget kort tid via en rainbow table.
Hvad du siger er at de bare har gemt dem med en gang hash, altså uden iterationer og uden salt værdier? Det lyder nu heller ikke specielt fornuftigt.
Så vidt jeg har læst mig til, så bør man tilføje minimum en 8 byte salt værdi og køre et tilfældigt antal iterationer over 1000. Hvis man samtidig påtvinger et kodeord på over 8 tegn, så burde man være uden for de fleste rainbow-tables, plus påtvinge majuskler og minuskler, special tegn og numeriske tegn.
Et kodeord med en længe på 8 eller færre tegn og kun påført en gang hash kan genfindes på meget kort tid via en rainbow table.
Så længe passwordet er hashet, så hjælper det gevaldigt. For sites som gemmer password i klartekst hjælper det ikke at lave det stærkere. Det hjælper altid at lave det unikt. Brugere som har brugt samme password til flere sites er altid mere udsatte når den slags sker.waterdog (6) skrev:Jeg kan ikke helt se hvordan en stærk og unik adgangskode skulle hjælpe hvis adgangskoden er offentliggjort.
At hashe passwordet er stadigvæk et væsentligt skridt fremad i forhold til at gemme det i klartekst. Selvfølgelig bør sites bruge salt. Men som bruger kan man beskytte sig imod manglende salt ved at bruge et stærkt password.MFRaver (12) skrev:Problemet med LinkedIN (og måske de andre) er, at de gemte dem som en hashed værdi, men havde ikke gjort noget ekstra for at "forstærke" den hashede værdi. Så en bruteforce på de hashede værdier kunne hurtigt afsløre mange af de rigtige password.
Jeg vil sige 8 bytes er absolut minimum. Og 8 bytes er kun nok hvis det er en binær værdi. Er der tale om salt bestående kun af tal og bogstaver skal man op på minimum 11 tegn.Vossen (16) skrev:Så vidt jeg har læst mig til, så bør man tilføje minimum en 8 byte salt værdi og køre et tilfældigt antal iterationer over 1000.
Hvad angår iterationer synes jeg til gengæld det er noget pjat at gå så højt op. Jeg har set et site der havde problemer med for meget CPU forbrug og langsomme logins fordi de havde for mange iterationer. Så vidt jeg husker var der tale om en værdi der blevet sat til 18 af en person der ikke vidste at systemet kun kørte iterationer som potenser af to og der dermed var tale om 2^18 iterationer.
En effektiv foranstaltning er en hvor angriberens resurseforbrug vokser hurtigere end legitim brug. Det vil sige at en foranstaltning hvor resurserne til legitim brug vokser lineært men resurserne til et angreb vokser kvadratisk eller eksponentielt er en effektiv foranstaltning.
waterdog (6) skrev:#5
Jeg kan ikke helt se hvordan en stærk og unik adgangskode skulle hjælpe hvis adgangskoden er offentliggjort.
Der er rigtig mange der bruger det samme password over alt på nettet - jeg tror at det er det han håber at folk får øjne op for og sørger for at have unikke passwords de steder man surfer rundt på nettet.
Jeg bruger selv 1password (mac og windows samt android og iOS), til at lave unikke passwords de steder jeg færdes på nettet.
Skulle mit password være blandt de hackede, så er det "kun" det ene sted hvor det password bliver brugt (jeg har skiftet ved linkedin og last.fm) - og ikke alle steder.
Jeg har en kollega som bruger det samme password over alt - jeg tror desværre ikke hun gider at ændre den praksis...
morsing (13) skrev:wut, de opfordrer deres brugere til at ændre kodeord. Men har ikke gjort dem opmærksom på det?
Hvad med at sende en mail ud til brugerne. ??
De har også kun meldt det ud ved at have det stående øverst på deres hjemmeside.RichardDHammond (15) skrev:Ja jeg har i hvert fald ikke fået nogen mail fra Last.FM om at jeg bør skifte kode.
Generelt har de ikke meldt specielt meget ud.
kasperd (17) skrev:Hvad angår iterationer synes jeg til gengæld det er noget pjat at gå så højt op. Jeg har set et site der havde problemer med for meget CPU forbrug og langsomme logins fordi de havde for mange iterationer. Så vidt jeg husker var der tale om en værdi der blevet sat til 18 af en person der ikke vidste at systemet kun kørte iterationer som potenser af to og der dermed var tale om 2^18 iterationer.
Nu er der også forskel på 1000 og 262144 iterationer, jeg ved det ikke selv, men hvor højt synes du man burde gå op? Det med 8 bytes har du nok ret i, det jeg har arbejdet med var nu også Java med byte arrays fra SecureRandom biblioteket. Iterationerne skete også på klientsiden da serveren ikke skulle kende til den uhashede data.
Det er der. Men det ændrer dog ikke på at jeg synes principielt man bør undgå at spilde CPU tid. En ændring der øger resurseforbrug på legitim brug og på angreb med samme faktor er ikke nogen fantastisk opfindelse. En ændring der øger resurseforbruget på angreb hurtigere end på legitim anvendelse er til gengæld et skridt i den rigtige retning.Vossen (20) skrev:Nu er der også forskel på 1000 og 262144 iterationer
Jeg ser ingen grund til at gå op til mere end f.eks. 4. Set med mine øjne drejer det sig bare om at beskytte sig imod kryptoanalyse af hashfunktionen selv. SHA1 har f.eks. 80 runder, der er fundet en svaghed ved 73 runder. Gentager man hash funktionen flere gange opnår man noget af den sikkerhed der ville have været hvis hash funktionen havde haft flere runder.Vossen (20) skrev:hvor højt synes du man burde gå op?
Det er ikke ualmindeligt at se en faktor to mellem antallet af runder hvor der er kendte svagheder og det faktiske antal runder. At man ikke sørger for at gøre den faktor større fra start af ved at lave flere runder er udelukkende at forbedre performance.
Til anvendelser indenfor password hashing ville det ganske rigtigt være bedre med en hash funktion der havde 2-3 gange så mange runder. Men hvis blot man hasher fire gange, så tror jeg ikke man behøver bekymre sig om svagheder i hashfunktionen. Det er alligevel ikke password hashing der er det første mål når en hashfunktion bliver brudt. Der er mange andre anvendelser af hashes, som er nemmere mål.
Jeg synes i stedet man bør se sig om efter andre metoder til at forstærke sikkerheden.
Et interessant spørgsmål jeg så komme frem i forbindelse med linkedin fadæsen var om man kunne offloade noget af beregningen til javascript på klienten. Problemet er at hvis man øger CPU forbruget til passwordvalidering med en faktor tusind på serveren, så bliver den et lettere mål for DoS angreb. Kunne man i stedet flytte den tunge del af beregningen over på klienten og gøre det i javascript, så ville serveren ikke være så udsat.
Jeg tror jeg er tæt på at have en metode til at flytte noget af beregningen ud på klienten på en måde som ikke udgør nogen trussel imod sikkerheden. Det eneste problem er at javscript ikke er det mest effektive sprog. Og at legitim brug anvender langsom javascript kode og angreb kan bruge optimeret maskinkode er en lidt uheldig situation.
Jeg har ikke kunnet finde nogen dokumentation af hvad der findes af features i javascript, som kunne hjælpe på det problem. En kryptografisk hashfunktion eller måske funktioner til at regne med store tal som foregik med native kode i en javascript fortolker ville gøre det noget nemmere at realisere den idé jeg har.
Dog tror jeg ikke idéen er dødfødt, selv hvis det skulle vise sig at man bliver nødt til at gøre det med fortolket kode.
Og egentlig er der ikke ret meget grund til at holde sig til kun 8 bytes. Det er billigt at øge størrelsen. Men der er selvfølgelig ingen grund til at bruge et salt med højere entropi end hashværdien selv. SHA1 bruger f.eks. en 160 bits værdi, så der er intet at vinde ved at øge størrelsen på salt ud over 20 tilfældige bytes.Vossen (20) skrev:Det med 8 bytes har du nok ret i
Proof of conceptkasperd (21) skrev:Et interessant spørgsmål jeg så komme frem i forbindelse med linkedin fadæsen var om man kunne offloade noget af beregningen til javascript på klienten.
Opret dig som bruger i dag
Det er gratis, og du binder dig ikke til noget.
Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.