mboost-dp1

PBS A/S

Nedbrud rammer NemID

- Via NemID - , indsendt af morsing

NemID varslede for to dage siden planlagt nedetid af deres systemer tidlig søndag morgen i en times tid fra kl. 3 til 4. Det var dog ikke den eneste nedetid som opstod i går.

Problemerne opstod sandsynligvis i forbindelse med den planlagte nedetid, idet der aldrig kom en klarmelding på NemID’s driftstatusside, sådan som de normalt gør.

Første udmelding på driftststussiden er dog fra klokken 18:49 hvor det blev oplyst, at der var login-problemer: ”Der er i øjeblikket problemer med at logge på netbank med NemID. Vi arbejder på at løse problemet.”

Senere på aftenen blev problemet udvidet til også at omfatte bestilling af NemID, da der klokken 21:41 blev skrevet: Det er i øjeblikket ikke muligt at bestille NemID. Vi arbejder på at løse problemet.”

Først i morges klokken 05:30 er systemerne blevet klarmeldt. Hvad der har været årsag til problemerne, er ikke oplyst.





Gå til bund
Gravatar #1 - Keeper32
25. mar. 2013 06:12
Nedbrud?
Øhh, jeg brugte nemid 3-4 gange i går uden problemer?
Gravatar #2 - Magten
25. mar. 2013 06:18
Problemerne opstod sandsynligvis i forbindelse med den planlagte nedetid, idet der aldrig kom en klarmelding på NemID's driftstatusside, sådan som de normalt gør.
Er det et journalistisk gæt eller et kvalificeret gæt?

Jeg var fint på Netbank med NemID inden nedbruddet igår.
Gravatar #3 - Pernicious
25. mar. 2013 06:22
Magten (2) skrev:
Er det et journalistisk gæt eller et kvalificeret gæt?


En vurdering ud fra deres historik på deres driftsstatusside. Kigger du ned i listen, så er der en klarmelding i forbindelse med næsten alle planlagte nedetider, men ikke for den i går.
Gravatar #4 - Pernicious
25. mar. 2013 06:26
Fra lidt over kl. 14 i går ser det ud til de første meldinger dukker op om problemer: http://www.pokernet.dk/forum/problemer-med-nemidja...
Gravatar #5 - bbb2020
25. mar. 2013 06:40
Jeg havde også problemer i går aftes. både til netbank og skat, så noget har der været galt.
Gravatar #6 - Smasher
25. mar. 2013 07:01
Ja, der var problemer i går ind imellem, og andre gange virkede det fint nok, men ingen status på deres driftsside.
Gravatar #7 - kasperd
25. mar. 2013 08:28
Med systemer i den størrelse kan man sagtens have valgt at fordele brugerne på separate servere. For to brugere på hver deres server vil det ikke være overraskende, hvis fejl i systemet kun påvirker den ene.
Gravatar #8 - 1000tusind
25. mar. 2013 08:31
Jeg synes generelt at det er et problem at udmeldinger om driftstatus ikke fungerer optimalt. Det gælder ikke kun nem-id, men f.eks. også hos bankerne og Skat.

Jeg ved godt der sidder nogle og knokler med at få det til at virke, men som bruger er det frustrerende at sidde i uvished.

De skal blot skrive:
1. Om det virker eller ej.
2. Hvis ikke det virker: Hvornår forventes det at virke, og hvis ikke tidspunktet kan estimeres: Hvornår kommer der en ny opdatering af status.
Gravatar #9 - -sippo-
25. mar. 2013 12:57
og så skulle jeg lige til at skrive at det var gået ned igen.. men inden jeg fik skrevet færdig var det oppe igen..

Det var dog samme fejl som i går
java consol skrev:
dk.pbs.applet.bootstrap.bootapplet



https://www.nemid.nu/dk-da/om_nemid/aktuelt/driftsstatus/ skrev:
25. mar.
13:53 Al drift er OK
NemID kører uden driftsproblemer.
25. mar.
13:38 Log-in med NemID er ude af drift
Det er i øjeblikket ikke muligt at bruge NemID til log-in. Vi arbejder på at løse problemet.

Gravatar #10 - morsing
25. mar. 2013 15:51
Da jeg indsendte nyheden igår aftes var der ikke nogen nyhedskilder der havde skrevet noget.

Men DanID har nu udtalt til Version2 der kan være tale om et DDOS-angreb:
http://www.version2.dk/artikel/frygt-ddos-angreb-n...

http://www.version2.dk/artikel/nyt-nemid-nedbrud-s...
Gravatar #11 - alloedee
25. mar. 2013 18:13
Prøvede at bruge nemid en 4-5-6 gange, hvor det ikke virkede..
Gravatar #12 - arne_v
26. mar. 2013 02:00
kasperd (7) skrev:
Med systemer i den størrelse kan man sagtens have valgt at fordele brugerne på separate servere.


For så vigtigt et system kører de forhåbentligt N+1 redundancy.

kasperd (7) skrev:
For to brugere på hver deres server vil det ikke være overraskende, hvis fejl i systemet kun påvirker den ene.


Det kan ske, men det passer bare ikke godt med at problemet tog lang tid at løse.

Hvis man har 1 ud af N+1 servere med et problem, så tager man den ene ud - for load balanceren til ikke at forwarde til den - mens man troubelshooter.
Gravatar #13 - kasperd
26. mar. 2013 07:17
arne_v (12) skrev:
For så vigtigt et system kører de forhåbentligt N+1 redundancy.
Dengang jeg arbejdede ved Google var N+1 forbeholdt systemer som ikke var vigtige. Men N+1, N+2 og N+3 opsætninger er beregnet til systemer hvor brugere frit kan flyttes rundt. Det nytter ikke noget, hvis der er data hørende til hver bruger.

Så er det man skal over i 2N løsninger. Men så får du et problem med opdatering af data. Hvis du vil have en garanti for at der stadigvæk kan udføres konsistente opdateringer af data med fejl på t replika, så skal du have minimum 3t+1 replika. Og algoritmerne til at bevare konsistensen er indviklede.

arne_v (12) skrev:
Hvis man har 1 ud af N+1 servere med et problem, så tager man den ene ud - for load balanceren til ikke at forwarde til den - mens man troubelshooter.
Den slags skal jo gerne ske af sig selv.
Gravatar #14 - arne_v
26. mar. 2013 13:33
kasperd (13) skrev:
Dengang jeg arbejdede ved Google var N+1 forbeholdt systemer som ikke var vigtige.


Det er også muligt at NemID er på N+2. Men jeg ville ikke blive overrasket over hvis det kun var N+1.

kasperd (13) skrev:
Men N+1, N+2 og N+3 opsætninger er beregnet til systemer hvor brugere frit kan flyttes rundt. Det nytter ikke noget, hvis der er data hørende til hver bruger.


N+1 er helt almindeligt også i forbindelse med data.

kasperd (13) skrev:
Så er det man skal over i 2N løsninger. Men så får du et problem med opdatering af data. Hvis du vil have en garanti for at der stadigvæk kan udføres konsistente opdateringer af data med fejl på t replika, så skal du have minimum 3t+1 replika. Og algoritmerne til at bevare konsistensen er indviklede.


Det er kun et problem med data som er så store at de er nødt til at være distriberede.

Det er helt standard med N+1 redundancy og N>=1 i web/app tier og N=1 i database tier.

Supporteret out of the box af standard software.

Gravatar #15 - kasperd
26. mar. 2013 13:41
arne_v (14) skrev:
Det er kun et problem med data som er så store at de er nødt til at være distriberede.
Nej. Det er et problem i alle systemer, hvor du ønsker redundans og garanti for at opdatering af data er konsistent. Hvis du vil have garanti for konsistent opdatering af data i tilfælde af t fejl er du nødt til at have 3t+1 replika, og det gælder om så dine data kun fylder en bit.
Gravatar #16 - arne_v
26. mar. 2013 13:44
kasperd (13) skrev:

arne_v (12) skrev:
Hvis man har 1 ud af N+1 servere med et problem, så tager man den ene ud - for load balanceren til ikke at forwarde til den - mens man troubelshooter.
Den slags skal jo gerne ske af sig selv.


Det sker automatisk hvis serveren er helt nede (nede som at probe page ikke kan hentes).

Problemet er hvis den ikke er helt nede, men alligevel ikke fungerer.

Gravatar #17 - arne_v
26. mar. 2013 13:50
#15

Vi snakker et active-active app cluster som taler med et active-passive database cluster.

Alle app nodes taler med samme active database node som replikerer til passive database node.
Gravatar #18 - kasperd
26. mar. 2013 14:20
arne_v (16) skrev:
Problemet er hvis den ikke er helt nede, men alligevel ikke fungerer.
Ja, det er altid der problemerne begynder.

arne_v (17) skrev:
Alle app nodes taler med samme active database node som replikerer til passive database node.
Der er mange ting som kan gå galt i sådan et setup.

Første dilemma er om ændringer skal replikeres til sekundær før man bekræfter opdatering til appen, eller om man godt må bekræfte til appen før sekundær har modtaget opdateringen.

Bekræfter man til appen før ændringen er replikeret, så har man inkonsistens hvis primær går ned uden at ændringen er blevet replikeret til sekundær.

Venter man med at bekræfte til appen indtil ændringen er replikeret, så er det sekundære replika et single-point-of-failure.

Og hvis kommunikationen mellem primær og sekundær fejler risikerer man at de begge er aktive samtidigt og laver ændringer på deres egen kopi af data som konflikter med ændringer på det andet replika.
Gravatar #19 - arne_v
26. mar. 2013 14:30
kasperd (18) skrev:
Venter man med at bekræfte til appen indtil ændringen er replikeret, så er det sekundære replika et single-point-of-failure.


Hvis sekundær eller forbindelsen til sekundær fejler, så er sekundær nede og primær kører videre uden den. Det er så uden redundans, men med N+1 så betyder en nede jo ingen redundans.

Database softwaren syncher selv sekundær op, når den kommer op eller får forbindelse igen.

kasperd (18) skrev:
Og hvis kommunikationen mellem primær og sekundær fejler risikerer man at de begge er aktive samtidigt og laver ændringer på deres egen kopi af data som konflikter med ændringer på det andet replika.


Det er et potentielt problem. Men det er et kendt problem, hvor alle de store database leverandører har funktionalitet og anbefalinger til konfiguration for at undgå.

Gravatar #20 - kasperd
26. mar. 2013 15:05
arne_v (19) skrev:
Hvis sekundær eller forbindelsen til sekundær fejler, så er sekundær nede og primær kører videre uden den.
Årsagen til at kommunikationen fejler kan sagtens være en fejl på den primære. Hvis fejlen på den primære efterfølgende udvikler sig til et totalt nedbrud er ændringer som endnu ikke er replikeret til sekundær gået tabt.

Kravet om 3t+1 replika for at håndtere t fejl er formelt bevist. Alle som laver løsninger med færre end 3t+1 replika har gjort det ved at lave antagelser om måden fejl opfører sig på. Hvis et eneste replika fejler på en måde som afviger fra de antagelser kan det betyde at systemet bryder sammen.

Ja, det betyder at alle løsninger med 2 eller 3 replika er i farezonen.
Gravatar #21 - arne_v
26. mar. 2013 15:28
kasperd (20) skrev:
Årsagen til at kommunikationen fejler kan sagtens være en fejl på den primære. Hvis fejlen på den primære efterfølgende udvikler sig til et totalt nedbrud er ændringer som endnu ikke er replikeret til sekundær gået tabt.


Hvis man i et 2 node setup mister sekundær uanset årsag og primær bliver ramt af noget der går ud over disk systemet, så kan man miste data.

kasperd (20) skrev:
Kravet om 3t+1 replika for at håndtere t fejl er formelt bevist. Alle som laver løsninger med færre end 3t+1 replika har gjort det ved at lave antagelser om måden fejl opfører sig på. Hvis et eneste replika fejler på en måde som afviger fra de antagelser kan det betyde at systemet bryder sammen.


Meget interessant hvis man interesserer sig for den slags.

Det er imidlertid ikke noget som almindeligt bruges ved design af løsninger med databaser.



Gravatar #22 - kasperd
26. mar. 2013 19:13
arne_v (21) skrev:
Hvis man i et 2 node setup mister sekundær uanset årsag og primær bliver ramt af noget der går ud over disk systemet, så kan man miste data.
Og din pointe er?

arne_v (21) skrev:
Det er imidlertid ikke noget som almindeligt bruges ved design af løsninger med databaser.
De må så betyde at enten synes designerne ikke at data på systemet er vigtige nok til at deres integritet skal være garanteret i tilfælde en enkelt maskine fejler. Eller også ved designerne ikke hvad de laver og foretager nogle implicite antagelser, uden selv at være klar over, hvad de er.

Hvis du skulle købe et system der replikerer dine data over to computere, ville du så ikke gerne vide hvilke antagelser producenten har gjort for at kunne designe en løsning som kun bruger to computere? Og vil du ikke gerne vide, hvad der sker med dine data, den dag det viser sig at antagelserne ikke holder?
Gravatar #23 - arne_v
26. mar. 2013 20:09
kasperd (22) skrev:
Og din pointe er?


2 noder + 2 fejl = problem

Hvis man replikerede til 10 noder og man mistede forbindelsen til alle 10, fortsatte og disken røg, så havde man også et problem.

11 noder + 11 fejl = problem
Gravatar #24 - kasperd
26. mar. 2013 22:29
arne_v (23) skrev:
2 noder + 2 fejl = problem

Hvis man replikerede til 10 noder og man mistede forbindelsen til alle 10, fortsatte og disken røg, så havde man også et problem.

11 noder + 11 fejl = problem
Så det du siger er, at hvis alle replika fejler, så har man et problem? Det er de fleste personer jo i stand til at sige sig selv. Hvad der er lidt mindre intuitivt er, at man har et problem længe før alle replika fejler.

Så snart en tredjedel er fejlet er det ikke længere muligt at opdatere data, hvis man vil garantere integriteten af data.
Gravatar #25 - arne_v
9. apr. 2013 01:49
kasperd (24) skrev:
Så det du siger er, at hvis alle replika fejler, så har man et problem? Det er de fleste personer jo i stand til at sige sig selv.


Det var det eksempel du kom med i #20.

kasperd (24) skrev:

Hvad der er lidt mindre intuitivt er, at man har et problem længe før alle replika fejler.

Så snart en tredjedel er fejlet er det ikke længere muligt at opdatere data, hvis man vil garantere integriteten af data.


Det kan jeg forstå.

Men det er tilsyneladende noget som stort set alle ignorerer.

Så jeg vil antage at den praktiske betydning er minimal.
Gå til top

Opret dig som bruger i dag

Det er gratis, og du binder dig ikke til noget.

Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.

Opret Bruger Login