mboost-dp1

unknown

Pligtaflevering – God idé eller Big brother?

- Via Netarkivet - , redigeret af The-Lone-Gunman

Fra og med den 1. juli er loven om pligtaflevering trådt i kraft, en lov der ikke har fået megen opmærksomhed siden den blev enstemmigt vedtaget den 22. december 2004. Idéen er at det Kongelige Bibliotek og Statsbiblioteket kan arkivere alt dansk internetmateriale i Netarkivet.dk.

Umiddelbart lyder det fint nok, men der er visse dele af loven som giver bibliotekerne ret vide beføjelser, ligesom der bevidst fravælges at følge gældende praksis for dataindsamling fra hjemmesider.

Søgetjenester som Google, Yahoo og lign. anvender robotter (web-crawlere) til at finde det data de har i deres databaser. De to biblioteker vil benytte samme metode, men har bevidst valgt ikke at respektere ‘robot.txt’ filerne på hjemmesiderne, der normalt fortæller hvor en robot ikke skal indeksere, f.eks. for at undgå unødvendig belastning.

Yderligere giver loven beføjelse til at kunne kræve login og kodeord udleveret, såfremt robotten støder på lukkede dele af en hjemmeside. Jf. vejledningen (.pdf-fil) på deres hjemmeside ”registranten af et domænenavn skal efter påkrav give meddelelse om adgangskoder og lignende”. Kan man påvise at den lukkede del af en hjemmeside kun kan/skal benyttes af en lukket brugerkreds, kan man dog undgå at udlevere login-oplysningerne.





Gå til bund
Gravatar #1 - Ceeriael
8. jul. 2005 12:24
det er jo for sindsygt ?!?!?! fandeme klamt at indføre !
Gravatar #2 - jensendk
8. jul. 2005 12:26
Tankevækkende at de ikek respektere robots.txt. Hvem finder robotnavnet, så den kan få sin egen blanke side ?
Gravatar #3 - BurningShadow
8. jul. 2005 12:29
Det var dog lige godt satans! Hvem fanden er den forpulede klaphat, der har fået ideen til ikke at respektere robot.txt?

Hvis jeg nogensinde får en henvendelse fra dem, så er jeg ret sikker på at jeg vil ignorere den, så kan de jo se om de vil gøre dem selv til grin, ved at trække mig i retten.
Gravatar #4 - CodeWizard
8. jul. 2005 12:29
Det er da fuldstændig vandvittigt... Gad vide hvornår vi ser den første retsag.
Gravatar #5 - skau
8. jul. 2005 12:29
Hvorfor er det først kommet frem nu?!? Helt enig med #1 det er jo sygt! Det er jo som at give politiet ret til at indsamle al information om dig og give dem ret til at nedbryde enhver låst dør i private hjem!
Gravatar #6 - bnm
8. jul. 2005 12:30
registranten af et domænenavn skal efter påkrav give meddelelse om adgangskoder og lignende

Jeg er simpelthen målløs.... Lignende tankeløs lovsmederi skal man lede længe efter.
Gravatar #7 - kasperd
8. jul. 2005 12:37
Lyder som en dårlig idé ikke at respektere robots.txt. Der findes mig bekendt sites, der detekterer crawlere med den opførsel. De kunne så f.eks. blive dirrigeret ind i et uendeligt stort virvar af genererede sider med masser af fake email adresser.

Men nu kender jeg tilfældigvis en af programmørerne på projektet. Og han er skam ganske fornuftig, så det vil jeg da spørge til næste gang jeg ser ham.

Hvad angår kravet om udlevering af brugernavn og password, så synes jeg det er en glimrende idé så længe det f.eks. drejer sig om nyhedssites hvor man normalt skal betale for adgang til indholdet. Men jeg er lidt bekymret for om de her krav bliver administreret fornuftigt. Tag nu f.eks. en netbank, skal banken udlevere et CPR nummer med tilhørende password? Og når nu indholdet afhænger af, hvem der logger ind, skal de så udlvere alle passwords? (Eksemplet er naturligvis så ekstremt at enhver kan se det ikke skal være sådan, men hvem kan trække en rimelig grænse?)
Gravatar #8 - amokk
8. jul. 2005 12:37
det lyder rimelig sygt, men lad os nu se om de overhovedet vil begynde at kræve login information fra nogen... jeg fornemmer at der vil komme en pirate bay agtig strøm af svar-mails til dem...

i øvrigt, som #2 siger er det vel bare at sørge for at filtrere deres robot fra, så den ikke finder andet end en tom side...
Gravatar #9 - The-Lone-Gunman
8. jul. 2005 12:38
De skal jo kun have en kode hvis alle aligevel kan få sig sådan en.

Lad os nu antage at man ikke kunne læse nyhederne på newz uden at være logget ind, men at alle kunne oprette sig som bruger, så er det vel fair nok at de også skal have sig sådan en.

At de ikke kigger efter robots.txt - som jo nærmest er en internet-standard - er så helt utilgiveligt.

Men de skal da være velkomne til at sende mig en mail for at spørge efter koder, så skal jeg gøre alt hvad jeg kan for at ignorere det :)
Gravatar #10 - Plindstrup
8. jul. 2005 12:41
Er det ikke i strid med loven?
Man kan ikke bare tvinge folk til at udlevere personlige oplysninger (som et kodeord jo er)...
Det er ikke fair at man laver en lov på den måde, som fratager en borgers rettighed til privatliv...

Vil det her også betyde at de skal have mit login til Newz?
Eller til min SOL mail?
De kunne jo også lige få min kode til webmail, nu de er igang...

Hvor går grænsen for hvilke koder de må bede om?
Står der noget om det i lovteksten?

Jeg giver #3 ret... Jeg ville også være ligeglad...
Og så kunne de jo så trække mig i retten hvis de vil!
Gravatar #11 - kiwi
8. jul. 2005 12:42
#9 Hvis man skulle være logget ind på newz for at læse nyheder, så kan de da bare selv oprette en bruger. Hele konceptet er da under alt kritik.
Gravatar #12 - athlon
8. jul. 2005 12:50
Tænk, at de i den grad ikke respekterer ophavsretten. Hvis jeg ikke ønsker, at det materiale jeg har ophavsret på skal indekseres af søgemaskiner, for slet ikke at tale om opbevares et sted uden mit samtykke, så skal jeg have mulighed for at angive det.
Hvis jeg på samme måde ønsker at begrænse adgangen til min webside, så kun udvalgte kan læse indholdet, så skal jeg have lov til det.

"pligtaflevering" lyder IMO helt grotesk. Ophavsretten skal respekteres.
Gravatar #13 - amokk
8. jul. 2005 12:53
#10


"Er det ikke i strid med loven?"

læs nyheden for oven, der står at en sådan lov er blevet vedtaget.

"Det er ikke fair at man laver en lov på den måde, som fratager en borgers rettighed til privatliv..."

hvorfor spørger du om det er i strid med loven når du godt ved der er lavet en lov?


"Vil det her også betyde at de skal have mit login til Newz?"

Nej de kan vel oprette deres eget login

"Eller til min SOL mail?"

Læs nyheden, der står netop at det ikke gælder hvis man kan påvise at det er en begrænset mængde brugere som har adgang til den lukkede del, det må netop gælde for en mailkonto.

"De kunne jo også lige få min kode til webmail, nu de er igang..."

er en SOL mail ikke en webmail?

"Hvor går grænsen for hvilke koder de må bede om?
Står der noget om det i lovteksten?"

Du kunne jo overveje at læse den i stedet for at spørge hvad der står i den

"Og så kunne de jo så trække mig i retten hvis de vil! "

Så må vi håbe du har en forsvarer der argumenterer bedre end dig selv :-p
Gravatar #14 - claushingebjerg
8. jul. 2005 12:54
Rolig nu folkens.

Hvis i læser i pdf'en vil i se, at deres "høster" kun følger links der er på deiverse sites. Det er jo ikke en indeksering, men en arkivering.

Arkiveringen giver jo ikke mening hvis der mangler sider.

Så længe i ikke linker til eks /cgi-bin/ er der vel ikke det stoe problem, eller hvad...

Vedr. Passwords er det også godt beskrevet i pdf'en.
Gravatar #15 - waterdog
8. jul. 2005 12:54
Det kan godt være, at de kan få udleveret adgangskoder, men de får selvfølgelig ikke adgang til jeres webmail, bank, eller andre personlige sider. Som der jo faktisk står i artiklen!!!

[quote] Kan man påvise at den lukkede del af en hjemmeside kun kan/skal benyttes af en lukket brugerkreds, kan man dog undgå at udlevere login-oplysningerne. [/quite]

Men jeg er stadig enig med jer i, at det er under al kritik, at de kan kræve at få udleveret adgangskoder...

Det her minder meget om et overvågningssamfund, ligesom overskriften antyder "Big Brother"...
Gravatar #16 - Hack4Crack
8. jul. 2005 12:55
hvorfor skal netarkivet.dk være anderledes end www.webarchive.org ...?

Internettet er et frit sted, og det skal det blive ved med...!!
Gravatar #17 - turpin
8. jul. 2005 12:58
Alternativt må man vel bare blokere for robottens IP eller redirecte den til noget "fiktivt" indhold, ligesom massere af pornosites etc. gør med google...
Gravatar #18 - claushingebjerg
8. jul. 2005 13:00
#12 Pligtaflevering er ikke noget nyt. Det har fungeret i trykte medier i årtier. Det er til for at dokumentere vores samfund for eftertiden.

Hvis du ikke vil have dine ting gemt, så lad være med at offentliggøre dem på internettet.

Hvis du vil passwordbeskytte din website, så den kun er tilgængelig for dem du vil have skal læse dine informationer, så gør det.
Så kan du jo også nemt påvise at dine data kun er for en lukket kreds, og så har du ikke noget problem.

Men lad være med at pive over at arkiverer data du lægger ud til offentlig beskuelse.
Gravatar #19 - Dex
8. jul. 2005 13:07
"ups" nu blev de blokeret, det var sgu synd.
de har nu 280 gange crawlet min apache manual igennem, til hvilket formål? der er jo en grund til at jeg har smidt den i min robots.txt, spild af båndbredte
Gravatar #20 - claushingebjerg
8. jul. 2005 13:30
#19

Det er stort af dig, at du godt vil lade hr. og fru jensen læse din manual i dag 08.07.2005, men dine efterkommere skal dælme ikke nyde godt af noget som helst, for du har jo en robots.txt.

Hvis alle var som dig ville vi stadig bo i huler.
Gravatar #21 - Simm
8. jul. 2005 13:32
Heheh.. tag en tilfældig søgning på nogle hjemmesider. Observér så hvor meget gylle der bliver skrevet på de sider.. tit uden kildeangivelse.

Prisværdigt at man laver sådan et netarkiv, men nøj, jeg tror det bliver et helvede at finde informationer.
Gravatar #22 - plaf
8. jul. 2005 13:34
jeg har kraftedeme aldrig hørt noget så langt ude. rend mig i lortefissen, forpulede fascistsvin!!
Gravatar #23 - SmackedFly
8. jul. 2005 13:41
#20

Du er da en klovn. Nogle ting bliver smidt i robots.txt fordi de er irrelevante, eller findes andre steder. Andre ting bliver smidt i robots.txt fordi man ikke ønsker siderne arkiveret af et engine (men har et andet arkiveringssystem).

Jeg synes ikke i sig selv der er noget i vejen med at lave sådan et arkiv, men man skal da lave det med omtanke, og faktum er at hvis folk ikke gider have deres data i systemet så kan de sagtens forhindre at det kommer der, så hvorfor ikke gøre det her i samarbejde med borgerne, istedetfor på den her måde, og tage de fordele der kommer af at gøre det i samarbejde med borgerne, f.eks. så de slipper for at tjekke irrelevant data igennem, istedetfor bare at snuppe alle ulemperne ved det.

#24

Robots.txt er en fil du kan placere på din webserver, som search engines (f.eks. google) tjekker efter, og retter sig efter. Dvs. du kan bede enginen om ikke at indexe hele serveren eller specifikke biblioteker og elementer på serveren.
Gravatar #24 - bulldog
8. jul. 2005 13:41
Jeg undskylder min uvidenhed, men hvad er robot.txt?

[edit]
Der er dele af denne lov som jeg finder er ok. F.eks. det at alt dansk materiale kan findes via netarkivet.dk. Personligt er jeg træt af, af google.dk sender mig til alle mulige udenlandske sider, når jeg leder et et dansk site. Også selvom jeg vælger "søg i Danmark" o.a.

Men det at man skal udlevere user/pass til bestemte sider er forrykt. Der er sikkert en grund til at det er beskyttet. F.eks den lokale avis hér. Man kan læse dele af nyheden, men for at få det hele skal man betalende abonnent. De ville miste penge hvis de gjorde nyhederne frit tilgængeligt op internettet.
[edit]
Gravatar #25 - adrinator
8. jul. 2005 13:49
§ 21. Overtrædelser af § 2, stk. 1, §§ 3, 5, 6, 10, 11 og 14 og § 16, stk. 1 og 2, straffes med bøde.

Hvis man nægter at udleverer information angående bruger/password kan man straffes med bøde.

Sådan som jeg læser PDF filen kan man nemt undgå det. 1: Lave en side hvor man skriver på engelsk og 2: Den information man har gemt væk er kun tilgængelig for folk man inviterer og 3: Man henveder sig ikke til danskere. Invite only. Dvs. at en spil klan f.eks. kan beskytte sig fordi det kun er folk som klanen inviterer der kan få adgang. Det samme gælder f.eks. frimurer logen, invite only, så vi får ikke deres hemmeligheder via den her :)

Desuden vil den information der bliver høstet kun være tilgængelig primært for forskning efter ansøgning. altså, derved kan ingen bare lige sådan få adgang til arkivet.

Men klam lov. Man kunne principielet forsøge at anklage staten for brud på EMRK, men det har de nok undersøgt, men det betyder ikke, at statens jurister ikke har taget fejl.
Gravatar #26 - Plindstrup
8. jul. 2005 13:50
#13 > Rolig :) Ingen grund til at gå <dit brugernavn> *G*
Jeg skimtede nyheden lidt for hurtig - er ret træt idag...

Jeg kan godt se, efter en kort gennemgang, at mine spørgsmål vist ikke var helt relevante! Jeg undskylder

Lad mig så prøve at komme med noget konstruktivt!

På mit firma´s hjemmeside, har vi et lukket område, som er forbeholdt cirka 100 personer. Her drejer det sig om pressebilleder og andet...
100+ personer, er det en begrænset? Eller vil jeg blive "tvunget" til at give dem adgang til billederne samt det andet materiale der er på siden, som er forbeholdt pressen?
Ikke at jeg har ondt i røven over det - men alligevel?

Umiddelbart falder loven ikke i min smag...
Gravatar #27 - zumo
8. jul. 2005 13:57
hvis jeg ser den på min webside kan jeg vel sende dem en regning for brugt båndbrede :)
Gravatar #28 - adrinator
8. jul. 2005 13:57
Jeg fik dog en ide. Man kan da fylde arkivet med lort. Hvis nu man udvikler et program der laver web sider der indeholder tonsvis af junk teksk men samtidig indsætter meningsfyldte sætninger og ord så betyder det at hvis man udbreder folk der bruger det så kan man fylde arkivet med så meget lort at det bliver et helvede at finde information.

Man kunne enddag være smart, men skriver isin robots.txt at xx ikke skal arkiveres så alle de crawlere der adlyder får ikke problemer, men det danske arkiv vil blive fyldt med lort fordi det ikke kan overholde standarder.
Gravatar #29 - Klok
8. jul. 2005 14:01
Til alle dem som er bange for at blive besøgt:
RewriteEngine on
RewriteBase /
RewriteCond %{HTTP_USER_AGENT} .*netarkivet.dk
RewriteRule ^.* - [F]
RewriteRule !^http://[^/.]\.your-site.com.* - [F]

Jeg har jeg User-Agent fra dem:
Mozilla/5.0 (compatible; heritrix/1.5.0-200505251915 +http://www.netarkivet.dk/website/info.html)
Mozilla/5.0 (compatible; heritrix/1.5.0-200506132127 +http://netarkivet.dk/website/info.html)
Mozilla/5.0 (compatible; heritrix/1.4.0 +http://netarkivet.dk/website/info.html)

Det værste er jo sådan set at de med loven i hånden kan kræve adgang til et site, men mon ikke dem de gør det ved enten med glæde deltager, eller flytter til en udenlansk server?
Gravatar #30 - SKREWZ
8. jul. 2005 14:02
#24 -- En lille tekstfil, du lægger i roden af din webserver. Den fortæller de internet-crawlere (som respekterer den) hvilke sider det giver mening at indeksere ud fra.
Et par eksempler:
http://newz.dk/robots.txt http://skrewz.dk/robots.txt
Edit: Kig også på Wikipedia.
Gravatar #31 - kasperd
8. jul. 2005 14:02
[url=#24]#24[/url] bulldog
De ville miste penge hvis de gjorde nyhederne frit tilgængeligt op internettet.
Havde du læst pdf filen, ville du vide, at det gør de ikke.

[url=#29]#29[/url] Klok
Mozilla/5.0 (compatible; heritrix/1.5.0-200506132127 +http://netarkivet.dk/website/info.html)
Jeg fandt nogen af dem i vores webserver log og bemærkede, at den faktisk henter robots.txt filen. Om den så overholder den kan jeg ikke se.

(Forresten: Der er bugs i den kode newz bruger til at finde http URLer i kommentarerne. Den tager for meget med i linket, og indtil jeg redigerede lidt i min kommentar troede den sågar at et af de tags den selv indsatte var en del af URLen.)
Gravatar #32 - adrinator
8. jul. 2005 14:03
#29

Udenlandsk server beskytter dig ikke. Jeg har læste loven igennem og PDF filen. Hvis du er dansk statsborger gælder loven for dig uanset indholdet ligger på en udenlandsk server.

Din host vil nok pure nægte at samarbejde, men myndighederne i danmark kan stadig tage strafbestemmelser i brug.
Gravatar #33 - Klok
8. jul. 2005 14:07
#32: Så må man jo oprette et firma på Cayman Island og lade det eje websitet. Så er der også 0% skat :)

Jeg syntes som sådan det er et fint initiativ, men jeg syntes bare de har udvidet loven lige lovlig meget. Det gælder da om at være gode venner med ejerne af sites, ikke uvenner.

Hvis de kunne give noget tilbage til ejerne kunne de jo ende med at være ligeså populære som Googles bots :)
Gravatar #34 - DusteD
8. jul. 2005 14:10
LOL !! det er jo latterligt ? det vil sige at f.eks. jeg kan blive tvunget til at udlevere koden og brugernavnet til min webmail ?

Men på en anden side, er det ikke meget lidt at betale for gratis porno :D (man må vel antage at alle de der betalingssider også skal aflevere kodeord ?)

FUCKING SINDSYGT "!!
Gravatar #35 - DusteD
8. jul. 2005 14:15
#22 enig dér
Gravatar #36 - PikkeMand
8. jul. 2005 14:25
Kan man påvise at den lukkede del af en hjemmeside kun kan/skal benyttes af en lukket brugerkreds, kan man dog undgå at udlevere login-oplysningerne.

Hvad bruger man ellers et brugernavn og password til?

Meningsløst...

#22 Jeg kan ikke lade være med at føle mig en smule enig :)
Gravatar #37 - plaf
8. jul. 2005 14:56
men.

nu hvor jeg er blevet lidt mindre sur i fissen, så blev jeg da også lidt gjort opmærksom på det her
Adgang til det indsamlede materiale
Det indhøstede materiale bevares i elektroniske arkiver på henholdsvis Det Kongelige Bibliotek og Statsbiblioteket. Der kan gives adgang til arkivet efter reglerne i lov om ophavsret og lov om behandling af personoplysninger. Det vil i praksis sige, at der til hovedparten af materialet i arkivet kun er adgang til forskningsformål efter ansøgning.


hvilket gør mig lidt mindre sur.

MEN IKKE MEGET!!!! :)
Gravatar #38 - Whoever
8. jul. 2005 16:25
mht. robot.txt filerne er det ikke så smart..

Men ellers har X-Files da ikke levet forgæves...
Fuck I har da ellers noia på herinde...og fuldstændig ubegrundet.
Gravatar #39 - claushingebjerg
8. jul. 2005 16:53
Med al ære og respekt for posterne herinde, både dem der kalder mig en klovn og alle andre.

Jeg forstår simpelthen ikke jeres navlebeskuende og selvcentrerede holdning i denne sag.

Der står højt og tydeligt i pdf'en at hvis man har lukkede intra- og extranet er de ikke aktuelle for arkiveringen.
Har man lukkede områder, dvs. områder hvor menigmand ikke selv kan oprette sig som bruger er de ikke aktuelle for arkiveringen.

Kun offentligt tilgængelige sites, der kræver registrering er interessante.

Vedr. robots.txt.
Berører robots.txt mig som besøgende på websiten? Nej vel! Det Kongelige biblioteks "høster" fungerer jo som en besøgende på siten, der vælger at gemme siden lokalt. Derfor giver Robots.txt ingen mening i den sammenhæng. At i som Webmastere mener i bør have absolut kontrol over den information i lægger på nettet er en naiv holdning.

Hvor seriøst tror i i ville blive taget hvis i skrev et læserbrev i en avis, med en fodnote i bunden, hvor der stod at læserbrevet ikke måtte arkiveres eller læses efter d.d.?

Ophavsret
Det er ikke et spørgsmål om at beskytte ophavsretten, for ophavsretsbeskyttede værker på tryk (og vist også audio) har altid været underlagt PLIGTaflevering

Arkiveringen er til for at skabe et billede af samfundet som det ser ud i dag, så kommende generationer har noget at se tilbage på. Nøjagtig som vi idag bruger århundreder gamle værker til at se hvordan tidligere generationer har gebærdet sig.

I har så travlt med altid at forsvare jeres rettigheder. Men fat nu, at med rettigheder følger pligter, og for en gangs skyld skal i yde noget til gavn for samfundet, ikke bare beskytte jeres egen lille baggård.
Gravatar #40 - Dex
8. jul. 2005 17:02
#20 jeg tror ikke du har forstået hvorfor jeg har gjort det, jeg har en standard manual liggende der også kan findes på apache.org, den har de brugt min båndbredte for at få fat i, men jeg har venlig fortalt dem at det altså ikke er interessant for dem, de har også indexeret andre standard ting samt statistiker og andet. dette er direkte spild da de ikke kan bruge det til noget, robots.txt er til for at fortælle dem at jeg ikke syntes det er interessant for dem, og da de ikke fatter det vink med en vognstang har jeg nu smidt dem i mit kill filter, jeg har load på min linje i forvejen og har derfor ikke behov for at de leger rundt uden at have noget at bruge det til.

du siger at det er min skyld at vi lever i stenalderen, dette kan jeg ikke forstå. bare fordi jeg forsøger at spare dem, mig og resten af nettet for båndbredte, storage plads og tid?
tid er penge, penge som kunne bruges på noget andet.

du kan ikke samenligne crawlere og almindelig brugere, crawlere belaster systemet en hel del mere end en enkelt bruger gør, prøv at undersøg hvordan en crawler virker, og så prøv at regn ud hvor meget data den egentligt henter hver gang den løber forbi et bare nogenlunde stort site, og denne crawler er helt uden nytte da de slet ikke gemmer noget data endnu, jeg har korsponderet med driftslederen af dette system og har forespurgt hvorfor de gør som det gør og fik et meget afvigende svar, så nu er de blokkeret fra min side, det er min ret at bestemme hvilke der har adgang til mit system så det kan de ikke forhindre mig i.
Gravatar #41 - claushingebjerg
8. jul. 2005 18:56
#40

Du bekræfter mig bare i min antagelse.

Du vil fortælle Det Kongelige Bibliotek hvad der er relevant for vores efterkommere. Jeg vil antage at biblioteket har en noget bedre baggrund for at vurdere dette...

Du lægger en manual online som er frit tilgængelig, men du vil bestemme hvem og hvordan de skal læse den...

Hvis nu alle trykkerier (som er underlagt pligtaflevering) frit kunne afgøre om det materiale der kom ud af trykmaskinen er relevant for vore efterkommere, tror du så der ville være meget for det kongelige bibliotek at arkivere.... Næppe.

Jeg siger det gerne igen. Det er en samfundspligt.
Gravatar #42 - xarrow
8. jul. 2005 19:01
#39:
Hvor seriøst tror i i ville blive taget hvis i skrev et læserbrev i en avis, med en fodnote i bunden, hvor der stod at læserbrevet ikke måtte arkiveres eller læses efter d.d.?


Sammenligningen holder ikke. Forskellen er nemlig at på en internetside kan du slette en artikel, men hvis Netarkivet har taget den er noget du ønsker slettet, er det måske ikke slettet alligevel. Læserbreve er i en helt anden verden, den fysiske. I den fysiske verden sender du læserbreve ud, så folk får det i mange kopier. På en hjemmeside er der kun en kopi, som folk så kan komme forbi og læse, men som du kan "brænde op" hvis du ikke ønsker den læst mere.

Ligesom hvis min lillesøster sidder og læser min dagbog, og jeg brænder den fordi jeg bliver træt af at hun læser i den konstant. Så brænder jeg den, så kan hun ikke lsæe mere.

I har så travlt med altid at forsvare jeres rettigheder. Men fat nu, at med rettigheder følger pligter, og for en gangs skyld skal i yde noget til gavn for samfundet, ikke bare beskytte jeres egen lille baggård.


Og næste generation skal så også vokse op med den ide at det er deres "ret" at vide hvad der foregik dengang? Tro mig, lige nu sidder du og har lgie så travlt med næste generations rettigheder, som vi har emd vores nuværende. Moral er godt, dobbeltmoral er dobbelt så godt?

Set fra en anden synsvinkel med henblik på din sidste kommentar: Bevis at det er til gavn for samfundet at min hjemmeside* arkiveres, ellers kan i sgu godt smutte. Det bør slet ikke være nødvendigt at beskytte vores baggård, da det er VORES baggård. Den har folk at lade være i fred hvis vi vil have det, uden at vi skal behøver at sove med vores [url=http://www.lortehumor.dk/pictures/bulletproof.jpg9jagtgæverer [/url] ved sengen for at garantere at det forbliver vores baggård.

Arrow

*Min hjemmeside er ganske vidst ikke eksisterende, men indsæt random hjemmesideejer i stedet for mig.

Arrow
Gravatar #43 - claushingebjerg
8. jul. 2005 19:17
#42

At internettet er et flygtigt medie gør det jo bare endnu mere vigtigt at dokumentere dets status gennem tiderne. Hvis siderne ikke forsvandt over tid, var der jo ingen grund til at arkivere dem.

Tror du eks. H.C. Andersen ville synes at det er helt ok at hans private breve udstilles på museer.
Ikke desto mindre giver det nutiden en unik indsigt i datidens liv.

Det kan ikke bevises at en side er til gavn for vore efterkommere. Men det kan heller ikke modbevises.


Du skal iøvrigt også være opmærksom på, at hvis du bliver optræder, pattestiv, i et tv-indslag fra eks. Roskilde festivalen, så sidder du også i arkivsaksen. Alle tv-indslag bliver også arkiveret.

Pligtafleveringen har iøvrigt et rigtigt godt slogan.
"Bevar nutiden for fremtiden".

Og det glæder mig at vore efterkommere en dag kan læse dette indlæg :)
Gravatar #44 - DUdsen
8. jul. 2005 19:45
#4 #12 med flere:
Der står i ophavsrets loven at det kongelige bibliotek har ret og pligt til at opbevare mindst 1kopi af alle offentligtgjorte værker, og det eneste der sker her er at en hjemmeside ligestilles med bøger, aviser, CDROM'er, film og den slags.
Jeg har lidt svært ved at se hvad folk bliver sur over, er det fordi i ikke kan leve med nogen former for begrensninger i ophavsretighedsloven, for det er vel engentligt bare endnu en fair use klausul lidt i stil med tiladelsen til privat forevisning og tvagsprisætning for værker på bibliotekernes hylder og den slags!

Offentligtgører du noget bliver det læst og ofte gemt et eller andet sted og kan komme tilbage og hjemsøge dig senere sådan har det altid været, eller mener i også at steder som bash.org og google groups bør lukkes
Gravatar #45 - Klok
8. jul. 2005 19:54
Jeg er sådan set meget enig med dig claushingebjerg, men jeg mener dog stadig det er meget drastisk at true med bål og brand, hvis de ikke får lov til at logge ind på dit site og læse hvad der står.
Jeg mener en mere neutral formulering kunne værre at foretrække.

Iøverigt, så mener jeg at alle mand er velkommen til at gøre hvad der nu er teknisk muligt på deres eget site, for at holde forskellige folk/bots osv. ude, hvis det er det man vil. F.eks. kan det jo være et en krævende side på et site, kun må køres 1 gang i minuttet. Så må netarkivet jo bare komme forbi og se siden når de får lov.
På samme måde kan jeg ikke se noget fordækt i hvis nogle brugere lukker helt af for deres bot. Så må de jo bare manuelt logge ind og gemme indholdet.

Jeg syntes til gengæld Netarkivet burde lave deres arkiver mere åbne, og f.eks. indgå et samarbejde med f.eks. DMOZ. Se så er der jo pludselig en masse fede ting ved at få sine sider med i arkivet også tror jeg sagtens de kunne få udleveret logins til mange sites.

Din sammenligning med et læserbrev finder jeg ikke særlig relevant. Jeg mener at det er mere relevant at sammenligne det med at der i Danmark er masser af blade som udgives i en lille lukket flok. Disse blade ryger heller ikke i arkiverne nogle steder, men hvis man med et pænt brev spurgte om man kunne få et eksemplar ville man nok få lov.
Venlige henvendelser kommer man nu meget langt med, istedet for at true med loven i hånden, og jeg tror egentlig det er det der forager mange af os.

(Iøverigt tror jeg slet ikke netarkivet har de tekniske løsninger der skal til for at håntere de 1000-vis af måder der er lavet login på hjemmesider i Danmark.)
Gravatar #46 - Quaser
8. jul. 2005 19:54
#41

Der bliver i #40 gjort opmærksom på, hvorfor robots.txt er et godt værktøj.
Med robots.txt har du mulighed for at give en søgemaskine besked om at en del af hjemmesiden er irrelevant for søgemaskinen.

Det kunne f.eks. være at man lavede nogle mirrors til sine manualer.
mirror1.mineartikler.dk
mirror2.mineartikler.dk
mirror3.mineartikler.dk
Osv.

Som borger har man sådan som jeg har læst pdf'en pligt til at gøre det data man udgiver på nettet tilgængelig for netarkivet.dk
Men det gøres jo allerede på mirror1.mineartikler.dk, så derfor er der ingen grund til at mirror 2 og 3 bliver indexeret.

Med robots.txt kan man så vise det. Hvilket kan give store besparelser både for ejeren af webstederne og for staten.

Ejeren har pligt til at offentliggøre det han udgiver. Og det gør han stadigvæk.
Ejeren har pligt til ikke at skjule frit tilgængelig "udgivelser" på internettet, og det overholder han stadigvæk.

Derfor kan jeg ikke se andet end at netarkivet.dk bør respektere robots.txt

Hvis webstedet som netarkivet.dk ønsker at indexere, ikke gør sine udgivelser tilgængelig pga. robots.txt, så overholder den den ikke loven, og det er en anden sag.

Men som printvirksomhed, forventer jeg strengt talt ikke, at fordi en bog bliver printet ud og gjort tilgængelig i samme form i 5 forskellige boghandlere, så skal der sendes en kopi til det Det Kongelige Bibliotek for hver kopi = 5.

Du vil fortælle Det Kongelige Bibliotek hvad der er relevant for vores efterkommere. Jeg vil antage at biblioteket har en noget bedre baggrund for at vurdere dette...

Eller han vil fortælle det data de vil indeksere er blevet indekseret. Eller at det er nonsens, som f.eks. statistik sider.
Gravatar #47 - xarrow
8. jul. 2005 19:59
#44:
Det er nu mere passwordudleveringsdelen der er værst. Alt det andet er for sig selv okay i mine øjne.

Dog er det bl.a. mht. serverbelastning at jeg kan blive sur over at den ikke respekterer robots.txt, du er godt klar over at nogen betaler for den mængde traffik siden genererer ikke? Hvis man har en større hjemmeside kan det hurtigt blive en del. En ting er en begrænsning i ophavsretten, en anden ting er den mangel på respekt jeg netop mener at robots.txt filen er der for at opretholde.

Mvh. Arrow
Gravatar #48 - kasperd
8. jul. 2005 21:08
[url=#41]#41[/url] claushingebjerg
Du vil fortælle Det Kongelige Bibliotek hvad der er relevant for vores efterkommere.
I min iptables fil står der pt. to roboter, som ikke overholdt robots.txt. Jeg har plads til flere.

Der er givetvis sites som helt automatisk detekterer crawlere med adfærd i strid med reglerne og blokerer dem eller fordrer dem med fake sider. Den slags crawlere kunne f.eks. være på udkig efter mail adresser at spamme. Jeg kan ikke se noget forkert i at fodre formodede spammere med fake email adresser. Ønsker bibliotekerne på den måde at blive slået over en kam med spammere?

Indtil videre nøjes jeg med at blokere for roboter efterhånden som jeg opdager, at de ikke overholder robots.txt. Det skulle ikke røre mig det mindste at blokere netarkivet.dk, hvis den ikke vil overholde reglerne.

Resultatet kunne så blive, at i stedet for at de får fat i de sider, jeg vil tillade, så ender de med ikke at få noget som helst. Det betyder ikke, at jeg har taget stilling til, hvad der er relevant for vores efterkommere.

Crawlerens opførsel kunne sagtens i sig selv betyde, at de får arkiveret mindre end ellers. Ikke fordi webmasters tager stilling til, hvad der bør arkiveres, men blot fordi de tager stilling til den dårlige opførsel.

De sider man går glip af pga blokkeringer kunne meget vel have været af større værdi end de ekstra sider man får fat i ved at ignorere robots.txt.

Der kan selvfølgeligt være tilfælde, hvor robots.txt ekskluderer for meget. Der bør man så tage stilling til hver enkelt tilfælde. Man kunne sikkert skrive software, der giver gode fingerpeg om kandidater. Finder man eksempler på for restriktive robots.txt filer, så gå dog i dialog med webmasteren.
Gravatar #49 - MNM
8. jul. 2005 21:11
Gad vide om det så også virker den anden vej?
hvis jeg beder dem om at arkivere bjørneporno.dk skal de så også gøre det?
Gravatar #50 - SKREWZ
8. jul. 2005 21:12
Jeg erklærer mig enig med claushingebjerg. Til trods for, at jeg tidligere var skeptisk.

Hvad man skriver på internettet, har altid været for egen regning. Hvis jeg vælger at redigere dette indlæg for at trække min holdning tilbage, men webarkivet når at arkivere min gamle post, bliver både min tidligere mening og min nuværende mening bliver gemt til eftertiden. Samtidig bliver mit meningsskift gemt til eftertiden.

Hvis jeg ikke bryder mig om, at mine holdninger (og specielt, mine holdningsændringer) bliver registreret, bør jeg undgå at udtale mig i det hele taget. At internettet er mit medium er ligegyldigt.

Som det er nu, er Googles og webarchive.com's arkivering meget værre. Den kræver nemlig ingen autentisering at tilgå, men overvåger alligevel det offentlige rum.
Gå til top

Opret dig som bruger i dag

Det er gratis, og du binder dig ikke til noget.

Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.

Opret Bruger Login