Webarchiv
Webarchiv
D’Nationalbibliothéik erhält de lëtzebuergesche Web als Deel vum digitale Patrimoine vum Land. Websitten entwéckele sech permanent weider an al Versioune verschwannen onbemierkt. Eise Webarchiv sammelt, verzeechent a späichert Momentopnamen (Zäitschnëtt oder Spigelung genannt) vu Websitten, fir de gesellschaftlechen, kulturellen a wëssenschaftleche Wandel vu Lëtzebuerg ze dokumentéieren. E bitt Besëtzer vu Websitten e wäertvolle Service, fir Inhalter, déi si geschaf hunn, ze erhalen, an ass eng eenzegaarteg Ressource fir Chercheuren an Historiker, déi et zukünftege Generatiounen erméiglecht, d’digital Vergaangenheet ze entdecken an ze erfuerschen.
Inhalter
Allgemeng Informatiounen
De Webarchiv vun der BnL ëmfaasst e grousse Choix vu Websitten, fir den digitale Patrimoine vu Lëtzebuerg ze dokumentéieren. Dëst betrëfft all d’Websitte mat der Top-Level-Domain „.lu“ gradewéi all d’Sitten, déi zu Lëtzebuerg verëffentlecht ginn. Am Archiv sinn och Internetsäiten, déi vu Lëtzebuerger am Ausland erstallt goufen oder en enke Bezuch zu Lëtzebuerg hunn. Niewent groussflächege Webcrawls erstellt d’BnL och speziell Sammlungen zu bestëmmten Theemaen oder Evenementer, déi méi Opmierksamkeet erfuerderen a méi oft erfaasst musse ginn. Duerch eng Kombinatioun vu verschiddene Verfaren (breet ugeluechte Webharvesting, geziilt thematesch Sammlungen, evenementbezunn Erfaassunge vu flüchtegen Inhalter oder vun Inhalter, déi permanent änneren) garantéiert d’BnL, dass wichteg Online-Publikatioune fir zukünfteg Generatiounen erhale ginn.
Kontaktéiert eis wgl., wann Dir e Site bedreift, Inhalter erstellt oder e lëtzebuergesche Site kennt, deen Ärer Meenung no sollt archivéiert ginn.
Aschränkungen a Vollstännegkeet
D’BnL beméit sech, méiglechst all d’Websitten ze erfaassen. Aus techneschen a praktesche Grënn ass et allerdéngs net méiglech, all d’Inhalter vollstänneg ze archivéieren oder all d’Ännerungen un engem Site ze erfaassen. De Choix vun den Internetsitte geschitt an der Reegel op Basis vun Domain-Lëschten a Virschléi vun Website-Besëtzer an Experten.
Verschidden Aschränkunge beanträchtegen d’Vollstännegkeet vum Archiv. Fir munch Sitte richteg ze erfaassen, brauch et innovativ technesch Methoden, an dofir kënnen heiansdo just partiell Momentopname konservéiert ginn. Opgrond vun hiren Inhalter, déi immens séier änneren, si Social-Media-Plattformen eng weider grouss Erausfuerderung. D’restriktiv Politik vun dëse Plattforme vis-à-vis vun automatiséierten Tools, wéi z. B. Webcrawler, behënnert d’systematescht Erfaasse vun Donnéeën. Rechtlech an eethesch Iwwerleeunge sinn e weidere Problem. Och wann Inhalter ni aus dem Archiv geläscht ginn, kann den Accès zu bestëmmte Medien allerdéngs ageschränkt ginn, wann dëst gesetzlech virgeschriwwen ass. Den Dateschutz gëtt zwar respektéiert, huet awer net automatesch Virrang virum Recht vun der Ëffentlechkeet op Accès zu historeschen Informatiounen.
Trotz dësen Erausfuerderunge wäert de Webarchiv vun der BnL och an Zukunft weider ausgebaut ginn.
Archivéierungsmethoden
De Webarchiv vun der BnL geet iwwer einfach Screenshotten oder Coden eraus. D’Zil ass et, d’Websitten esou ze erfaassen, wéi se sinn. Heibäi sollen hir Struktur, Inhalter a Funktionalitéit esou detailléiert ewéi méiglech erhale bleiwen.
De Webharvesting-Prozess fänkt mat enger Software, dem Webcrawler, un. Dësen Tool duerchsicht Internetsäiten änlech ewéi eng Sichmaschinn a späichert se of. De Crawler luet automatesch all d’ëffentlech zougänglech Elementer ewéi Texter, Biller, Dokumenter an de Layout erof an erstellt eng vollstänneg Archivkopie vum Website, déi ee genee ewéi d’Original kucke kann.
Am Laf vun der Zäit gëtt d’Sammlung duerch déi verschidde Versioune vun engem Website ergänzt an d’Chronologie vu senger Entwécklung gespäichert. Usere kënnen dës fréier Versiounen an eisem Webarchiv consultéieren an d’Ännerungen an d’Weiderentwécklungen novollzéien.
Informatiounen fir Webmasteren
D’Archivéierung vu Websitten erfollegt geméiss dem Gesetz vum 25. Juni 2004 iwwer d’Reorganisatioun vun de staatleche Kulturinstituter an de modifiéierte Règlement grand-ducal vum 6. November 2009 iwwer den Dépôt légal. Dës Bestëmmunge schreiwen d’Archivéierung vun digitalen Inhalter, déi ëffentlech zougänglech sinn, vir.
Eisem Webarchiv säi Webcrawler („Spider“) hält sech bis op e puer Ausnamen un d’robots.txt-Datei. All d’Dateien, déi fir eng komplett Duerstellung vun engem Website néideg sinn (z. B. CSS, Biller), ginn erofgelueden, och wa se an der robots.txt-Ausnamelëscht stinn. Ausserdeem ginn all d’Landingpages vun all de Websitte gesammelt, onofhängeg vun de robots.txt-Astellungen. D’BnL behält sech d’Recht vir, dës Politik bei Bedarf an am Aklang mam Gesetz ze änneren.
Liest wgl. eise Compliance-Guide, fir sécherzestellen, dass Äre Website korrekt gecrawlt gëtt. En hëlleft Iech, Äre Website fir zukünfteg Generatiounen ze erhalen.
Oft gestallte Froen
Wou kann ech de Webarchiv consultéieren a firwat ass en net online verfügbar?
Aus Grënn, déi mam Droit d’auteur ze dinn hunn, ass den Accès op de Webarchiv just iwwer d’Computeren an eisem Liessall méiglech. D’archivéiert Websitten ëffentlech am Internet zougänglech ze maachen, géif d’Rechter vu de Website-Besëtzer violéieren.
No wéi enge Krittäre gi Websitte fir d’Archivéierung ausgewielt?
D’BnL benotzt dräi Methode fir de Webharvesting:
- Groussflächeg Crawls: An der Reegel ginn all d’„.lu“-Websitten an aner Domains, déi vu Website-Besëtzer an Drëttfournisseure gemellt ginn, eemol pro Quartal gespigelt. Dës Crawls erstellen all dräi Méint eng Momentopnam vum lëtzebuergesche Web, kënnen awer ënner Ëmstänn Inhalter, déi séier änneren oder eng kuerz Liewensdauer hunn, net erfaassen.
- Sammlunge vun Evenementer: Bei Evenementer, déi fir Lëtzebuerg wichteg sinn, gëtt eng Website-Sammlung erstallt. Heibäi ginn iwwer e begrenzten Zäitraum eng jett Opname gemaach. Typesch Event-Crawls betreffen Theemaen ewéi Walen, Naturkatastrophen oder d’Covid-19-Pandemie.
- Thematesch Sammlungen: Dës Sammlunge baséieren op Lëschten, déi permanent änneren. Fir se ze erstellen, si mir op d’Hëllef an d’Beiträg vun Experten aus alle Wëssenssparten ugewisen. Am Laf vun der Zäit ginn ëmmer méi Internetsäiten an d’Sammlung opgeholl, wärend anerer, déi an der Tëschenzäit méiglecherweis geläscht goufen, am Webarchiv och weiderhi verfügbar bleiwen.
Dës Kombinatioun vun direkt e puer Verfaren erméiglecht eng komplett Spigelung vum digitale Patrimoine vu Lëtzebuerg, och wann opgrond vun techneschen a logisteschen Aschränkunge munch Online-Inhalter zwangsleefeg feele wäerten.
Wéi fannen ech eraus, ob mäi Website archivéiert gouf?
Wann Äre Website eng „.lu“-Domain huet, gëtt en automatesch an d’groussflächeg Crawls, déi reegelméisseg duerchgefouert ginn, abezunn. Websitte mat aneren Domain-Endungen (z. B. „.com“, „.de“, „.eu“) ginn net archivéiert, et sief dann, se goufe manuell an eis Crawling-Lëschten opgeholl – entweeder duerch eis eege Recherchen oder duerch Virschléi vu Website-Besëtzer. Wann Dir wëllt, dass Äre Website archivéiert gëtt, da kontaktéiert eis oder benotzt de Virschlagformulaire. All d’Virschléi ginn analyséiert an, wa se de Krittären entspriechen, an eis Crawling-Lëschten opgeholl.
Besëtzer vu Websitte kënnen an hire Serverlogs no Ufroe vun eisem Webcrawler sichen, déi duerch de User-Agent „NLUX_IAHarvester“ identifizéiert ginn an e Link fir weider Informatiounen enthalen. Kontaktéiert eis wgl., wann Dir Froen zu der Archivéierung vun Ärem Website hutt oder eis Äre Website melle wëllt.
Kann ech verlaangen, dass mäi Website net archivéiert gëtt?
D’BnL hält sech un d’gesetzlech Virschrëften iwwer den Dépôt légal. Dat heescht, dass all d’ëffentlech zougänglech Websitten, déi e Bezuch zu Lëtzebuerg hunn, systematesch archivéiert ginn. Mir hacke keng Websäiten, ëmgi keng Astellungen iwwer de Schutz vun der Privatsphär a sammele keng perséinlech Donnéeën, déi net souwisou schonn ëffentlech zougänglech sinn.
Eise Webcrawler sammelt just Inhalter, déi der Ëffentlechkeet zur Verfügung gestallt ginn, an hält sech generell un d’robots.txt-Uweisungen, mat Ausnam vun Dateien, déi fir d’Duerstellung vun engem Website essentiel sinn (z. B. CSS, Biller). Websitten, déi aus rechtleche Grënn aus dem Netz geholl goufen, gi fir Fuerschungszwecker archivéiert, kënnen awer am ëffentlechen Archiv net méi consultéiert ginn.
Wann Dir wënscht, dass archivéiert Versioune vun Ärem Website oder aner Inhalter aus eisem Webarchiv geläscht ginn, da schéckt eis wgl. eng E-Mail mat Ärem Uleies a mat de follgenden Informatiounen:
- d’URL(en) vun de Websitten an d’Webinhalter
- den Zäitraum, dee soll geläscht ginn
- de Grond, firwat dës URL(en) Ärer Meenung no solle geläscht ginn an
- aner Informatiounen, déi eis hëllefen, Äert Uleies besser ze verstoen.
Mir këmmeren eis dann drëm a leeden eng Kontrollprozedur an d’Weeër. Merci fir Äert Versteesdemech, dass mir de positiven Ausgang vun Ärer Ufro net garantéiere kënnen!
Gi sozial Medien archivéiert?
Nee, sozial Medie ginn net systematesch archivéiert. Mir kënnen allerdéngs ausgewielten Inhalter vu Fall zu Fall erfaassen, wa se fir den digitale Patrimoine vu Lëtzebuerg relevant sinn.
Social-Media-Plattforme schränken och automatiséiert Tools ewéi Webcrawler an, wat eng systematesch Späicherung vun Donnéeën erschwéiert.
Aktualiséiert den