Du kennst das: Du legst eine interessante URL in einer Bookmark ab oder verwendest sie als (Deep-)Link in einem Artikel oder Blogposting, um einen Querbezug herzustellen oder einen Beleg für ein Argument zu referenzieren.
Aber irgendwann später merkst Du:
Der Link ist kaputt. Die Website, auf die der Link führte, wurde "redesignt" / "relaunched" und dabei die bisherige Linkstruktur zerstört oder die Betreiber haben dicht gemacht oder die Quelle hat die Seite aus irgendeinem Grund nachträglich manipuliert / zensiert oder schlicht ganz gelöscht.
Wer auf Deinen Link klickt, erhält deshalb eine mehr oder weniger freundliche Fehlermeldung. Jedenfalls ist die Seite in der ursprünglichen Form weg. Und Dein Bezug funktioniert nicht mehr, der Beleg für Dein Argument ist verschwunden.
Das nervt ohne Ende!
Zum Glück gibt es
das Internetarchiv, in dem Du auf eigene Faust beliebige Seiten archivieren kannst:
Zum Beispiel
den allerersten Eintrag hier bei infamy am 20. August 2002, um 10:24:37 MESZ. Den gibt's
im Original, so lange infamy lebt. Und darüber hinaus für alle Ewigkeit im Internetarchiv
als ziemlich originalgetreue Kopie.
Oder zum Beispiel die
Liste der Mitglieder des bürgerlichen Komitees "Pro Stücki", das sich 2006 intensiv dafür einsetzte, dass
die Investitionsruine gebaut werden durfte, gegen den Widerstand von Grünen, BastA!, VCS und WWF. Die für historisch, journalistisch und politisch Interessierte nützliche Liste wäre heute nur noch mit grösstem Aufwand zusammenzubringen, denn
die Website des Komitees ist schon längst tot. Aber im
Internet Archive lebt sie weiter.
Dank
Brewster Khale (
amüsanter und aufschlussreicher Vortrag von ihm über seine Projekte) aber, dürfen wir immer wieder schmunzeln ob der Liste,
wer sich da alles einspannen liess für die Partikulatinteressen einiger Immobilienheinis. Die Liste ist verewigt, abgelegt quasi im Staatsarchiv des Internets (
Budget: 12 Mio $ pro Jahr!).
(Einschub: Wir nominieren hiermit Brewster Khale für den Friedensnobelpreis 2015!)
Brewsters Internet Archive ist ein guter Bürger des Internets. Wenn eine News-Website in ihrem robots.txt es verbietet, einen Snapshot zu machen, tut es das nicht. Das ist anständig, aber manchmal dennoch ärgerlich.
Einen anderen, deutlich weniger ambitionierten, aber ebenfalls für Archivzwecke sehr nütlichen Service bietet
archive.today, ein One-man-Projekt, soweit eruierbar, eines Prager Informatikers, auf Twitter unter
@archiveis.
Ein dritter Dienst ist
WebCite, zusammen mit 6 weiteren
aufgeführt in diesem Artikel.
Soweit, so praktisch und verdienstvoll von u.a. Internet Archive et al., aber manchmal würd man das Aussehen einer Website Dritter auch gerne auf dem eigenen Server dokumentieren. Schön wär also, wenn's z.B. ein
Plugin für Wordpress gäbe, das von allen in einem Posting verlinkten externen Seiten einen Snapshot macht und den Link da drauf mit einem "(backup)" hinter dem Link zur Originalquelle anbieten würde… Kennt jemand sowas?
Ebenfalls gut anstehen würde ein do-it-yourself-Web-Archivierungs-Dienst für ihr Publikum
der Schweizerischen Nationalbibliothek und ihren e-Helvetica.
Und wenn wir grad dran sind:
investigativ.ch könnte vielleicht für Journis sowas anbieten, damit die auf verlässlicher Infrastruktur z.B. Snapshots irgendwie heikler und "flüchtiger" Websites ablegen und später referenzieren können.
Wer weitere nützliche Tips hat für die Archivierung von Websites, ist herzlich eingeladen, sie hier als Kommentar mit uns zu teilen. Danke!