Zurück zur Homepage

Anonyme Nachbarn

Das Ende von Zensur und Urheberrecht: Im Konzept "Freenet" des Iren Ian Clarke weiß kein Rechner mehr, was er selbst auf der Festplatte hat

von ERIK MÖLLER

Die bekanntesten Dienste des Internets, WWW und E-Mail, aber auch die weniger bekannten wie Usenet, FTP und IRC funktionieren alle nach einem Prinzip: Mehrere Clients ("Kunden") tauschen mit einem Server ("Anbieter") Daten aus. Ein Rechner liefert WWW-Seiten, ein anderer verwaltet E-Mails. Ein solches System, so hat sich in den zahllosen Zensureingriffen der letzten Jahre gezeigt, ist leicht zu kontrollieren. Wer die Clients ausspionieren will, braucht nur den Server abzuhören; unerwünschte Inhalte können vom Betreiber gelöscht oder von außen blockiert werden, indem man den Zugang zu dem Rechner sperrt, auf dem sie liegen.

Die typische Architektur des Internets stammt aus einer Zeit, in der sehr viele Nutzer über sehr geringe Bandbreite verfügten und einige wenige über sehr große. Fortschritte in der Übertragungsgeschwindigkeit und der Datenkompression sowie sinkende Preise für PCs und Internetzugang haben Alternativen möglich gemacht. Spektakulären Erfolg hatte die Tauschbörse Napster, auf deren Plattform die Nutzer komplette Musikstücke kopieren. Weil die ausgetauschten Daten keineswegs auf dem Server von Napster liegen, sondern auf den Festplatten der Nutzergemeinde, entsteht damit ein Netzwerk von Knoten gleicher Ordnung ("peer to peer"). Bei Napster sind nur die jeweils verfügbaren Adressen zentral gespeichert.

Wie die gelegentlich quälend langen Downloads unter Napster zeigen, verlangt eine solche Netzstruktur jedoch höhere Übertragungsleistungen, als in Europa üblich. In den USA erlauben Kabelmodems in vielen Städten Übertragungsraten im Megabit-Bereich, in Deutschland sind solche Angebote noch selten und teuer. Einzig die Telekom bietet mit T-DSL (www.t-dsl.de) hohe Bandbreite zu einem annehmbaren Preis. Doch auch sie spiegelt das Client-Server-Prinzip: Mit 768 Kilobit pro Sekunde lassen sich damit Daten aus dem Internet holen - der Rückweg dagegen ist auf 128 Kilobit pro Sekunde beschränkt. Die Telekom erwartet, dass Nutzer vor allem Empfänger und nur ausnahmsweise Sender sind.

Aber bei dieser Asymmetrie wird es nicht bleiben, zumal sie für Videokonferenzen hinderlich ist. Der megabitschnelle Mobilfunkstandard UMTS kennt solche Begrenzungen nicht mehr - das Client-Server-Prinzip verliert zunehmend seine technische Legitimation.

Der Client wird Server

Je mehr Nutzer auf einen Server zugreifen, desto langsamer wir er seine Dateien übertragen. Auch mit Hochleistungsanschlüssen werden nur wenige Netzteilnehmer eine große Zahl von Clients direkt bedienen können. Die meisten laden nur hin und wieder eine Datei auf ihre Rechner. Danach liegt ihre Übertragungskapazität brach. In dieser Zeit könnten sie die Datei ebensogut an jeweils zwei andere User weitergeben, die sie wiederum an zwei weitere verteilen: In exponentieller Ausbreitungsgeschwindigkeit bekäme so jeder das Video, das er haben will, ohne dass der Rechner, von dem er es bezieht, mehr Bandbreite braucht als jeder andere auch. Eine Nebenwirkung wäre, dass der ursprüngliche Absender immer schwieriger festzustellen wäre - der Film könnte ebensogut von einem der vielen Multiplikatoren stammen.

Beides macht sich das Freenet-Projekt zunutze, das der 23-jährige Ire Ian Clarke 1999 als Student der Universität Edinburgh in einem Artikel zum ersten Mal beschrieb. Es soll große Dateien effizient übertragen und gleichzeitig die Anonymität seiner Benutzer sichern können. Im Umfeld des Napster-Rummels erhielt das Projekt eine Menge Medienaufmerksamkeit. Obwohl Ian Clarke auch gegen Copyrightgesetze ist, ging es ihm nach eigenen Worten aber vor allem um die Redefreiheit: "Ohne Anonymität kann es die nie geben - besonders in Diktaturen kann die Veröffentlichung kontroverser Informationen sonst effektiv bestraft werden."

Mittlerweile bemühen sich etliche Programmierer darum, Clarkes anarchistische Vision in die Realität umzusetzen. Unter freenet.sourceforge.net kann man herunterladen, was davon heute schon lauffähig ist.

Die Theorie

Wie funktioniert Freenet? Man stellt zunächst eine Verbindung zu einem anderen Freenet-Rechner ("Node") her. Fortan kann man Dokumente abrufen und veröffentlichen. Sobald andere Nutzer eine Verbindung zum eigenen Rechner herstellen, dient er als Zwischenstation für Dokumente, die den Weg zu deren Rechnern finden. Mit "Dokument" kann alles, von der kurzen Textnachricht bis hin zu kompletten Filmen, gemeint sein. Alle diese Daten sind unter so genannten "Keys" gespeichert. Das sind kurze, thematisch geordnete Bezeichnungen, zum Beispiel "/musik/pop/jewel-hands.mp3".

Fügt man eine Datei ins Freenet ein, wird jedoch nur die aus ihrem Key gebildete Prüfsumme (zum Beispiel "OJ4398MX4") übertragen, die nicht mehr in den Klartext überführt werden kann. (Auch ein lexikalisch benachbarter Key hat eine völlig andere Prüfsumme.) Ferner wird die Datei mit ebendieser Prüfsumme verschlüsselt. Die Rechner, auf denen sie gespeichert wird (das sind mehrere innerhalb einer festgelegten Reichweite), kennen damit weder ihren Namen noch ihren Inhalt. Der Hintergedanke: "Wovon ich nichts weiß, dafür kann ich juristisch nicht zur Verantwortung gezogen werden - und das kann ich auch selbst nicht zensieren."

Will man die Datei nun abrufen, muss man den Schlüssel kennen, unter dem sie gespeichert wurde. Das Programm wandelt ihn in seine Prüfsumme um und fragt bei den benachbarten Nodes nach, ob sie über entsprechend registrierte Daten verfügen. Eine intelligente Steuerung ("Routing") der Datenströme sorgt dafür, dass Informationen um so schneller gefunden werden, je länger das Netz besteht. Auf dem Rückweg wird die Datei über mehrere Rechner übertragen. Alle dazwischen liegenden Rechner erhalten ebenfalls eine Kopie, die sie bei erneuten Anfragen direkt zurückliefern können. Je öfter ein Dokument daher nachgefragt ist, desto häufiger wird es im Netz repliziert - und im selben Maße reduziert sich die Anfragezeit.

Eine andere Eigenschaft des Systems macht Zensoren das Leben besonders schwer: Bevor man überhaupt die Erlaubnis zum Veröffentlichen bekommt, wird geprüft, ob in der Umgebung die einzufügende Datei schon vorhanden ist. Wenn das der Fall ist, wird sie wiederum über alle Rechner repliziert, die auf dem Weg zum eigenen liegen. Das Ergebnis: Wer versucht, eine Datei zu überschreiben, sorgt dafür, dass sie noch weiter verbreitet wird.

Die Praxis

In der heute vorliegenden Version der Software fehlt noch die Verschlüsselung der Dokumente. Es gibt außerdem keine Suchfunktion: Man kann nur Dokumente abfragen, deren exakte Schlüssel man kennt. Natürlich steht eine Suchfunktion mit dem Ziel im Widerspruch, Informationen unabhängig von bestimmten Rechnern aufzubewahren. Wenn die einzelnen Rechner gar nicht wissen, was sie speichern, kann man sie auch nicht danach fragen. Als Ersatz dienen derzeit einfache Listen, "Key Indices" genannt, in die jeder gültige oder ungültige Freenet-Keys eintragen kann. Diese Listen sind allerdings weder dezentral noch anonym, sondern schlicht auf verschiedenen Webservern gespeichert (etwa unter uts.cc.utexas.edu/~blanu/keyindex.html).

Ebenfalls noch nicht programmiert ist die Möglichkeit, Dokumente zu aktualisieren. Das endgültige Ersetzen von Daten soll aus nachvollziehbaren Gründen verhindert werden, es soll aber erlaubt sein, mehrere Versionen eines Dokuments zu speichern. In der bald erscheinenden Version 0.3 sollen dafür Unterbereiche des Namensraums von Freenet-Keys für einzelne Autoren reserviert werden können.

Es gibt kaum prinzipielle Hürden für das Freenet-Projekt. Ein Problem in heterogenen Peer-to-peer-Netzen ist allerdings die Geschwindigkeitsverteilung: In einer Kette von zehn Nodes legt der langsamste die Übertragungsgeschwindigkeit fest. Auch führt das ständige An- und Abmelden von Nodes, wie es bei Einwählverbindungen üblich ist, zu Problemen beim Routing: Vormals gültige Übertragungswege sind plötzlich nicht mehr verfügbar, die Lernfähigkeit des Netzes ist behindert.

Dennoch steckt in Freenet ein Potenzial, das jedes vorstellbare Zensurgesetz unterläuft. Diese weit über das bisherige Internet hinausreichende Informationsfreiheit wird nicht aufzuhalten sein. Wenn sie nicht mit Freenet kommt, dann mit einem der zahlreichen anderen Projekte, die ähnlich funktionieren, mit "Blocks", "Gnutella", "Jungle Monkey" oder "Mojo Nation".

Auch die Medienkonzerne mit ihren Urherberrechtsansprüchen werden sich mit dieser neuen Welt anfreunden müssen. Ian Clarke macht es ihnen vor: Er gründet in Kalifornien die Firma "Uprizer", die Musikern auch ohne Urheberrecht einen Verdienst sichern soll. Zu den Details hüllt sich Clarke in Schweigen, aber es geht wohl um eine Kombination aus freiwilligen Zahlungen und gutmütiger Erpressung: Das Werk wird nur veröffentlicht, wenn die Fans eine bestimmte Summe vorauszahlen. Danach ist es frei verfügbar, und kein Musiker muss mehr Jagd auf seine Fans machen, nur weil sie seine Lieder verbreiten.

moeller@scireview.de

taz Nr. 6221 vom 17.8.2000 Seite 17 Internet 304 Zeilen