Über das Märchen vom dezentralen Web 3.0

Das sogenannte Web 3.0 verspricht die große Befreiung des Internets! Durch Blockchains, smart contracts, DApps und Tokens soll der Nutzer von der Macht der Konzerne befreit und mündig gemacht werden. Nutzerzentrierung, Dezentralisierung, Privatsphäre und Sicherheit sind die vier Reiter gegen die Apokalypse und nicht selten ist der Jubel über ihre Ankunft so laut, dass man meinen könnte, sie seien etwas Neues und womöglich würde erst das Web 3.0 ihnen den Weg ebnen. Aber ist das wirklich so?

Abstract

In diesem Beitrag zeige ich, dass das Web 3.0 gar nicht erstmalig dezentral ist. Die Argumentation stützt sich dabei auf zwei Kernelemente: Erstens gab es bereits schon zu Beginn des Internets dezentrale Protokolle, die bis heute Bestand haben und zweitens gehören zu einem Dienst immer zwei Ebenen: Die technische und darüber die organisatorische. Sofern nicht beide Ebenen dezentral strukturiert sind, ist eine technische Dezentralität nicht viel wert – eine bloße Redundanz ließe sich durch andere Mittel effektiver erreichen.

Web 1.0

Begeben wir uns auf die Spurensuche zurück ins Jahr 1969. Das Arpanet erblickte gerade das Licht der Welt und hatte zum Ziel, als dezentrales, paketvermittelndes Netzwerk die Kommunikation der US-Streitkräfte auch in Kriegen aufrecht erhalten zu können. Bedingung des „Intergalactic Computer Networks“ war, keinen Single Point of Failure (SPOF) zu haben, über den zentral die Kommunikation in Gänze unterbunden werden sollte. Insbesondere über Universitäten in den USA entwickelte sich daraus das Internet, wie wir es heute kennen und mit dem Hypertext Transfer Protocol (HTTP) eines seiner populärsten Protokolle. Doch neben dem reinen Abruf von Dateien über Browser und andere Clients entstanden eine Reihe weiterer Protokolle, die – ganz der ursprünglichen Idee des Internets – vollkommen dezentral ausgelegt waren. Einer seiner populärsten Vertreter – immer wieder totgesungen und doch nie gestorben – ist dabei das Simple Mail Transfer Protocol (SMTP). Über ein Identifikationsschema, das Nutzer und Knoten beinhaltet, konnte und kann jedes Postfach der Welt eindeutig identifiziert werden und durch die explizite Nennung des Knotens ist die Nutzung beliebig vieler Knoten ermöglicht, wodurch der Ausfall eines einzelnen Knotens die Funktionalität des restlichen Netzwerks nicht beeinträchtigen kann. Neben dem Versenden von E-Mails für den Austausch von Nachrichten mittels Extensible Messaging and Presence Protocol (XMPP) ein ebenfalls völlig dezentrales Protokoll geschaffen, das sich über Pidgin und weitere Clients insbesondere im technischen Bereich großer Beliebtheit erfreute (und zumindest anfangs ebenfalls die Basis des facebook messenger darstellte). Und für den (häufig nicht ganz legalen) Austausch großer Dateien wurde mit BitTorrent letztlich ein Mechanismus etabliert, der Dateien auf unterschiedliche Server (sog. Seeder) verteilte, von denen ein Client (Leecher) einzelne Fragmente anfordern konnte. All diese Protokolle hatten als zentrale Eigenschaft, ausfallsicher und dezentral zu funktionieren – was in der heutigen Euphorie über das Web 3.0 jedoch offenbar kaum Beachtung findet. Die meisten der darauf aufsetzenden Dienste hatten gemeinsam, größtenteils nichtkommerziell und durch die Struktur der Protokolle häufig föderal zu arbeiten (d.h. viele Anbieter existierten parallel und interoperabel ohne einen zentralen Hauptanbieter).

Web 2.0

Mit der Zeit und spätestens kurz vor der dotcom-Blase wurde auch der letzten Agentur bewusst, dass das Internet mehr zu bieten hat, als persönliche Websites, ein paar chattende Techies und eine Menge Teenies, die illegal schlecht abgefilmte Kinofilme verteilen: Cash! Spätestens mit Asynchronous JavaScript and XML (AJAX) wurde klar, dass sich durch die Interaktion mit Nutzern Geld verdienen lässt. Gefördert durch die menschliche Gier wurde der Rest zum Selbstläufer und einzelne, anfangs kleine Plattformen wuchsen schnell zu zentralen Anlaufpunkten des Internets und ließen ein paar Jahre später wenig vom Gefühl eines dezentralen Netzwerks übrig. Und so wurde schnell klar, dass jeder Mensch eine mySpace-Seite, ein facebook-Profil, ein Gmail-Postfach, einen iCloud-Account und später Whatsapp braucht. Und unter der Haube? Wurden aus Websites auf dem PCs unter dem heimischen PC-Tisch schnell EC2-Instanzen bei AWS, DigitalOcean, Azure oder Google Cloud Platform (und gibt es neben Cloudflare eigentlich überhaupt noch einen sinnvollen DNS-Provider?). Ohne technische Notwendigkeit wurde aus der dezentralen Idee des Internets plötzlich eine IT-Landschaft weniger marktbeherrschender und zentraler Anbieter. Aber warum eigentlich?

Warum das Web 2.0?

Jedes Protokoll und jeder Dienst, das bestimmte Stärken mit sich bringt, hat auf der anderen Seite grundsätzlich einige Schwächen. Die Schwachpunkte der dezentralen Protokolle der Anfangszeit waren dabei insbesondere:

  • fehlende Identifizierungsmöglichkeiten des Gegenübers: In einem dezentralen Netzwerk ist es nur schwer möglich, die eigene Identität sicher zu beweisen. Auf besonders eindrückliche Art und Weise zeigt sich das in der nicht enden wollenden Spam-Welle in den Mailpostfächern dieser Welt. Mit der Einführung von Public Key Infrastructures (PKI) wurde durch Public-Key-Kryptografie und damit Serverzertifikaten zwar das Problem „gelöst“, zumindest Server halbwegs identifizieren zu können, als Client-Authenfizierung konnte sich PKI jedoch nie wirklich durchsetzen. Durch die umfangreiche Nutzung zentraler Dienste wurde das Problem relativ schnell obsolet, da nun z.B. facebook als zentraler Anbieter die Authentifizierung übernahm und einmal registriert eine digitale Identität auch nicht mehr ohne weiteres übernommen werden konnte. Vollkommen automatisch trat somit eine Tendenz zu zentralen Anbietern in Kraft.
  • Besseres Angebot zentraler Anbieter: Eines der wichtigsten Theoreme dieser Entwicklung scheint zu sein, dass ein Angebot eines zentralen Anbieters grundsätzlich besser ist als sein dezentrales Äquivalent. Der Mechanismus dahinter ist einfach: Ein echter dezentraler Dienst besteht im Wesentlichen aus seinem Protokoll, das jedem beliebigen Teilnehmer eine Implementierung erlaubt. Der Funktionsumfang des Dienstes ist damit auf den Funktionsumfang eines gemeinsam entwickelten Protokolls limitiert. In vielen Fällen ist die Entwicklung zudem altruistisch motiviert. Anders bei zentralen Diensten: Hier ist einzig die Benutzerschnittstelle (also die Website oder App) entscheidend, die Wahl der Protokolle bleibt intern und unbekannt. Zudem ist eine Entwicklung zumindest im kommerziellen Bereich monetär derart besser ausgestattet, dass es deutlich einfacher fällt, qualitativ und quantitativ den Funktionsumfang dezentraler Dienste in den Schatten zu stellen. Für einen Nutzer, der indifferent zwischen zentralen und dezentralen Diensten ist, fällt die Wahl damit leicht – und der Grundstein für das exponentielle Wachstum vieler Plattformen war gelegt.
  • Komplexe Netzwerkanforderungen: Mit der Entwicklung der großen Plattformen wuchsen auch die Kapazitäten und technischen Möglichkeit der zugrunde liegenden Infrastruktur. Die anfangs allgegenwärtigen 56k-Modems wurden schnell durch ISDN und DSL abgelöst, aus Kilobyte wurden schnell Gigabyte und aus dem Nokia 3310 wurde bald ein iPhone 8 mit LTE. Auch hier zeigte sich, dass zentrale Dienste deutlich schneller in der Anpassung waren, da Protokolle einfach getauscht werden konnten. XMPP als ursprünglich sauber definiertes Protokoll konnte somit beispielsweise plötzlich aufgrund fehlender Möglichkeiten für Push-Funktionalitäten im zunehmend mobilen Umfeld nicht mehr zielführend genutzt werden. Und große Plattformen konnten dank Content Delivery Network (CDN) im internationalen Kontext ganz andere Geschwindigkeiten ermöglichen als private Projekte. Und zuletzt die fehlende Gesetzgebung im Thema Netzneutralität (also der Möglichkeit für Internetprovider, große Dienste gegen Geld im Netz zu bevorzugen) beschleunigte ebenfalls das Wachstum der zentralen Plattformen.

Neben den technischen Schwächen der Protokolle in einer Welt mit neuen Anforderungen hatte die dezentrale und oftmals föderale Organisation der darüber liegenden Dienste den bereits erwähnten Nachteil, nicht auf das Erwirtschaften von Gewinnen ausgelegt zu sein (mit einem E-Mail-Service lässt sich kaum Geld verdienen, wenn der gleiche Service 100% interoperabel nebenan kostenlos angeboten wird).

Als Ergebnis entwickelte sich aus dem ehemals dezentralen Internet eine hochgradige Abhängigkeit von einigen wenigen Anbietern – und zwar quer durch alle Abstraktionsebenen! Angefangen von einigen wenigen ISPs über wenige CDNs und Cloud-Anbietern bis hin zu wenigen Anbietern für Endnutzerdienste konsolidierte sich derart viel Nutzungsvolumen auf einige wenige Anbieter, dass die neue Bedrohung des Netzwerkes nun nicht mehr von außen kommt, sondern aus dem Netzwerk selbst. Statt der ehemals befürchteten Angriffe der UDSSR sind die Gefahren nun die muntere Verknüpfung und Auswertung von Nutzerdaten durch Google, facebook, Apple oder Microsoft. Oder die Bedrohung der Meinungsfreiheit durch muntere Zensur bei twitter dank eines übereifrigen Netzdurchsetzungsgesetzes. Oder die Unterdrückung privater Medienprojekte durch Zero Rating der ISPs dieser Welt oder oder oder…

Web 3.0

Das Web 3.0 verspricht nun, die Welt aus den Klauen der Konzerne zu befreien und trotzdem technisch einwandfreie Protokolle zu implementieren. Aber kann das gelingen? Zugegebenermaßen gibt es eine Menge sehr schöner technischer Lösungen für die unterschiedlichsten Probleme, allerdings löst das technische Protokoll nicht die Abhängigkeit von zentralen Organisationen. Die Kritik am Web 2.0 war ja nie, dass Daten zentral gespeichert werden, sondern dass zentral verwaltete Organisationen die Kontrolle über die technische und strategische Ausrichtung der Dienste haben (und damit fleißig Gewinne einfahren). Es zeigt sich: über der rein technischen Protokollebene gibt es eine zweite, organisatorische Ebene, von der aus die Entwicklung und der Betrieb der Protokollebene beeinflusst und gesteuert wird. Im Web 1.0 waren das im wesentlichen Open-Source-Communities und Betreiber einzelner Knoten. Im Web 2.0 wurden daraus Firmen und Konzerne.

Und hier zeigt sich das „Problem“ des Web 3.0: Während anfangs noch viel Wert darauf gelegt wurde, auch die organisatorische Ebene dezentral zu organisieren (so hat z.B. Jede:r die Möglichkeit, selbst Stimmrechte bei der Ethereum Foundation geltend zu machen, selbige ist als gemeinnützige Organisation aufgestellt), zeigt sich im aktuellen Web 3.0-Hype exakt die gleiche Bewegung, wie in der Transition von Web 1.0 zu Web 2.0: Der Mensch teilt ungerne Profite. Warum sollte ich etwas gemeinnützig betreiben, wenn ich damit auch alleine Geld verdienen kann? Und so ist es nicht verwunderlich, dass die meisten schönen neuen Web 3.0-Protokolle von einzelnen Firmen implementiert und verantwortet werden! Dadurch wird die Dezentralisierung des Protokolls jedoch zur reinen Augenwischerei – was nutzt jegliche Verteilung, wenn eine zentrale Firma von heute auf morgen das Protokoll und die Spielregeln ändern kann? Was ist noch dezentral, wenn eine zentrale Firma nach Belieben Richter spielen kann und z.B. Auszahlungsschwellen nach Gusto anpasst? Den meisten Nutzern dürfte das auch meistens relativ egal sein – genommen wird der Anbieter mit den besseren Features. Das oben erwähnte Theorem der Überlegenheit zentraler Anbieter gilt eben auch im Web 3.0.

Zusammenfassung

Zusammenfassend lässt sich sagen: Dezentralisierung ist im Web nichts Neues – die ureigenen Anfänge waren stets dezentral – häufig föderal – gedacht und implementiert. Die Möglichkeit, damit Geld zu verdienen und die Gier nach Profiten hat nach und nach jedoch die Axt an die Dezentralisierung gelegt, wodurch aus dem Web 1.0 das Web 2.0 wurde, das maßgeblich von Konzernen gestaltet wird. Das Web 3.0 als ursprüngliche Gegenbewegung dazu ist gerade auf dem besten Weg, diese Entwicklung zu wiederholen: Zwar bleiben die technischen Protokolle schön dezentral, allerdings sind die meisten Organisationen, die diese entwickeln und betreiben als gewinnorientierte Firmen aufgestellt, die damit auf organisatorischer Ebene die volle Kontrolle über ihre Web 3.0-Produkte haben. Sollte jemand tatsächlich den Wunsch haben, ein dezentrales Produkt anzubieten, so muss er/sie auch dafür sorgen – und damit leben können – die organisatorische Ebene darüber ebenfalls dezentral aufzustellen und die entsprechende Macht in der Community verteilen!


Schreibe einen Kommentar