4202299_c663625c60_o-670x257

Google ist mehr als ein Unternehmen, es möchte mehr als nur Geld verdienen. Auf der Website des Unternehmens heisst es:

“Das Ziel von Google ist es, die Informationen der Welt zu organisieren und für alle zu jeder Zeit zugänglich und nutzbar zu machen.”

Dies ist vermessen, genial und verführerisch zugleich. Google geht es wie Alexander von Humboldt um die Vermessung der Welt. Doch versteckt sich dahinter möglicherweise eine freiheitsbedrohende Weltsicht. Erstmals habe ich mich damit 1996 in “Unwissen und Netzexternalitäten als Determinanten der Internet-Entwicklung” beschäftigt – ohne freilich zu wissen, dass einige Jahre später bereit an der Umsetzung dieser Idee gearbeitet wurde.

Wie frei sind wir, wenn wir alles wissen? Und wissen wir dann wirklich alles?

 

Die totalitäre Ideologie vom globalen Gehirn

Bereits in den Neunzigern ersannen einige kalifornische Netzaktivisten utopische Vorstellungen von einem einzigen globalen Gehirn. Peter Russel – ein Mathematiker, der sich mittlerweile mehr mit Meditation und Esoterik befasst – schreibt bereits 1996 in ”:

“Das Verhältnis Information/Energie ist stetig gewachsen und schießt jetzt steil in die Höhe. Wir können mehr und mehr mit immer weniger machen.”

Im Grunde sind es Hochrechnungen nach Art des Moore’schen Gesetzes, die es wahrscheinlich erscheinen lassen, dass irgendwann in naher Zukunft ein Punkt erreicht sein wird, wo das Menscheitswissen fast vollständig erschlossen ist.

Lange vor der Gründung von Google sieht Russel bereits ein sich entwickelndes globales Gehirn entstehen:

“Milliarden von Botschaften in einem immer weiter wachsenden Kommunikationsnetz schwirren hin und her und vernetzen den Geist von Milliarden von Menschen zu einem einzigen System.”

Tatsächlich ist die Vorstellung zunächst faszinierend und Russel und die Google-Gründer sind nicht die einzigen, die diesen totalitären Traum von der Zukunft haben.

Auch Bill Gates hatte Mitte der Neunziger – lange bevor er ausstieg und zum sozialen Wohltäter avancierte, die Vision der “information at your fingertips” als Vision für Microsoft verkündet.

Aus volkswirtschaftlicher – zumindest neoklassischer Sicht – ist die Annahme vollständiger Information ein wesentliches Kriterium für die Funktionsweise des Marktprinzips. Daraus könnte man folgern, dass mit zunehmender Erschließung des im Internet verfügbaren Wissens der Markt als Koordinationsmechanik immer effizientere Ergebnisse hervorbringt und sich damit in immer weitere Bereichen der Wirtschaft ausbreiten sollte.

Auf den ersten Blick scheinen sich die Prognosen zu bestätigen – der Google-Index wächst mit rasender Geschwindigkeit und immer mehr Branchen werden durch Peer-to-Peer-Anbieter wie UBER oder AirBnB zu effizienten Marktplätzen. Mit Teilen hat das ganze eigentlich nichts zu tun, eher ist es eine Ausweitung des Marktprinzips in immer neue Bereiche der Gesellschaft.

 

 

Konstitutionelles Unwissen

Zunehmende Vernetzung ermöglicht sicherlich neue Tauschmöglichkeiten – allein daraus lässt sich erklären, warum das Marktprinzip noch eine ganze Weile auf dem Vormarsch sein wird. Aber so harmlos bleibt es nicht. Denn Ideen wie die des globalen Gehirns liefern jedoch auch jede Menge Potential für gefährliche, totalitäre Gedankenwelten.

Die Annahme, das Internet entspräche der volkswirtschaftlichen , in der das gesamte Menschheitswissen (gleich einer Vernetzung aller Gehirne) von jedermann jederzeit und überall verfügbar ist und sich somit auch das Wissensproblem immer weiter auflöse, ist ein antifreiheitlicher tragischer Irrtum, wie ich im Folgenden zeigen möchte.

VON HAYEK bemerkte schon Mitte des letzten Jahrhunderts weit vor der Existenz des Internet dazu:

„Wenn wir alle erforderlichen Informationen besitzen, wenn wir von einem gegebenen System der Rangordnungen ausgehen können und wenn wir über eine vollständige Kenntnis der verfügbaren Mittel gebieten, dann ist das Problem, das übrig bleibt, lediglich ein Problem der Logik.“ 

Genau diesem Irrtum sind seit den Neunzigern eine Menge kluger Köpfe erlegen. Anstatt die Entstehung und Weiterbildung des Netzes erklären zu können, formulieren Führungspersönlichkeiten wie Bill Gates mit der Utopie der “information at your fingertips” das Ende der Geschichte des Informationsverarbeitung.

Aber mal ehrlich – sind wir nicht dabei, genau diese Welt zu erschaffen? Ist diese Vorstellung nicht real? Haben nicht Microsoft, Apple, Google & Co. uns nicht genau dieser Welt verdammt nah gebracht?

Wenn man nur die Menge des angehäuften und schriftlich fixierten Wissens zählt, mag man diesen Eindruck bekommen. Er ist dennoch so falsch wie gefährlich. Denn auch wenn alles Wissen der Menschheit auf den Festplatten von Google zu finden wäre, würden wir immer noch nicht ansatzweise ahnen, wie die Welt funktioniert, ja würden wir durch die schiere Menge des angehäuften und schon wieder veralteten Wissens auch nicht wissen, was jetzt relevant ist.

Tatsächlich wertet ja Googles Pagerank ältere Informationen höher, da ja die Zahl der Verlinkungen mit dem Alter einer Informationseinheit zunimmt. Kein Algorithmus wird jede Form des neu erscheinenden Wissens jemals vollständig abbilden können.

Der Betrachtung der Lösbarkeit des Wissensproblems liegt eine äußerst statische und vergangenheitsorientierte Betrachtung zugrunde und verführt die Menschen anzunehmen, die Unendlichkeit des menschlichen Wissens sei jemals an einer Stelle verfügbar. Wie ich in einem späteren Beitrag zeigen werde, ändert auch der Zustand einer in der Zukunft vielleicht erreichbaren  nichts daran.

Genau diesem Irrtum ist auch die in vielen Unternehmen beliebte Knowledge Management aufgesessen – denn das Unternehmenswissen erfindet sich ständig neu, hat keine Richtung und besitzt kein statisches Wesen. Dieses statische Wissen ist nichts weiter als ein Rohstoff.

 

Das Internet ist ein Wissensmotor, kein Datenpool

In Wirklichkeit ist das Internet ist mehr als eine effiziente Vernetzung des vorhandenen und angesammelten Wissens. Es ist ein Instrument, mehr Wissen zu produzieren und zu kommunizieren.

Auch Google wird also das Wissensproblem der Menschheit voraussichtlich niemals lösen – dies anzunehmen wäre ein fataler Irrtum.

Denn in Wirklichkeit kann es auch mittels Internet und Google keine endgültige Lösung des Wissensproblems geben. Denn das würde bedeuten, “das Problem schon in den Annahmen auszuschalten und das zu vernachlässigen, was in der realen Welt wichtig und bedeutsam ist.”

 

Ohne Wissensproblem ist das Internet nicht zu verstehen

Wer davon ausgeht, dass das das Wissensproblem zu lösen wäre, stellt im Grude auch die Existenz bzw. die Daseinsberechtigung des Internets infrage.

Denn es liegt nahe, dass ein Bedürfnis nach Information ursächlich an der Entwicklung von Informationsnetzen und somit auch dem Internet beteiligt gewesen ist.

Die ungleiche Informationsverteilung und die Aufwendigkeit der Informationsbeschaffung sind Grundprobleme der Koordination wirtschaftlicher Aktivitäten. Wie die Entstehung anderer informations- und transaktionskostensenkender Institutionen wie Geld und Sprache lässt sich auch die Entwicklung des Internet nicht durch die statische Fiktion vollkommener Information, sondern nur durch die  Annahme beschränkter menschlicher Informationsverarbeitungskapazität erklären. Das Internet hilft dem einzelnen bei der Einsparung von Kosten, Informationen zu lokalisieren und zu verarbeiten.

Die ungleiche Verteilung des Wissens in der Gesellschaft und die spontane Koordination der Teilnehmer führen nicht zu stabilen Gleichgewichtszuständen, sondern zu einem Marktprozess der wechselseitigen Abstimmung von Informationen und Präferenzen. Vor dem Hintergrund der Anwendung des Internet in einer arbeitsteiligen Gesellschaft kann daher weder die Strukturierung des Wissens noch die Vorgabe einer Übertragungsrichtung oder die Festsetzung eines Umfangs des Wissens in Form einer bindenden Programmauswahl sinnvoll sein.

Kurz gesprochen: das Wissen veraltet unter Umständen schneller, als neues Wissen entsteht.

 

Interdependente Nachfrage

Unter der Annahme beschränkter menschlicher Rationalität und der „Tatsache unabänderlichen Unwissens konkreter Umstände“ als Folge der arbeitsteiligen Spezialisierung ist für die Entwicklung des Internet die Annahme wechselseitigen Nachfrageverhaltens wichtig.

Usenet, E-Mail und andere Dienste des Internet zeigen, dass die Benutzung des Internet nicht in sozialer Abgeschiedenheit, sondern im Zusammenwirken mit anderen stattfindet. Die Teilnehmer stimmen ihr Verhalten wechselseitig ab. Durch die damit verbundenen Rückkopplungsprozesse ergeben sich nicht-lineare Entwicklungsverläufe und somit ein ein nicht zu behebender Mangel geeigneter Kosten-Nutzen-Bewertungskriterien für Netzeffektgüter.

Die Form des heutigen Internet hat selbst die Entwickler des Internet-Protokolls und des World Wide Web überrascht. Sie ist ein evolutorisches Ergebnis „menschlichen Handelns, aber nicht menschlichen Entwurfs.“

Die Entwicklung dieser Nachfrage erfolgt als chaotisches Muster. So wie niemand im voraus das Aussehen eines Fraktals vorhersehen kann, lässt sich auch das Internet der Zukunft nicht prognostizieren. Wer das tut muss sich im Klaren sein, wie antifreiheitlich sein Ansinnen ist.

 

Netzpolitische Konsequenzen

Wie gezeigt wurde, existiert auch in der Netzökonomie ein das menschliche Handeln bestimmende grundsätzliche Wissensproblem. Website-Angebote und Apps sind nur zu erklären, weil es weiterhin nötig ist, dieses Wissen zu erschließen. Im Grunde handelt es sich dabei um transaktionskostensenkende und regelschaffende Institutionen im Sinne der Institutionenökonomie.

Durch die dynamische und wechselseitig verstrickte Weiterentwicklung der Nachfrage nach bestimmten Diensten oder Produkten werden sich auch die Angebote im Internet weiterhin dynamisch fortentwickeln.

Problematisch wäre es, wenn dieser evolutorische Pfad der Entwicklung der Internet-Institutionen behindert würde. Dies könnte aufgrund des regelschaffenden Charakters dieser Institutionen durchaus der Fall sein.

Es wäre durchaus zu diskutieren, ob für Plattform-Geschäftsmodelle ab dem Erreichen einer kritischen Masse sowie ggf. zu einem späteren Zeitpunkt ab Erreichen eines Lock-Ins jeweils differenzierte Regulierungsvorgaben zu entwickeln wären, um eine dynamische Weiterentwicklung des Marktes nicht zu gefährden.

Viel gefährlicher aber sind die ideologischen Schlussfolgerungen, die die Anhänger der Internet-Vollkommenheit ziehen könnten: wenn Maschinen irgendwann besser wissen, was wir wollen, warum soll man uns dann noch fragen? Kein freier Mensch möchte sich wohl vorstellen, in einer solchen Welt Welt zu leben. Andererseits könnten es Maschinen und Algorithmen schaffen, uns das virtuelle Bild eines komfortablen Schlaraffenland-Leben zu suggerieren, weil in Zukunft vielleicht niemand mehr weiß wie süß die Freiheit schmeckt.

 

Hinweis:

Dies ist die aktualisierte und erweiterte Fassung von “Unwissen und Netzexternalitäten als Determinanten der Internet-Entwicklung” vom 14.4.1996

 

Quellen:

Vgl. VON HAYEK (1945/1976), S. 103.

Das Schlagwort stammt von GATES (1995).

Vgl. VON HAYEK (1945/1976), S. 120.

Vgl. VON HAYEK (1945/1976).

Vgl. KUNZ (1995), S. 119-128.

Zum Konzept begrenzter Rationalität vgl. grundlegend Simon (1983).

Vgl. VON HAYEK (1980), S. 27-30.

Vgl. grundlegend JEFFREY (1974), S. 16; Katz; Shapiro (1985), S. 424-440; BLANKART; KNIEPS (1994), S. 449; zu Bündelungsvorteilen durch Netze vgl. Blankart; Knieps (1992), S. 74.

Zu Netzexternalitäten vgl. KATZ; SHAPIRO (1985), S. 424; zu Rückkopplungsprozessen vgl. ARTHUR (1990); ders. (1989), S. 117-123. Für eine empirische Überprüfung der Netzexternalitäten-Hypothese vgl. insbesondere GANDAL (1993).

Vgl. VON HAYEK (1968d), S. 97-107.

Bild: by Dave Morris (https://www.flickr.com/photos/davemorris/) , This is Frei Otto’s Olympic Stadium in Munich. (Also home to Bayern Munich football team, I think), Creative Commons Lizenz: https://creativecommons.org/licenses/by/2.0/ Clever classrooms summary http://www.writemyessay4me.org/ report of the head project

Project Details