Der Erfolg offener Standards und seine Nebenwirkungen am Beispiel der IETF:  
Das Internet und seine Gemeinde sind in der Normalität angekommen   

Jeanette Hofmann  
 

RealVideo: Modem | ISDN   

Das Open Source-Projekt stellt die Machtfrage, und siehe da: Sie lehrt die Großkopferten der Softwareindustrie das Fürchten. Etwas ähnliches hat sich unlängst schon einmal ereignet. Auch das Internet verdankt seinen Erfolg einer frei verfügbaren, offenen Netzarchitektur, die sich wider alle Erwartungen gegen ein wirtschaftlich wie politisch umworbenes Konkurrenzmodell durchgesetzt hat. Dieses Modell hieß OSI und gilt heute als Reinfall. Einiges spricht dafür, daß das Konzept des freien Quellcode eine ähnliche Karriere durchläuft wie einst die offenen Internetstandards: Am Anfang nimmt die im Ehrenamt entwickelte Technik kaum jemand ernst, und die Fangemeinde bastelt mehr oder minder im Stillen vor sich hin. Dann beginnt die Installationsbasis der offenen Software zu wachsen und nach und nach auch im kommerziellen Bereich Fuß zu fassen. Die ersten Triumphe gegenüber urheberrechtlich geschützter Technik stellen sich ein, und eine euphorische Stimmung macht sich breit. Man weiß sich technisch überlegen und wähnt sich auf der Siegerseite. 
Solche Erfolgsgeschichten sind gut für die gequälte Seele - und doch enden sie nicht immer gut. Der Durchsetzungserfolg offener Technik hat nämlich seinen Preis. Von diesem Preis handelt mein Beitrag.  

Anhand des Siegeszuges der Internet-Standards läßt sich erkennen, wie dieser Erfolg auf die Bedingungen zur Entwicklung offener Standards zurückwirkt. Um einen Einwand gleich vorwegzunehmen: Standards, das heißt, die schriftlichen Spezifikationen einer Technik, sind natürlich nicht das Gleiche wie Quellcode. Dennoch ähneln sich die Auswirkungen, die ihre weltweite Verbreitung auf die Voraussetzungen ihrer Entwicklung haben.  

Die Entwicklungstradition offener Internet-Standards  

Die Realisierung der für das Internet charakteristischen Paketvermittlungstechnik ist von Beginn an ein kollektives Projekt gewesen. Begünstigt wurde das durch die akademische Umgebung, in der das Netz 1969 das Licht der Welt erblickt hat. Eine Gruppe von Studenten an der UCLA probierte so lange herum, bis der Datenfluß in Gang kam. Sogar Gedichte zeugen von diesem für alle Beteiligten überwältigenden Ereignis:  

    "We cautiously connected and the bits began to flow. The pieces really functioned - just why I still don't know...." (RFC 1121) 
Wohl keiner der Beteiligten dachte in dieser und allen folgenden Sternstunden an persönliche Urheberrechte. Der Reiz und die Befriedigung bestand eher darin, in einer experimentellen Umgebung kollektiv Neues zu entwickeln.  

Nicht nur die Ergebnisse dieser Arbeit waren offen, sondern auch die Gruppe selbst. Die Väter des Internets (von Müttern ist nichts bekannt) verstanden sich als offene Gemeinde, zu der sich nach und nach auch Interessierte anderer Universitäten mit Netzanschluß hinzugesellten. Von ihrem informellen Flair hat sich die Gemeinde bis heute viel bewahrt. Dies gilt auch für die Regeln, die sich die  Internet Engineering Task Force (IETF) im Laufe ihres Bestehens gegeben hat. Zu den wichtigsten Grundsätzen kollektiver Standardentwicklung gehören: 
  

  • Offene Organisationsgrenzen: Die IETF besitzt weder einen Rechtsstatus noch formelle Mitgliedschaftsregeln. Jede, die an ihren Treffen teilnimmt oder auf ihren Mailinglisten aktiv ist, gilt als Mitglied. 
  • Das Internet ist wichtigste Entwicklungsstätte: Jede der rund 100 Arbeitsgruppen der IETF unterhält ihre eigene, offen zugängliche Mailingliste. Hier werden alle relevanten Entscheidungen getroffen. 
  • "One man, one vote": Jeder spricht nur für sich selbst. Die Repräsentation Dritter - Unternehmen, Regierungen, etc. - wird nicht akzeptiert. 
  • "Rough consensus & running code": Kampfabstimmungen sind verpönt. Es wird diskutiert, bis sich eine komfortable Mehrheit für etwas abzeichnet. Im übrigen gilt: Es setzt sich nur durch, was nachweisbar funktioniert - eben running code
  • Open Standards: Standardisiert wird nur frei verfügbare und durch mehrere Implementationen getestete Technik. Seit 1994 liegen die Urheberrechte für alle Produkte (RFCs und Drafts) bei der Internet Society. Der Anspruch auf "change control" soll sicherstellen, daß aus vielen Ideen ein Gesamtwerk werden kann. 
Knapp 20 Jahre hat die Gemeinde entlang dieser Regeln vor sich hin gebastelt, ohne daß die Öffentlichkeit davon ernsthaft Notiz genommen hätte. Sie wuchs zwar, aber kaum über den akademischen Kreis mit Netzzugang hinaus. Kurz: man - eine überschaubare Schar Gleichgesinnter - war unter sich.  

1987 verzeichnete die IETF auf ihren Treffen erstmals mehr als 100 Menschen. Danach stiegen die Teilnehmerzahlen sprunghaft an. In diesem Wachstum spiegelt sich zum einen die Ausbreitung des Internets wider, zum anderen aber auch die Entstehung einer neuen Branche. Die Netztechnik entwickelte sich zu einem lukrativen Markt, und immer mehr Hersteller suchten den Zugang zu dessen Quelle. Und noch bevor sie es so richtig realisiert hatte, war die IETF zur zentralen Standardisierungsinstanz fürs offene Datennetz avanciert.  

Die IETF - und mit ihr die offenen Standards - konnte damit einen doppelten Triumph verbuchen. Sie hatte der Internationalen Standardisierungsorganisation, ISO, dem großen Gegner aller echten Geeks, gleich in zweifacher Hinsicht den Rang abgelaufen. Zum einen konnte das Internet eine größere Installationsbasis als jedes andere Datennetz aufweisen, zum anderen etablierte sich die Graswurzelgemeinde all ihrer basisdemokratischen Organisationsregeln zum Trotz als reguläre Standardisierungsorganisation.  

Der Erfolg der offenen Standards und ihrer offenen Gemeinde ist nicht ohne Auswirkungen auf die Arbeitsweise der IETF geblieben. Einige dieser Nebenwirkungen scheinen mir symptomatisch für das Dilemma, in dem sich nicht nur die Internetcommunity, sondern das Projekt kollaborativer, offener Technikentwicklung insgesamt bewegt. Um die geht es im folgenden:  

1. Skalierungsprobleme: "Wegen Überfüllung geschlossen"  

Nicht nur die offene Netzarchitektur, auch ihre Entwicklergemeinde ächzt unter den Folgen des weltweiten Andrangs. Mit den Händen zu greifen sind die sich daraus ergebenden organisatorischen Skalierungsprobleme während der Tagungen der IETF. Aus den 50 bis 100 Teilnehmern in den 80er Jahren sind in der zweiten Hälfte der 90er Jahre 2000 bis 3000 Leute geworden. Hatten sich die einzelnen Arbeitsgruppen früher um einen Tisch eines abgelegenen Universitätsraums gruppiert, benötigen die wirtschaftlich relevanten unter ihnen heute die Ballsäle der großen internationalen Konferenzhotels, um alle Teilnehmer unterzubringen. Unter solchen Bedingungen will sich die einstmals dichte Arbeitsatmosphäre nicht mehr einstellen. An die Stelle von den Debatten, an denen sich noch alle Anwesenden aktiv beteiligten, sind heute Präsentationen getreten.  

Im Rahmen einer zumeist rigiden Tagesordnung berichten Experten einem überwiegend schweigenden Publikum in wenigen Minuten über den aktuellen Sachstand eines Entwicklungsprojekts. Darauf gibt es in der Regel ein paar schüchtern-kritische Nachfragen, dann folgt die nächste Präsentation.  

In Folge ihres Wachstums haben die Arbeitsgruppen der IETF einen Bedeutungswandel durchlaufen. Nicht mehr der kooperative Entwicklungsprozeß steht im Vordergrund, sondern die Informationsvermittlung. Die eigentliche Arbeit aber ist ausgewandert. Die findet nicht mehr in den Arbeitsgruppen statt, sondern immer häufiger in sogenannten Designteams. Das sind kleine geschlossene Gruppen mit einer konkreten Aufgabenstellung, deren Mitglieder üblicherweise vom Chair einer Arbeitsgruppe kooptiert werden. Bezeichnenderweise arbeiten Designteams nicht öffentlich. Im Gegenteil, der Ausschluß der Öffentlichkeit gilt als Voraussetzung, um überhaupt arbeitsfähig zu werden. Designteams sind bloß die sichtbare, institutionalisierte Form einer allgemeinen Tendenz zur Unterhöhlung der Öffentlichkeit im Namen der Rettung von Effizienz.  

Die erste Lektion, die sich daraus lernen läßt, lautet: Das Projekt offener, kollektiver Technikentwicklung stößt an organisatorische Grenzen, wenn zu viele daran teilhaben oder gar aktiv mitwirken wollen. Irgendwann hängt dann das Schild "Wegen Überfüllung geschlossen" an der Tür, hinter der die praktische Entwicklungsarbeit eben jenen exklusiven Charakter annimmt, gegen den man einst voller Emphase angetreten ist.  

2. Balanceakte: Zwischen Gemeinwohl und ökonomischer Konkurrenz  

Seit den späten 80er Jahren hat sich der Anteil akademischer Mitglieder in der IETF stetig verringert - und das nicht nur, weil die Zahl der Unternehmen immer mehr anstieg, sondern auch, weil immer mehr Gründungsmitglieder in die Wirtschaft wechselten. Seither hat die IETF ein Problem am Hals, das jede herkömmliche Standardisierungsorganisation auch irgendwie bewältigen muß: In den Arbeitsgruppen sitzen sich nicht mehr nur querköpfig und besserwisserisch argumentierende Geeks gegenüber, sondern auch konkurrierende Unternehmen. Daraus ergibt sich die Notwendigkeit, zwischen dem Internet als kollektivem Allgemeingut auf der einen und dem Internet als einzelwirtschaftlichem Absatzmarkt auf der anderen Seite zu balancieren.  

Dieser individuelle und zugleich kollektive Balanceakt gelingt unterschiedlich gut und - glaubt man den kritischen Stimmen in der IETF - in der letzten Zeit eher schlechter. Befragt man die Netzveteranen zu diesem Thema, scheint man es mit einem None-issue zu tun zu haben. Für die Gründergeneration des Internet ist es eine Frage der professionellen Ehre und Verantwortung, dem Wohl des Netzes und seiner Community Vorrang einzuräumen. Die Reputation der Internetväter beruht gerade auf der Intelligenz und Unbestechlichkeit ihres Urteils, die sie bei technisch strittigen Fragen immer wieder aufs Neue unter Beweis stellen können. 

Hinzukommt, daß die meisten Netzveteranen ihren Arbeitgeber im Laufe der Jahre so oft gewechselt haben, daß sie gegenüber einzelnen Unternehmen kaum das Maß an Verbundenheit entwickeln, das die Internetgemeinde traditionell zusammenhält.  

Auf die nächste Generation von Netztechnikern - so jedenfalls sehen die "Alten" das - treffen alle diese Voraussetzungen nicht mehr oder nur noch eingeschränkt zu. Entsprechend scheint das allgemeine Unterscheidungsvermögen zwischen dem, was dem Arbeitgeber nützt und dem, was gut fürs Internet sein mag, gelegentlich an Trennschärfe zu verlieren. 

Inzwischen gibt es in der IETF Arbeitsgruppen, in denen die verschiedenen Vorstellungen zu einem Standard ganz offen mit den konkurrierenden Produkten einzelner Unternehmen assoziiert werden. "Wenn man sich vor Augen hält", so beschrieb ein Betroffener die Lage, "daß die Positionierung eines einzelnen Bits in diesem Standard über das Schicksal eines gesamten Unternehmens entscheiden kann", verwundert es dann noch, daß die kooperative Entwicklungskultur der Community unter Druck gerät und Auflösungserscheinungen zeigt?"  

Die zweite Lektion, die sich aus dem Erfolg offener Internet Standards lernen läßt, besagt, daß das wirtschaftliche Gewicht, das auf diesen lastet, eine wesentliche Voraussetzung ihrer bisherigen Überlegenheit gegenüber anderen Datennetzen zu unterlaufen droht: das kollektive Streben nach der bestmöglichen Lösung.  

3. Technische und organisatorische Versteinerungen  

Solange das Internet eine randständige Rolle innerhalb der Kommunikationsnetze spielte, schien der Spielraum für technisch Neues schier unendlich und der Bedarf an formalen Regelungen untereinander minimal. Im Windschatten der hegemonialen Telefonwelt konnte die IETF einen Entwicklungsstil kultivieren, der die Bereitschaft zum permanenten Wandel zum Programm erhob:  

    "Principles that seem sacred today will be deprecated tomorrow. The principle of constant change is perhaps the only principle of the Internet that should survive indefinitely." (RFC 1958) 
Aus Sicht der Kritiker hat sich jedoch der Wille, auch heilige Kühe auf dem Altar des technisch Möglichen zu opfern, weitgehend verloren. Die IETF sei religiös geworden und erstarre in Ehrfurcht vor ihren früheren Errungenschaften. Die Standardentwicklung im Internet, so die Kritiker, verlangsame sich, werde im Stil konservativer und mittelmäßiger. Die IETF sei auf dem besten Weg, eine Standardisierungsorganisation wie jede andere zu werden. Dafür werden mehrere Gründe angeführt.  

Es sei erstens die Größe der Community, die einer jeden neuen Idee so viele Kompromisse abverlangt, daß sie irgendwann verwässert und kaum mehr wiederzuerkennen ist. Der Zwang zum Konsens, der dem Projekt kollektiver Standardentwicklung zugrundeliegt, privilegiere jeweils den kleinsten gemeinsamen Nenner. In den Worten eines Frustrierten:  

    "...but this is what the IETF seems to excel at, taking your pet dream, your clear and unfettered vision, and seeing it get all cloudy as everyone pees into it..." (Knowles, IPv6 haters list, 10.12.97) 
Es sei zweitens eine neue Generation von Ingenieuren, die die experimentelle und improvisationsreiche Tradition des Netzes nicht mehr wahrnimmt. Aus der Sicht der nachwachsenden Netztechniker, die heute zumindest numerisch die Mehrheit bilden, ist die IETF bereits eine Standardisierungsorganisation wie jede andere und die bestehende Netzarchitektur eine unumstößliche, ja, axiomatische Tatsache.  

Und drittens trägt schließlich auch die wachsende Installationsbasis zur Versteinerung der Netzarchitektur bei. Standardisiert werden kann nur mehr, was sich nachweislich problemlos in die bestehende Netzumgebung einfügt.  

Die Tendenz zur technischen Versteinerung geht einher mit einer zunehmenden Formalisierung und Verrechtlichung der Verfahren zur Standardentwicklung. Nicht nur verschriftlicht und standardisiert die IETF nun auch die Regeln, entlang derer Standards entwickelt werden, diese Standards werden auch juristischen Prüfungen unterzogen. Drohende Konflikte um Urheberrechte oder Wettbewerbsverstöße, aber auch wiederkehrende längliche Debatten um die Implikationen offener Standards sind die Ursachen dafür. Seit einigen Jahren gibt es in der IETF eine Arbeitsgruppe, die sich ausschließlich mit der Kodifizierung von einst mündlich weitergegebenen Traditionen und Prinzipien beschäftigt. POISSON heißt sie.  

Der jüngste Akt in diesem Prozeß der Formalisierung und Verrechtlichung des Internet ist die Gründung von ICANN, der Internet Corporation for Assigned Names and Numbers, die die Kontrolle über so grundlegende Verwaltungsbereiche wie das Domainnamensystem und die Rootserver übernehmen wird. Selbstredend dürfen auch hier wieder alle mitmachen - mit welchem Ergebnis wird sich zeigen.  

FAZIT (statt noch einer Lektion)  

Das Internet und seine Gemeinde sind in der Normalität angekommen. Irgendwann werden sich die Väter unter der wachsenden Zahl gleichberechtigter Mitglieder verloren haben - und mit ihnen ein Teil der Ideen und Prinzipien, die die Entstehung des Internet umgaben. Manche schließen daraus, daß die IETF heute nicht mehr der geeignete Ort ist, um das Projekt globaler Konnektivität weiterzutreiben. Hat der gesellschaftliche Erfolg das Internet mitsamt seiner Gemeinde also um die Voraussetzungen für diesen Erfolg gebracht?  

Es ist naheliegend sentimental zu werden und die Durchsetzung offener Standards als eine Enteignungsgeschichte zu beschreiben, in der ihre Anerkennung zugleich eine Unterwanderung und allmähliche Zerstörung eben der Kultur bewirkt, die sie erst möglich gemacht hat. Dem sollte man vermutlich entgegenhalten, daß die Normalisierung der kollektiven Standardentwicklung kein einseitiger Vorgang ist, denn das Internet wirkt ja auch zurück auf das, was jeweils als gesellschaftliche und wirtschaftliche Normalität empfunden wird. Das Open Source-Konzept ist ein gutes Beispiel dafür. Sollte sein Erfolg anhalten, wird es auch irgendwann Teil gesellschaftlicher Norm sein.  
 

(siehe auch Telepolis, 23.07.99) 
 

Dr. Jeanette Hofmann ist Politikwissenschaftlerin und wissenschaftliche Mitarbeiterin am Wissenschaftszentrum Berlin. Letzte Veröffentlichungen zum Thema Internet/IETF:   

"Am Herzen der Dinge - Regierungsmacht im Internet", in: Winand Gellner & Fritz von Korff (Hg) Demokratie und Internet, Nomos 1998, S. 55 -77.   

"Let a thousand proposals bloom - Mailinglisten als Forschungsquelle", in: Bernad Batinic et al (Hg): Online Research, Hogrefe 1999, S. 179 - 199.6