Freie Software
Geschichte, Dynamiken und gesellschaftliche Bezüge
 

Volker Grassmuck

Ver 1.0
September 2000

Teil 1/2
-> zu Teil 2/2



 
 
 
 
 
 

online unter
http://mikro-berlin.org/Events/OS/text/freie-sw.html (dieser Text) und
http://mikro-berlin.org/Events/OS/text/freie-sw.pdf
 

Die vorliegende Ausarbeitung ist im Rahmen des Forschungsprojektes "Von der Ordnung des Wissens zur Wissenordnung digitaler Medien" entstanden. Sie beruht unter anderem auf dem Fachgespräch Open Source-Software des BMWi am 15.7.1999 und der Konferenz Wizards of OS. Offene Quellen und Freie Software am 16.-17.7.1999, beide im Haus der Kulturen der Welt in Berlin. Die Arbeit erhielt finanzielle Unterstützung von der DFG und dem BMWi.
 
 

Inhalt
Einleitung 

Geschichte 
     "Wissenskommunismus" der Wissenschaften 
     Internet 
          Frühphase 
          Wachstum
             Institutionalisierung 
             Netzwerkforschung 
             Neue Architekturen, Protokolle und Dienste
             Internationalisierung
             Kommerzialisierung
          Wende ab 1990
          The Beginning of the Great Conversation 
     Geschichte der Software-Entwicklung
          Betriebssysteme
          Unix
             Das GNU-Projekt 
             GNU/Linux
     Von 'Free Software' zu 'Open Source Software'
     Zahlen zur freien Software

Was ist freie Software, wie entsteht sie, wer macht sie?
     Quellcode und Objektcode
     Wie funktioniert ein Projekt der freien Software?
          Core-Team und Maintainer
          Die Community
          Entscheidungsfindung: "rough concensus and running code"
          Code-Forking
          Die Tools
          Debugging
          Die Releases
          Institutionalisierung: Stiftungen und nichtprofitorientierte Unternehmen 
          Die Motivation: Wer sind die Leute und warum machen die das... wenn nicht für Geld? 
          Software-Zyklus: Entwickler, Power-User, Endnutzer

Die Software
     BSD
     Debian GNU/Linux
     XFree86
     KDE
     Apache
     GIMP

Lizenzmodelle
     BSD-Lizenz
     GNU General Public License
          GPL und deutsches Recht
          Library GPL
          Lesser GPL
     Weitere offene Lizenzen
          Verhältnis von freiem und proprietärem Code
          Status abgeleiteter Werke
          Beispiele für Lizenzkonflikte
     Unfreie Lizenzen
          Der Uniform Computer Information Transactions Act

Gesellschaftliche Potentiale freier Software
     Freie Software in der Bildung
     Freie Software in den Nicht-G7-Ländern

Wirtschaftliche Potentiale freier Software
     Anwender von freier Software
     Dienstleister rund um freie Software
          Systemhäuser, Hard- und Software-Hersteller
          Distributoren
          Application Service Providers (ASPs)
          Projekt-Hosting und Portale
     Erstellung freier Software
     Dokumentation

Praxisbeispiele
     LunetIX
     SuSE
     Innominate
     New Technologies Management GmbH
     die tageszeitung
     Babcock-BSH
     Lehmanns Buchhandlung
     Individual Network
     O'Reilly Verlag
     Intershop

Sicherheit
     Betriebssicherheit
          Gewährleistung und Haftung
     Kryptografie: Security by Obscurity vs. offene Verfahren
     Vertrauenswürdige Instanzen

'Betriebssystem' für eine freiheitliche Gesellschaft

Fußnoten
Literatur
 



 
 

Einleitung



Daß Menschen in freier Kooperation ohne primäres Interesse am Gelderwerb, ohne sich je getroffen zu haben und ohne eine Leitung, die ihnen sagt, was sie zu tun haben, hochwertige Software schreiben, ist eine erstaunliche Tatsache. Zumal in einer Zeit, da Wissen in einem Ausmaß und mit einer Reichweite kommodifiziert wird, wie es nie zuvor auch nur denkbar war. Im Sommer 1998 trat diese verblüffende Entwicklung ins Licht der Öffentlichkeit. Software war mit dem Aufkommen des PC-Marktes zu Beginn der achtziger Jahre zu einem regulären Massenprodukt geworden. Firmen wie Microsoft, Corel oder IBM boten Betriebssysteme, Anwendungen und Netze als Standardware im Regal an. Verblüffend war nun, daß in einem über zwanzig Jahre gereiften Marksegment plötzlich Konkurrenz aus einer unwahrscheinlichen Richtung auftauchte. Erfolgs-Software wie Linux, Perl oder XFree86 wird von Gruppen locker zusammenarbeitender vermeintlicher Hobbyisten erstellt, die meist nicht einmal eine ordentliche Rechtsform hatten. Und sie verkauften keine Produkte, sondern verschenkten eine Teilhabe an ihrem gemeinsamen Software-Entwicklungsprozeß. Während die Industrie den Schutz ihres exklusiven geistigen Eigentums immer weiter ausbaut (die Entscheidung des US-Verfassungsgerichts von 1981, die erstmals die grundsätzliche Patentierbarkeit von Software bekräftige, war ein wichtiger Schritt in diese Richtung), liegt die Stärke des alternativen Modells darin, den geistigen Reichtum frei mit aller Welt zu teilen und gemeinsam fortzuschreiben.

Im Zentrum der Aufmerksamkeit stand das Unix-artige PC-Betriebssystem GNU/Linux. Philosophen und Evangelisten gab es auch früher, doch ihr 'Manifest' erhielt die Open-Source-Bewegung Anfang 1998 mit Eric Raymonds Aufsatz "The Cathedral and the Bazaar".(1) Darin beschreibt er die Faustregeln für eine verteilte, offene, locker gekoppelte Zusammenarbeit am selben komplexen Software-Projekt durch Tausende von über die ganze Welt verstreuten Menschen. Sein Paradebeispiel für den Erfolg einer solchen unwahrscheinlichen Organistationsform ist das von Linus Torvalds initiierte Betriebssystemkern-Projekt Linux. "In fact, I think Linus's cleverest and most consequential hack was not the construction of the Linux kernel itself, but rather his invention of the Linux development model." Open Source stellt die konventionelle Logik auf den Kopf: verteilte Gruppen von Gleichen sind effizienter als Chef-geleitete, hierarchische Systeme. Wer die Früchte seiner Arbeit verschenkt, hat mehr davon. Eigennutz und Anerkennung motivieren effektiver als Geld.

Fragt man Eingeweihte, wie denn solche freien Projekte zustande kommen und welche Ingredienzen es dazu braucht, erfährt man, daß das ganz einfach sei: "In dem Moment, wo man Leute mit einer guten Ausbildung und viel Freizeit zusammentut mit einer guten Kommunikationsinfrastruktur, also gut verfügbarer Netzbandbreite, sorgen die von selbst dafür, daß sie sich nicht langweilen und fangen irgendwelche seltsame Projekte an, wie zB. das KDE-Projekt.(2) Das ist die perfekte Umgebung, wie sie z.B. an der Uni mit ausreichend vielen Assistenten herrscht oder in anderen Umgebungen, wo man diese Faktoren vernünftig zueinander bringen kann."(3)

Zu den spektakulären Entwicklungen des Jahres 1998 gehören Netscapes Freigabe des Quellcodes für seinen Browser und der Deal zwischen IBM und der Apache-Gruppe, um deren http-Server in IBMs WebSphere-Suit zu integrieren. Im Mai kündigte Corel die Portierung von WordPerfect auf Linux an. Im Juli Oracle und Informix mit ihren Datenbanken. Netscape, Cygnus, Sendmail, McAfree, Caldera, RedHat, Cisco bieten quelloffene Software als Produkt an. Sun Microssystems, IBM, Novell, Hewlett-Packard, SAP, Orcale, Dell, Compaq, Silicon Graphics begannen ebenfalls, quelloffene Software zu verkaufen und zu unterstüzen. IBM schloß Lizenzabkommen mit RedHat, SuSE, Caldera und Pacific HiTeck über Marketing, Schulung, Support und Entwicklung für Linux. Auch Computer Associates, das drittgrößte Softwarehaus der Welt, kündigte seine Unterstüzung für Linux an. Im Dezember baut das CLOWN Projekt, live in der WDR Computer-Nacht mitzuverfolgen, einen Linux-Cluster mit 550 Knoten, rekordträchtig nach allen Maßstäben.

Die Wellen schlugen so hoch, daß selbst Microsoft (MS) eine hausinterne Expertise über Open Source in Auftrag gab. Durch die Enthüllung dieses vetraulichen, sog. "Halloween-Dokuments"(4) im November wurde sichtbar, daß MS Open-Source-Software als direkte und kurzfristige Bedrohung seines Profits und seiner Plattform ansieht. Mehr noch sieht der Autor im freien Austausch von Ideen einen Vorteil, der von MS nicht repliziert werden könne, und deshalb eine langfristige Bedrohung des Mindshare des Unternehmens bei den Software-Entwicklern darstelle. Zur Abwehr der Gefahr empfiehlt er u.a. eine Strategie, die MS bereits gegen Java einsetzte: MS erweitert offene Standards um proprietäre Funktionen, die durch Marktsättigung als "de facto"-Standard durchgesetzt werden. Die Befürchtungen waren nicht unbegründet. Tatsächlich hat sich GNU/Linux als formidabler Konkurrent um den Server-Markt gegen Windows-NT etabliert. Im Oktober, im Vorfeld des Kartellverfahrens, hatte Microsoft Linux als Beleg dafür angeführt, daß es kein Monopol im Betriebssystemmarkt habe.

Als selbst Forbes Magazine in seiner Ausgabe vom August 1998, mit Linus Torvalds auf dem Titel, das Loblied von Open Source und Hackern sang, mußte man sich fragen, ob dieses Phänomen tatsächlich an die Grundfesten des Kapitalismus rührte. Im Oktober kündigen Intel und Netscape Investitionen in Red Hat Software an. Zu Hollywood-Ruhm gelangte Linux durch den Film Titanic, dessen Computergraphiken auf einem Linux-Cluster gerechnet wurden. Sogar in der Kunstwelt fand es Anerkennung, als Linus Torvalds stellvertretend für sein Projekt der Linzer Prix Ars Electronica 1999 verliehen wurde. Die Zahl der installierten Linux-Systeme stieg auf einige zehn Millionen weltweit. Der Markt verzeichnete eine regelrechte Linux-Hysterie. Auf der CEBIT 1999 konnte man sich vor lauter Pinguinen -- dem "Tux" genannten Maskottchen von Linux -- kaum retten. Jedes Software-Unternehmen mit einer Warenwirtschaft, einer Zahnärtzelösung oder einem eCommerce-System kündigte an, dieses Produkt jetzt auch für Linux anzubieten.(5)

Wer sich erinnern konnte, wußten schon damals, daß freie Software nichts Neues war. Tatsächlich lassen sich verschiedene Phasen dieser Bewegung unterscheiden. Vor 1980 macht es wenig Sinn von 'freier' Software zu sprechen, da es keine 'unfreie' gab. Der Computer-Markt beruhte allein auf Hardware, zu der Software als eine nicht schützensfähige Zugabe galt. Auch die Software, aus der das Internet besteht, entstand vorwiegend in einer akademischen Umgebung ganz selbstverständlich in einem offenen kooperativen Prozeß, ohne Barrieren wie Copyrights und Patente. Die 80er Jahre stehen dann unter dem Zeichen der proprietären Schließung von Software durch Microsoft (MS-DOS) und AT&T (Unix) und der Gegenbewegung des GNU-Projekts,(6) Quelle und Sammelbecken für viele wichtige freie Projekte dieser Zeit. Fairerweise muß man dazu sagen, daß auch auf den geschlossenen Plattformen PC/M, MS-DOS und MS-Windows eine Fülle von Free- und Shareware entstanden ist. Windows-Archive haben durchaus auch einen Basar-Charakter. In den 90er Jahren kommt der Wechsel von Mainframe und Workstation zum PC voll zum Tragen, und die 'Vollbesiedlung' des Internet beginnt. Eingeläutet wird die Dekade von Linus Torvalds' Projekt, Unix auf den PC zu übertragen. Auch dem Berkeley-Unix wird durch seine Portierung auf die Intel-Architektur neues Leben eingehaucht. Mit der Erschließung der billigen und massenhaft zugänglichen Plattform durch die beiden Unix-Kerne und durch Basiswerkzeuge wie dem GNU-C-Compiler wurde der Software-Pool des GNU-Projekts nutzbar. Weitere Projekte, wie XFree86 und der Apache-Webserver, wandert aus der Welt der großen Rechner herüber und neue, wie das Bildverarbeitungsprogramm GIMP, entstanden. Da die freien Unixe sich an den Posix-Standard(7) halten, steht ihnen darüberhinaus -- zumindest auf Quellcodeebene -- das gesamte Software-Angebot unter Unix zur Verfügung. Betriebssysteme, Werkzeuge und Applikationen erzeugten eine sich gegenseitig verstärkende Dynamik, die schließlich 1998 so spektakulär eine breitere Öffentlichkeit erreichte.

Erst im Zuge dieser öffentlichkeitswirksamen Entwicklungen beginnt das Management in den Unternehmen, freie Software überhaupt als brauchbare Alternative im produktiven Einsatz anzuerkennen. Diese Akzeptanz ging graswurzelartig von den Technikern aus. Noch 1998 war eine häufige Konstellation, daß Firmensprecher öffentlich abstritten (und u.U. auch gar nicht wußten), daß in ihrem Unternehmen freie Software eingesetzt wird, während die Systemadministratoren aus praktischen oder Kostengründen ihre Server mit Linux und Apache betrieben. Was vorher als 'unseriös' galt, wurde mit der breiten Aufmerksamkeit für freie Software zu etwas, mit dem ein Unternehmen einen Anerkennungsbonus erlangen konnte. Firmen wie Sixt oder Ikea konnten ihre hausinternen Linux-Systeme jetzt gewinnbringend in ihrem Marketing präsentieren. Nirgends sonst wird der Übergang von der Waren- zur Dienstleistungsgesellschaft, von Produkt zu Prozeß, so deutlich sichtbar, wie bei der Software.

Auch in der Verwaltung wird freie Software inzwischen zur Kenntnis genommen. So evaluierte z.B. eine Arbeitsgruppe des Berliner Senats, die 1999 eine Empfehlung zur Verwendung von Betriebssystemen in der gesamten Berliner Bundesstruktur erarbeiten sollte, GNU/Linux gegenüber Windows NT.(8) Noch weiter gingen die beiden französischen Abgeordneten Pierre Laffitte und René Trégouët mit ihrer Gesetzesvorlage, derzufolge Frankreichs Regierung und Verwaltung ausschließlich Software verwenden soll, die frei von geistigen Eigentumsrechten und deren Quellcode verfügbar ist, da nur quelloffene Systeme die erforderliche Evaluierung zulassen. Die beiden Abgeordneten sehen das Internet als den hauptsächlichen Weg, auf dem Staat und Bürger zukünftig kommunizieren werden, daher dürfe sich die Verwaltung nicht vom Wohlwollen von Software-Verlegern abhängig machen.(9) Unabhängigkeit, Sicherheit und die vergleichsweise neue benutzerfreundliche Einsetzbarkeit von freier Software im Büroalltag hebt auch die deutsche Koordinierungs- und Beratungsstelle der Bundesregierung für Informationstechnik in ihrer aktuellen Analyse hervor und empfiehlt eine "Migration zu Open-Sources-Software".(10)

Das Basar-Verfahren der quelloffenen Software-Entwicklung beruht auf kollektiver Intelligenz, Peer-Reviews und einer breiten funktionalen Bewertung der Systeme. Die Voraussetzung dafür ist die ungehinderte Weitergabe und Weiterverwendung des Quelltextes, der Datenformate und der Dokumentation der betreffenden Software. Freie Software trägt nicht nur dem Prozeßcharakter der digitalen Ware Rechnung und bringt stabilere, interoperable, portierbare, weiterverwendbare Software hervor, sondern speist auch den Pool des Gemeingutes: Wissen, das allen gehört.
 

Dieses Kapitel exemplifiziert die Perspektive, die im vorangegangenen mit der Wissens-Allmende eröffnet wurde. Durch die große gesellschaftliche Bedeutung, die die freie Software erlangt hat, scheint es uns geboten, ausführlich auf das Phänomen einzugehen. Die Kooperationsmechanismen, die technischen, sozialen, kulturellen und rechtlichen Kontexte und die Auswirkungen von freier Software werden dargestellt. Anhand einzelner Projekte werden ihr Entstehen, ihre Organisations- und Kommunikationsformen und die Motive ihrer Beteiligten erläutert. Es folgt eine Diskussion der gesellschaftlichen und wirtschaftlichen Potentiale der freien Software. Ihre Schnittstelle zur konventionellen Wirtschaft sind die verschiedenen Lizenzen. Firmen, die Dienstleistungen rund um freie Software anbieten oder sie in ihren Unternehmensprozessen einsetzen, werden vorgestellt. Es schließt sich das für jede Software wichtige Thema der Sicherheit an, und am Schluß erfolgt ein Blick auf die weiteren Entwicklungen und die Implikationen für die digitale Wissensordnung.
 
 




Geschichte






"Wissenskommunismus" der Wissenschaften

Seit den Athenern gehört es zur Universität, daß das von ihr erzeugte und durch sie weitergegebene Wissen, anders als das in geschlossenen und gar geheimen Forschungsstellen der Staaten oder der Industrien üblich ist, ohne den Schutz von Patenten und Copyright zirkulieren können muß. Die im Hochmittelalter entstandenen europäischen Universitäten bildeten einen Medienverbund aus Verarbeitung des gesprochenen Wortes zu handschriftlichen Büchern, Speicherung in Bibliotheken und Übertragung von Texten in einem eigenen Universitätspostsystem. In der frühen Neuzeit übernahmen dank Gutenbergs Erfindung Verlage die Produktion von Büchern, und die entstehenden Territorialstaaten und später Nationalstaaten beanspruchten das Postmonopol. Die Informationsverarbeitung, so Friedrich Kittler, wurde einer Hardware übertragen, die in den geschlossenen Kreisen der militärischen Nachrichtentechniken entstand. Die Computer-Software dagegen sei eine Schöpfung der Universität gewesen. Die universale Turing-Maschine stammte als Konzept und als Software aus einer akademischen Dissertation. "Ganz entsprechend stammt die noch immer herrschende von-Neumann-Architektur von einem, der es vom Göttinger mathematischen Privatdozenten schließlich zum Chefberater des Pentagon brachte. Auf diesem Weg zur Macht hat das Wissen, das in Computer und ihre Algorithmen versenkt ist, einmal mehr jene Schließung erfahren, die einst bei der Übernahme der Universitäten durch die Territorialstaaten drohte."(11)

Solcher realen Vereinnahmungen zum Trotz enwirft die Gelehrtenrepublik des 19. Jahrhunderts eine akademische Wissenschaftsverfassung, die auf der Freiheit von Lehre und Forschung beruht. Konstitutiv für diese klassische Wissensordnung Humboldtscher Prägung und fortgeschrieben in der Forschungsgemeinschaft des 20. durch Autoren wie Weber, Popper, Merton, Spinner usw. sind vier große Abkopplungen:
 

  • Die Trennung von Erkenntnis und Eigentum: Forschungsergebnisse müssen veröffentlicht werden, um sie in einem Peer Review-Prozeß überprüfen, replizieren, kritisieren und fortschreiben zu können. Das ist es, was Robert Merton mit dem "Wissenskommunismus" der Wissenschaften meinte.(12)
  • die Trennung von Ideen und Interessen
  • die Trennung von Theorie und Praxis
  • die Trennung von Wissenschaft und Staat: Lehre und Forschung folgen keinen externen Anweisungen. D.h. nicht, daß sie nicht öffentlich finanziert werden dürften, ganz im Gegenteil. Tatsächlich wurde die Grundlagenforschung für die neue Ordnung digitaler Medien, also der Computer und Datennetze, mit öffentlichen Mitteln betrieben.(13)

  •  
Der für die freie Software wesentliche Punkt ist die "Abkopplung der Ideenwirtschaft von der normalen Güterwirtschaft."(14) Mit seiner Veröffentlichung wird das Wissen zum Gemeingut der Forschungsgemeinschaft. Es kann von Kollegen frei nachvollzogen, überprüft und weiterentwickelt werden und in der Lehre frei der Reproduktion der Wissensträger in der nächsten Generation dienen. Durch diese fruchtbaren Bedingungen im 'Sondermilieu' der Wissenschaften können die parallelen, kollektiven Bemühungen Ergebnisse hervorbringen, die kein Einzelner und kein einzelnes Team produzieren könnten. Die einzelne Wissenschaftlerin erhält im Wissenskommunismus als Anerkennung für die von ihr erarbeiteten Erkenntnisse keine Geldzahlungen -- um von dieser Notwendigkeit freigestellt zu sein, allimentiert sie der Staat --, sondern ein symbolisches Entgeld in Form von fachlicher Reputation, wie sie sich z.B. an der Zahl der Einträge im Citation Index ablesen läßt. Statt einem Monopolverwertungsrecht, wie es das Patentsystem für Erfindungen von industriellem Wert gewährt, steht hier das Recht auf Namensnennung im Vordergrund.

Die Wissensordnung dieses Sondermilieus strahlt über ihren eigentlichen Geltungsbereich hinaus auf seine Umwelt in der modernen, demokratischen Gesellschaft aus, mit der zusammen sie entstanden ist.

"Der Wissenstransfer in das gesellschaftliche Umfeld konnte unter günstigen Bedingungen (Rechtsstaat, Demokratie, liberale Öffentlichkeit) wesentliche Bestandteile dieser Wissensordnung in die 'Wissensverfassung' der Gesellschaft einfließen lassen. Die freie wissenschaftliche Forschung, Lehre, Veröffentlichung findet so ihre Ergänzung in der 'Freien Meinung' des Bürgers(15) und verwandter Wissensfreiheiten, wie in unserem Grundgesetz verankert. So spannt sich der Bogen der ordnungspolitischen Leitvorstellungen, mit Abstrichen auch der positiven Regulierungen und praktischen Realisierungen, vom Wissenskommunismus der Forschungsgemeinschaft bis zur informationellen Grundversorgung in der Informationsgesellschaft und dem geforderten weltweiten freien Informationsfluß..."(16)

 

Internet

Das Internet ist mediengeschichtlich eine Anomalie. Übliche Modelle der Medien- wie allgemein der Technikgenese laufen vom Labor über die Entwicklung hin zur Anwendungsreife bis zur gesellschaftlichen Implementierung entweder als staatliche Militär- oder Verwaltungskommunikation, als wirtschaftliches Kontroll- und Steuerungsinstrument oder als Massenprodukt der Individualkommunikation oder Massenmedien. Anders hingegen im Falle von akademischen Datennetzen. Hier gab es in den ersten Jahren keine Trennung zwischen Erfindern, Entwicklern und Anwendern.

Die Informatik hat im Netz nicht nur ihren Forschungsgegenstand, sondern zugleich ihr Kommunikations- und Publikationsmedium. Es ist gleichzeitig Infrastruktur und Entwicklungsumgebung, die von innen heraus ausgebaut wird. Innovationen werden von den Entwickler-Anwendern in der Betaversion (d.h. ohne Garantie und auf eigene Gefahr) in die Runde geworfen, von den Kollegen getestet und weiterentwickelt. Darüber hinaus stellt sie den anderen, zunehmend computerisierten Wissenschaften die gleiche Infrastruktur zur Verfügung. Der Zugang zu Rechenressourcen, der Austausch innerhalb einer weltweiten Community von Fachkollegen, das Zur-Diskussion-Stellen von Pre-Prints, die Veröffentlichung von Konferenzreferaten und Datenbanken im Internet -- all dies gehört seit den achtziger Jahren zu den täglichen Praktiken in der Physik und Astronomie, der Informatik selbst und zunehmend auch in den 'weicheren' Wissenschaften. Schließlich ist das Weiterreichen der Grundwerkzeuge an die Studenten Teil der wissenschaftlichen Lehre. Da das Netz, anders als die meisten Laborgeräte, keinen eng definierten Anwendungsbereich hat, sondern eben Medium ist, kommen hier auch studentische private und Freizeitkulturen auf -- eine brisante Mischung aus Hi-Tech und Hobbyismus, Science und Science Fiction, Hackern und Hippies.

Die Geschichte des Internet läßt sich grob in drei Phasen einteilen: in der Frühphase ab Mitte der sechziger Jahre werden die Grundlagen gelegt, die Technologie demonstriert und zur Anwendungsfähigkeit entwickelt. Zeitgleich mit dem Wechsel von der militärischen zur akademischen Forschungsförderung Ende der Siebziger beginnt das Wachstum und die internationale Ausbreitung des Internet. In dieser Zeit gedieh das, was gemeinhin mit der 'wilden Phase' des ursprünglichen Internets assoziiert wird: eine 'Gabentausch'-Ökonomie für Software und Information, eine Graswurzel-basierte Selbstorganisation, emergierende Communities und der Hacker-Geist, der jede Schließung, jede Beschränkung des Zugangs und des freien Informationsflusses zu umgehen weiß. 1990 wird das ARPAnet abgeschaltet, und es beginnt die kommerzielle Phase des Internet.
 
 
 

Frühphase

In den späten fünfziger Jahren leitete J.C.R. Licklider eine Forschungsgruppe beim US-Rüstungslieferanten Bolt, Beranek and Newman (BBN), die auf einer PDP-1 eines der ersten Time-Sharing-Systeme bauten. Computerhersteller und die meisten Vertreter des Informatik-Establishments waren der Ansicht, daß Time-Sharing eine ineffiziente Verwendung von Computer-Ressourcen darstelle und nicht weiter verfolgt werden solle. Lickliders Argument war umgekehrt, daß Rechner für eine Echtzeit-Interaktion (für "kooperatives Denken mit einem Menschen") zu schnell und zu kostspielig seien, weshalb sie ihre Zeit zwischen vielen Nutzern aufteilen müssten. Licklider war auch der Architekt des MIT Projekts MAC (Multiple-Access Computer oder Machine-Aided Cognition oder Man And Computer). 1962 wechselte er von BBN zur Advanced Research Projects Agency (ARPA) des US-Verteidigungsministeriums, wo er Leiter des Command and Control Research wurde, das er in Information Processing Techniques Office (IPTO) umbenannte.(17)

Seine Erfahrungen mit Time-Sharing-Systemen erlaubten es ihm, eine Neudefinition vom Computer als Rechenmaschine zum Computer als Kommunikationsgerät vorzunehmen. Als Leiter des ARPA-Forschungsbereiches war er nun in die Lage versetzt, diesen Paradigmenwechsel in der Netzplanung zur Wirkung zu bringen.

"The ARPA theme is that the promise offered by the computer as a communication medium between people, dwarfs into relative insignificance the historical beginnings of the computer as an arithmetic engine...

Lick was among the first to perceive the spirit of community created among the users of the first time-sharing systems... In pointing out the community phenomena created, in part, by the sharing of resources in one timesharing system, Lick made it easy to think about interconnecting the communities, the interconnection of interactive, on-line communities of people, ..."(18)


Zeitgleich findet ein telekommunikationstechnische Paradigmenwechsel von leitungsorientierten zu paketvermittelten Konzepten statt. Er geht auf parallele Arbeiten von Paul Baran an der RAND Corporation(19) und von Donald Watts Davies am National Physical Laboratory in Middlesex, England zurück. Die Zerlegung von Kommunikationen in kleine Datenpakete, die, mit Ziel- und Absenderadresse versehen, 'autonom' ihren Weg duch das Netzwerk finden, war Voraussetzung für die verteilte, dezentrale Architektur des Internet. Sie war auch der Punkt, an dem die Geister der Computer- und der Telekommunikationswelt sich schieden.

Die Telefonbetreiber der Zeit waren durchaus an Datenkommunikation und, nachdem nachgewiesen war, daß Paketvermittlung nicht nur überhaupt möglich war, sondern die vorhandene Bandbreite viel wirtschaftlicher nutzt als Leitungsvermittlung, auch an dieser Technik interessiert, doch ihre vorrangigen Designkriterien waren flächendeckende Netzsicherheit, Dienstequalität und Abrechenbarkeit. Diese sahen sie nur durch ein zentral gesteuertes Netz mit dedizierter Leitungsnutzung für jede einzelne Kommunikation gewährleistet. Die Telcos vor allem in England, Italien, Deutschland und Japan unterlegten daher den unberechenbaren Paketflüssen eine 'virtuelle Kanalstruktur'. Auch in diesem System werden Pakete verschiedener Verbindungen auf derselben physikalischen Leitung ineinandergefädelt, aber nur bis zu einer Obergrenze, bis zu der die Kapazität für jede einzelne Verbindung gewährleistet werden kann. Außerdem ist dieses Netz nicht verteilt, sondern über zentrale Vermittlungsstellen geschaltet. Die Spezifikationen dieses Dienstes wurden im Rahmen der Internationalen Telekommunikations-Union verhandelt und 1976 unter der Bezeichnung X.25 standardisiert. Die Bundespost bot ihn unter dem Namen Datex-P an. Damit ist der Gegensatz aufgespannt zwischen einem rhizomatischen Netz, das aus einem militärischen Kalkül heraus von einzelnen Knoten dezentral wuchert, und einer hierarchischen, baumförmigen Struktur, die zentral geplant und verwaltet wird.

Doch zurück zum Internet. Die ARPA-Forschungsabteilung unter Licklider schrieb die verschiedenen Bestandteile des neuen Netzes aus. Das Stanford Research Institute (SRI) erhielt den Auftrag, die Spezifikationen für das neue Netz zu schreiben. Im Dezember 1968 legte das SRI den Bericht "A Study of Computer Network Design Parameters" vor. Zur selben Zeit arbeitete Doug Engelbart und seine Gruppe am SRI bereits an computer-gestützten Techniken zur Förderung von menschlicher Interaktion. Daher wurde entschieden, daß das SRI der geeignete Ort sei, ein Network Information Center (NIC) für das ARPAnet einzurichten. Die DARPA-Ausschreibung für ein Network Measurement Center ging an die University of California in Los Angeles (UCLA), wo Leonard Kleinrock arbeitete, der seine Doktorarbeit über Warteschlangentheorie geschrieben hatte. Ebenfalls im UCLA-Team arbeiteten damals Vinton G. Cerf, Jon Postel und Steve Crocker.

Den Zuschlag für die Entwicklung der Paketvermittlungstechnologien, genauer eines Interface Message Processors (IMP), erhielt BBN. Dort arbeitete u.a. Robert Kahn, der vom MIT gekommen war und auf den ein Großteil der Architektur des Internet zurückgeht. Die IMPs (Vorläufer der heutigen Router) hatten die Aufgabe, die niedrigste Verbindungsschicht zwischen den über Telephonleitungen vernetzten Rechnern (Hosts) herzustellen. Die ersten IMPs wurden im Mai 1969 ausgeliefert.

Der Startschuß zum Internet fiel im Herbst 1969, als die ersten vier Großrechner in der UCLA, im SRI, der University of Californiy in Santa Barbara (UCSB) und der University of Utah miteinader verbunden wurden.(20)

Bereits ein halbes Jahr vorher war das erste von Tausenden von Request for Comments-Dokumenten (RFC)(21) erschienen, die die technischen Standards des Internet spezifizieren. Diese Standards werden nicht im Duktus eines Gesetzes erlassen, sondern als freundliche Bitte um Kommentierung. Steve Crocker, Autor des ersten RFC, begründete diese Form damit, daß die Beteiligten nur Doktoranden ohne jede Autorität waren. Sie mußten daher einen Weg finden, ihre Arbeit zu dokumentieren, ohne daß es schien, als wollten sie irgendjemandem etwas aufoktroyieren, eine Form, die offen war für Kommentare. RFCs können von jedem erstellt werden. Sie sind als Diskussionspapiere gedacht, mit dem erklärten Ziel, die Autorität des Geschriebenen zu brechen.(22) Meist technische Texte wird in ihnen auch die Philosophie (z.B. RFC 1718) und Geschichte (RFC 2235) des Netzes und seiner Kultur aufgezeichnet und zuweilen sogar gedichtet (RFC 1121). Die freie Verfügbarkeit der Spezifikationen und der dazugehörigen Referenzimplementationen waren ein Schlüsselfaktor bei der Entwicklung des Internet. Aus dem ersten RFC ging ein Jahr später das Network Control Protocol (NCP) hervor, ein Satz von Programmen für die Host-Host-Verbindung, das erste ARPANET-Protokoll.

1971 bestand das Netz aus 14 Knoten und wuchs um einen pro Monat,(23) darunter Rechner der verschiedensten Hersteller (DEC-10s, PDP8s, PDP-11s, IBM 360s, Multics, Honeywell usw.). Nach Fertigstellung des NCP und Implementiationen für die verschiedenen Architekturen entstanden jetzt die höheren Dienste Telnet (RFC 318) und FTP (File Transfer Protocol, RFC 454). Ray Tomlinson (BBN) modifizierte ein eMail-Programm für das ARPANET und erfand die 'user@host'-Konvention. Larry Roberts schrieb einen Mail-Client dafür.

Das Netzwerk konnte sich sehen lassen, und so war es Zeit für eine erste öffentliche Demonstration, die 1972 auf der International Conference on Computer Communications in Washington stattfand. Im Keller des Konferenzhotels wurde ein Paketvermittlungsrechner und ein Terminal Interface Processor (TIP) installiert, der anders als ein IMP den Input von mehreren Hosts oder Terminals verarbeiten konnte. Angeschlossen waren 40 Maschinen in den ganzen USA. Zu den Demonstrationen gehörten interaktive Schachspiele und die Simulation eines Lufverkehrskontrollsystems. Berühmt wurde die Unterhaltung zwischen ELIZA, Joseph Weizenbaum's künstlich-intelligentem Psychiater am MIT, und PARRY, einem paranoiden Programm von Kenneth Colby an der Stanford Uni. Teilnehmer aus England, Frankreich, Italien und Schweden waren dabei. Vertreter von AT&T besuchten die Konferenz, verließen sie jedoch in tiefer Verwirrung.

Im selben Jahr starteten Projekte für Radio- und Satelliten-gestützte Paketvernetzung, letztere mit Instituten in Norwegen und England. Bob Metcalfe umriß in seiner Doktorarbeit an der Harvard Uni das Konzept für ein Local Area Network (LAN) mit multiplen Zugangskanälen, das er Ethernet nannte. Am Xerox PARC entwickelte er das Konzept weiter, bevor er später 3COM gründete.

ARPANET, SATNET und das Radionetz hatten verschiedene Schnittstellen, Paketgrößen, Kennzeichnungen und Übertragungraten, was es schwierig machte, sie untereinander zu verbinden. Bob Kahn, der von BBN an die DARPA ging, und Vint Cerf, der jetzt an der Stanford Uni unterrichtete, begannen, ein Protokoll zu entwickeln, um verschiedene Netze miteinander zu verbinden. Im Herbst 1973 stellten sie auf einem Treffen der International Network Working Group in England den ersten Entwurf zum Transmission Control Protocol (TCP) vor.

Im Jahr darauf wurde TCP zeitgleich an der Stanford Uni, BBN und dem University College London (Peter Kirstein) implementiert. "So effort at developing the Internet protocols was international from the beginning." (Cerf(24)) Es folgten vier Iterationen des TCP-Protokollsatzes. Die letzte erschien 1978.

1974 startete BBN Telenet, den ersten öffentlichen paketvermittelten Datenkommunikationsdienst, eine kommerzielle Version des ARPANET. Aufgrund der DARPA-Förderung besaß BBN kein exklusives Recht am Quellcode für die IMPs und TIPs. Andere neue Netzwerkunternehmen forderten BBN auf, ihn freizugeben. BBN sträubte sich zunächst, da der Code ständig verändert würde, doch gab ihn 1975 frei.
 
 
 

Wachstum

Mit der Forschungsförderung für die Implementierung von TCP hatte die DARPA ihre initiale Mission erfüllt. 1975 wurde die Verantwortung für das ARPANET an die Defense Communications Agency (später umbenannt in Defense Information Systems Agency) übertragen. BBN blieb der Auftragnehmer für den Betrieb des Netzes, doch militärische Sicherheitinteressen wurden jetzt wichtiger. Zusätzlich zur DARPA förderte auch die National Science Foundation (NSF) die Forschung in Informatik und Netzwerken an rund 120 US-amerikanischen Universitäten. Weitere Einrichtungen, wie das Energieministerium und die NASA starten eigene Netzwerke. Anfang 1975 verfügte das ARPANET über 61 Knoten.(25) Die erste Mailinglist wurde eingerichtet. Zusammen mit den RFCs werden Mailinglisten zum wichtigsten Mittel der offenen Kooperation der technischen Community. In der beliebtesten Liste dieser Zeit diskutierte man jedoch über Science-Fiction. Der Jargon File, ein Wörterbuch der Hacker-Kultur, zusammengestellt von Raphael Finkel, wurde zum ersten Mal publiziert, natürlich im Netz.

UUCP (Unix to Unix Copy) wurde 1976 an den AT&T Bell Labs entwickelt und als Teil der Unix Version 7 verbreitet. Einrichtungen, die sich keine Standleitung leisten konnten, ermöglichte UUCP, über Dial-up-Telefonleitungen Daten mit Rechnern am ARPANET auszutauschen.

Das neue netzwerkverbindende TCP wurde im Juli 1977 erstmals in einem aufwendigen Versuchsaufbau demonstriert. Die Übertragungsstrecke begann mit einem mobilen Paketsender in einem fahrenden Auto auf dem San Francisco Bayshore Freeway, lief zu einem Gateway bei BBN, über das ARPANET, über eine Punkt-zu-Punkt-Satellitenverbindung nach Norwegen, von dort via Landleitung nach London, zurück über das Atlantic Packet Satellite Network (SATNET) ins ARPANET und schließlich zum Informatikinstitut der University of Southern California. "So what we were simulating was someone in a mobile battlefield environment going across a continental network, then across an intercontinental satellite network, and then back into a wireline network to a major computing resource in national headquarters. Since the Defense Department was paying for this, we were looking for demonstrations that would translate to militarily interesting scenarios."(26)

Seit Mitte der Siebziger wurden Experimente zur paketvermittelten Sprachübertragung durchgeführt. TCP ist auf zuverlässige Übertragung ausgelegt. Pakete, die verloren gehen, werden erneut geschickt. Im Falle von Sprachübertragung ist jedoch der Verlust einiger Pakete weniger nachteilig als eine Verzögerung. Aus diesen Überlegungen heraus wurde 1978 TCP und IP getrennt. IP spezifiziert das User Datagram Protocol (UDP), das noch heute zur Sprachübertragung verwendet wird.(27)

Damit wird 1978 das ARPANET-Experiment offiziell beendet. Im Abschlußbericht heißt es "This ARPA program has created no less than a revolution in computer technology and has been one of the most successful projects ever undertaken by ARPA. The full impact of the technical changes set in motion by this project may not be understood for many years."(28) Einer der Pioniere erinnert sich an die entscheidenden Faktoren:

"For me, participation in the development of the ARPANET and the Internet protocols has been very exciting. One important reason it worked, I believe, is that there were a lot of very bright people all working more or less in the same direction, led by some very wise people in the funding agency. The result was to create a community of network researchers who believed strongly that collaboration is more powerful than competition among researchers. I don't think any other model would have gotten us where we are today." (Robert Braden in RFC 1336(29))

 

Institutionalisierung

Um die Vision eines freien und offenen Netzes fortzuführen, richtete Vint Cerf 1978 noch vom DARPA aus das Internet Configuration Control Board (ICCB) unter Vorsitz von Dave Clark am MIT ein. 1983 trat das Internet Activities Board (IAB) (nach der Gründung der Internet Society umbenannt in Internet Architecture Board) an die Stelle des ICCB.

Für die eigentliche Entwicklungsarbeit bildeten sich 1986 unter dem IAB die Internet Engineering Task Force (IETF)(30) und die Internet Research Task Force (IRTF). Anders als staatliche Standardisierungsgremien oder Industriekonsortien ist die IETF -- "by law and strong custom" -- ein offenes Forum. Mitglied kann jeder werden, indem er eine der etwa hundert aufgabenorientierten Mailinglisten subskribiert und sich an den Diskussionen beteiligt. "In theory, a student voicing a technically valid concern about a protocol will deserve the same careful consideration, or more, as a man from a multibillion-dollar company worrying about the impact on his installed base."(31) Alle Arbeit (mit Ausnahme des Sekretariats) ist unbezahlt und freiwillig.

Die Entwicklungsarbeit innerhalb der IETF gehorcht einem begrenzten Anspruch. Die Ergebnisse müssen ein anstehendes Problem möglichst direkt und, gemäß einer Hacker-Ästhetik von Eleganz, möglichst einfach und kompakt lösen. Sie müssen mit den bestehenden Strukturen zusammenarbeiten und Anschlüsse für mögliche Erweiterungen vorsehen. Da es keine scharf umrissene Mitgliedschaft gibt, werden Entscheidungen nicht durch Abstimmungen getroffen. Das Credo der IETF lautet: "We reject: kings, presidents and voting. We believe in: rough concensus and running code."(32) Wenn sich ein interessantes Problem und genügend Freiwillige finden, wird diskutiert, ablauffähiger Code auch für alternative Lösungsansätze geschrieben und solange getestet, bis sich ein Konsens herausbildet. Wenn dies nicht geschieht, das Verfahren auf unlösbare Probleme stößt oder die Beteiligten das Interesse verlieren, kann ein Standard auch vor seiner Verabschiedung stecken bleiben. Standards und ggf. Code werden in jeder Phase der Entwicklung im bewährten RFC-Format für jeden Interessierten zugänglich veröffentlicht. Das führt dazu, daß sie frühzeitig von einer Vielzahl von Anwendern unter den unterschiedlichsten Bedingungen getestet werden und diese breiten Erfahrungen in den Entwicklungsprozeß eingehen, bevor ein Standard offiziell freigegeben wird. Die Standards sind offen und frei verfügbar. Anders als im ISO-Prozeß können von den an der Standardisierung Beteiligten keine Patente erworben werden, und anders als die ISO finanziert sich die IETF nicht aus dem Verkauf der Dokumentation von Standards. Der kontinuierlichen Weiterentwicklung dieses Wissens steht somit nichts im Wege.

1988 legte der außer Kontrolle geratene Morris-Wurm 6.000 der inzwischen 60.000 Hosts am Internet lahm.(33) Daraufhin bildet die DARPA das Computer Emergency Response Team (CERT), um auf zukünftige Zwischenfällen dieser Art reagieren zu können.

Die 1990 von Mitch Kapor gegründete Electronic Frontier Foundation (EFF) ist keine Internet-Institution im engeren Sinne, doch als Öffentlichkeits- und Lobbyingvereinigung zur Wahrung der Bürgerrechte im Netz hat sie in den USA eine bedeutende Rolle gespielt.

Als Dachorganisation für alle Internet-Interessierten und für die bestehenden Gremien wie IAB und IETF gründeten u.a. Vint Cerf und Bob Kahn 1992 die Internet Society (ISOC).(34)

Im Jahr darauf etablierte die NSF das InterNIC (Network Information Center), das bestimmte Dienste in seinem Aufgabenbereich an Dritte ausschrieb, nämlich Directory- und Datenbankdienste an AT&T, Registrierungsdienste an Network Solutions Inc. und Informationsdienste an General Atomics/CERFnet.
 
 
 

Netzwerkforschung

Auf Initiative von Larry Landweber erarbeiteten Vertreter verschiedener Universitäten (darunter Peter Denning und Dave Farber) die Idee eines Informatik-Forschungsnetzes (CSNET). Ein Förderungsantrag an die NSF wurde zunächst als zu kostspielig abgelehnt. Auf einen überarbeiteten Antrag hin bewilligte die NSF 1980 dann fünf Millionen Dollar über einen Zeitraum von fünf Jahren. Das Protokoll, das die verschiedenen Subnetze des CSNET verbindet, ist TCP/IP. 1982 wurde beschlossen, daß alle Systeme auf dem ARPANET von NCP auf TCP/IP übergehen sollen -- obgleich davon nur einige hundert Computer und ein Dutzend Netze betroffen waren, keine einfache Operation (RFC 801).

CSNET und ARPANET wurden 1983 verbunden, doch US-amerikanische Wissenschaftler klagten, daß die Supercomputern des Landes nicht zugänglich seien. Astrophysiker mußten nach Deutschland reisen, um einen in den USA hergestellten Supercomputer verwenden zu können. Im Juli 1983 gab daraufhin eine NSF-Arbeitsgruppe einen Plan für ein National Computing Environment for Academic Research heraus, der drei Jahre später in das NSFnet münden sollte.

Die Supercomputer-Krise führte dazu, daß die NSF eine neue Abteilung für Advanced Scientific Computing mit einem Etat von 200 Millionen Dollar über fünf Jahre etablierte. Kontrakte für die Einrichtung von Supercomputer-Zentren gingen an verschiedene Universitäten. Diese Zentren wurden durch das NSFNet verbunden, das 1986 mit einem landesweiten 56 Kbps-Backbone startete, der auf Grund des großen Bedarfs bald auf T1 (1,544 Mbps) erweitert wurde. Die Aufträge zur Verwaltung des Backbones gingen an Merit, MCI und IBM, das die Router-Software entwickelte. Um den NSFnet-Backbone herum entwickelten sich eine ganze Reihe NSF-geförderter regionaler Netzwerke. Von Anfang 1986 bis Ende 1987 stieg die Gesamtzahl der Netzwerke am Internet von 2.000 auf beinah 30.000. 1989 nimmt das NSFNet dann den Betrieb von T3-Leitungen (44,736 Mbps) auf. Bob Kahn und Vint Cerf planen bereits ein Versuchsnetz mit 6 Gigabit.
 
 
 

Neue Architekturen, Protokolle und Dienste

Neben TCP/IP wurden weiterhin proprietäre Protokolle eingesetzt (wie DECNet oder NetBEUI von Microsoft und IBM, die es nur Rechnern desselben Herstellers erlauben, miteinander zu sprechen), aber es enstanden auch neue offene Protokolle. Das wichtigste darunter ist das BITNET (das Because It's Time NETwork), das 1981 als ein kooperatives Netzwerk an der City University of New York startete und die erste Verbindung an die Yale University legte. Zu den Eigentümlichkeiten von BITNET gehört z.B., daß es die Dateiübertragung per eMail realisiert. 1987 überschritt die weltweite Zahl der BITNET-Hosts 1.000.

TCP/IP wurde zum de facto Standard, doch die Anerkennung als offizieller Standard blieb ihm verwehrt. Ein Irrweg in der Netzwerkentwicklung begann, als die International Standards Organization (ISO) ab 1982 ein Referenzmodell für einen eigenen verbindungsorientierten Internetzwerk-Standard namens Open Systems Interconnection (OSI) entwickelte. Im Gegensatz zum bottom-up-Prozeß der Internet-Community beruht das Standardisierungsverfahren der ISO auf einem vertikalen, mehrschichtigen Prozeß aus Vorschlägen, Ausarbeitungen und Abstimmungen, der zwischen den nationalen Standardisierungsorganisationen, den Arbeitsgruppen und schließlich dem Plenum der ISO hin- und hergeht. Dabei sollen alle Interessen berücksichtigt werden. Der Standard soll in einem theoretischen Sinne vollständig sein. Er soll zugleich rückwärtskompatibel und abstrakt genug sein, um zukünftige Entwicklungen nicht zu verbauen. Durch die begrenzte Zirkulation in den am Verfahren beteiligten Institutionen werden Standards auch nur begrenzt getestet, bevor sie verabschiedet werden. Ist ein Standard endlich verabschiedet, ist er von der Technologie oft genug schon überholt. OSI hat sich nie sehr weit von den Papierkonzepten in den praktischen Computereinsatz hinein entwickelt und gilt heute als gescheitert, doch bis in die Neunziger dekretierten die Forschungs- und Technologiebehörden vieler Ländern, darunter Deutschland und Japan, daß OSI das offizielle und damit das einzige Netzwerkprotokoll sei, in das Forschungsmittel fließen. Selbst die US-Regierung schrieb noch 1988 vor, daß alle Rechner, die für den Einsatz in staatlichen Stellen angekauft werden, OSI unterstützen müssen und erklärte TCP/IP zu einer 'Übergangslösung'.

1983 beschloß das US-Verteidigungsministerium, das Netz in ein öffentliches ARPANET und das vertrauliche MILNET aufzuteilen. Nur 45 der 113 Host-Rechner blieben im ARPANET übrig. Die Zahl der an diese Hosts angeschlossenen Rechner war natürlich viel größer, vor allem durch den Übergang von Time-Sharing-Großrechnern hin zu Workstations in einem Ethernet-LAN. Jon Postel wies den einzelnen miteinander verbundenen Netzen erst Nummern zu, dann entwickelte er zusammen mit Paul Mockapetris und Craig Partridge das Domain Name System (DNS),(35) mit einem ersten Name-Server an der University of Wisconsin, der Namen in Nummern übersetzt. Gleichzeitig empfahl er das heute übliche user@host.domain-Adressierungsschema. Das neue Adressensystem institutionalisierte sich 1988 mit der Internet Assigned Numbers Authority (IANA), deren Direktor Postel wurde.

1981 begann Bill Joy an der Berkeley University mit einem Forschungsauftrag der DARPA, die TCP/IP-Protokolle in die dort gepflegte freie Version des Betriebssystems Unix zu integrieren. Sie wurden im August 1983 in der BSD-Unix-Version 4.2 veröffentlicht. Die Betriebssysteme von Computer und Netz waren verschmolzen. Nicht zuletzt deshalb begannen viele Computer-Unternehmen, wie z.B. das von Joy mitgegründete Sun Microsystems, BSD zur Basis ihrer Workstations zu machen. Die freie Software 4.2BSD verbreiteten sich rasch. Tausende von Entwicklern in der ganzen Welt übernahmen es und legten so die Grundlage für das heutige globale Internet.

1977 waren mit dem Tandy TRS-80 und dem Commodore Pet die ersten Computer für den Privatgebrauch auf den Markt gekommen und Steve Wozniak und Steve Jobs kündigten den Apple II an. Der IBM-PC folgt 1981 und kurz darauf die ersten IBM PC-Clones. Durch die billigen Kleinstrechner und ihre Fähigkeit, per Modem zu kommunizieren, betritt eine neue Generation von Nutzerkulturen die Informatik- und Netzwelt.

Die Integration von TCP/IP und lokalen Ethernets trieb die Ausbreitung des Internet voran.(36) Ethernet-Karten wurden auch für PCs verfügbar. Anfang der Achtziger entwickelten Studenten von Professor David Clark am MIT, den ersten TCP/IP-Stack für MS-DOS. Der Quellcode für PC/IP und einige einfache Netzapplikationen verbreiteten sich rasch und inspirierte viele andere, den PC für das Internet zu erschließen. Da DOS nicht multitasking-fähig ist, konnte PC/IP nur eine einzige Verbindung (ein Socket) unterstützen. Für einige Anwendungen (wie Telnet) stellt die Beschränkung kein Problem dar, FTP dagegen benötigt zwei Verbidungen gleichzeitig, einen Kontroll- und einen Datenkanal. Phil Karn, damals bei den Bell Labs beschäftigt, begann 1985 einen neuen TCP/IP-Stack zu schreiben, bei dem er Multitasking innerhalb der Applikation realisierte, ein waghalsiger Trick, aber er funktionierte. Für CP/M entwickelt, portierte Karn den Code bald auf DOS und, da er ein leidenschaftlicher Amateurfunker ist, überarbeitete er ihn außerdem für die Verwendung über Packet-Radio. Unter dem Namen seines Rufzeichens KA9Q(37) gab er den Code für nichtkommerzielle Verwendung frei.(38)

1979 entstand das USENET, das zu einem Internet-weiten schwarzen Brett werden sollte. Steve Bellovin schrieb dazu einige Shell-Skripte, die es einem Rechner erlauben, über UUCP Nachrichten auf einem anderen Rechner abzurufen. Technisch ist das USENET ein frühes Beispiel für Client-Server-Architekturen. Sozial bildet es einen öffentlichen Raum, in dem jeder lesen und schreiben kann, zu Themen, die so ziemlich alles unter der Sonne umfassen.(39)

Eine andere Form von kooperativem sozialem Raum, der zusätzlich synchrone Kommunikation ermöglicht, sind Multi-User Dungeons (MUD). Als Spielumgebungen entstanden, werden sie später auch für Bildungs- und Diskussionszwecke Verwendung finden. Das erste von ihnen, das MUD1, schrieben ebenfalls 1979 Richard Bartle und Roy Trubshaw an der University of Essex. 1988 kommt mit dem Internet Relay Chat (IRC) von Jarkko Oikarinen ein weiteres synchrones Kommunikationsformat hinzu.

Parallel zum Inernet kamen lokale Diskussionsforen, Bulletin Board Systems (BBS) auf, zunächst als alleinstehende PCs mit einer oder mehreren Einwahlverbindungen. Mit Hilfe von Telefonleitungen und X.25 vernetzen sich auch diese Kleinrechner, z.B. zum FidoNet, 1983 von Tom Jennings entwickelt. 1985 gründet Stewart Brand das legendäre BBS Whole Earth 'Lectronic Link (WELL) in San Francisco. Kommerzielle BBSs wie CompuServe und AOL folgten. Auch diese separaten Netze richten Ende der Achtziger Gateways zum Internet ein, über die sie eMail und News austauschen können (Fidonet z.B. 1988, MCIMail und Compuserve 1989).

Um auch Nicht-Universitätsangehörigen Zugang zum Internet zu ermöglichen, entstanden eine Reihe von Freenets. Das erste, das Cleveland Freenet, wurde 1986 von der Society for Public Access Computing (SoPAC) in Betrieb genommen.

Die Masse der im Internet verfügbaren Informationen wird immer unüberschaubarer. Der Bedarf nach Navigations- und Suchwerkzeugen führte zu neuen Entwicklungen an verschiedenen Forschungseinrichtungen. Am CERN stellte Tim Berners-Lee 1989 Überlegungen zu einem verteilten Hypertext-Netz an, aus dem das World-Wide Web (WWW) werden wird. Ähnliche Verknüpfungen bieten die im folgenden Jahr gestarteten Dienste Archie (von Peter Deutsch, Alan Emtage und Bill Heelan, McGill University) und Hytelnet (von Peter Scott, University of Saskatchewan). 1991 kamen Wide Area Information Servers (WAIS, von Brewster Kahle, Thinking Machines Corporation) und Gopher (von Paul Lindner und Mark P. McCahill, University of Minnesota) dazu, und die erste Version von Berners-Lees WWW wird freigegeben. Im Jahr darauf entsteht am National Center for Supercomputing Applications (NCSA) der erste Web-Browser Mosaic. Ebenfalls 1992 veröffentlich die University of Nevada Veronica, ein Suchwerkzeug für den Gopher-Raum. Im selben Jahr startet der Bibliothekar Rick Gates die Internet Hunt, ein Suchspiel nach Informationen, bei dem auch diejenigen aus den veröffentlichten Lösungsstrategien lernen konnten, die sich nicht selber beteiligten.

1990 wurde die erste fernbedienbare Maschine (über SNMP) ans Netz gehängt, der Internet Toaster von John Romkey. Bald folgten Getränkeautomaten, Kaffeemaschinen und eine Fülle von Web-Kameras.

Die offene Architektur des Internet macht es möglich, jede Kommunikation an allen Knoten zwischen Sender und Empfänger abzuhören. Die Antwort darauf lautet Kryptographie, doch die galt als militärisch-staatliches Geheimwissen. Das erste für Normalsterbliche zugängliche Kryptographie-Werkzeug war PGP (Pretty Good Privacy), 1991 von Philip Zimmerman freigegeben.

Neben Texten fanden sich auch schon in den Achtzigern Bilder und Audiodateien im Netz, doch ihre Integration hatte mit dem WWW gerade erst begonnen. Die ersten regelmäßigen 'Radiosendung' im Netz waren die Audiodateien des 1993 von Carl Malamud gestarteten Internet Talk Radio, Interviews mit Netzpionieren. Weiter ging der Multimedia-Backbone (MBONE), über den 1992 die ersten Audio- und Video-Multicasts ausgestrahlt wurden. Anfangs konnten sich daran nur wenige Labors mit einer sehr hohen Bandbreite beteiligen, doch bald wurden die hier entwickelten Werkzeuge auch für den Hausgebrauch weiterentwickelt. CUSeeMe bot Video-Conferencing für den PC. Das Streaming-Format RealAudio (1995) machte es möglich, Klanginformationen on demand und in Echtzeit im Netz abzurufen. Multimediale Inhalte können mit MIME (Multimedia Internet Mail Extensions -- RFC 1437) seit 1993 auch in eMails verschickt werden.
 
 
 

Internationalisierung

In Europa gab es Anfang der Achtziger bereits erste auf Wählverbindungen und UUCP basierende Netze, wie z.B. das 1982 etablierte EUnet (European Unix Network) mit Knoten in Holland, Dänemark, Schweden, und England. In Deutschland kannte man das Internet höchstens aus dem Kino ("War Games"), wie sich einer der deutschen Internet-Pioniere, Claus Kalle vom Rechenzentrum der Universität Köln, erinnert.(40) Großrechner kommunizierten über das teure Datex-P. Das erste Rechnernetz, das über einen eMail-Link in die USA und dort über ein Gateway ins Internet verfügte, war das 1984 gestartete EARN (European Academic Research Network). Natürlich wurde auch bald mit TCP/IP experimentiert -- die RFCs, die man sich per eMail über EARN beschaffen konnte, machten neugierig -- doch das Klima war für TCP/IP nicht günstig. Als 1985 der Verein zur Förderung eines Deutschen Forschungsnetzes e.V. (DFN-Verein) gegründet wurde, vertrat er ausschließlich die OSI-Linie. "In Deutschland und Europa war man damals vollkommen davon überzeugt und förderte auch politisch und finanziell, daß die Protokolle der OSI-Welt in Kürze weit verfügbar und stabil implementiert seien, und damit eine Basis für die herstellerunabhängige Vernetzung existieren würde."(41)

Die ersten Verbindungen von Rechnern außerhalb der USA laufen über UUCP. 1984 wurde z.B. das JUNET (Japan Unix Network) establiert, und eine erste Botschaft von "Kremvax" sorgte für Aufregung, da seither auch die UdSSR an das USENET angeschlossen war.

Die Inititiative für ein IP-Netz in Deutschland ging 1988 von der Universität Dortmund aus. Es hatte im Rahmen des europaweiten InterEUnet-Verbundes eine Anbindung erst über Datex-P, dann über eine Standleitung nach Amsterdam und von dort aus an das US-amerikanische Internet. Die Informatik-Rechnerbetriebsgruppe (IRB) der Universität Dortmund betrieb einen anonymous-ftp-Server. "Besonders förderlich war es, mit den recht frischen Kopien der GNU- und anderer Public-Domain-Pakete (emacs, gcc, ISODE usw.) zu arbeiten. Auch war auf diesem Wege erstmalig Zugang zu Netnews und Internet-Mail möglich, so daß man sich auf dem Laufenden halten konnte."(42) Eine ähnliche Initiative gab es am Informatik-Lehrstuhl von Professor Zorn an der Universität Karlsruhe, die zum Aufbau des XLINK (eXtended Lokales Informatik Netz Karlsruhe) führte, das ebenfalls eine Verbindung in die USA zum NYSERNet anbot.

Das OSI-Regime des DFN lockerte sich nach und nach. Das X.25-basierte Wissenschaftsnetz (WiN) sollte gleich von seinem Start an auch TCP/IP-Hosts unterstützen.(43) Die europäischen Netzanbieter schlossen sich 1989 auf Initiative von Rob Blokzijl am National Institute for Nuclear Physics and High-Energy Physics in Amsterdam zum RIPE (Reseaux IP Europeens) zusammen, um die administrative und technische Koordination für ein paneuropäisches IP-Netzwerk zu gewährleisten. Zur Konsolidierung der bereits existierenden europäischen IP-Netze begannen 1991 einige Netzbetreiber, eine europäische IP-Backbone-Struktur namens EBONE zu planen und aufzubauen.

1992 begannen dann auch Initiativen wie der Individual Network e.V. (IN) mit dem Aufbau alternativer Verfahren und Strukturen zur Bereitstellung von IP-Diensten. Auch das IN nahm im Weiteren aktiv an der Gestaltung der deutschen IP-Landschaft teil. Nicht zuletzt die Netnews-Verteilung wäre ohne die IN-Mitarbeit nur schleppend vorangekommen.

Der Zuwachs der internationalen IP-Konnektivität läßt sich an der Anmeldung von Länder-Domains ablesen. 1988 kamen Kanada, Dänemark, Finland, Frankreich, Island, Norwegen und Schweden dazu. Im November 1989 sind insgesamt 160.000 Hosts am Internet. Australien, Deutschland, Israel, Italien, Japan, Mexico, Holland, Neuseeland und Großbritannien schließen sich an.

1990 kommen Argentinien, Österreich, Belgien, Brazilien, Chile, Griechenland, Indien, Irland, Südkorea, Spanien und die Schweiz dazu. 1991 sind es Kroatien, die Tschechische Republik, Hong Kong, Ungarn, Polen, Portugal, Singapur, Südafrika, Taiwan und Tunesien. 1992 überschreitet die Zahl der Hosts die eine-Million-Marke. Immer kleinere Länder und Territorien wie Zypern, die Antarktis, Kuwait und Luxemburg melden Länder-Domains an. 1997 kommen noch eine Reihe von Inselnationen und Protektorate hinzu, so daß heute die gesamte Weltkarte auf den Adreßraum des Internet abgebildet ist.
 
 
 

Kommerzialisierung

Das Entstehen eines kommerziellen Internet-Anbietermarktes anzuregen und zu fördern, war eines der Ziele der NSFNet-Initiative. Zu den ersten Nutznießern gehörten Performance Systems International (PSI), Advanced Network and Systems (ANS - von IBM, MERIT und MCI gegründet), Sprintlink und CERFNet von General Atomics, das auch das San Diego Supercomputer Center betrieb. Die kommerziellen ISPs sollten Ende der Achtziger den Erhalt und Ausbau des Internet von den Universitäten und Forschungbehörden übernehmen.

Dadurch entstand auch ein bedeutender Markt für Internet-basierte Produkte. Len Bozack, ein Stanford-Student, gründete Cisco Systems. Andere, wie 3COM, Proteon, Banyan, Wellfleet und Bridge gingen ebenfalls in den Router-Markt.

Die erste Internet-Industriemesse, die Interop in San Jose 1988, zog 50 Aussteller und 5.000 Besucher an.

1991 hob die NSF das bis dahin bestehende Werbeverbot (die acceptable use policy) in der öffentlichen Netzinfrastruktur auf. Damit war der Weg frei dafür, daß sich sich General Atomics (CERFnet), PSI (PSInet) und UUNET Technologies, Inc. (AlterNet) in Kalifornien zum ersten CIX (Commercial Internet Exchange) zusammenschlossen, um den ungeeingeschränkten Verkehr zwischen den kommerziellen Netzen zu organisieren.

Auch in Deutschland begann Anfang der Neunziger die Privatisierung der universitären Infrastruktur. Das Drittmittelprojekt EUnet der Informatik-Rechnerbetriebsgruppe der Uni Dortmund wurde Ende 1992 zur GmbH. Im Jahr darauf wurde auch das XLINK-Projekt an der Uni Karlsruhe zur Tochter der NTG, ihrerseits Tochter von Bull.(44)
 
 
 
 
 

Wende ab 1990

Ein Wendepunkt läßt sich am Übergang von den 80er zu den 90er Jahren ausmachen. Das ARPANet wird 1990 offiziell abgeschaltet. Die NSF verlagert die Netzwerkförderung von einer direkte Finanzierung der akademischen Backbone-Infrastruktur hin zur Bereitsstellung von Etats, mit denen die Universitäten sich Konnektivität von kommerziellen Anbietern einkaufen.

Mit der schwindenden Rolle der NSF im Internet endete auch die Verbindlichkeit der Acceptable Use Policy. Zunächst behutsam, dann in einem unhaufhörlichen Strom setzten die Werbebotschften im Netz ein. Die im CIX zusammengeschalteten Netzanbieter vermarkteten das Internet als Business-Plattform. Über die Gateways der kommerziellen BBSe kamen Nutzerkulturen, die es gewohnt waren, für Informationen zu bezahlen und ihrerseits die Kanäle hemmungslos für gewerbliche Zwecke zu verwenden. Einen berüchtigten Konflikt löste die Anwaltsfirma Canter & Siegel aus Arizona aus, als sie 1994 Massen-eMails (Spam) zur Bewerbung ihrer Green-Card-Lotteriedienste ins Internet schickte. Die Netzbewohner reagierten heftig und unterbanden diesen Mißbrauch, indem sie ihrerseits die Firma massenhaft mit eMail eindeckten.

Ab 1990 wurden gezielte Anstrengungen unternommen, kommerzielle und nichtkommerzielle Informationsdiensteanbieter ins Netz zu holen. Unter den ersten befanden sich Dow Jones, Telebase, Dialog, CARL und die National Library of Medicine.

1991 trat das WWW seinen Siegeszug an. Mehr als 100 Länder waren an das Internet angeschlossen, mit über 600.000 Hosts und fast 5.000 einzelnen Netzen. Im Januar 1993 waren es über 1,3 Millionen Rechner und über 10.000 Netzwerke.

US-Präsident Clinton und Vize Al Gore gaben im Februar 1993 unmittelbar nach ihrem Amtsantritt auf einem Town Meeting im Silicon Valley eine Erklärung über ihre Technologiepolitik ab, in der das Internet bereits eine zentrale Rolle spielte. Damit lösten sie eine Art Vorbeben aus, in einer geopolitischen Situation, in der die USA sich in einer Wirtschaftskrise befanden, Europa im Aufschwung und Japan an der Weltspitze. Die eigentliche Schockwelle ging über die Welt hinweg, als am 15. September des Jahres Al Gore die National Information Infrastructure Agenda for Action verkündete, in der er Netzwerke nicht nur selbst zu einer Multi-Milliarden-Dollar-Industrie, sondern zu einer Grundlageninfrastruktur für Wirtschaft, Bildung, Wissenschaft und Kultur erklärte.(45) Das Bewußtsein, in einem Schlüsseltechnologiesektor hinter den USA herzuhinken, löste allerorten hektisches Treiben aus. Spätestens damit beginnt die kommerzielle Erschließung und die Massenbesiedlung des Internet.

Für die neuen Generationen von Nutzern gibt es nur eine Information, die frei und möglichst weit zirkulieren soll, und das ist Werbung. Alle andere Information ist für sie Ware. Um nun in diesem promiskuitiven Milieu eine Information (z.B. Börsendaten, Lehrmaterial, Musikstücke) derjenigen und nur derjenigen zugänglich zu machen, die dafür bezahlt hat, müssen in das Internet zusätzliche, aufwendige Schutzmechanismen, Zonen mit Zugangskontrollen und kryptographisch abgesicherte Copyrights Control Systems eingezogen werden. Die sog. Rechteindustrie (Bertelsmann, Sony, Time-Warner usw.) arbeitet seit etwa 1994 nach Kräften daran, ihre Waren über das Netz verkaufbar zu machen und technisch abzusichern.(46) Nichts demonstriert die neue Qualität des Internet besser, als die erste Cyber-Bank, First Virtual, die 1994 ihren Betrieb aufnimmt.

Microsoft hatte das Internet zunächst verschlafen. Bill Gates erwähnte in der Erstausgabe seines 1995 erschienen Buches "The Road Ahead" das Internet mit keinem Wort. Kurz darauf schwenkte er den Ozeanriesen Microsoft auf Internet-Kurs. Noch im selben Jahr erschien die erste Version des MS Internet Explorers. Nachdem die Kopplung von Hard- und Software gebrochen war, löste das Web die Verbindung von jeweils spezifischer Software und Information auf. Microsoft Network (MSN) war dagegen ein Versuch, erneut eine solche Kopplung zu legen: ein geschlossenes Format, in dem Firmen kostenpflichtige Informationen und Dienstleistungen anbieten konnten -- sofern sie eine Startgebühr von $ 50.000 und einen Anteil aller Einnahmen an MS zahlte. Es handete sich um eine verspätete Immitation der geschlossenen BBSe wie Compuserve oder AOL, die bereits durch das WWW überholt waren, das es jedem erlaubte, gebührenfrei Informationen anzubieten.

Domain-Namen waren bislang nichts als eine Mnemotechnik gewesen, die die darunterliegenden numerischen IP-Adressen handhabbarer machten. Durch den Einzug großer Unternehmen mit ihren geschützten Warenzeichen werden sie zu einem aggressiv umstrittenen Territorium. Der erste prominente Streit darüber, ob Domain-Namen geistiges Eigentum sind, war MTV Networks gegen Adam Curry. Etwa im Mai 1993 hatte Curry, ein MTV-Video-Jockey, auf eigene Faust und Kosten ein Informationsangebot unter mtv.com gestartet. In Gesprächen mit führenden Angestellten von MTVN und deren Mutterfirma Viacom New Media hieß es, MTV habe kein Interesse am Internet, hindere ihn aber auch nicht an seinen Aktivitäten. Also baute Curry sein Informationsangebot weiter aus, u.a. mit einem Schwarzen Brett, auf dem sich Musiker und Vertreter der Musikindustrie miteinander unterhielten. In den von ihm moderierten Fernsehprogrammen wurden eMail-Adressen wie "popquiz@mtv.com" eingeblendet. Im Januar 1994 forderte MTVN Curry förmlich auf, die Verwendung von mtv.com einzustellen. Dennoch verwiesen MTV-Sendungen weiterhin auf diese Adresse und ein führender Angestellter bat Curry im Februar, bestimmte Informationen in seiner Site aufzunehmen. Inzwischen hatten MTVN und AOL einen Vertrag abgeschlossen, um einen kostenpflichtigen Dienst anzubieten, der u.a. ein Schwarzes Brett für Musik-Profis beinhalten sollte, das dem von Curry auffällig glich. MTVN verklagte Curry u.a. wegen Verstoßes gegen Trademark-Ansprüche auf Freigabe der Domain mtv.com. Currys Versuche, den Streit gütlich beizulegen, scheiterten und er kündigte. Letztzendlich kam es doch zu einer außergerichtlichen Einigung, bei der Curry mtv.com an MTV aufgab.(47) Die Situation war typisch für die Zeit um 1993-94: große Unternehmen, auch aus der Medienbranche, ignorierten oder unterschätzten die Bedeutung des Internet, während innovative Einzelpersonen durch ihr persönliches Engagement populäre und kostenlose Informationsangebote aufbauten, nur um zusehen zu müssen, wie ihnen ihre Arbeit vom Rechtssystem abgesprochen wird. Nachdem in zahlreichen Urteilen entschieden war, daß Domain-Namen dem Warenzeichenregime unterliegen, setzte ein reger Handel ein. CNET beispielsweise kaufte 1996 die URL 'tv.com' $ 15.000. 'business.com' wurde 1997 für $ 150.000 verkauft und zwei Jahre später für bereits $ 7,5 Millionen weiterverkauft.

Bis 1995 ist die kommerzielle Backbone-Infrastruktur in den USA soweit errichtet und untereinander verschaltet, daß der NSFNET-Backbone-Dienst eingestellt werden kann.(48) Im selben Jahr gehen eine Reihe von Internet-Unternehmen an die Börse, am spektakulärsten das auf der NCSA-Browser-Technologie errichtete Netscape mit dem drittgrößten NASDAQ-IPO-Wert aller Zeiten.
 

Im Gefolge der Wirtschaft halten auch die Rechtsanwälte Einzug ins Internet. Als Teil der Verrechtlichung unternimmt auch der Gesetzgeber Schritte zu seiner Regulierung. 1996 wird in den USA der umstrittene Communications Decency Act (CDA) verabschiedet, der den Gebrauch von 'unanständigen' Wörtern im Internet verbietet. Einige Monate später verhängt ein Gericht eine einstweilige Verfügung gegen die Anwendung dieses Gesetzes. 1997 erklärt das höchste US-Gericht den CDA für verfassungswidrig. Dennoch wird in dieser Zeit der vermeintlich rechtsfreie Raum des Internet in die gesetzlichen Regularien von Kryptografie über Urheberrecht bis zu den Allgemeinen Geschäftsbedingungen einbezogen.

In vielen Ländern greifen Gerichte und staatliche Behörden in den Cyberspace ein. China verlangt, daß ISPs und Nutzer sich bei der Polizei registrieren. Ein deutsches Gericht entscheidet, daß Compuserve den Zugang zu Newsgroups, die sich im weitesten Sinne mit Sexualität beschäftigen, unterbinden muß. Da Compuserve sein weltweites Informationsangebot in seiner Zentrale in Ohio vorrätig hält und es technisch nicht nach einzelnen Länder differenzieren kann, schaltet es die Newsgroups für alle Nutzer ab, was eine vor allem amerikanische Protest- und Boykottwelle gegen Deutschland auslöst. Saudi Arabien beschränkt den Zugang zum Internet auf Universitäten und Krankenhäuser. Singapur verpflichtet politische und religiöse Inhalteanbieter, sich staatlich registrieren zu lassen. Neuseeland klassifiziert Computer-Disketten als 'Publikationen', die zensiert und beschlagnahmt werden können. Amerikanische Telekommunikationsunternehmen nehmen Anstoß an Internet-Telefoniediensten und fordern das Parlament auf, die Technologie zu verbieten.

Auch die Selbstorganisation der technischen Entwicklung der Internet-Grundlagen verändert ihren Charakter. Saßen in den jährlichen Treffen von IETF-Arbeitsgruppen Mitte der Achtziger höchstens 100 Personen, sind es jetzt nicht selten 2-3.000. Entsprechend sind sie kein kollektives Brainstorming mehr, sondern dichtgedrängte Abfolgen von Präsentationen. Die eigentliche Arbeit findet immer häufiger in kleinen geschlossenen Gruppen, den Design-Teams, statt. Während die mehr als zwanzig Jahre alte Technologie des Internet erstaunlich stabil skaliert, stoßen die Community-Strukturen an ihre Grenzen. Auch die Zusammensetzung der Arbeitsgruppen verändert sich. "Seit den späten 80er Jahren hat sich der Anteil akademischer Mitglieder in der IETF stetig verringert -- und das nicht nur, weil die Zahl der Unternehmen immer mehr anstieg, sondern auch, weil immer mehr Gründungsmitglieder in die Wirtschaft wechselten."(49) Das kollektive Streben nach der besten Lösung für das Internet als ganzes, so Jeanette Hofmann, droht, von den Interessen konkurrierender Unternehmen unterlaufen zu werden, die ihre jeweiligen Produkte durchsetzen wollen. Schließlich führen die schiere Größe, die nachrückende Generation von Ingenieuren und das Gewicht der gewachsenen Struktur dazu, daß die Standardentwicklung dazu neigt, konservativer und mittelmäßiger zu werden. Hofmanns Fazit: Die IETF sei auf dem besten Weg, eine Standardisierungsorganisation wie jede andere zu werden. "Das Internet und seine Gemeinde sind in der Normalität angekommen. Irgendwann werden sich die Väter unter der wachsenden Zahl gleichberechtigter Mitglieder verloren haben -- und mit ihnen ein Teil der Ideen und Prinzipien, die die Entstehung des Internet umgaben."(50)
 
 
 
 
 

The Beginning of the Great Conversation

Welche Bedeutung hat nun die hier geschilderte Entwicklung des Internet für die Wissensordnung digitaler Medien allgemein und für die freie Software im besonderen? Das Netz der Netze ist offen, verteilt, dezentral und heterogen. Im Gegensatz zum zentralistischen Telefonsystem beruht es auf lokalen Peering-Abkommen zwischen geographisch benachbarten Netzen. Das Internet ist offen, weil es von Beginn an auf den verschiedensten Rechnerarchitekturen implementiert wurde, weil es auf jede Netzwerk-Technologie (Radio, Satelliten, ISDN, Frame Relay, ATM) aufsetzen kann,(51) und weil es seinerseits andere Protokolle (AppleTalk, Novell IPX, DECNet) gekapselt transportieren kann. Offen ist es auch von Beginn an für internationale Zusammenarbeit. Offen ist es schließlich, weil die öffentliche Förderung (durch die US-Wissenschaftsbehörden ARPA und NSF und mit Verzögerung auch durch die entsprechenden Behörden anderer Länder) eine proprietäre Schließung der Forschungsergebnisse verhinderte. Der antikommerzielle Geist in dieser öffentlichen Infrastruktur der Wissenschaftsgemeinde wurde in der Acceptable Use Policy der NSF kodifiziert, die bis Ende der achtziger Jahre jegliche kommerzielle Nutzung, wie Werbung oder Verkauf von Waren und Dienstleistungen im Internet, untersagte. Es ging um Grundlagenforschung, in einem Gebiet, in dem viele Leute kooperieren mußten, durchgeführt an Universitäten und in seinem ersten Jahrzehnt noch ohne militärische(52) und wirtschaftliche Anwendung. Aus all diesen Faktoren erwuchs eine kooperative Community, die das Netz trägt und von ihm getragen wird.

Aus dieser Zeit und aus diesem Wissensmilieu stammt der Grundsatz der Wissensordnung digitaler Medien, den einige Unverdrossene auch heute im Zeitalter der dot-com-economy aufrecht erhalten: Information wants to be free. Die besondere Qualität dieser Umgebung ergibt sich aus der Zweiwegkommunikationsstruktur und der Archivfunktion des Netzes. Die schlichte Tatsache, daß jeder Teilnehmer einzelne oder Gruppen beliebiger Größe von anderen Teilnehmern ansprechen kann und daß viele der öffentlichen Äußerungen nachlesbar und referenzierbar bleiben, führt zu dem was John Perry Barlow als "The End of Broadcast Media and the Beginning of the Great Conversation" bezeichnet hat. "If it is suddenly possible to spread ideas widely without first shoving them through some centrally operated and intensely capitalized industrial engine -- whether a complex of book binderies or 50,000 watt transmitters -- ... freedom of expression will belong not only to those who buy ink by the barrel or transmitter power by the kilowatt. No longer will anyone have to confine their expressions to ideas congenial to the media lords and their advertisers."(53)

Kommunikationsmittel, die in vergleichbarer Form nur großen Unternehmen und gutbesoldeten staatlichen Stellen verfügbar waren (z.B. Video-Conferencing), erlauben es jetzt Individuen, ad hoc oder kontinuierlich zusammenzuarbeiten. Daraus ergeben sich für einzelne Gruppen wie für das Internet insgesamt Strukturcharakteristika, die Helmut Spinner für die vielversprechenste nichttechnische Neuerung der aktuellen Wissensordnung hält. "Es sind die weiten aber trotzdem flachen Informationsnetze, die erstmals in der Geschichte das traditionelle 'Organisationsgesetz' durchbrechen, demzufolge Größenwachstum unvermeidlich mit Abschließung nach außen und Hierarchiebildung im Innern verbunden ist, vom Sportverein über den Wirtschaftsbetrieb bis zum Großreich."(54)

Das Internet entwickelt sich selbst im Modus der offenen Kooperation und wird zur Möglichkeitsbedingung für eine inkrementelle Wissensentwicklung durch Tausende auf der ganzen Welt verteilter Individuen, ohne Management- und andere Overhead-Kosten, in einer direkten Rückopplungsschleife mit den Anwendern. Damit ist es auch die essentielle Möglichkeitsbedingung für das Phänomen der freien Software.
 
 
 
 
 

Geschichte der Software-Entwicklung

Der Wandel der Wissensordnung im 20. Jahrhundert wird durch drei Dynamiken charakterisiert: "Technisierung des Wissens, Kommerzialisierung der Wissensdienste, Globalisierung der Rahmenbedingungen unter dem Ordnungsregime der Wirtschaftsordnung".(55) Eine zentrale Rolle darin spielt der Computer. "Als Buchdruck und Nationalstaat die Medientechniken der mittelalterlichen Universität schluckten, blieben die Inhalte des Wissens ziemlich unberührt. Die Speicherung und Übertragung wurden zwar privatisiert oder verstaatlicht, aber die eigentliche Verarbeitung des Wissens lief weiter in jenem schönen alten Rückkopplungskreis aus Auge, Ohr und Schreibhand. Genau das hat die Computerrevolution verändert. Universale Turing-Maschinen machen auch und gerade die Verarbeitung des Wissens technisch reproduzierbar."(56)

In den frühen Tagen des Computers war alle Software quelloffen. Auch in der kommerziellen Computer-Welt waren damals die Quellen verfügbar, einfach weil Software noch keinen eigenständigen Markt darstellte. Die Hardware-Hersteller lieferten sie gleichsam als Gebrauchsanweisung dazu, alles weitere schrieben die Anwender selbst. Die Computer-Unternehmen hatten es also mit programmierkompetenten Nutzern zu tun, und förderten deren Selbstorganisation und gegenseitige Unterstützung in User-Groups wie IBMs SHARE(57) und DECs DECUS. Auch in Zeitschriften wie in der Algorithmen-Rubrik der Communications of the ACM oder im Hobbybereich in Amateurfunkzeitschriften zirkulierte uneingeschränkter Quellcode. Entwickler bauten auf den wachsenen Bestand der vorhandenen Software, verbesserten sie, entwickelten sie weiter und gaben ihre Ergebnisse wieder zurück an die Nutzergemeinschaft. Bezahlt wurden sie, ob in Universität oder Firma, für das Programmieren, nicht für die Programme.

Auch an den Universitäten war es bis in die siebziger Jahre üblich, die dort entwickelte Software frei zu verbreiten, so hielt es z.B. das MIT mit dem PDP-6/10 Assembler HACKMEM oder dem ursprünglichen Window-System und Donald E. Knuth von der Stanford Universität mit seinem Satzsystem TeX (1978).

In den sechziger Jahren dominierten Hardware-Firmen, wie IBM, DEC, Hewlett-Packard und Data General, die Computer-Industrie. Eine Unterscheidung in Hardware- und Software-Unternehmen existierte noch nicht. Beim Marktführer IBM konnten Kunden Hardware nur in einem Paket kaufen, das Software, Peripheriegeräten, Wartung und Schulung einschloß. Dadurch hatten kleinere Wettbewerber kaum eine Chance, diese Leistungen anzubieten. 1969 begann IBM dieses Bundling aufzugeben. Die offizielle Firmengeschichte von IBM bezeichnet diesen Schritt euphemistisch als "innovations in marketing"(58) Tatsächlich erfolgte er unter dem Druck des gerade vom US-Justizministerium eingeleiteten Kartellverfahrens.(59) Das 'freiwillige' Unbundling beinhaltete u.a., daß ein Teil der Software als separate Produkte angeboten wurde. Eine große Zahl von Programmen stand jedoch frei zur Verfügung, da IBM sie in der public domain erachtete. Da sie aus der Nutzer-Community stammten, hätte das Unternehmen auch kaum ein Urheberrecht darauf beanspruchen können. Dieser Schritt zog weitere Kritik auf sich, da natürlich niemand eine Software-Firma dafür bezahlen würde, die gleichen Programme zu schreiben.(60)

Trotz der Konkurrenz durch freie Software, schuf diese Entkopplung die Voraussetzung für eine eigenständige Software-Industrie, auch wenn die in den Siebzigern neu entstandenen Software-Firmen meist noch Satelliten von Hardware-Herstellern waren. Software war erstmals zu einer Ware geworden. Eine berüchtigte Episode ist 1976 der "Open Letter to Fellow Hobbyists".(61) Bill Gates beklagte darin, daß die meisten seiner Fellows ihre Software 'stehlen' würden, was verhindere, daß gute Software geschrieben werden könne. Der neue Zeitgeist ist umso bemerkenswerter, als Gates kurz vorher beinahe aus der Harvard Universität geflogen wäre, weil er die öffentlich finanzierten Ressourcen mißbraucht hatte, um kommerzielle Software zu schreiben. Nachdem er gezwungen worden war, seine Software in die Public Domain zu stellen, verließ er Harvard und gründete Microsoft.

Den überwiegenden Teil stellte jedoch weiter maßgefertigte Software dar, die in den EDV-Abteilungen oder bei externen Dienstleistern geschrieben wurde. Es entstanden Tausende von nahezu identischen Buchhaltungs-, Abrechnungs- und Datenbanksystemen, immer aufs neue. Am Beginn von Software als Massenware aus dem Regal stand eine weitere folgenreiche Entscheidung von IBM.

Anfang der achtziger Jahre brachte das Unternehmen den IBM-PC heraus und nahm ihn gleichzeitig nicht ernst. Erst nach einigen Überzeugungsversuchen und Provokationen (Mitarbeiter warfen IBM vor, nicht in der Lage zu sein, einen so kleinen Computer zu bauen) gab die Firmenleitung ihre Skepsis auf und der Entwicklergruppe um Don Estridge in Boca Raton den Auftrag, einen Personal Computer zu entwickeln. Statt wie bislang alle Komponenten im eigenen Haus zu fertigen, kaufte IBM die Bestandteile wie Prozessor und Betriebssystem von außen zu. Die CPU kam von Intel (8088), das Betriebssystem DOS (Disk Operating System) von einer 32-köpfigen Firma namens Microsoft. Einen tiefgreifenden Wandel der Computer-Landschaft bewirkt ferner IBMs Entscheidung, die Spezifikation der Hardware-Architektur des IBM-PC zu veröffentlichen. Ob es ebenfalls an der Verkennung des PC lag, an einem Zufall, einer subversiven Aktion oder an einer glücklichen Fügung des Schicksals,(62) auf jeden Fall hat IBM mit der Veröffentlichung sich selbst Konkurrenz und den Computer zur Massenware gemacht. Ein Industriestandard, unabhängig von einem einzelnen Unternehmen war gesetzt. Eine Fülle neuer Hardware-Hersteller aus West und Fernost unterboten sich mit ihren Preisen für IBM-PC-Clones. Leute wie Michael Dell begriffen, daß es nicht mehr vorrangig um die Erfindung neuer Rechnerarchitekturen ging, sondern um Verkauf, Marketing und Distribution von etwas, das zu einer Commodity geworden war.(63) Computer wurden billig genug für den Privatgebrauch. Die Branche zollt ihrem ehemaligen Führer Ehre, indem noch jahrelang Intel-Rechner aller Hersteller dieser Welt als 'IBM-Kompatible' bezeichnet wurden. Der eine große Gewinner an diesem Wendepunkt war Intel, da jeder PC mit der offenen, IBM-kompatiblen Architektur einen seiner Prozessoren enthielt.

Der andere große Gewinner war Microsoft. Wie so oft spielte dabei der Zufall eine Rolle. Das am weitesten verbreitete Betriebssystem für die damalige Generation von 8-Bit-Rechnern war CP/M. 1973 hatte Gary Kildall begonnen, einen PL-1 Compiler auf dem Intel-8080 zu implementieren und einige kleinere Routinen zum 'Control Program for Microcomputers' (CP/M) zusammenzufassen.(64) 1975 wurde CP/M, das jetzt auch auf dem Intel-8085 und Zilog-80 lief, erstmals von Digital Research auf dem Markt angeboten. Es wurde weltweit schätzungsweise 500.000 mal installiert und bot ein umfangreiches Angebot an Anwendungsprogrammen diverser Softwarefirmen, darunter das am weitesten verbreitete Textverarbeitungssystem WordStar.(65) Als sich IBM 1980 nach einem Betriebssystem für den PC umsah, war es naheliegend, daß sie sich an Digital Research wandten. Anekdoten erzählen, daß Kildall an diesem Tag mit seinem Privatflugzeug unterwegs war und dadurch das Millionengeschäft mit IBM verlor.(66) Das ging stattdessen an Microsoft, das damals vor allem für das auf fast jedem Mikrocomputer verfügbare MS-BASIC bekannt war. Wie viele seiner Produkte hatte Microsoft MS-DOS nicht selbst entwickelt, sondern von einer Firma namens Seattle Computer gekauft. Es handelte sich um eine abgespeckte Version von CP/M, von der Digital Research noch dazu bewehrte, daß Seattle Computer ihren Quellcode gestohlen habe. Die Industrie war sich einig, daß CP/M ein weit überlegenes Betriebssystem war, doch mit der Unterstützung durch IBM, das sicherstellte, daß alle Programme, die anfänglich für den IBM-PC ausgeliefert wurden, nur mit MS-DOS, nicht aber mit DRs CP/M kompatibel waren, dominierte MS-DOS in kürzester Zeit den Markt. "Microsoft had already mastered the art of leveraging hardware deals, the bundling of applications software and operating systems in a mutually reinforcing strategy to knock off rivals, even when those rivals had superior products."(67) Im neuen Zeitalter des Desktop-Computers bildete, wie IBM schmerzvoll feststellen mußte, die Kontrolle über das Betriebssystem den Schlüssel zur Etablierung eines Imperiums. Microsoft erbte gleichsam IBMs Monopol, das in derselben Bewegung zuende ging.

Digital Research versuchte noch gut zehn Jahre, durch Innovationen mit MS zu konkurrieren.(68) Während die Kundschaft MS vorwarf, wenig für die Weiterentwicklung von MS-DOS zu tun, waren spätestens 1984 CP/M-Versionen Multitasking- und Multiuser-fähig. Als Digital Researchs CP/M-Weiterentwicklung DR-DOS einen deutlichen Marktanteil auf dem Desktop errang, verlautbarte MS 1990, daß das Release von MS-DOS 5.0 unmittelbar bevorstehe. Der Nachfolger des 1986 erschienen MS-DOS 3.3 sollte alle Features enthalten, die Anwender an DR-DOS schätzten. Es dauert noch mehr als ein Jahr, bis MS-DOS 5.0 tatsächlich auf den Markt kam, doch bremste allein die Ankündigung den Absatz von DR-DOS. Als es schließlich erschien, hatte sich MS ein neues Marketing-Verfahren einfallen lassen, das DR und alle anderen PC-Betriebssystemhersteller endgültig aus dem Markt drängte.(69) MS verlangte von allen Hardware-Verkäufern, die MS-DOS auf ihren Rechnern installieren wollten, daß sie eine Lizenzegebühr für alle ihre Maschinen an MS bezahlten, auch wenn sie einige davon mit anderen Betriebssystemen auslieferten.(70)

Die Möglichkeiten zur Integration erweiterten sich mit MS-Windows, der graphischen Benutzeroberfläche über DOS. Hauptkonkurrent hier war Apples Mac, der diese neue Art der Computer-Bedienung am Markt eingeführt hatte, aber auch Window-Umgebungen auf DOS, wie Quarterdecks Desqview und Digital Researchs Graphics Environment Manager (GEM). 1983 führte MS den Interface Manager erstmals öffentlich vor, ausgeliefert wurde er als Windows 1.0 erst zwei Jahre später. Im Monat der Auslieferung unterzeichneten Apple und MS eine Vereinbarung über die Verwendung von Apples Copyrights auf das Grafik-Display des Mac durch MS. Knapp drei Jahre später verklagt Apple MS wegen Urheberrechtsverletzung in Bezug auf Windows 2.03. Und noch ein Jahr später wird Apple seinerseits verklagt. Xerox behauptete, die graphische Benutzeroberfläche von Lisa und Mac sei eine Kopie des Interfaces von Xerox' Star-System.

Auf der Intel-Plattform war es gleichsam ein Heimspiel für MS. Es verwendete nichtveröffentliches Wissen über die Arbeitsweise von MS-DOS und MS-Windows, um Wettbewerber auszuschließen. So gaben frühe Versionen von MS-Windows falsche Fehlermeldungen aus, die suggerierten, daß es imkompatibel zu DR-DOS sei. Quarterdeck mußte feststellen, daß MS-Anwenderprogramme Systemaufrufe verwendeten, die Desqview nicht anbieten konnte, da sie nirgends dokumentiert waren.(71)

Selbst mit dem ehemaligen Bündnispartner IBM nahm MS es auf. 1987 brachten MS und IBM die 1.0-Version des gemeinsam entwickelten Multitasking-fähigen graphischen Betriebssystems OS/2 auf den Markt, das für höherwertige PCs an die Stelle von DOS/Windows treten sollte. 1990 stellen MS und IBM die gemeinsame Arbeit an Betriebssystemen ein. MS konzentriert sich auf das im selben Jahr vorgelegte Windows 3.0. IBM versuchte noch einige Jahre, OS/2 gegenüber MS-Betriebssystemen zu plazieren.(72) MS änderte 1991 den Namen des Projekts OS/2 v3.0 in Windows NT.

Auf der Grundlage seiner Betriebssysteme DOS, Windows(73) und NT schuf MS neue Formen von Bundling. Es konnte seine Applikationen wie Word, Excel, SQL, PowerPoint(74) und Quicken(75) als Standards auf Intel-Rechnern durchsetzen. Kombinationen dieser Anwendungen brachte MS in den Software-Suiten MS-Works (für DOS 1987) und MS-Office auf den Markt, die zuverlässig untereinander Daten austauschen konnten. Mit Hilfe von proprietären Dateiformaten verhinderte MS den Datenaustausch mit Programmen anderer Hersteller. Zwar schuf die neue Plattform auch Chancen für andere Software-Anbieter, doch bis WordPerfect, Lotus oder Corel ihre Produkte auf die jeweils neueste Version von Windows angepaßt hatten, hatte MS den Markt bereits in der Tasche. Ganze Kategorien von Software-Werkzeugen, wie Dateimanager und Kompressionspgrogramme, die zuvor separat angeboten worden waren, integrierte MS in Windows und trocknete so effektiv den Markt für alternative Produkte aus. Diese Strategie der Integration in Windows setzte MS mit Software für Sprach- und Handschrifterkennung und dem Web-Browser MS-Internet Explorer fort. Durch ein System von Lehrmaterialien, Schulung, Zertifizierung, Entwicklerwerkzeugen, abgestufter Freigabe von programmierrelevanten Informationen und Sonderkonditionen für Universitäten sicherte sich MS die Kontrolle über die Welt der Entwickler, sowohl für die Privat- wie für den Geschäftsbereich.(76) Ausgehend von Betriebssystemen und Applikationen erweitert MS sein Imperium um Content (mit Encarta, der ersten Multimedia-Encyclopädie für den Computer, der Allianz mit NBC und seinen Investitionen in den Hollywood Film- und Musikproduzenten Dreamworks), Finanz- und Handelsdienstleistungen (durch Allianzen mit Banken, den online-Verkauf von Flugtickets, Autos, Nachrichten und Unterhaltung) und Netzkonnektivität (mit Microsoft Network, dem Aufkauf von WebTV, den Investitionen in die Kabelunternehmen Comcast und US West und Bill Gates' Milliardenprojekt eines Satellitennetzes namens Teledesic). Die monopolistischen Praktiken von MS waren immer wieder Gegenstand von Kartellverfahren u.a. des US-Justizministeriums und der Europäischen Kommission.

Der Machtwechsel von IBM zu Microsoft stellte eine Verschiebung von Hardware zu Software dar. Hardware wurde zur Massenware, Software wurde zum ersten Mal überhaupt zu einer eigenständigen Ware und zugleich zu einem Massenmarkt. Seither kaufen Privatanwender ebenso wie Firmen ihre Software in Shrink-Wrapped-Packungen von der Stange. Im nächsten Schritt, den nun seinerseits MS zu verschlafen schien, eröffnete das Internet ein neues Marktsegment, in dem MS sich neue Gelegenheiten für vertikale Integration und Bundling erschloß.

Der Verleger Tim O'Reilly erzählt immer wieder gern die Geschichte von einer computerlosen Freundin, die ihm eines Tages sagte, sie wolle einen Computer kaufen, um Amazon benutzen zu können. Online-Buchbestellung ist eine "Killer-Applikation", die Leute dazu bringt, sich einen Rechner zuzulegen, ähnlich wie es Tabellenkalkulationsprogramme in den frühen achtziger Jahren waren. O'Reilly begann nach diesem Erlebnis, Amazon und Yahoo als Applikationen zu begreifen, nicht als Websites. "A web site was something you 'published' and it was all about documents that were put up on line. But applications are about things that people do."(77) Er bezeichnet sie nicht als Software-Applikationen, sondern als Infoware Applikationen. Natürlich beruht auch Infoware auf Soft- und Hardware, doch der Schwerpunkt liegt nicht in der Nutzeroberfläche oder der Funktionalität, sondern in den Inhalten. Das alte Paradigma sei: wenig Information eingebettet in viel Software (in MS Word z.B. ein bißchen Hilfe-Information in einem Pull-Down-Menü). Nach dem neuen ist in vergleichsweise wenig Software (z.B. Perl-Skripten) viel Information 'eingebettet' (z.B. eine riesige Datenbanken, aus der dynamisch Webseiten generiert werden(78)). Die herkömmliche Bloatware bietet ihren Kunden immer mehr Menüs für ihr Geld. Eine Infoware-Anwendung im Sinne O'Reillys manifestiert sich durch nicht mehr als bspw. einen "What's related"-Knopf im Browser oder in der Suchmaschine. Dahinter stehen jedoch aufwendige semantische Modelle und Verknüpfungen, die beständig erneuert werden. "It's software as a process much more than as a product."(79)

Für das neue Infoware-Paradigma steht Html als einfaches Format mit geringer Einstiegshürde durch einen "View Source"-Button, der es jedem erlaubt, von den Webseiten anderer zu lernen. Man muß kein Programmierer sein, um Webseiten zu bauen. Daher betrachtet O'Reilly Html als eine neue Schicht über der Software, die es einer Flut von Menschen ermöglicht, zu Informationsanbietern zu werden. Denselben Effekt wie die Quelloffenheit von Html haben Skripte in Perl, Python oder Tcl, die sich in der Regel ebenfalls jeder herunterladen, sie studieren, modifizieren und für eigene Zwecke verwenden kann. Beide sind charakteristisch für den Geist der Open Source-Gemeinde. Umgekehrt sei Microsofts ActiveX daran gescheitert, daß es versuchte, das Web in ein Software-Produkt zurückzuverwandeln.(80) Im Internet haben wir heute die Protokolle der unteren Schicht wie TCP/IP, eine mittlere Schicht wie HTTP und darüber XML-basierte Datenaustauschprotokolle. Kritsch für die Zukunft wird sein, wer dieses letzte Schicht kontrolliert.

Vor dem Hintergrund dieser Entwicklungen der vergangenen zwanzig Jahre ist das Auftauchen der freien Software umso verblüffender. Doch auch unter proprietären Anbietern setzt sich die Erkenntnis wieder durch, daß Software keinen Produktmarkt darstellt, sondern einen Dienstleistungsmarkt. So erzielen Firmen wie IBM und DEC den überwiegenden Teil ihrer Einnahmen heute durch Support-Dienstleistungen. Quelloffene Software bietet die ideale Grundlage für eine maßgeschneiderte Anpassung, Wiederverwendung von Modulen und Weiterentwicklung, ohne das Rad neu erfinden zu müssen. Ohne wirklich selbst akademisch zu sein, beerbt sie die Wissenschaftstradition des freien Austausches.(81) Um dem Phänomen näherzukommen, wird im folgenden die von der PC-Welt getrennte Entwicklungslinie der Software für Großrechner und Workstations geschildert, die sich ab Anfang der Neunziger durch PC-Unixe mit der hier nacherzählten zu überschneiden beginnt.
 
 
 
 
 

Betriebssysteme

Betriebssysteme sind eine Mnemotechnik. Im Prinzip könnte ein Programmierer bei jedem Projekt mit der nackten Maschine beginnen und seine eigenen Anweisungen für die Ansteuerung der Datenträger, die Struktur der Dateien oder das Aufleuchten von Pixeln auf dem Schirm schreiben. Genau das geschah auch, bis IBM 1962 einen Satz dieser immer wieder benötigten Routinen zusammenstellte und unter der Bezeichnung OS/360 veröffentlichte -- das erste Betriebssystem war in der Welt. Ein Betriebssystem enthält Hardware-nahe Basisoperationen, auf die jedes Anwendungsprogramm zurückgreift. Es stellt also eine infrastrukturelle Schicht über einer Hardware (z.B. der IBM 360er Serie) dar, auf der ein Programmierer aufsetzt, um eine Statistik- oder Textverarbeitungs-Software zu schreiben. Statt sich um Hardware-Manipulation kümmern zu müssen, kann er sich auf Symbolmanipulation konzentrieren. Da sein eigener Code an zahlreichen Stellen mit der zugrundeliegenden Betriebssystemschicht interagiert, muß er wissen, wie sie funktioniert. "So a proprietary, closed, secret operating system is a contradiction in terms. It goes against the whole point of having an operating system."(82)

Mit dem Aufkommen eines Massenmarktes für Personal Computers trat neben die Programmierer eine neue Gruppe von reinen Anwendern. Die beiden Gruppen haben eine sehr unterschiedliche Sicht auf Computer und Software. Betriebssysteme sind die Arbeitsumgebung der Programmierer, die daher zugänglich, flexibel und offen sein müssen. Auch für Anwender ist Software eine Arbeitsumgebung, doch Gegenstand ihrer Arbeit ist nicht die Software selbst, sondern Texte, Bilder, Musik. Das Betriebssystem läuft für sie möglichst unsichtbar im Hintergrund. Es ist die Möglichkeitsbedingung für die Ausführung von Applikationen. Nur wenn etwas schiefgeht, tritt es in den Vordergrund (z.B. wenn der Bildschirm sich in den "Blue Screen of Death" von MS-Windows verwandelt).

"[T]he very nature of operating systems is such that it is senseless for them to be developed and owned by a specific company. It's a thankless job to begin with. Applications create possibilities for millions of credulous users, whereas OSes impose limitations on thousands of grumpy coders, and so OS-makers will forever be on the shit-list of anyone who counts for anything in the high-tech world. Applications get used by people whose big problem is understanding all of their features, whereas OSes get hacked by coders who are annoyed by their limitations."(83)

 
 

Unix

Da Unix -- das Betriebssystem und die Kultur seiner Entwickler und Anwender -- im folgenden eine zentrale Rolle spielen wird, sei hier kurz auf die Zufälle und Wendungen seiner Geschichte eingegangen.

Unix war eine Reaktion auf das ab 1964 gemeinsam vom MIT, General Electric und AT&T entwickelte Multics. Nachdem der allumfassende Anspruch des Multics-Projekts gescheitert war, zog sich AT&T 1969 aus der Kooperation zurück. Als Ken Thompson von AT&Ts Bell Laboratories daraufhin einen neuen Versuch startete, setzte er auf seinen Erfahrungen mit Multics auf, aber wählte einen entgegengesetzten Design-Ansatz. Statt alles für alle zu sein, sollte Unix aus kleinen, einfachen, effizienten Werkzeugen bestehen, die miteinander kombiniert werden können, um komplexere Aufgaben zu lösen. Es sollte auf verschiedenen Plattformen einsetzbar sein, da AT&T Rechner verschiedener Hersteller im Einsatz hatte. Und es sollte Time-Sharing unterstützen, also eine interaktive Computer-Nutzung (statt, wie bislang, Stapelverarbeitung), die Anfang der sechziger Jahre erstmals im CTSS (Compatible Time-Sharing System) des MIT implementiert und im Multics-Projekt weiterentwickelt worden war. Dennis Ritchie, der Co-Autor von Unix, schrieb: "What we wanted to preserve was not just a good programming environment in which to do programming, but a system around which a fellowship could form. We knew from experience that the essence of communal computing, as supplied by remote-access, time-shared machines, is not just to type programs into a terminal instead of a keypunch, but to encourage close communication."(84)

Um eine Portierbarkeit auf andere Rechner zu erreichen, wurde Unix 1971 in C umgeschrieben. Damit führte es das Konzept der Source Code-Kompatibilität ein. Der Objektcode eines Programms läßt sich nicht von einem Unix-System auf ein anderes übertragen, doch der Quellcode kann auf dem Zielsystem zu einer ablauffähigen Version kompiliert werden.(85) Im selben Jahr machte AT&T Unix offiziell zum internen Standard-Betriebssystem.

Als staatlich reguliertem Telefonmonopol war es AT&T untersagt, sich in anderen Wirtschaftsbereichen zu engagieren. Es war also aus kartellrechtlichen Gründe nicht in der Lage, Unix regulär zu vermarkten. Stattdessen gaben die Bell Labs den Unix-Quellcode gegen Selbstkosten (etwa $ 50, ähnlich den heutigen Linux-Distributionen) an Universitäten ab. Die Kompaktheit, Modularität und Zugänglichkeit durch C ermunterte viele Benutzer, eigene Entwicklungen durchzuführen, so daß Unix schnell einen hohen Reifegrad erreichte. "Dies ist deshalb bemerkenswert, da kein Entwicklungsauftrag hinter diesem Prozeß stand und die starke Verbreitung von Unix nicht auf den Vertrieb oder die Werbung eines Herstellers, sondern primär auf das Benutzerinteresse zurückzuführen ist."(86)

Um die Wartungsarbeiten auf entfernten AT&T-Rechnern zu erleichtern, wurde an den Bell Labs ein Verfahren zur automatischen Herstellung von Telefonverbindungen und Übertragung von Software entwickelt. UUCP (Unix to Unix Copy) wurde als Teil der Unix Version 7 (1978) ausgeliefert. Da AT&T für ihr Unix keinerlei Support anbot, blieb den Nutzern gar nichts anderes übrig, als sich zu einer Community zusammenzufinden. Diese kommunizierte bereits mit Hilfe von Newslettern und Konferenzen, doch mit UUCP bekam sie ein Medium innerhalb der Unix-Umgebung selbst zur Verfügung, noch bevor die meisten Universitäten Zugang zum ARPANET hatten. Dateiübertragung, eMail und Netnews, die bereits vorher zur Bildung von lokalen Communities um jeweils einen interaktiven, Multiuser-Time-Sharing-Rechner geführt hatten, konnten jetzt eine weltweite Community potentiell aller Unix-Nutzer unterstützten. Elektronische 'schwarze Bretter' dienten bereits den Dutzenden oder Hunderten von Nutzern einer einzelnen PDP-11 zum Austausch nicht nur über Computer-bezogene Themen. 1979 lud Thompson einen Doktoranten an der Duke Universität und ebenfalls leidenschaftlicher Computer-Schachspieler, Tom Truscott, zu einem Sommer-Job an die Bell Labs ein. Nachdem Truscott aus dem Unix-Himmel an die Duke Universität zurückgekehrt war, begann er im Herbst des Jahres, die Usenet-Software zu schreiben. Durch den Polling-Mechanismus von UUCP erlaubt sie einem Rechner, zu einer festgelegten gebührengünstigen Tageszeit einen anderen Rechner anzurufen und die neuesten Nachrichten auszutauschen. Nach einigen solcher Verbindungen waren alle neuen Nachrichten auf allen an das Usenet angeschlossenen Rechnern(87) angekommen. Bald wurde an der Berkeley Universität ein Gateway zu den Mailinglisten des ARPANET eingerichtet. In kürzester Zeit hatten Universitäten, Unternehmen (DEC, Microsoft, Intel usw.) und Forschungseinrichtungen Zugang zum Usenet.(88)

In den Newsgroups wurde über Schach, Science Fiction und das allgegenwärtige 'Weltnetz' der Zukunft debattiert, vor allem aber war das Usenet das Medium, in dem die Mitglieder der Unix-Community sich gegenseitig unterstützten. Hier baten Nutzer um Hilfe und boten ihre Erfahrungen und ihre Programme an, so daß andere darauf aufbauen konnten, ohne das Rad immer wieder neu erfinden zu müssen.

"People often look at each other's code, comment on it in person and through interuser communication facilities, and take pieces of it for their own use. The ideas of programming teams and egoless programming fit into the Unix environment well, since they encourage sharing rather than isolation. ... The code that people see, adapt, and imitate is usually well structured. People learn to code well in the same way that they learn to speak their native language well by imitation and immediate feedback."(89)
Die Bell-Forscher um Thompson waren sehr bereitwillig, ihre Wissen in den Newsgroups mit der Unix-Community zu teilen. Gelegentlich verbreiteten sie auch Datenbänder mit Fixes, Verbesserungen und Zusätzen, doch ihre Hauptaufgabe war es, Unix für den Gebrauch innerhalb von AT&T weiterzuentwickeln. Zum Zentrum der akademischen Forschung dagegen wurde Thompsons Alma Mater, die University of California at Berkeley, die 1974 ihr erstes Unix auf einer neuen PDP-11 installiert hatte. Da es vergleichsweise leicht zu studieren und zu lehren war und noch klein genug, um von einem Einzelnen überschaut zu werden,(90) wurde es unter den Studenten schnell populär. Einige ihrer Programme, wie die Verbesserungen am Pascal-Compiler und der Editor ex, waren sehr gefragt, so daß ein Doktorant namens Bill Joy 1977 die erste "Berkeley Software Distribution" (BSD) zusammenstellte, von der im Laufe des Jahres etwa 30 freie Kopien verschickt wurden.(91)

Joy entwickelte ex weiter zu vi, integrierte die Reaktionen auf das Pascal-System und stellte sie in 2.11BSD (1978) zu einer vollständigen Unix-Distribution zusammen. Berkeley steuerte selbst zahlreiche weitere Innovationen und Ports auf neue Hardware bei und übernahm die Sammlung der Unix-Erweiterungen aus der akademischen Unix-Community, während parallel dazu AT&T mit wachsendem Nachdruck auf stabile kommerzielle Releases an der eigenen Version von Unix weiterarbeitete.

In dieser Zeit suchte das ARPANET-Projekt nach einer Möglichkeit, die Computer-Umgebung des Netzes zu vereinheitlichen. Von allen Knotenbetreibern zu verlagen, daß sie dieselben Rechner anschafften, war ausgeschlossen, also beschloß man, die Vereinheitlichung auf der Ebene des Betriebssystems vorzunehmen. Durch seine nachgewiesen einfache Portierbarkeit fiel die Wahl auf Unix. 1980 gelang es der Berkeley Universität einen Forschungsauftrag der ARPA (Advanced Research Projects Agency des US-Verteidigungsministeriums) zu erhalten, um BSD nach den Anforderungen der ARPANET-Gemeinde weiterzuentwickeln. Bill Joy wurde zum Projektleiter.(92) Die Anwälte von AT&T und der Universität erarbeiteten eine Lizenz, mit der alle Seiten leben konnten. Zu den wichtigsten Berkeley-Innovationen dieser Periode gehören ein schnelleres Dateisystem, ein Mechanismus für die Kommunikation zwischen Prozessen, der verteilte Systeme möglich machte, und vor allem die Integration der ARPANET-Protokollfamilie TCP/IP in das BSD-Unix. Die neue stabile und dokumentierte Version wurde im August 1983 als 4.2BSD released.

"The popularity of 4.2BSD was impressive; within eighteen months more than 1,000 site licenses had been issued. Thus, more copies of 4.2BSD had been shipped than of all the previous Berkeley software distributions combined. Most of the Unix vendors shipped a 4.2BSD system rather than the commercial System V from AT&T. The reason was that System V had neither networking nor the Berkeley Fast File System."(93)
Im Jahr darauf wurde AT&T aufgeteilt.(94) Mit dem Verlust des Monopols war es frei, Unix deutlicher als kommerzielles Produkt zu vermarkten, als es das ohnehin schon seit einigen Jahren getan hatte. D.h., es bot Schulungen, Support, Wartung und Dokumentation an, machte Werbung für Unix und veränderte die Lizenzen. Zu diesem Zweck gründete AT&T das Tochterunternehmen Unix System Laboratories (USL).(95) Auch vorher schon hatten andere Hersteller den von AT&T lizenzierten Unix-Code auf bestimmte Hardware-Plattformen oder Anwendungsgebiete hin optimiert und ihre eigenen Unix-Versionen vermarktet. Neben AT&Ts und BSDs Unix entstanden weitere untereinander zunehmend inkompatible Verzweigungen der Code-Basis. AT&T hatte versucht, mit System V.0 (1983) die Unix-Welt auf einen einheitlichen Standard festzulegen, und erneut im System V.4 (1990) die divergierenden Hauptlinien in einem einzigen Unix zu integrieren. Zu den heutigen kommerziellen Unixen, die meist von USLs Unix V.4 ausgehen, gehören AIX (IBM), HP/UX (Hewlett Packard), SCO-Unix (SCO), Sinix (Siemens), Sun/OS, Solaris (Sun), Unixware (Novell), Ultrix und OSF/1 (DEC). Nach dem Konvergenzpunkt von V.4 laufen die Entwicklungslinien aufgrund von lizenztechnischen Mechanismen und der vermeintlichen Marktnotwendigkeit, sich durch proprietäre Zusätze von den Konkurrenten zu unterscheiden,

wieder auseinander. Die Quellcode-Kompatibilität geht verloren. Anwendungshersteller müssen Versionen für die einzelnen Unix-Varianten anbieten.

Microsoft spielt in der Geschichte nur eine Nebenrolle, dafür aber eine besonders unrühmliche. MS hatte in den frühen Achtzigern den Unix-Code von AT&T lizenziert und eine eigene Variante namens Xenix entwickelt, ein von Version 7 ausgehendes, für 16-Bit-Rechner optimiertes Unix. Da es auf PCs lief, war Xenix lange Zeit das Unix mit der größten Zahl von Installationen. Einen Teil des MS-Codes nahm USL zusammen mit Teilen aus dem BSD-basierten SunOS in einer Bemühung, ein vereintes Unix zu schaffen, in sein System V.4 (1990) auf.(96) Als Santa Cruz Operation (SCO) 1995 diesen Code von dann USL/Novell erwarb, um ein Unix für die Intel-Plattform zu entwickeln -- also einen direkten Konkurrenten zu Windows NT --, verklagte MS SCO darauf, daß es nicht nur Lizenzgebühren in Höhe von $ 4 Millionen im Jahr an MS zahlen mußte, sondern gar daß es SCO untersagt sei, neue Versionen von Unix zu entwickeln, die den MS-Code nicht mehr enthalten würden. Nach einer Beschwerde von SCO vor der Europäischen Kommission, die SCO darin zustimmte, daß MS gegen europäisches Wettbewerbsrecht verstoßen habe, verzichtete MS 1997 auf Lizenzzahlungen und die Forderung, daß -- veralteter -- MS-Code in allen zukünftigen Versionen von Unix enthalten sein muß.(97)

In der BSD-Welt führte der wachsende Lizenzdruck im Gegenteil zu einer Befreiung des Codes. Bis 1988 mußten alle Nutzer von BSD, das immer mit sämtlichen Quellen ausgeliefert wurde, gleichzeitig eine AT&T-Quellcodelizenz erwerben, und der Preis für eine solche Lizenz stieg nun kontinuierlich. Händler, die BSD-Code verwenden wollten, um TCP/IP-Produkte für den PC-Markt zu entwickeln, baten Berkeley, die Netzwerkelemente aus BSD separat unter einer freieren Lizenz anzubieten. Da der TCP/IP-Netzwerkcode vollständig an der Berkeley Universität entwickelt worden war, konnte sie ihn zusammen mit den umgebenden Werkzeugen 1989 im Networking Release 1 als Berkeleys ersten frei weitergebbaren Code veröffentlichen. Die BSD-Lizenz erlaubte es, den Code in Quell- und Binärform, modifziert und unmodifiziert ohne Gebühren frei zu verbreiten, solange er den Urheberrechtsvermerk der Berkeley Universität enthielt. Berkeley verkaufte die Datenbänder für $ 1000, doch in kürzester Zeit stand der Code auch auf anonymen ftp-Servern zur Verfügung.

Aufgrund des Erfolgs des Networking Release 1 wollte Keith Bostic von der Berkeley-Gruppe weitere Bestandteile des BSD-Unix freigeben. Seine Kollegen waren skeptisch, da es bedeutet hätte, hunderte von Werkzeugen, die riesige C-Bibliothek und den Kernel auf AT&T-Code zu durchforsten und diesen zu ersetzen.

"Undeterred, Bostic pioneered the technique of doing a mass net-based development effort. He solicited folks to rewrite the Unix utilities from scratch based solely on their published descriptions. Their only compensation would be to have their name listed among the Berkeley contributors next to the name of the utility that they rewrote. ... [W]ithin 18 months nearly all the important utilities and libraries had been rewritten."(98)
Mike Karels, Bostic und McKusick verbrachten daraufhin die nächsten Monate damit, auch die Kernel-Dateien von AT&T-Code zu befreien, was ihnen mit Ausnahem von sechs Dateien gelang. Das Ergebnis wurde 1991 als Networking Release 2 unter derselben Lizenz wie Release 1 veröffentlicht. Weitere sechs Monate später hatte Bill Jolitz auch die ausstehenden sechs Kernel-Dateien ersetzt. Das jetzt voll funktionstüchtige freie Betriebssystem, kompiliert für den 386er PC, stellte Jolitz Anfang 1992 unter dem Namen 386/BSD ins Netz.

Das Unix auf dem PC wurde begeistert aufgenommen und bald setzte eine Flut von Bug-Fixes und Erweiterungen ein, die Jolitz nicht mehr alleine bewältigen konnte. So bildeten die regesten Nutzer die NetBSD-Gruppe, die das System unterhielt und weiterentwickelte. Auf NetBSD und die Varianten FreeBSD und OpenBSD wird unten unter den freien Software-Projekten näher eingegangen. Zusätzlich zu den freien Gruppen bildet sich auf Grundlage des Networking Release 2 die Firma Berkeley Software Design, Incorporated (BSDI). Auch sie fügte die fehlenden sechs Kernel-Dateien hinzu und verkaufte 1992 ihre kommerziell unterstüzte Version einschließlich Quellcode für $ 995. Der Preis für Unix System V von AT&Ts USL inclusive Quellcode lag zu diesem Zeitpunkt bereits bei $ 100.000.

USL strengte daraufhin eine Klage gegen BSDI an, damit diese für ihr Produkt nicht länger den markenrechtlich geschützten Namen "Unix" verwendeten und da es proprietären USL-Code und Handelsgeheimisse enthalte. Nach einem zweijährigen Prozeß, in den sich auch die Berkeley Universität mit einer Gegenklage einschaltete und in dessen Verlauf USL von Novell aufgekauft wurde, mußten schließlich drei der 18.000 Dateien aus dem Networking Release 2 entfernt und einige andere geringfügig geändert werden.(99)

Die derart gesegnete Version wurde 1994 unter dem Namen 4.4BSD-Lite veröffentlicht. Sie wurde weiter gepflegt, bis die Bug Reports und Erweiterungen versiegten. Die letzten Änderungen wurden im Juni 1995 als 4.4BSD-Lite, Release 2 vorgelegt. Die Forschungsgruppe an der Berkeley Universität wurde aufgelöst. Nachdem sie fast zwanzig Jahre lang die freie akademische Entwicklung von Unix getragen hatte, war es Zeit für andere, die Stafette zu übernehmen.
 
 
 

Das GNU-Projekt

Als Richard Stallman 1971 seine akademische Laufbahn am KI-Labor des MIT aufnahm, gab es noch keine unfreie Software, nur autoritärere und freiere Informatikinstitute. Harvard, wo Stallman als Experte für Assemblersprachen, Betriebssysteme und Texteditoren gearbeitet hatte, gehörte zur ersten Kategorie. Auf der Suche nach einer Hacker-freundlicheren Atmosphäre wechselte er dann als Systemprogrammierer ans MIT, dessen Labor für Künstliche Intelligenz ein damals bereits legendäres Hacker-Paradies war, ein Kloster, in dem man lebte, um zu hacken und hackte, um zu leben. Steven Levys 1984 geschriebener Klassiker "Hackers. Heroes of the Computer Revolution"(100) verfolgt das Phänomen zurück bis in den Modelleisenbahnclub am MIT der späten Fünfziger.(101) Was Stallman am KI-Lab mochte, war, "there were no artificial obstacles, things that are insisted upon that make it harder for people to get any work done -- things like bureaucracy, security, refusals to share with other people."(102)

Dort traf Stallman auf Hacker-Legenden wie Richard Greenblatt und Bill Gosper und tauchte in eine Kultur des freien Wissensaustausches ein, eine Oase der konstruktiven Kooperation im allgemeinen dog-eat-dog-Dschungel.

"I had the good fortune in the 1970s to be a part of a community in which people shared software. We were developing software, and whenever somebody wrote an interesting program it would circulate around. You could run the program, add features, or just read the code and see how problems were solved. If you added features to the program then other people could use the improved version. So one person after another would work to improve the software and develop it further. You could always expect at least the passive cooperation of everybody else in this community. They might not be willing to drop their work and spend hours doing something for you, but whatever they had already done, if you could get some use out it, you were welcome to do so."(103)
Neben seiner Arbeit als Systementwickler und an Emacs erwarb er gleichzeitig einen magna-Abschluß in Physik an der Harvard Universität. Emacs, das 'Schweizermesser' unter den Editoren, war damals Stallmans bekanntestes Werk. Basierend auf einem Lisp-Dialekt, ist es beliebig konfiguierbar und erweiterbar. Seine weit offene Architektur ermunterte viele, Zusätze und Verbesserungen zu schreiben. Stallman betrieb das Projekt Emacs im selben sharing spirit, den er am KI-Lab schätzte. Er gab das Programm frei an jeden weiter, unter der Bedingung, daß alle, die Erweiterungen schrieben, diese mit der Emacs-Community teilten.

In den ausgehenden Siebzigern und frühen Achtzigern erlebte Stallman jedoch auch den Verfall der Hacker-Ethik und die Auslöschung der Gemeinde am KI-Lab mit. Es begann damit, daß auf den Systemen des MIT-Rechenzentrums Passwörter eingeführt wurden. Als echter Hacker verachtete Stallman Passwörter. Die Rechner, die er am KI-Lab administrierte, hielt er frei davon und auf den anderen führte er einen Feldzug zur Durchsetzung des empty string passwords (ein schlichtes Return), bis schließlich das US-Verteidigungsministerium drohte, das KI-Lab vom ARPAnet abzuhängen. In einem zunehmend wichtigeren Netz ging es nicht an, daß jedermann, ohne eine Legimation vorzuweisen, durch diese weit offene Tür spazieren und sich in militärischen Rechnern tummeln konnte. Stallman und andere waren der Ansicht, genau so sollte es sein. Doch der Schließungsdruck wurde stärker, und nach und nach verließen die Hacker der ersten und zweiten Generation das MIT, um für Computerfirmen zu arbeiten, eigene zu gründen oder gar zu heiraten.

Die nachwachsende Generation, die Stallman jetzt als 'Touristen' auf seinen Lab-Rechnern beobachtete, war nicht in die Hacker-Ethik hineingewachsen. Nicht alle sahen offene Systeme als Chance, um Gutes zu tun und zu lernen, um selbst einmal den Titel eines 'echten Hackers' zu erwerben. Viele von ihnen sahen auch nichts Verkehrtes in der Idee eines Eigentums an Programmen. Wie ihre Vorgänger schrieben sie aufregende Software, doch immer häufiger tauchte beim Starten ein Copyright-Vermerk auf dem Schirm auf. Gegen diese Form der Schließung des freien Austauschs kämpft Stallman bis heute. "I don't belive that software should be owned," zitiert Steven Levy ihn im Jahr 1983, "Because the practice sabotages humanity as a whole. It prevents people from getting the maximum benefit out of the program's existence."(104)

Die zunehmende Kommerzialisierung war auch der Grund für das Ende der Hacker-Kultur am KI-Lab. Seit 1975 hatte Richard Greenblatt zusammen mit einigen anderen an einem Hacker-Traum, der LISP-Maschine, gearbeitet, einem Computer, dessen Architektur speziell für die Anforderungen dieser mächtigsten und flexibelsten, aber auch ressourcenhungrigen Programmiersprache zugeschnitten war. Nach jahrelanger Entwicklungsarbeit hatten die MIT KI'ler schließlich 32 LISP-Maschinen gebaut. Greenblatt begann seine cutting-edge Technologie als Element in Amerikas Kampf mit Japan um die Führung in der Künstlichen Intelligenz zu sehen. Und dieses Potential sah er am besten durch ihrer Verbreitung durch den kommerziellen Sektor verwirklicht. Greenblatt wollte eine Firma gründen. Aus den Auseinandersetzung mit seinen Hacker-Kollegen am MIT und externen Beratern ging erst LISP Machine Incorporated (LMI) und ein knappes Jahr später die hochkapitalisierte Firma Symbolics hervor. Die beiden Firmen warben fast alle verbliebenen Hacker vom KI-Lab ab. An die Stelle des sharing spirit war eine Konkurrenz um Marktanteile für dasselbe Produkt getreten, mit allen kommunikationswidrigen Umständen davon, wie Vertraulichkeitsvereinbarungen (Nondisclosure Agreement, NDA).

"[T]hey could not talk about what mattered most -- the magic they had discovered and forged inside the computer systems. The magic was now a trade secret, not for examination by competing firms. By working for companies, the members of the purist hacker society had discarded the key element in the Hacker Ethic: the free flow of information."(105)
Als "last survivor of a dead culture"(106), wie er sich selbst bezeichnete, blieb Richard Stallman zurück. Das lebende Beispiel dafür, daß eine 'anarchistische und großartige Einrichtung' möglich ist, war ausgelöscht.
"If I told people it's possible to have no security on a computer without people deleting your files all the time, and no bosses stopping you from doing things, at least I could point to the AI lab and say, 'Look, we are doing it. Come use our machine! See!' I can't do that any more. Without this example, nobody will believe me. For a while we were setting an example for the rest of the world. Now that this is gone, where am I going to begin from?"(107)
Steven Levy endet sein 1984 geschriebenes "Hackers" auf einer positiven Note. Das Hacker-Zentrum am MIT war verschwunden, doch sein Geist -- so Levys Fazit -- hat sich mit dem persönlichen Computer allgemein verbreitet. Millionen von Menschen wurden der Magie ausgesetzt. Die Hacker-Ethik war vielleicht nicht mehr so rein wie in den Jahren der Priesterschaft, und tatsächlich hatten die Hacker der dritten Generation ihre eigenen Vorstellungen, doch weiterhin bietet jeder PC die Chance, die Magie zu entdecken, die Kreativität anzustacheln und -- ein Hacker zu werden.

Doch bevor sich Levys Prognose machtvoll beweisen sollte, trat die Computerwelt in eine dunkle Phase ein. Anfang der Achtziger war fast alle Software proprietär. Den Begriff 'Hacker' hatte die Presse inzwischen zu 'Computer-Einbrecher' verkehrt. Seit 1981 kann in den USA Software, die bis dato als Algorithmen oder mathematische Formeln und damit als unschützbar angesehen wurde, zum Patent angemeldet werden. DEC stellte seine PDP-10-Serie ein, für die die KI-Lab-Hacker das freie Incompatible Timesharing System (ITS) geschrieben hatten -- unter den Betriebssystemen der bevorzugte Tummelplatz für Hacker. Die neue Generation von Rechnern, wie die VAX oder der 68020, kamen mit ihren eigenen proprietären Betriebssystemen. 1984 wurde AT&T aufgeteilt. Die daraus hervorgegangene Software-Firma sah sich jetzt in der Lage, Unix zu vermarkten, und sie tat das in Form von Binärcode und gegen erhebliche Gebühren. Diese Privatisierung und Schließung einer Software, an der zahllose Leute in der ganzen Welt mitgearbeitet hatten, brachte viele von ihnen auf.

Als Schlüsselerlebnis nennt Stallman eine Episode Anfang der Achtziger um einen Netzwerkdrucker am MIT. Es kam regelmäßig vor, daß jemand einen Druckauftrag abschickte und einige Zeit später in den Raum ging, wo der Xerox-Drucker stand, nur um festzustellen, daß sich das Papier gestaut hatte oder ausgegangen war. Stallman wollte nun ein Funktion zufügen, die den Druckerstatus direkt am Arbeitsplatz ausgab. Er fand auch jemanden bei Xerox, der den Quellcode des Druckertreibers hatte, doch weigerte dieser sich, ihn herauszugeben, da er sich zu einer Nichtweitergabe verpflichtet hatte.(108) In dieser Erfahrung verdichtete sich der neue Geist der Zeit: Ein praktisches Problem stellt sich. Die Lösung besteht darin, eine bestehende Software um eine Funktion zu erweitern. Früher hätte man den Autor der Software um den Quellcode gebeten und hätte diesen fortgeschrieben -- die Technologie wäre für alle Betroffenen nützlicher geworden. Doch jetzt stand vor dem Quellcode und vor einer Kooperation von Programmieren eine Mauer namens intellectual property. Eine Lösung war damit nicht unmöglich geworden, doch die Firma zu bitten, das Feature zu implementieren und es im nächsten Update zu verbreiten, ist langwierig und unsicher, und ein reverse engineering ist mühsam, zeitraubend und nur in engen Grenzen legal.

Stallman fragte sich also, was er tun könne, um erneut die Voraussetzungen für eine Gemeinschaft zu schaffen. Um einen Computer zu betreiben, benötigt man allererst ein Betriebssystem. Betriebssysteme waren eines von Stallmans Spezialgebieten. Also startete er 1984 das GNU-Projekt. Das rekursive Akronym steht für "GNU's not Unix", doch genau das war sein Ziel: ein Betriebssystem zu schreiben, das funktional äquivalent zu Unix ist, aber keine einzige Zeile von AT&T geschützten Code enthält und vor allem: das in freier Kooperation weiterentwickelt werden kann, ohne irgendwann dasselbe Schicksal zu erleiden wie Unix. Die Wahl fiel auf Unix und nicht ein anderes Betriebssystem, weil es sich bewährt hatte, weil es portabel ist und weil es bereits eine aktive weltweite Unix-Gemeinde gab, die durch seine Kompatibilität leicht zu GNU wechseln konnten.

Stallman kündigte seinen Job am MIT, weil seine Arbeit als Angestellter (work for hire) der Universität gehören würde, die damit die Vertriebsbedingungen seiner Software bestimmen konnte. Er wollte verhindern, daß er erneut eine Menge Arbeit investierte, nur um hilflos zuzusehen, wie das MIT ein proprietäres Software-Paket daraus machte. Er rechnet es dem damaligen Leiter des KI-Labs hoch an, daß er ihn einlud, auch nach seiner Kündigung die Einrichtungen des Labors zu benutzen.(109)

Im September 1983 kündigte er in Unix-Newsgroups sein Projekt einer "neuen Unix-Implementation" an und lud zur Mitarbeit ein.(110) Er startete, zunächst noch allein, mit dem GNU C-Compiler (GCC) und seinem Editor GNU Emacs.

"So we started writing the components of this system. The design of this system is that there are many separate programs that communicate with each other; and it was documented, so that you could understand what the interface was between these parts, write each part one by one, and then finally test each part, as a replacement for that part of a Unix system. When you have all the parts replaced, then you put the replacements together and have an entire system. And that is how we did it. It was a very decentralized way of doing things which was well suited to a rather amorphous and decentralized community of volunteers around the world communicating mainly by email."(111)
Sein ursprüngliches Emacs für die PDP-10 hatte er auf einem anonymous ftp-Server verfügbar gemacht und alternativ Interessierten angeboten, ihm einen frankierten Rückumschlag und ein leeres Datenband zu schicken, auf das er dann die Software spielten. Da er kein Einkommen mehr hatte, bot er -- neben der weiterhin kostenlosen ftp-Distribution -- jetzt ein Band mit Emacs für $ 150 an. Als das Interesse an Emacs wuchs, wurde es notwendig, Finanzierungsmöglichkeiten zu erschließen. Zu diesem Zweck wurde 1985 die gemeinnützige Free Software Foundation (FSF) errichtet. Die FSF übernahm die Distribution der Datenbänder, erst für Emacs, dann auch für andere GNU-Software. Die Mittel aus dem Verkauf von Software (in Quellcode und vorkompiliert für bestimmte Plattformen) und Handbüchern, sowie Geld- und Sachspenden verwendet die FSF, um Entwickler dafür zu bezahlen, daß sie bestimmte, für eine vollständige Betriebssystemsumgebung notwendige Programme schreiben.

Im GNU Manifesto(112) -- ebenfalls von 1985 -- begründet Stallman die Philosophie der freien Software auf dem Kantschen Imperativ (aka the Golden Rule): "I consider that the golden rule requires that if I like a program I must share it with other people who like it."(113) Wer umgekehrt die Nutzungmöglichkeiten eines Programms einschränkt, um Geld von den Nutzern zu extrahieren, verwende destruktive Mittel. Wenn jeder sich so verhalten würde, würden wir all durch die wechselseitige Destruktion ärmer werden. Der Wunsch, für seine Kreativität belohnt zu werden, rechtfertige es nicht, der Welt die Ergebnisse dieser Kreativität vorzuenthalten. Stallman nennt bereits eine Reihe Möglichkeiten, wie Software-Entwickler und -Firmen mit freier Software Geld verdienen können, die in den Achtzigern erprobt werden und in den Neunzigern Schule machen: Vertrieb und Dokumentation; Support in Form von echter Programmierarbeit und 'Händchenhalten' für unerfahrenere Nutzer; Hardware-Hersteller, die für die Portierung eines Betriebssystems auf ihre neue Maschine bezahlen; Schulung; eine User's Group, die gemeinsam einen Programmierer beauftragt, gewünschte Zusätze zu schreiben.(114)

Der wachsenden Tendenz, Information zu horten, hält er einen Begriff von Freundschaft, Gastfreundschaft (hospitality) und Nachbarschaftlichkeit entgegen, wie etwas auf den Wizards of OS:

"Another thing you should be able to do [with a program] is make a copy for your friend so that your friend can get the benefit of it too. This is not only useful, this act of cooperation is a fundamental act of friendship among people who use computers. The fundamental act of friendship among beings who can think is to teach each other, to share knowledge. Sharing software is a special case of that, for those of us who use computers. Each act of sharing a copy of a program is not only a useful act, but it helps to reinforce the bonds of good will that are the basis of society and distinguish society from a jungle.

This good will, the willingness to help out your neighbor whenever it's not too hard, is what makes society function and what makes it a decent place to live in. Any kind of policy or any legal system that condemns or prohibits this kind of cooperation is polluting society's most important resource. It is not a material resource, but it is an extremely important resource. "(115)

Im Manifesto ist von der Solidarität unter Programmieren die Rede, die sich als Genossen begegnen. "The fundamental act of friendship among programmers is the sharing of programs." Es finden sich auch naturrechtliche Argumentationen: "Copying all or parts of a program is as natural to a programmer as breathing, and as productive. It ought to be as free." Fluchtpunkt der Vision ist eine Welt jenseits des Mangels. Bereits heute sei die Menge der notwendigen Arbeit für die Produktivität der Gesellschaft stark zurückgegangen. Daß sich dies nicht in eine größere Freizeit übersetzt, liege vor allem an den nicht-produktiven Aktivitäten wie Verwaltung und Konkurrenz. "Free software will greatly reduce these drains in the area of software production. We must do this, in order for technical gains in productivity to translate into less work for us."

Im Kern der Vision steht ein freies Software-Universum. "The ultimate goal is to provide free software to do all of the jobs computer users want to do -- and thus make proprietary software obsolete."(116) Das GNU-Projekt ist mehr als nur ein Sammelbecken für diverse freie Programme. Es wird von einer Gesamtvision für ein vollständiges System geleitet. Systematisch wurden alle Bestandteile einer freien Betriebsumgebung in eine Task List eingetragen und nach und nach erarbeitet. Dazu gehören die Befehls-Shell (BASH), Assembler, Compiler (GCC), Interpreter, Debugger (GDB), Editor (Emacs), Archivierer (GNU tar), GNU Make, Mailer und Postscript-Viewer (GNU GhostScript). Bestehende freie Software wie Donald Knuths Textformatierer TeX und das ebenfalls am MIT entwickelte Window-System X Window wurden in GNU integriert.

Zentrales Instrument zur Absicherung dieses expandierenden Universums der freien Software ist die Lizenz, unter der es steht. Die Freiheit, die die GNU Public License (GPL) den Nutzern einer Software gewährt, umfaßt (1) den Zugang zum Quellcode, (2) die Freiheit, die Software zu kopieren und weiterzugeben, (3) die Freiheit, das Programm zu ändern und (4) die Freiheit, das veränderte Programm -- unter denselben Bedingungen -- zu verbreiten. Die Auflage in der 4. Freiheit verhindert, daß freie Software privatisiert und ihrer Freiheiten entkleidet wird. Die GNU-Philosophie schreibt nicht vor, daß die Weiterverbreitung kostenlos zu geschehen hat. Für Dienstleistungen wie Zusammenstellung, Produktion und Vertrieb von CD-ROMs, Support, Schulung und Handbücher ist die Erhebung einer Gebühr ausdrücklich zugestanden, nicht jedoch für die Software selbst. Auf diese vielleicht wichtigste Innovation Richard Stallmanns, die GPL, komme ich im Abschnitt zu Lizenzen zu sprechen.

Mit der GPL von 1989 beginnen die FSF und ihre Advokaten, wie der New Yorker Rechtsprofessor Eben Moglen,(117) auf dem Feld von Copyright und Vertragsrecht zu intervenieren. In anderer Form tut dies auch die League for Software Freedom,(118) die 1989 anläßlich Apples Look-and-Feel-Verfahren gegen Microsoft von John Gilmore und Richard Stallman gegründet wurde. Die League engagiert sich bis heute gegen User-Interface-Copyrights und Software-Patente.

Mit der Zeit konnten immer mehr zu ersetzende Unix-Komponenten von der Task List gestrichen werden, und der Schwerpunkt verlagerte sich auf Anwender-Software, wie ein Spreadsheet, den Grafik-Desktop GNOME, die Kryptographie-Software GNU Privacy Guard und selbst Spiele. Viele der GNU-Komponenten entwickelten ein Eigenleben. Da sie die entsprechenden Komponenten von Unix-Systemen ersetzen konnten und nicht selten besser waren als ihre proprietären Gegenstücke, verbreiteten viele sich als Standardwerkzeuge auch unter Verwaltern kommerzieller Unix-Systeme.

1990 war das GNU-System nahzu vollständig. Die einzige wesentliche Komponente, die noch fehlte, war ein Kernel. Hier war die Wahl auf einen Mikrokernansatz gefallen, Mach, von der Carnegie Mellon University entwickelt und dann von der University of Utah übernommen, sollte als Basis dienen. Darüber sollen die verschiedenen Betriebssystemsfunktionen als eine Sammlung von Servern (a herd of gnus) mit dem Namen HURD implementiert werden, doch das Debugging von multi-threaded Servern stellte sich als schwieriger heraus, als erwartet.

1991 kam Linus Torvalds dem GNU-Projekt mit dem Linux-Kernel zuvor. Ob nun Linux als letzter Baustein in die GNU-Umgebung eingefügt wurde oder die GNU-Module um Torvalds Kernel -- wie man es auch sehen mag, auf jeden Fall gibt es seither ein vollständiges, leistungsfähiges, freies System mit dem Namen GNU/Linux.

GNU ist das erste 'bewußte' freie Software-Projekt. Die Freiheiten, die in der vorangegangenen Hacker-Kultur unausgesprochene Selbstverständlichkeit waren, wurden nun expliziert und in einem Vertrag zwischen Autoren und Nutzern rechtsverbindlich festgeschrieben. Mit seinen Tools ist GNU außerdem Geburtshelfer aller folgenden Projekte. Schließlich eröffnet sie einen Blick weit über die Software hinaus: "The core of the GNU project is the idea of free software as a social, ethical, political issue: what kind of society do we want to live in?"(119)
 
 
 

GNU/Linux(120)

Ein Zwischenspiel stellt das 1987 von Andrew Tanenbaum entwickelte Minix dar, ein Unix-Derivat für 286er PCs, das der Informatikprofessor an der Universität Amsterdam speziell für Lehrzwecke entworfen hat.(121) In der Usenet-Newsgroup comp.os.minix konnten Interessierte seine Entwicklung mitverfolgen. Ende der achtziger Jahre gab es bereits mehr als 50.000 Minix-Anwender.

Darunter befand sich auch der finnische Informatikstudent Linus Torvalds. Er hatte sich einen PC mit dem gerade neu erschienen 386er-Prozessor angeschafft, der erstmals echten Speicherschutz und Multitasking anbot. Ausgehend von Minix begann er, einen neuen 32 Bit breiten, Unix-artigen Betriebssystemskern zu schreiben, der die neuen Möglichkeiten unterstütze, zuerst in Assembler, dann in C. Auch Torvalds veröffentlichte den Quelltext seiner Arbeit im Netz, gab die Adresse in der Minix-Newsgroup kund und lud zur Mitarbeit ein. Die Werkzeuge aus dem GNU-Projekt (C-Compiler, Linker, Editoren usw.) taten dem Projekt gute Dienste. Linux ist heute das Paradebeispiel einer solchen unwahrscheinlichen Organistationsform, bei der Tausende von Menschen in der ganzen Welt in einer verteilten, offenen, locker gekoppelten Zusammenarbeit ein komplexes Software-Projekt entwickeln. "In fact, I think Linus's cleverest and most consequential hack was not the construction of the Linux kernel itself, but rather his invention of the Linux development model."(122)

Im Januar 1992 lag der bereits stabile Linux-Kernel 0.12 vor, dazu gab es die BASH-Shell, den GNU C-Compiler, eine Emacs-Version und viele weitere GNU-Utilities. Ebenfalls vom GNU-Projekt übernommen wurde die Copyleft-Lizenz, die GNU Public License (GPL), die die Freiheit von Linux und aller abgeleiteter Software sichert. Als Basis einer graphischen Benutzeroberfläche wurde von einem benachbarten freien Projekt XFree86 übernommen. Im März 1994 erschien GNU/Linux Version 1.0. Um eine Aufspaltung des Projekts in verschiedene 'Geschmacksrichtungen' (das sog. Code-Forking) zu verhindern, etablierte sich unter der weithin akzeptierten Autorität von Torvalds ein System, wonach bestimmte Entwickler für Teilbereiche des Kerns zuständig sind, aber er das letzte Wort darüber hat, was in den Kern aufgenommen wird. Den Projektleitern (Maintainern) arbeitet ein große Zahl von Leuten zu, die die Software testen, Bugs melden und beheben und weitere Funktionen hinzufügen. Neben einer Kerngruppe für den Kernel(123) bildeten sich weitere Standardisierungsgremien: die Linux File System Standard Group (im August 1993 gegründet(124)), das Linux Documentation Project (LDP)(125) und -- zur Sicherstellung der Kompatibilität der Betriebsumgebung in verschiedenen Distributionen -- die Linux Standard Base (LSB).(126)

Die Distribution erfolgte zunächst nur übers Netz, spätestens ab 1993 auch auf Disketten und kurz darauf auf CD-ROM. Ab 1993 stellten kommerzielle Anbieter wie SuSE, Caldera und Yggdrasil Distributionen mit dem neuesten Kernel, Tools und Anwendungen zusammen. Ab 1994 erschienen spezialisierte Zeitschriften (wie Linux Journal, Linux Gazette, Linux Focus und das deutschsprachige Linux Magazin) und Online-Foren (wie Linuxtoday und Slashdot.org). Ab 1993 (und inzwischen in der 7. Auflage von 1997) erscheint das Linux Anwenderhandbuch unter der GPL, das schnell zum Standardwerk im deutschsprachigen Raum wurde.(127) 1995 gab es bereits 500.000 Linux-Nutzer. Ein Jahr darauf waren es 1,5 Mio., 1997 schon 3,5 Mio. und 1998 7,5 Mio. Was als Betriebssystemkern begann und sich um andere freie Software vor allem aus dem GNU-Projekt anreicherte,(128) stellte inzwischen eine Plattform dar, die auch für die Anbieter von Anwendungs-Software interessant wurde. Mehr als 1000 Anwendungen stehen heute auf GNU/Linux zur Verfügung, der größte Teil davon kostenlos.

Auch kommerzielle Office-Pakete von Applixware und Star Division, Corels WordPerfect und Datenbanken von Adabas und Oracle wurden auf Linux portiert. Linuxer können heute zwischen den graphischen Benutzeroberflächen KDE (K Desktop Environment) und Gnome (GNU Network Object Model Environment) mit jeweils verschiedenen Window-Managern wählen. Die Nutzerfreundlichkeit nimmt zu. Während für alte Unix-Admins der normale Weg die Source Code-Installation ist, wird unter Linux Software zunehmend als Binary installiert, wie das in der PC-Welt üblich ist. Dazu dienen Installierer wie der RedHat Package-Manager oder dselect. Emulatoren wie Wabi und Wine erlauben es, MS-Windows-Software unter Linux zu nutzen. Mit Werkzeugen wie Wind/U (Bristol Technology) können Entwickler Windows-Quelltexte z.B. in Visual-C++ zu Linux-Anwendungen übersetzen.

Auch die häufig zu hörende Kritik, für Linux gebe es keinen Support, ist gründlich widerlegt. Tausende von engagierten Linux-Nutzern gewähren Anfängern und Hilfesuchenden in Newsgroups und Mailinglisten Unterstützung und reagieren auf Bugs manchmal schon innerhalb von Stunden mit Patches. Schon 1997 verlieh Infoworld der Linux-Gemeinde für diesen einzigartig leistungsfähigen Support den Best Technical Support Award. Daneben etablierte sich eine wachsende Zahl von Systemhäusern, die Installation, Schulung und Wartung von Linux-Systemen kommerziell anbieten.

Heute gibt es schätzungsweise 20 Mio Installationen weltweit. Linux hat inzwischen auch in Wirtschafts- und Verwaltungskreisen Popularität als zuverlässige und kostengünstige Alternative zu MS-NT vor allem im Server-Bereich erlangt. Zu den Linux-Großanwender gehören Unternehmen wie Edeka, Sixt, Debis und Ikea. Große Computer-Vertreiber begannen ab Mitte 1999, Desktop-Rechner, Workstations und vor allem Server mit vorinstalliertem GNU/Linux auszuliefern. Nach der Hochburg Europa und den USA erobert Linux auch den pazifisch-asiatischen Raum von Japan über China bis Indien.(129) Linus Torvalds ist der unangefochtene Star der freien Software. GNU/Linux gelangte durch den Film Titanic zu Hollywood-Ruhm, dessen Computergraphiken auf einem Linux-Cluster gerechnet wurden. Seit der LinuxWorld Expo im März 1999 -- eine Art Volljährigkeitsparty für das Projekt -- hat Linux auch seine eigene Industriemesse. Sogar in der Kunstwelt fand es Anerkennung, als dem Projekt der Prix Ars Electronica 1999 (in der Kategorie ".net") verliehen wurde.

Somit nahmen sowohl das GNU-Projekt wie das Linux-Kernel-Projekt ihren Ausgang in Universitäten. Wie Friedrich Kittler betont, war es eine praktische Kritik an der Schließung des wissenschaftlich frei zirkulierenden Wissens, "... daß am Massachusetts Institute of Technology einige Programmierer der Käuflichkeit widerstanden und daß an der Universität Helsinki ein einsamer Informatikstudent die herbeigeredete Angst vor Assemblern und Kaltstarts -- denn darum geht es -- überwand. So direkt waren offene Quellen und freie Betriebssysteme an die Freiheit der Universität gekoppelt. Schauen Sie wieviel 'edu' da drinsteht in den Linux-Kernel-Sources. So direkt hängt aber auch die Zukunft der Universität von diesen freien Quellen ab."(130)
 
 
 
 

Von 'Free Software' zu 'Open Source Software'

Der Schlüsseltext für die begriffliche Wende in der Debatte ist Eric S. Raymonds "The Cathedral and the Bazaar".(131) In den Versionen bis zum Februar 1998 sprach Raymond darin von 'free Software', dann ersetzte er den Ausdruck durch 'Open Source Software'.(132)Free ist nicht nur zweideutig ('Freibier' und 'Freie Rede'), sondern offensichtlich war es in The Land of the Free zu einem unanständigen, 'konfrontationellen', irgendwie kommunistisch klingenden four-letter word geworden. Jedenfalls war es erklärtes Ziel der Wende, den mindestens 14 Jahren zuvor von von Richard Stallman geprägten Begriff 'Free Software', unter dem sich die Bewegung weit über das GNU-Projekt hinaus gesammelt hatte, durch einen Begriff zu ersetzen, der auch in den Vorstandsetagen und Aktionärsversammlungen schmackhaft gemacht werden kann.

Der neue Begriff wurde auf dem Gründungstreffen der Open-Source-Initiative im Februar 1998 geprägt. Daran nahmen John Hall und Larry Augustin (Linux International), Sam Ockman (Silicon Valley Linux User Group), Eric Raymond sowie Todd Anderson und Christine Peterson(133) (Foresight Institute) teil. Peterson erdachte den Begriff "Open Source". Anlaß für dieses Treffen war Netscapes Ankündigung Ende Januar gewesen, den Quellcode seines Browsers offenzulegen. Netscape hatte Raymond eingeladen, ihnen dabei zu helfen. "We realized that the Netscape announcement had created a precious window of time within which we might finally be able to get the corporate world to listen to what we have to teach about the superiority of an open development process. We realized it was time to dump the confrontational attitude that has been associated with `free software' in the past and sell the idea strictly on the same pragmatic, business-case grounds that motivated Netscape."(134)

Bruce Perens, Autor der Debian Free Software Guidelines und der davon abgeleiteten Open Source Definition (OSD)(135), meldete Open Source als Warenzeichen an. Die Website www.opensource.org wird gestartet. Viele kritisierten den Begriff "Open Source" und zogen das etablierte "Free Software" vor, andere innerhalb der lockeren Bewegung folgten der Wende.(136) So lud der O'Reilly Verlag im April 1998, kurz nachdem Netscape den Quelltextes seines Navigators freigegeben hatte, noch zu einem Free Software Summit ein. Im August des Jahres organisierte der Verlag dann den Open Source Developer Day. Die Computer-, aber auch die Finanzpresse griff nach Netscapes Schritt den Begriff 'Open Source' auf.

Quelloffenheit ist auch ein definierendes Merkmal von free software, doch indem diese neue Fraktion das Merkmal der Freiheit in den Hintergrund rückt, eröffnet sie die Möglichkeit von Software, deren Quellcode einsehbar, aber nicht modifizierbar ist, oder von Softwareunternehmen, die sich vorbehalten, nach firmenstrategischen Gesichtspunkten zu entscheiden, ob sie Modifikationen von Nutzern aufnehmen oder nicht. Die ursprüngliche Vision eines ständig wachsenden, unwiederruflich freien Software-Universums wird durch diesen Schritt verwässert.

Hinter der neuen Sprachpolitik stehen auch Angriffe gegen die Person Stallmans -- eine Art Vatermord. "To the new generation, Stallman is an embarrassment and a hindrance who must, at all costs, be trundled into a back room before he scares off the investors."(137) Andrew Leonard führt in einem Artikel im Salon Magazine Stimmen an, die von einem Generationswechsel sprechen und Kritik an Stallmans Stil äußern, seine Projekte zu leiten.

"'GNU has floundered over the past few years precisely because of Richard Stallman's hyper-controlling mentality,' wrote Mates. 'The culture of Linux/Apache/etc. development is friendlier to developers: Linus Torvalds loves to work with others, admits his faults and failings, and accepts stuff that's better than his own. Richard Stallman's development philosophy is almost antithetical -- he must control, and so his projects suffer.'"(138)
Der Unterschied im 'Führungsstil' war es auch, der Raymond dazu veranlaßte, GNU als ein Kathedralen-Projekt dem Basar-Modell von Linux und anderen Projekten der dritten Generation gegenüberzustellen. Im selben Artikel zitiert Leonard eine eMail von Raymond, in der er Stallmans Auftritt beim Open Source Developer Day kritisiert:
"When the purpose of the event is to sell our ideas to the trade press and business, there are times when the speeches of people you disagree with are functionally helpful and yours are not. Therefore, if I am trying to get victory for all of us, I may have to put pressure on you but not on the people who disagree with you -- even if my private views are actually closer to yours. ...

You [Stallman] did a lot of damage, more than you probably know. I've seen three different articles with the basic theme 'those flaky hackers can't get it together and won't grow up,' every one citing your diatribe. Next time, it's going to be a lot harder for me to argue that you ought to be included. And a lot harder for me to be upset when I lose."(139)

Stallman selbst sieht durch diesen Begriffswechsel das Gleichgewicht zwischen Verbreitung und Aufklärung bedroht. "Thus, the rhetoric of 'open source' focuses on the potential to make high quality, powerful software, but shuns the ideas of freedom, community, and principle."(140) Die Open-Source-Fraktion betone allein die pragmatischen Aspekte, die Nützlichkeit, die Features, die Zuverlässigkeit und Effizienz der Software. "The approach or the attitude that is associated with Linux is a very different one, a much more technological one, an engineers' attitude: how can we make powerful software, how can we be 'successful.' These are things that are not bad things, but they are missing the most important point."(141) Entsprechend beharrt das GNU-Projekt auf der Bezeichnung 'free Software' um zu betonen, daß Freiheit und nicht allein Technologie zählt. "That is the real difference between free software and open source. Free software is a political philosophy and open source is a development methodology -- and that's why I'm proud to be part of the free software movement, and I hope you will be too."(142)
"The Free Software movement and the Open Source movement are like two political parties within our community. Radical groups are known for factionalism [...] They agree on the basic principles, and disagree only on practical recommendations. [...] For the Free Software movement and the Open Source movement, it is just the opposite on every point. We disagree on the basic principles, but agree on most practical recommendations. We work together on many specific projects. In the Free Software movement, we don't think of the Open Source movement as an enemy. The enemy is proprietary software. But we do want people in our community to know that we are not the same as them!"(143)
Perens, der mit der Open Source Definition(144) die Meßlatte für die Erteilung des Gütesiegels Open Source geschaffen und zusammen mit Raymond die Open Source Initiative (OSI) zu seiner Zertifizierung gegründet hatte, wechselte ein Jahr später das politische Lager. Die OSI habe ihre Aufgabe, der Nicht-Hacker-Welt die freie Software nahzubringen, erfüllt. "And now it's time for the second stage: Now that the world is watching, it's time for us to start teaching them about Free Software. Notice, I said Free Software, not Open Source."(145) Er bedauerte, daß Open Source die Bemühungen der FSF überschattet habe -- "a schism between the two groups should never have been allowed to develop." -- verlies die OSI und wählte wieder die Seite von SPI und FSF.

Leonards Fazit in der August-Ausgabe von Salon Magazine: "Unkempt and off-kilter though he may be, Stallman embodies the fervor and the faith that make free software worth embracing. If the pragmatists of the open source cause sacrifice him to make free software safe for business, it seems to me, they risk losing their movement's soul."(146)
 
 
 

Zahlen zur freien Software

Da Freie Software ohne Registrierung installiert und kopiert werden kann, gibt es keine genauen Zahlen über Installationen, Nutzer oder Marktanteile. Für Betriebssysteme und Server gibt es automatische Verfahren, um die benutzte Software von im Internet sichtbaren Host-Rechnern abzufragen, weshalb Näherungszahlen für GNU/Linux, BSD und Apache vorliegen. Für Linux gibt es außerdem eine Selbstregistrierung. Zu den meisten anderen Projekten liegen keinerlei Anhaltspunkte vor. (Zu Markterwartungen für freie Software siehe auch unten unter "Wirtschaftliche Aspekte")

Eine freiwillige Selbstregistrierung bietet der Linux Counter,(147) der im August 2000 auf weit über 15.000 stand. Harald.T.Alvestrand schätzt aufgrund dieser Angabe und weiterer Indizien die weltweite Zahl der GNU/Linux-Nutzer auf 14 Millionen.(148)

Bei den Internet-Servern liegt freie Software auf Platz eins. Der Internet Operating System Counter,(149) der leider nicht fortgeführt wird, stellte im April 1999 unter 1.465.124 abgefragten Host mit den Adresses 'ftp.', 'news.' and 'www.' fest, daß weltweit 31,3% (399.748) mit Linux betrieben wurden. Unter der Länderdomäne .de lag der Linux-Anteil bei 42,7% (197.670). Die BSD-Familie lag weltweit bei 14,6% (186.385), in .de bei 8% (36.858).

Netcraft,(150) das einen laufenden Web Server Survey durchführt, gibt für Juni 2000 folgende Zahlen: von 17,3 Millionen erfaßten Hosts lief auf 35.73% (6.116.811) Linux, gefolgt von Microsoft mit 21.32% (3.644.187). Für den Apache erhob Netcraft im Juli 2000 auf einer Basis von 18,2 Millionen Sites einen Anteil von 62.81% (11.412.233), gefolgt von Microsoft-Produkten mit 19.86% (3.608.415). Zu BSD macht Netcraft keine Angaben.
 
 

Was ist freie Software, wie entsteht sie, wer macht sie?

Freie Software stellt eine von der proprietären Software grundlegend verschiedene Welt mit ihrer eigenen Kultur dar. Alle weiteren Merkmale ergeben sich aus ihren drei Grundeigenschaften: (1) der Quellcode freier Software ist verfügbar, (2) sie darf ohne Einschränkungen und ohne Zahlungsverpflichtungen kopiert und weitergegeben werden und (3) sie darf verändert und in veränderter Form weitergegeben werden.(151) Diese Eigenschaften bilden die idealen Voraussetzungen für eine offen, d.h., nicht auf Vertragsverhältnissen(152) beruhende, kooperative Software-Entwicklung und eine weitestgehende Beteiligung der Anwender.

Jedes größere Software-Projekt wird von Gruppen von Entwicklern erstellt. Auch in der Industrie haben heute Teams, die über eine kreative Selbständigkeit verfügen, ihren Code synchronisieren und in regelmäßigen Abständen das gemeinsame Produkt stabilisieren, die hierarchischen Verfahren unter einem Chef-Programmierer weitgehend abgelöst. Beobachter wollen selbst bei Microsoft eine hochskalierte Hacker-Methodik im Einsatz sehen.(153) Die freie Software dagegen hat dank der genannten Eigenschaften und dank des Internet die Zusammenarbeit auf alle ausgeweitet, die sich beteiligen möchten. Da hier weder Leistungslohn noch Geheimhaltungsvorschriften die Team-Grenzen bestimmen, kann das entstehende Wissen nur allen gehören.
 
 
 

Quellcode und Objektcode

Software stellt eine besondere Klasse von Wissen dar. Es handelt sich um operative Anweisungen, die, von Menschen geschrieben, sich an einen Computer richten. Menschen schreiben diese Anweisungen in einer höheren Programmiersprache, wie C, C++ oder Pascal. Dieser Ausgangstext oder Quellcode wird einem Compiler übergeben, der ihn in eine maschinennähere, für Menschen nicht mehr lesbare Form, den Objektcode übersetzt. Diese binäre Form des Programms erst veranlaßt den Rechner, für den Menschen (meist) sinnvolle Zeichenoperationen auszuführen.

Kompilierung ist ein im wesentlichen irreversibler Prozeß. D.h., aus dem Binärcode läßt sich allenfalls mit großen Anstrengungen, die der ursprünglichen Codierung nahekommen, der Quellcode rekonstruieren.(154) Proprietäre Software wird nur in einer für eine bestimmte Prozessorplattform vorkompilierten Form ausgeliefert, ohne Quellen. Das stellt zwar keinen Kopierschutz dar, das Wissen darüber, wie ein solches Black Box-System macht, was es macht, ist jedoch für alle praktischen Belange effektiv geschützt. Böse Zungen mutmaßen, daß viele Firmen ihre Quellen nicht veröffentlichen, damit niemand sieht, von wie geringer Qualität ihre Software ist, doch der Hauptgrund liegt natürlich im Schutz des geistigen Eigentums. Microsoft wehrte sich gegen die Offenlegung des Quellcodes von Windows in einem Rechtsstreit mit Caldera mit der Begründung, es handele sich um "eines der wertvollsten und geheimsten Stücke geistigen Eigentums in der Welt".

Für reine Anwender mag eine Black Box zunächst keine wirkliche Qualitätseinschränkung bedeuten, für Entwickler und Systemadministratoren macht es ihre Arbeitsumgebung zu einer Welt voll Mauern und verbotener Zonen. Für Anpassung, Integration, Fehlerbehebung und Ergänzung müssen sie Veränderungen an der Software vornehmen, und das ist nur am Quelltext möglich. Freie, quelloffene Software bietet ihnen diese Möglichkeit. Bei proprietärer Software bleibt ihnen nur, auf die Unterstützung durch den Hersteller zu hoffen oder sich durch umständliches und nur in engen Grenzen legales Reverse Engineering zu behelfen.

Ein häufig von Anbietern proprietärer Software vorgebrachtes Argument lautet, ihre Software umfasse mehrer Millionen Zeilen Code, weshalb ihre Kunden gar kein Interesse hätten, den Quellcode zu lesen. Im übrigen verfalle durch den Eingriff in die Software die Gewährleistungsgarantie, und der Support würde ungleich komplexer.(155)

Das Gegenargument lautet, daß keine Software hundertprozentig das leistet, was Anwender sich wünschen. Anspruchsvolle Anwender werden also in jedem Falle die Möglichkeit schätzen, in den Quellcode eingreifen, oder andere damit beauftragen zu können, die gewünschten Veränderungen vorzunehmen. Selbst wenn keine Änderungen vorgenommen werden sollen, ist es sinnvoll, den Quellcode mitzuliefern, da Interessierte ihn lesen und daraus lernen können.

Modifikationen an proprietärer Software sind technisch nicht möglich und lizenzrechtlich nicht erlaubt. Die Datenformate, die diese Software schreibt, sind häufig nicht dokumentiert, weshalb die Gefahr besteht, daß ein Generationswechsel oder die Einstellung einer Software, z.B. durch Verkauf oder Konkurs des Herstellers, die über Jahre angesammelten Daten unlesbar und unkonvertierbar macht. Auch die urheberrechtlich geschützten Handbücher dieser Software erlauben keine Anpassung und Fortschreibung, um Änderungen oder die an einzelnen Arbeitsplätzen eingesetzten Varianten zu dokumentieren.

In der freien und der proprietären Software stehen sich also zwei grundlegend verschiedene Auffassungen über das Wissen gegenüber. Hier Quelltext als ein in geschlossenen Gruppen, unter Vertraulichkeitsverpflichtung gefertiges Master-Produkt, das in geschlossener, binärer Form als Ware vermarktet und mit Hilfe von Urheberrechten, Patenten, Markenschutz und Kopierschutzmaßnahmen vor Lektüre, Weitergabe und Veränderung geschützt wird. Dort Quelltext als in einer offenen, nicht-gewinnorientierten Zusammenarbeit betriebener Prozeß, bei dem eine ablauffähige Version immer nur eine Momentaufnahme darstellt, deren Studium, Weitergabe und Modifikation die Lizenzen der freien Software ausdrücklich ermutigen. Hier eine Ware, die dem Konsumenten vom Produzenten verkauft wird. Dort ein kollektives Wissen, das allen zur Verfügung steht.
 
 
 

Wie funktioniert ein Projekt der freien Software?

Es beginnt meist damit, daß jemand ein Problem hat. Das Sprichwort 'Notwendigkeit ist die Mutter aller Erfindungen' übersetzt Eric Raymond in eine der Faustregeln der freien Software: "Every good work of software starts by scratching a deverloper's personal itch".(156) So wollte Tim Berners-Lee 1990 die Informationsflut, die am CERN produziert wird, in den Griff bekommen und begann, das WWW-Protokoll zu entwickeln.(157) Rob McCool am NCSA wollte einen Server für dieses Format haben und schrieb NCSA-httpd. David Harris arbeitete an einer Universität in Dunedin, Neuseeland, die 1989 ein Novell NetWare-Netzwerk installierte, nur um festzustellen, daß es kein eMail-System enthielt. Das Budget war aufgebraucht, die kommerziellen eMail-Pakete sehr teuer, also schrieb Harris in seiner Freizeit ein einfaches Programm namens Pegasus Mail, das er seither zu einem mächtigen und komfortablen Werkzeug weiterentwickelt hat und weiterhin verschenkt.(158) Brent Chapman wurde 1992 zum Administrator von 17 technischen Mailinglisten. Mit der damals verfügbaren Software mußte der Listenverwalter jede Subskription und andere Adminstrationsvorgänge von Hand eintragen, was eine Menge Zeit kostete. Deshalb begann er Majordomo zu entwickeln, der heute am weitesten verbreitete Mailinglisten-Server im Internet.(159) Linus Torvalds wollte ein Unix auf seinem 386er PC zuhause laufen lassen, fand allein Minix, das seinen Ansprüchen nicht genügte, und begann Linux zu entwickeln. In einem Interview mit der c't zeigt sich Torvalds noch zehn Jahre später verwundert über den Erfolg.

"Ich muß sagen, daß ich niemals etwas Vergleichbares erwartet hätte. Nicht einmal annähernd. Ich wollte ein System haben, das ich selbst auf meiner Maschine nutzen konnte, bis es etwas besseres gäbe. Ich habe es im Internet zur Verfügung gestellt, nur für den Fall, daß jemand anderes an so einem Projekt Interesse hätte. Daß es nun Millionen von Anwendern gefunden hat und im Internet ziemlich bekannt ist, hätte ich mir niemals träumen lassen."(160)
Freie Software entsteht also nicht auf Anweisung eines Vorgesetzten oder Auftraggebers. Sie ist vielmehr eine eigenmotivierte Tätigkeit, angetrieben von dem Wunsch, ein vor der Hand liegendes Problem bei der Arbeit oder Forschung zu lösen. Eine Ausnahme bildet das GNU-Projekt, das von der Vision eines vollständigen freien Betriebssystems geleitet wurde.

All diese Männer der ersten Stunde -- es scheint tatsächlich nicht eine einzige Frau unter ihnen zu geben(161) -- veröffentlichten ihre Projekte frühzeitig, in der Annahme, daß sie nicht die einzigen sind, die dieses Problem haben, und daß es andere gibt, die ihnen bei der Lösung helfen würden.

Meist bildet sich schon bald nach der Erstveröffentlichung um den Initiator eine Gruppe von Mitstreitern, die ihre Kenntnisse und Zeit in das Projekt zu investieren bereit sind und die, wenn die Zahl der Beteiligten wächst, als Maintainer eine koordinierende Verantwortung für Teile des Projekts übernehmen.
 
 
 

Core-Team und Maintainer

Wenn die Zahl der Mitentwickler und Anwender wächst, bildet diese Gruppe das zentrale Steuerungs-Gremium des Projekts, das Core-Team. Ein solches Team rekrutiert sich meist aus den Leuten, die entweder schon am längsten daran arbeiten oder sehr viel daran gearbeitet haben oder derzeit am aktivsten sind. Beim Apache umfaßt es 22 Leute aus sechs Ländern. XFree86 hat ein Core-Team von elf Personen und eine Community von etwa 600 Entwicklern. Innerhalb des Core-Teams werden Entscheidungen gefällt über die allgemeine Richtung der Entwicklung, über Fragen des Designs und interessante Probleme, an denen weitergearbeitet werden soll.

Große Projekte werden in funktionale Einheiten, in Packages oder Module gegliedert, für die jeweils ein oder mehrere Maintainer zuständig sind. An jedem Einzelprojekt arbeiten mehrere Dutzend bis hundert Entwickler weltweit mit. Änderungen werden an das Core-Team geschickt und von diesem in den Source-Baum integriert.

Beim Linux-Kernel gibt es kein offizielles Entwicklerteam. Im Laufe der Zeit hat sich meritokratisch eine Gruppe von fünf oder sechs Leuten herausgeschält, die das Vertrauen des zentralen Entwicklers Linus Torvalds genießen. Dazu gehört Dave Miller, der sich um den SPARC-Port kümmert. Alles, was das Dateisystem betrifft, geht an Stephen Tweedie, und Alan Cox ist zuständig für die allgemeinen Aspekte der nächsten Kernel-Version. Sie sammeln die eintreffenden Patches, testen sie und geben sie vorgefiltert an Torvalds weiter. Er trifft dann aufgrund der Vorentscheidungen seiner Vertrauten die letzte Entscheidung.(162)
 
 
 

Die Community

Der Community messen die neueren Projekten, wie Linux und Apache, einen größeren Stellenwert bei, als das ältere GNU-Projekt. Im GNU Manifesto von 1985 schrieb Stallman: "GNU ... is ... the software system which I am writing so that I can give it away free ... Several other volunteers are helping me."(163) In einem Interview im Januar 1999 sagte er auf die Frage, wieviele Menschen im Laufe der Jahre an GNU mitgearbeitet haben: "Es gibt keine Möglichkeit, das festzustellen. Ich könnte vielleicht die Anzahl der Einträge in unserer Freiwilligendatei zählen, aber ich weiß nicht, wer am Ende wirklich etwas beigetragen hat. Es sind wahrscheinlich Tausende. Ich weiß weder, wer von ihnen echte Arbeit geleistet hat, noch ist jeder, der echte Arbeit geleistet hat, dort aufgeführt."(164) Bei den jüngeren Projekten wird stärker auf das (im übrigen auch urheberpersönlichkeitsrechtlich verbriefte) Recht auf Namensnennung geachtet. Der Pflege der Community, die die Basis eines Projektes bilden, wird mehr Aufmerksamkeit gewidmet.

Das Debian-Team besteht aus etwa 500 Mitarbeitern weltweit. Bei XFree86 sind es rund 600. Bei den meisten Open Source-Projekten gibt es keine festgelegte Aufgabenverteilung. Jemand macht das, was ihn interessiert, und implementiert und programmiert das, wozu er Lust hat.

Auch der Apache-Webserver wird natürlich nicht allein von den 22 Core-Team-Mitgliedern entwickelt. Es gibt sehr viele Leute, die -- regelmäßig, gelegentlich, zum Teil auch nur einmalig -- Fehler im Apache beheben. Die Beteiligung fängt an bei simplen Bug Reports und geht über Feature Requests, über Ideen zur Weiterentwicklung bis hin zu Patches oder größeren Funktionserweiterungen, die von Nutzern gemacht werden, die ebenfalls Spaß am Entwickeln haben und ihren Teil dazu beitragen wollen, daß der Apache auch weiterhin der beste Webserver bleibt.(165)

Auch das freie X-Window-System beruht auf einem solchen Spektrum vielfältiger Mitarbeit.

"Die Anzahl der neuen Leute, die Interesse zeigen und in so ein Projekt einsteigen, ist absolut verblüffend. Das Interesse ist riesig. 'Entwickler' ist natürlich ein bißchen grob gegriffen. Die Zahl der Leute, die mehr als 1000 Zeilen Code im XFree86 drin haben, ist vielleicht zwei Dutzend, mehr sind das nicht. Es gibt jede Menge Leute, die mal einen ein- bis dreizeiligen Bug Fix gemacht haben, aber auch 'nur' Tester. Leute, die Dokumentationen schreiben, sind wahnsinnig wertvoll. Denn, das werden viele Free Software-Projektleiter mir bestätigen können: Coders don't write docs. Es ist leicht, Leute zu finden, die genialen Code schreiben. Es ist schwierig, Leute zu finden, die bereit sind, diesen genialen Code auch für den Anfänger lesbar zu dokumentieren."(166)

 
 
 

Entscheidungsfindung: "rough concensus and running code"

Das Credo der Internet-Entwicklergemeinde lautet: "We reject: kings, presidents and voting. We believe in: rough concensus and running code."(167) Die gleiche Philosophie herrscht auch in den meisten freien Software-Projekten. Auch die Core-Team-Mitglieder sind keine Projektleiter oder Chefs. Lars Eilebrecht über Apache:

"Alle Entscheidungen, die getroffen werden, sei es nun welche Patches, welche neuen Funktionalitäten in den Apache eingebaut werden, was in der Zukunft passieren soll und sonstige Entscheidungen werden alle auf Basis eines Mehrheitsbeschlusses getroffen. Das heißt, es wird auf der Mailingliste darüber abgestimmt, ob ein bestimmter Patch eingebunden wird oder nicht. Bei Patches, die eine große Änderung darstellen, ist es typischerweise so, daß sich mindestens drei Mitglieder der Apache-Group [des Core-Teams] damit beschäftigt haben müssen, das heißt, es getestet haben und dafür sein müssen, daß der Patch eingebaut wird. Und es darf keinerlei Gegenstimmen geben. Wenn es sie gibt, dann wird typischerweise das Problem, das jemand damit hat, behoben und, wenn der Patch dann für sinnvoll erachtet wird, irgendwann eingebaut."(168)
Selbstverständlich gibt es auch in diesen Projekten Meinungsverschiedenheiten, doch anders als bei philosophisch-politischen Debatten, die oft auf Abgrenzung und Exklusion von Positionen zielen, scheinen Debatten über technische Fragen eher zu inklusiven Lösungen zu neigen. Wirkliche Zerreißproben hat Dirk Hohndel in den Projekten, in denen er in den letzten acht Jahren beschäftigt war, noch nicht erlebt.(169)

Das offen-kooperative Verhältnis ändert sich auch nicht notwendig dadurch, daß Firmenvertreter an Entscheidungsprozessen teilnehmen. Auch im Core-Team des Apache-Projekts gibt es, wie Eilebrecht berichtet, gelegentlich Konflikte.

"Dabei ist es aber vom Prinzip her uninteressant, ob die Person, die damit irgendein Problem hat, von einer Firma ist oder ob sie privat bei der Apache-Group dabei ist. Wir haben zwar vom Prinzip her, ich will nicht sagen Kooperationen, aber Firmen mit in der Apache-Group dabei, aber in Form eines Vertreters dieser Firma. Das heißt z.B., IBM ist mit dabei, Siemens und Apple demnächst. Aber sie haben im Prinzip bei Abstimmungen, oder wenn irgendetwas entschieden werden soll, jeweils nur eine Stimme. Im Fall von IBM sind es mittlerweile zwei, aber das ist ein anderes Thema. Aber, wenn die meisten anderen Mitglieder etwas dagegen haben, daß bestimmte Änderungen gemacht werden oder bestimmte Entscheidungen nicht gewollt sind, dann haben die keine Chance, das irgendwie durchzusetzen. Dann müssen sie entweder aussteigen oder akzeptieren, daß es nicht gemacht wird."(170)

 
 

Code-Forking

Das eben Gesagte bedeutet nicht, daß Konflikte prinzipiell nicht dazu führen können, daß Fraktionen getrennte Wege gehen. Tatsächlich hat es verschiedentlich Spaltungen von Projekten gegeben. Im schlimmsten Fall bedeutet dies den Tod eines Projekts, oder es entstehen daraus zwei ähnliche Projekte, die um Entwickler und Anwender konkurrieren, und die Gesamtbemühungen verdoppeln sich. Im günstigsten Fall kann eine Spaltung fruchtbar sein. Die entstehenden Einzelprojekte entwickeln die Software für verschiedene komplementäre Anwendungsschwerpunkte weiter, ergänzen sich und profitieren von Innovationen in den anderen Projekten (z.B. FreeBSD, NetBSD und OpenBSD; s.u.).

Die Möglichkeit, sich jederzeit von einem Projekt abzusetzen und es in eine eigene Richtung weiterzutreiben, wird auch als heilsam erachtet. Es verhindert, daß unwartbare Mammutprogramme entstehen und Personen, die Verantwortung für Programme tragen, sich nicht mehr darum kümmern. Beispiel ist der GNU-C-Compiler (GCC), der nach einer Spaltung zum EGCS wurde. Die beiden Projekte sind inzwischen wieder unter dem Namen GCC zusammengeführt worden. Das Beispiel Emacs und XEmacs ist ebenfalls zu nennen. Auch im GIMP-Projekt startete Ende 1998 einer der Entwickler eine eigene Verzweigung und lud andere Entwickler ein, nun an seiner Variante des Grafikprogramms mitzuarbeiten. Die Spaltung konnte jedoch abgewehrt und der Code der Zweigentwicklung in das Hauptprojekt integriert werden.
 
 
 

Die Tools

Die zentralen Kommunikationsmittel für die weltweit ortsverteilte Kooperation sind Email, genauer Mailinglisten, sowie Newsgroups. Für Echtzeitkommunikation verwenden einige Projekte auch den Internet Relay Chat (IRC). Die Projekte präsentieren sich und ihre Ressourcen auf Websites. Das zentrale Instrument zur kooperativen Verwaltung des Quellcodes sind CVS-Server.

Das Concurrent Versions System (CVS) ist ein mächtiges Werkzeug für die Revisionsverwaltung, das es Gruppen von Entwicklern erlaubt, die gleichzeitige Arbeit an denselben Dateien zu koordinieren und einen Überblick über die Veränderungen zu behalten. CVS ist Standard bei freier Software, aber auch viele Firmen, die kommerziell Software erstellen, setzen es ein. Jeder kann lesend weltweit auf die Source-Bäume zugreifen und sich die aktuellste Version einer Software auf seine lokale Festplatte kopieren.

Wer die Software fortschreiben möchte, muß sich registrieren, um für andere Entwickler ansprechbar zu sein. Die Sammlung von Dateien liegt in einem gemeinsamen Verzeichnis, dem Repository. Um mit der Arbeit zu beginnen, führt man den Checkout-Befehl aus, dem man den Verzeichnispfad oder den Namen des Moduls übergibt, an dem man arbeiten möchte. Das CVS kopiert dann die letzte Fassung der gewünschten Dateien aus dem Repository in einen Verzeichnisbaum auf der lokalen Festplatte. Der Entwickler kann diese Dateien nun mit einem Editor seiner Wahl verändern, sie in eine Output-Datei 'bauen' (build) und das Ergebnis testen. Ist er mit dem Ergebnis zufrieden, schreibt er es mit dem Commit-Befehl in das Repository zurück und macht damit seine Änderungen anderen Entwicklern zugänglich. Die neue Version kann jetzt mit älteren verglichen, Patch-Diffs können aus einer Basisrevision erstellt und mit den Änderungen anderer Entwickler verschmolzen, nicht mehr benötigte Dateien gelöscht und Information über Dateien abgefragt werden.

Wenn andere Entwickler zur selben Zeit dieselben Dateien bearbeiten, werden die verschiedenen neuen Versionen lokal mit dem update-Befehl verschmolzen. Läßt sich das Ergebnis korrekt bauen und testen, werden die verschmolzenen Dateien gleichfalls in den CVS-Baum zurückgeschrieben. Ist das nicht automatisch möglich, müssen sich die beteiligten Entwickler über die Integration ihrer Änderungen untereinander verständigen. Diese als copy-modify-merge bezeichnete Methode hat den Vorteil, kein Lock der Quelldateien zu erfordern, d.h., Dateien, die gerade von einem Entwickler bearbeitet werden, sind nicht für alle anderen gesperrt. In regelmäßigen Abständen, gewöhnlich wenn bestimmte Meilensteine in der Entwicklung erreicht sind, werden Zweige des Quellbaums mit einem besonderen Tag versehen und damit für die folgende Release gekennzeichnet.(171)
 
 
 

Debugging

Software enthält Fehler. Einer Informatiker-Faustregel zufolge einen pro hundert Zeilen Code. Sich dieser Tatsache des Lebens öffentlich zu stellen, fällt Software-Unternehmen schwer. Bei ihnen herrscht, was Neal Stephenson eine "institutionelle Unehrlichkeit" nennt.

"Commercial OSes have to adopt the same official stance towards errors as Communist countries had towards poverty. For doctrinal reasons it was not possible to admit that poverty was a serious problem in Communist countries, because the whole point of Communism was to eradicate poverty. Likewise, commercial OS [Operating System] companies like Apple and Microsoft can't go around admitting that their software has bugs and that it crashes all the time, any more than Disney can issue press releases stating that Mickey Mouse is an actor in a suit. ... Commercial OS vendors, as a direct consequence of being commercial, are forced to adopt the grossly disingenuous position that bugs are rare aberrations, usually someone else's fault, and therefore not really worth talking about in any detail."(172)
Freie Software-Projekte dagegen können sich dem Problem offen stellen. Ihr Verfahren, mit Bugs umzugehen, stellt einen der wichtigsten Vorteile gegenüber proprietärer Software dar. Die Stabilität dieser Software, d.h. ihr Grad an Fehlerfreiheit, verdankt sich nicht der Genialität ihrer Entwickler, sondern der Tatsache, daß jeder Anwender Fehler an den Pranger stellen kann und die kollektive Intelligenz von hunderten von Entwicklern meist sehr schnell eine Lösung dafür findet.

Wer z.B. in Debian GNU/Linux einem Bug begegnet, schickt einen eMail-Bericht darüber an submit@bugs.debian.org. Der Bug erhält automatisch eine Nummer (Bug#nnn), sein Eingang wird dem Anwender bestätigt und er wird auf der Mailingliste debian-bugs-dist gepostet. Hat der Einsender den Namen des Pakets, in dem der Bug aufgetreten ist, angegeben, erhält auch der Maintainer dieses Pakets eine Kopie. Betrifft der Fehler eines der in der Debian-Distribution enhaltenen selbständigen Pakete (XFree86, Apache etc.), erhalten auch die Zuständigen für dieses Projekt eine Kopie. In das "Reply-to"-Feld der eMail wird die Adresse des Einsenders und nnn@bugs.debian.org eingetragen, so daß die Reaktionen darauf an alle Interessierten in der Projekt-Community gehen. Übernimmt der Maintainer oder ein anderer Entwickler die Verantwortung für die Lösung des Problems, wird auch seine Adresse hinzugefügt. Er ordnet den Bug einer von sechs Dringlichkeitskategorien (critical, grave, important, normal, fixed und wishlist) zu. Gleichzeitig wird der Bug in die Web-basierte, öffentlich einsehbare Datenbank http://www.debian.org/Bugs eingetragen. Die Liste ist nach Dringlichkeit und Alter der offenen Bugs sortiert und wird einmal pro Woche auf debian-bugs-reports gepostet.(173)

In vielen Fällen erhält man binnen 24 Stunden einen Patch, der den Fehler beseitigt, oder doch zumindest Ratschläge, wie man ihn umgehen kann. Auch diese Antworten gehen automatisch in die Bug-Datenbank ein, so daß andere Nutzer, die mit demselben Problem konfrontiert werden, hier die Lösungen finden.

Die Stärke der freien Projekte beruht also darin, daß alle Änderungen an der Software eingesehen werden können, sobald sie in den CVS-Baum eingetragen sind, und daß Releases in kurzen Abständen erfolgen. Dadurch können sich tausende von Nutzern am Auffinden von Bugs und hunderte von Entwicklern an ihrer Lösung beteiligen. Debugging kann hochgradig parallelisiert werden, ohne daß der positive Effekt durch erhöhten Koordinationsaufwand und steigende Komplexität konterkariert würde. In der Formulierung von Raymond lautet diese Faustregel: "Given enough eyeballs, all bugs are shallow."(174) Gemeint ist nicht etwa, daß nur triviale Bugs auf diese Weise beseitigt werden könnten, sondern daß durch die große Zahl von Beteiligten die Chance steigt, daß einige von ihnen genau in dem fraglichen Bereich arbeiten und relativ mühelos Lösungen finden können.

Frank Rieger weist darauf hin, daß dieses Verfahren nicht nur durch seine Geschwindigkeit der Problembehebung in der proprietären Software überlegen ist, sondern auch durch die Gründlichkeit seiner Lösungen:

"[D]adurch, daß die Sourcen offen sind, werden oft genug nicht nur die Symptome behoben, wie wir das z.B. bei Windows-NT sehen, wo ein Problem im Internet-Information-Server ist und sie sagen, wir haben dafür jetzt gerade keinen Fix, weil das Problem tief im Kernel verborgen liegt und da können wir jetzt gerade nichts tun, sondern wir geben euch mal einen Patch, der verhindert, daß die entsprechenden Informationen bis zum Kernel durchdringen -- also: Pflaster draufkleben auf die großen Löcher im Wasserrohr. Das passiert halt in der Regel bei Open Source-Systemen nicht, da werden die Probleme tatsächlich behoben."(175)
Die Geschlossenheit des proprietären Modells ist nützlich für den Schutz des 'geistigen Eigentums', für die Stabilität der Software ist es ein struktureller Nachteil, durch den es nicht mit freier Software konkurrieren kann.
"In the world of open source software, bug reports are useful information. Making them public is a service to other users, and improves the OS. Making them public systematically is so important that highly intelligent people voluntarily put time and money into running bug databases. In the commercial OS world, however, reporting a bug is a privilege that you have to pay lots of money for. But if you pay for it, it follows that the bug report must be kept confidential -- otherwise anyone could get the benefit of your ninety-five bucks!"(176)
Natürlich gibt es auch in der kommerziellen Software-Welt Testverfahren und Bug-Reports. Nach einer ersten Testphase, die in-house mit einer begrenzten Gruppe von Mitarbeitern durchgeführt wird, geben Unternehmen üblicherweise Beta-Versionen heraus. Diese enthalten natürlich keinen Quellcode. Nur das Finden, nicht aber das Beheben von Fehlern wird von den Beta-Testern erwartet. Für diese unentgeltliche Zuarbeit müssen die Tester auch noch selbst bezahlen. Die Beta-Version von Windows2000 beispielsweise verkauft Microsoft in Deutschland für etwa 200 DM. Wer Bug-Reports einsendet, erhält als Dank z.B. ein MS-Office-Paket geschenkt und bekommt einen Nachlaß beim Kauf der 'fertigen' Version. Käufer von Betatest-Versionen sind neben leidenschaftlichen Anwendern, die sofort alles haben möchten, was neu ist, vor allem Applikationsentwickler, die darauf angewiesen sind, daß ihre Programme mit der neuen Version von Windows zusammenarbeiten. Kommt schließlich die erste 'fertige' Version der Software auf den Markt, stellt der Kundendienst eine weitere Quelle für den Rücklauf von Fehlern dar.

Die 95$, von denen Stephenson spricht, sind der Preis, für den Kunden bei Microsoft nach dem "Pay Per Incident"-System einen 'Zwischenfall' melden können. Seit er seinen Aufsatz schrieb, ist der Preis auf 195$ für Zwischenfälle, die über das Internet gemeldet werden, und 245$ für solche, die per Telefon durchgegeben werden, gestiegen. Dafür erhält der Kunde innerhalb von 24 Stunden eine Antwort von einem Microsoft Support Professional.(177) Die Fehlerhaftigkeit der Software sehen solche Unternehmen als zusätzliche Einnahmequelle an.
 
 
 

Die Releases

Durch die beschleunigten Innovationszyklen in der von der wissenschaftlich-technologischen Wissensproduktion vorangetriebenen 'nachindustriellen Gesellschaft' (Daniel Bell) werden auch materielle Produkte in immer kürzeren Abständen durch neue Versionen obsolet gemacht. Nirgends ist diese Beschleunigung deutlicher als in der Informations- und Kommunikationstechnologie und hier besonders in der Software. Nach der herkömmlichen Logik kommt eine Software auf den Markt, wenn sie 'ausgereift' ist, tatsächlich jedoch, wenn der von der Marketing-Abteilung bekanntgegebene Termin gekommen ist. Freie Projekte dagegen veröffentlichen Entwicklerversionen frühzeitig und in kurzen Abständen. Offizielle Versionen werden dann released, wenn sie den gewünschten Grad von Stabilität erreicht haben. Das Ausmaß der Änderung läßt sich an den Versionsnummern ablesen. Eine Veränderung von Ver 2 auf Ver 3 markiert ein fundamental neues Design, während ein Wechsel von Ver 3.3.3.1 zu Ver 3.3.4 einen kleineren Integrationsschritt darstellt.

Freie Software wird heute, wie mehrfach angesprochen, nicht als Produkt, sondern als kontinuierlicher Prozeß verstanden. Zahlreiche Projekte haben bewiesen, daß eine Entwicklergemeinschaft ihre Software über lange Zeit zuverlässig und in hoher Qualität unterstützen und weiterentwickeln kann. In der amerikanischen Debatte ist von einer 'evolutionären' Software-Genese von Mutation, Selektion und Vererbung die Rede. Der Basar sorge dafür, daß in einem 'Darwinistischen Selektionsprozeß' die bestangepaßte und effizientest Software überlebe.(178)

Abhängig von der Geschwindigkeit, mit der ein Projekt sich verändert, werden täglich oder im Abstand von Wochen oder Monaten neue Releases herausgegeben.(179) Im Entwickler-Source-Baum werden laufend neue Patches eingegeben, die über das CVS abrufbar sind. Die jeweils avancierteste Fassung einer Software ist naturgemäß noch nicht sehr stabil und daher nicht für den täglichen Einsatz geeignet. Sind die für eine neue Version gesteckten Ziele erreicht, wird der Source-Baum für weitere Änderungen gesperrt. Erst nachdem alle Änderungen weithin getestet und korrigiert worden sind und zuverläßig mit den vorbestehenden Bestandteilen zusammenarbeiten, wird ein offizielles Release freigegeben.

Im Unterschied zu den auftrags- und termingebundenen Entwicklungsarbeiten für proprietäre Software können bei freier Software die Ideen bis ins Detail ausdiskutiert und optimiert werden. Dirk Hohndel (XFree86) sieht darin eine der Stärken von freien Software-Projekten. "Denn ich kann einfach sagen: 'Naja, das funktioniert noch nicht. Ich release das Ding nicht.' Wenn ich jetzt natürlich schon 25 Millionen US-Dollar ausgegeben habe, um den 4. Mai als den großen Release-Tag in der Presse bekannt zu machen, dann sagt mein Marketing-Department mir: 'Das ist mir wurscht. Du released das Ding.'"(180) Mit der zunehmenden Integration freier Software in konventionelle Wirtschaftsprozesse könnte der Druck jedoch wachsen, angekündigte Release-Termine einzuhalten, um an anderen Stellen die Planbarkeit zu erhöhen. Als z.B. Linus Torvalds in seiner Keynote-Ansprache auf der LinuxWorld im Februar 2000 in New York ankündigte, daß sich die Veröffentlichung des Linux-Kernels 2.4 um ein halbes Jahr verschieben werde, wertete die IT-Fachpresse dies als einen Mangel.(181)
 
 
 

Institutionalisierung: Stiftungen und nichtprofitorientierte Unternehmen

Freie Projekte entstehen als formloser Zusammenschluß von Individuen. Da unter den Beteiligten keinerlei finanzielle oder rechtliche Beziehungen bestehen, stellt dies für das Innenverhältnis kein Problem dar. Sobald jedoch die Außenverhältnisse zunehmen, sehen die meisten Projekte es als vorteilhaft, sich eine Rechtsform zu geben. Anlaß dazu können Kooperationen mit Firmen sein, die z.B. unter einer Vertraulichkeitsvereinbarung Hardware-Dokumentation bereitstellen, so daß Treiber für Linux entwickelt werden können, die Beteiligung an Industriekonsortien, die Möglichkeit, Spenden für Infrastruktur (Server) und Öffentlichkeitsarbeit entgegenzunehmen, oder die Notwendigkeit, Warenzeichen anzumelden oder die Interessen des Projekts vor Gericht auszufechten. Daher bilden sich meist parallel zu den weiterhin offenen Arbeitsstrukturen formelle Institutionen als Schnittstellen zur Wirtschaft und zum Rechtssystem.

Am augenfälligsten wird die Problematik an einer Episode aus dem April 1998. Damals trat IBM an die Apache-Gruppe mit dem Wunsch heran, ihren Server als Kernstück in IBMs neues eCommerce-Paket "WebSphere" aufzunehmen. Es handelte sich um ein Geschäft mit einem Marktwert von mehreren Millionen Dollar, und IBM war gewillt, die Apache-Entwickler dafür zu bezahlen. Doch waren sie erstaunt festzustellen, daß diese nur aus zwanzig über die ganze Welt verstreuten Individuen ohne eine Rechtsform bestand. "So let me get this straight," zitierte Forbes Magazine einen der IBM-Anwälte "We're doing a deal with ... a Web site?"(182) Für eine Geldzahlung von IBM hätte es also gar keinen Empfänger gegeben. Die Apache-Gruppe willigte in das Geschäft ein, unter der Bedingung, daß der Webserver weiterhin im Quellcode frei verfügbar bleiben müsse. IBM zeigte sich in der Währung der freien Software-Szene erkenntlich: mit einem Hack. IBM-Ingenieure hatten einen Weg gefunden, wie der Webserver auf Windows-NT schneller laufen kann. Diese Software gaben sie im Quellcode zur freien Verwendung an die Szene weiter. Aufgrund dieser Erfahrung gründete sich aus dem Apache-Core-Team die Apache Software Foundation (ASF).(183) Die ASF ist ein mitgliederbasiertes gemeinnütziges Unternehmen. Individuen, die ihr Engagement für die kollaborative Open-Source-Software-Entwicklung unter Beweis gestellt haben, können Mitglied werden. Hauptzweck der ASF ist die administrative Unterstützung der freien Entwicklungsprojekte.(184)

Die erste rechtskräftige Institution entstand 1985 aus dem GNU-Projekt. Die Free Software Foundation (FSF)(185) kann als gemeinnützige Einrichtung steuerlich abzugsfähige Spenden entgegennehmen. Ihre Haupteinnahmen stammen jedoch aus dem Verkauf von freier GNU-Software (damals auf Datenbändern, heute auf CD), von freien Handbüchern und von Paraphernalia wie T-Shirts. Die Gewinne werden benutzt, um einzelne Entwicklungsprojekte zu fördern. So wurden FSF-Mitarbieter dafür bezahlt, die GNU-C-Library und die Bash-Shell zu entwickeln. Rechtsschutz (z.B. bei Lizenzstreitigkeiten) und Öffentlichkeitsarbeit sind weitere Aufgaben der FSF.(186)

Software in the Public Interest (SPI)(187) dient als Dachorganisation für verschiedene Projekte, darunter die Debian GNU/Linux-Distribution, Berlin (ein Windowing-System), Gnome, die Linux Standard Base, Open Source.org und Open Hardware.org.(188) 1997 gegründet, erhielt SPI Inc. im Juni 1999 den Status der Gemeinnützigkeit. Spenden werden verwendet, um Domain-Namen (z.B. debian.org) zu registrieren, CDs für das Testen neuer Releases zu brennen oder Reisekosten für Treffen und Konferenzen zu unterstützen. Auch Hardware-Spenden und Netz-Ressourcen sind immer willkommen. SPI meldet ferner Trademarks (TM) and Certification Marks (CM) an. SPI ist Eigentümer der CMs "Open Source" und "Open Hardware" und des TM "Debian", wobei die Verwaltung der Rechte den einzelnen Projekten obliegt.

Beim XFree86-Projekt entstand die Notwendigkeit einer Rechtsform daraus, daß das X-Consortium, in dem die industrieweite Standardisierung und Weiterentwicklung des X-Window-Systems verhandelt wird, nur Unternehmen als Mitglied aufnimmt. Das 1992 gegründete Projekt hatte Ende 1993 die Wahl, unter dem Dach einer Organisation teilzunehmen, die bereits Mitglied des Konsortiums war, oder selbst eine Rechtsform zu etablieren. Nachdem sich ein Anwalt fand, der bereit war, eine Unternehmensgründung pro bono vorzunehmen, wählte man den zweiten Weg. Durch das aufwendige Anerkennungsverfahren dauerte es bis Mai 1994, bis das gemeinnützige Unternehmen, die XFree86 Project, Inc.,(189) gegründet war. Als wissenschaftliche Organisation dient sie der Forschung, Entwicklung und Implementation des X-Window-Systems und der Verbreitung von Quellcode, Objektcode, Ideen, Informationen und Technologie für die öffentliche Verwendung.(190)

Die Konstruktion dieser Organisationen ist sorgfältig darauf bedacht, eine Verselbständigung zu verhindern. Ämter werden, ähnlich wie bei NGOs, in der Regel ehrenamtlich wahrgenommen. Die Lizenzen der freien Software sind darauf angelegt, eine proprietäre Schließung der Software zu verhindern. Es ist jedoch noch zu früh, einschätzen zu können, ob Spannungen zwischen der freien Entwickler- und Nutzerbasis und ihren Institutionen und die Herausbildung von bürokratischen Wasserköpfen vermieden werden können. Gerade durch den Erfolg und die derzeitige Übernahme von Aspekten des freien Software-Modells durch herkömmliche Unternehmen ist die Gefahr nicht von der Hand zu weisen, daß die freie Software ein ähnliches Schicksal erleidet, wie zahlreiche soziale Bewegungen vor ihr.
 
 
 
 

Die Motivation: Wer sind die Leute und warum machen die das... wenn nicht für Geld?
 

"Every decision a person makes stems from the person's values and goals. People can have many different goals and values; fame, profit, love, survival, fun, and freedom, are just some of the goals that a good person might have. When the goal is to help others as well as oneself, we call that idealism.

My work on free software is motivated by an idealistic goal: spreading freedom and cooperation. I want to encourage free software to spread, replacing proprietary software which forbids cooperation, and thus make our society better." (Richard Stallman, Copyleft: Pragmatic Idealism(191))

Unsere Gesellschaften kennen wohltätige, karitative und kulturelle (z.B. Kunstvereine) Formen des Engagements für eine gute Sache, die nicht auf pekuniären Gewinn zielen. Gemeinnützige Tätigkeiten sind steuerlich begünstigt und sozialwissenschaftlich in Begriffen wie Civil Society, Dritter Sektor und NGOs reflektiert. Doch während einer Ärztin, die eine Zeit lang in Myanmar oder Äthiopien arbeitet, allgemeine Anerkennung gezollt wird, ist die erste Reation auf unbezahlte Software-Entwickler meist, daß es sich entweder um Studenten handeln muß, die noch üben, oder um Verrückte, da ihre Arbeit in der Wirtschaft äußerst gefragt ist und gut bezahlt würde.

"Jedes Geschäft -- welcher Art es auch sei -- wird besser betrieben, wenn man es um seiner selbst willen als den Folgen zuliebe treibt", weil nämlich "zuletzt für sich Reiz gewinnt", was man zunächst aus Nützlichkeitserwägungen begonnen haben mag, und weil "dem Menschen Tätigkeit lieber ist, als Besitz, ... insofern sie Selbsttätigkeit ist".(192) Diese Humboldtsche Erkenntnis über die Motivlage der Menschen bietet einen Schlüssel für das Verständnis der freien Software.(193) Ihre Entwicklung gründet in einem kreativen Akt, der einen Wert an sich darstellt. Ein Learning-by-Doing mag noch von Nützlichkeitserwägungen angestoßen werden, das Ergebnis des Lernens ist jedoch nicht nur ein Zuwachs an Verständnis des Einzelnen, sondern eine Schöpfung, die man mit anderen teilen kann. Statt also aus dem Besitz und seiner kommerziellen Verwertung einen Vorteil zu ziehen, übergeben die Programmierinnen und Programmier der freien Software ihr Werk der Öffentlichkeit, auf daß es bewundert, kritisiert, benutzt und weiterentwickelt wird. Die Anerkennung, die ihnen für ihre Arbeit gezollt wird, und die Befriedigung, etwas in den großen Pool des Wissens zurückzugeben, spielen sicher eine Rolle. Die wichtigste Triebkraft vor allen hinzukommenden Entlohnungen ist die kollektive Selbsttätigkeit.

Entgegen einer verbreiteten Auffassung, daß vor allem Studenten mit viel Freizeit sich für freie Software engagieren, ist das Spektrum erheblich breiter. Bei XFree86 bsw. liegt das Altersspektrum der Beteiligten zwischen 12 und 50 Jahren, und sie leben auf allen Kontinenten der Erde.(194) Möglichkeitsbedingung für die Kooperation, in der freie Software entsteht, ist das Internet. Mit der zunehmenden Verbreitung des Internet wächst somit auch die Zahl derjenigen, die potentiell an solchen Projekten mitarbeiten. Viele sind tatsächlich Studenten (bei XFree etwa ein Drittel, beim GIMP, der von zwei Studenten gestartet wurde, ist es die Mehrzahl). Viele haben eine Anstellung als Programmierer, Systemarchitekt oder Systemsdministrator aber auch in nicht-Computer-bezogenen Berufen und entwickeln in ihrer Freizeit an freien Projekten.

"Das sind ganz normale Leute, die nach ihrer ganz normalen 60 Stunden-Woche gerne auch noch mal 20, 30 Stunden etwas machen, was Spaß macht. Ich glaube, das entscheidende Kriterium für Leute, die sehr produktiv sind und viel in solchen Projekten arbeiten, ist einfach die Faszination am Projekt. Und diese Faszination bedeutet auch sehr oft, daß man sich abends um sieben hinsetzt, um noch schnell ein kleines Problem zu lösen und auf die Uhr schaut, wenn es vier Uhr früh ist."(195)
Auch die produktivsten Entwickler bei KDE haben einen ganz normalen Tagesjob, oft auch als Programmierer. Für sie ist es eine Frage der Prioritäten. Der Bundebürger verbringe im statistischen Mitteln, so Kalle Dalheimer, 28 Stunden in der Woche vor dem Fernseher. Er selbst besitze keinen und vergnüge sich in dieser Zeit mit Programmieren.(196)

Vom Programmieren fasziniert zu sein, ist natürlich eine Grundvoraussetzung für die Beteiligung an freien Projekten. Der Computer als die universelle Maschine bietet ein großes Spektrum möglicher Kreativität. In ihm etwas Nützliches zu schaffen und von ihm ein instantanes Feedback zu bekommen, kann etwas sehr Erfüllendes sein. Hinzu kommt, daß die Arbeit in einer offenen, konstruktiven Szene stattfindet, die guten Beiträgen bereitwillig Anerkennung zollt. Die Aufmerksamkeit, das Image, der Ruhm und die Ehre, die in dieser meritokratischen Wissensordnung zu erlangen sind, werden häufig als Antriebskraft genannt. Lob aus dieser Szene trägt fraglos dazu bei, das Selbstwertgefühl zu erhöhen. Sebastian Hetze weist jedoch darauf hin, daß noch vor allen Eitelkeiten schon Neugier und Lernbegierde eine hinreichende Motivation darstellen:

"Wenn ich was dazu tue, dann veröffentliche ich nicht nur für mein Ego, sondern ich setze mich auch der Kritik aus. Und da ist es ganz klar so, daß in der Welt der freien Software ein sehr positives, ein konstruktives Kritikklima herrscht, d.h., ich werde ja für einen Fehler -- Software hat Bugs --, den ich in einem Programm gemacht habe, nicht runtergemacht. Es sind ganz viele Leute da, die versuchen, Fehler mit mir gemeinsam zu beheben, d.h., ich lerne. Und das ist eine ganz wichtige Motivation für sehr viele Menschen, die sich einfach auch daran weiterentwickeln wollen. An dieser Stelle sind die Motivationen ganz offenbar so stark, daß sie über das reine, einfach Monetäre hinausgehen. Ich muß vielleicht sogar an dieser Stelle diese Ego-Präsentation ein bißchen zurücknehmen. Es ist bei den großen Software-Projekten so, daß natürlich oben immer welche im Rampenlicht stehen, aber die vielen hundert Leuten, die nichts weiter machen, als mal einen Bugfix oder eine gute Idee reinzugeben, kriegen niemals diese Aufmerksamkeit. Also, ich habe selber viel Source Code gelesen -- mußte ich, um das Linux-Handbuch zu schreiben -- und enorm viel gelernt, und ich bin dafür enorm dankbar. Ich lese es einfach nur, um es zu lernen, weil es mich bereichert."(197)
Die Forscherinnen des sozialwissenschaftlichen Projekts "Kulturraum Internet" am Wissenschaftszentrum Berlin fassen die Beweggründe der freien Entwickler folgendermaßen zusammen:
"An interesting question is what motivates people to contribute to a free software project. Individual and social motivations may be found:
    • intellectual challenge and game
    • creativity and pride of something self-made
    • realizing something which fulfills one's demands on taste and quality
    • socializing with people who share common ideas and interests
    • fame
    • fostering collective identity"(198)
Wenngleich die Motivation der freien Entwickler nicht auf wirtschaftlichen Profit zielt, zahlt sich die Möglichkeit, sich über ein Projekt zu profilieren, schließlich auch auf dem Arbeitsmarkt aus. Wer sich beim Management eines freien Projektes oder durch seinen Code bewiesen hat, ist ein begehrter Mitarbeiter der Software-Industrie. Im besten Fall wird er dann dafür bezahlt, im Rahmen seines Arbeitsverhältnisses weiterhin freie Software zu entwickeln. Cygnus z.B. ist eines der größten Unternehmen, das auf die Entwicklung und den Support von GNU-Software setzt. Auftraggeber sind häufig Hardware-Unternehmen, die die GNU-Tools (wie den C-Compiler) durch Cygnus auf eine neuen Architektur portieren lassen. Bezahlt wird die Arbeit, ihre Resultate stehen unter der GPL wieder allen zur Verfügung.(199) Auch der Unix-Distributor SCO, Linux-Kontor oder Be entwickeln freie Software stückchenweise im Kundenauftrag.

In zunehmendem Maße haben Leute also auch im Rahmen ihrer Anstellung bei einem Internet Service Provider, einem Hardware-Hersteller oder einer dedizierten Open-Source-Firma die Gelegenheit, an freier Software zu arbeiten. Eine Umfrage unter den XFree86-Entwicklern ergab, daß rund zehn Prozent von ihnen (65 Personen) ihren Lebensunterhalt direkt mit freier Software verdienen.(200) Linux-Distributoren wie RedHat, Caldera oder SuSE bezahlen Angestellte dafür, Software zu entwickeln, die z.T. an die Open-Source-Gemeinde freigegeben wird. Die Ausweitung der installierten Basis allein (der europäische Marktführer SuSE verkaufte von seinem Linux-Paket 6.0 innerhalb von zwei Monaten mehr als 100.000 Stück) gewährleistet Einnahmen aus Support, weiteren Dienstleistungen und kommerziellen Zusatzprodukten. Das kooperative Klima in einer solchen freien Umgebung motiviert auch angestellte Entwickler, länger an einem Projekt zu arbeiten. Cygnus verzeichnet einen Personalwechsel, der nur ein Zehntel dessen anderer Silicon Valley-Firmen beträgt.(201)

Die Zusammensetzung der Entwicklergemeinschaft ist von Projekt zu Projekt sehr unterschiedlich. Auch nach der Art der Aufgaben unterscheiden sich die Beteiligten. Große Programmierarbeiten, wie Kernels, werden eher von festangestellten oder in ihrer Freizeit arbeitenden erfahrenen Programmierern übernommen, während die Entwicklung von kleineren Tools und das Bugfixing von einer viel größeren und heterogeneren Gruppe getragen wird.

"FreeBSD kann sich den Luxus leisten, daß viele der Hauptentwickler festangestellt sind von größeren Firmen, z.B. von Walnut-Creek CD-ROM, die ja ihren FTP-Server-Betrieb auf FreeBSD fahren, wo FreeBSD das bestgehende CD-ROM-Produkt ist. Die haben zwei Leute angestellt, die nur FreeBSD entwickeln, d.h., die Firma sponsort praktisch die Open Source-Entwicklung. Matt Dillon, mittlerweile einer der Chef-Kernel-Entwickler, ist auch Technical Director bei einem der größten ISPs in Kalifornien, bei Best Internet. Und auch die erlauben ihm, damit er den Server-Betrieb am Laufen hält und es auch weiter skaliert, eben mitzuschreiben an den entsprechenden Kernel-Funktionen für virtual Memory, für SMP, für all das, was man braucht. Ein anderer sitzt bei der NASA und baut für die gerade einen Parallelrechner auf FreeBSD-Basis auf, und auch das geht alles als Feedback in das Projekt zurück. Soweit mal zum Kernel, wo wir den größten Teil an zentral anfallender Hauptarbeit haben. Bei den Utilities außenrum ist es wirklich ein Heer von Leuten, die Kleinigkeiten machen, so wie ich das hin und wieder auch tue."(202)
Mit der zunehmenden Kommerzialisierung der Open Source-Software nehmen auch die Bemühungen der Unternehmen zu, freie Entwickler anzuwerben. Bemerkenswert ist, daß viele den Verlockungen einer Festanstellung widerstehen. Linux-Entwickler Alan Cox sagte in einem c't-Interview, daß es viele seiner Kollegen vorzögen, ihre Entwicklungsarbeit weiterhin als Hobby zu betreiben. Statt weisungsgebunden zu arbeiten, schätzen sie die Freiheit höher, ihre eigenen Probleme zu wählen und sie in ihrer eigenen Zeit zu bearbeiten. Auch diejenigen, die mit Linux Geld verdienen, aber gleichzeitig unabhängig bleiben möchten, haben die Gelegenheit dazu. Cox: "Es gibt Hersteller, die ein Problem mit ihrer Hardware haben, aber nicht die Möglichkeit, es innerhalb ihrer Firma zu lösen. Solche Auftragsarbeiten werden weltweit vergeben - eine gute Sache für Leute, die nicht im Silicon Valley leben, sondern sonstwo in der Welt."(203)
 
 
 

Software-Zyklus: Entwickler, Power-User, Endnutzer

Man kann drei großen Phase im Leben einer freien Software unterscheiden. In der ersten Phase zieht es ausschließlich Entwickler an. Die Software ist noch nicht mehr als eine Rohskizze, ein Entwurf dessen, was es verspricht zu werden. Jeder kann sich die Software beschaffen, aber nur wer selbst am Quellcode mitarbeiten möchte, wird es tun.

In der zweiten Phase hat die Software ein Stabilität erlangt, die sie für Power-User (z.B. Systemadministratoren) interessant macht, die sie nicht primär weiterentwickeln, sondern einsetzen wollen. Installation, Integration und Wartung erfordert auch jetzt noch weiterreichende Programmierfähigkeiten, doch diese Nutzergruppe erhält dafür eine Funktionalität, Flexibilität und ein Maß an Kontrolle über die Software, die sie zu einer attraktiven Alternative zu proprietärer Software macht.

Hat die Software einen Grad an Stabilität erreicht, die sie für den praktischen Einsatz geeignet macht, gibt das Projekt eine offizielle Release heraus. Parallel zu dieser Produktionsversion wird an einer Entwicklerversion weitergearbeitet. Diese Zweiteilung erlaubt einerseits eine kontinuierliche Verbesserung und Erweiterung, an der sich alle Interessierten beteiligen können, und andererseits das Einfrieren von stabilen Momentaufnahmen aus diesem Prozeß, die bis zur nächsten Release unverändert bleibt, für diejenigen, die die Software in ihrer täglichen Arbeit verwenden wollen.

In der dritten Phase erhält die Software Merkmale wie Installationshilfen und Dokumentation, die sie schließlich auch für technisch weniger bedarfte Nutzer zugänglich macht. Dieser Schritt wird oft nicht mehr von den selbstmotivierten Teilnehmern des freien Projekts durchgeführt -- "Coders don't write docs" --, sondern von Dienstleistungsfirmen, die oft eigens für den Support von freier Software gegründet wurden.

Auf dieser Stufe stellt sich auch die Frage einer Integration von Betriebssystem über die graphische Benutzeroberfläche bis zu den Anwendungen. Zentralistischen Modellen von Unternehmen wie Apple oder Microsoft gelingt dies naturgemäß gut, ebenso einem enger gekoppelten Projektverbund wie GNU. In einer weniger eng gekoppelten Umgebung besteht dagegen ein Bedarf an Abstimmung, ohne dafür jedoch auf zentralisierte Gremien zurück fallen zu wollen. Christian Köhntopp beschreibt die Problematik:

"Wenn man Gesamtinstallationen eines Systems betrachtet, dann kann man sagen, die hat einen gewissen Reichtum oder eine Komplexität. Die ergibt sich einmal aus der Anzahl der Features, die in dem System zur Verfügung stehen und auf der anderen Seite aus der Anzahl der Integrations- oder Kombinationsmöglichkeiten dieser Features. Ein Problem, das ich bei vielen Projekten im OpenSource-Bereich sehe, ist eine schlechte oder mangelnde Koordination über solche Projektgrenzen hinweg. Viele solche OpenSource-Projekte schaffen es sehr gut, sich selbst zu managen und im Rahmen ihres Projektes auch entsprechende Integrationen zu schaffen, aber über Projektgrenzen hinweg ist das in der Regel deutlich schlechter entwickelt. Bei so großen Projekten wie KDE gibt es innerhalb des Projektes eine vergleichsweise gute Integration. Es war jedoch äußerst schmerzhaft, das KDE-Projekt und das vergleichbare Gnome-Projekt aufeinander abzustimmen. Es gab in der Vergangenheit sehr große Schwierigkeiten, etwa die XFree-Entwicklung und vergleichbare Projekte auf anderer Ebene miteinander abzustimmen. In diese Richtung müßten bessere Kommunikationsmöglichkeiten geschaffen oder unterstützt werden."(204)
Freie Software stößt auf gewisse Grenzen, da sie weiterhin Berührungsflächen mit einer unfreien Umgebung hat. So macht es proprietäre Hardware schwierig, Treiber für Linux und XFree86 zu schreiben. Jeder neue Drucker, jede Grafik- oder ISDN-Karte erfordert ein aufwendiges Reverse Engineering, um sie unter freier Software nutzbar zu machen. Mit der wachsenden Installationsbasis nimmt jedoch auch das Interesse von Hardware-Herstellern zu, ihre Produkte der Linux-Welt zugänglich zu machen, und sie bieten entweder von sich aus Treiber an oder stellen den Projekten unter Nichtweitergabebedingungen (NDA) die erforderliche Dokumentation zur Verfügung.

Nicht-freie Bibliotheken stellen eine weitere Bedrohung dar. Sie locken Programmierer mit attraktiven Features in die Falle der Unfreiheit. Die Problematik stellte sich zum ersten Mal in den Achtzigern mit dem proprietären Motif-Tookit, auf den das X Window System aufsetzte. Das freie XFree86 ersetzte Motif 1997 durch LessTif. Eine ähnliche Problematik ergab sich ab 1996, als der Grafik-Desktop KDE die proprietäre GUI Toolkit Library namens Qt der norwegischen Firma Troll Tech AS verwendete. Auch hier führte die Verwendung einer geschlossenen Software zu einem System mit mehr Fähigkeiten, aber weniger Freiheit. Drei Reaktionen darauf stellten sich ein. 1997 startete Miguel des Icaza ein neues Projekt für einen Grafik-Desktop namens GNOME (GNU Network Object Model Environment), das ausschließlich freie Software verwendet. Harmony ist eine Bibliothek, die Qt ersetzt und somit KDE zu einer vollständig freien Software macht. Schließlich veränderte Troll Tech auf Drängen der Linux-Welt 1998 die Lizenzbedingungen für Qt, so daß die Bibliothek seither in freien Umgebungen einsetzbar ist.(205)

Die Popularität und die inhärenten Vorteile des freien Entwicklungsmodells haben aus unterschiedlichen Gründen eine Reihe von Firmen veranlaßt, den Quellcode ihrer proprietären Software offenzulegen. Ob ein Software-Projekt erfolgreich von einem geschlossenen in einen offenen Modus umgeschaltet werden kann, ist jedoch fraglich. Der spektakulärste Versuch ist wiederum Netscapes Mozilla, das von vielen als gescheitert angesehen wird. Zunächst fand der offengelegte Quelltext eine enthusiastische Aufnahme. Bereits Stunden nach der Freigabe setzte ein Strom von Code ein, der jedoch bald versiegte. Die Hauptarbeit, die daran geleistet wurde, kam von Netscape-Angestellten.(206) Einer der Protagonisten, Jamie Zawinski, schrieb in seiner öffentlichen Kündigung: "For whatever reason, the project was not adopted by the outside. It remained a Netscape project... The truth is that, by virtue of the fact that the contributors to the Mozilla project included about a hundred full-time Netscape developers, and about thirty part-time outsiders, the project still belonged wholly to Netscape -- because only those who write the code truly control the project."(207)

Im selben Text nennt Zawinski eine Reihe möglicher Gründe. Was Netscape freigab, war nicht der Code der aktuellen Version des Navigators, u.a. fehlten der Mailer 'Communicator', die Java- und die Kryptografie-Module. Es handelte sich um eine riesige Menge Code, aber nichts, was man tatsächlich hätte kompilieren und benutzen können. Die Menge war so groß, daß es sehr lange gedauert hätte sich einzuarbeiten, um sinnvolle Beiträge leisten zu können. Zu vermuten ist, daß auch die innere Struktur einer Software, die in einem geschlossenen Modus erarbeitet wird, eine andere ist, als die, die in einem freien Projekt entsteht. Selbst wenn der Quellcode vollständig einsehbar ist, können die grundlegenden Designentscheidungen hinter den Details der Codierung unsichtbar bleiben.(208) In seinem Fazit warnt Zawinski davor, aus dem Scheitern von Mozilla zu schließen, daß das Open Source-Modell insgesamt nicht funktioniere. "If there's a cautionary tale here, it is that you can't take a dying project, sprinkle it with the magic pixie dust of 'open source,' and have everything magically work out."(209)

Eine letzte Frage, die sich in Bezug auf das freie Entwicklungsmodell stellt: kann es etwas grundsätzlich Neues hervorbringen? GNU/Linux, XFree86 oder GIMP sind von exisitierender proprietärer Software ausgegangen. Das bedeutet natürlich nicht, daß es einfach wäre, diese Programme unter freien Bedingungen zu rekonstruieren, aber die grundsätzlichen Designentscheidungen und die Zielvorgaben lagen vor, als die Projekte begannen. Es scheint, als könnte ein freies Projekt nur ein bekanntes Ziel verfolgen, aber sich keine neuen setzen. Ein Beleg dafür könnte der Betriebssystemskern des GNU-Projekts, der Hurd, sein, der dem in der Zeit aufregendsten, innovativsten Ansatz folgte, der Mikrokern-Architektur. Daß bis heute keine einsatzfähige Version des Hurd zustandegekommen ist, ist zweifellos auf dieselben Gründe zurückzuführen, daß sich Mikrokerne auch in der akademischen und kommerziellen Forschung nicht haben durchsetzen können. Torvalds dagegen wählte bei seinem Ansatz für Linux das altbewährte Makrokernmodell (wofür er von Andrew Tanenbaum öffentliche Schelte bezog). Raymond fragt: "Suppose Linus Torvalds had been trying to pull off fundamental innovations in operating system design during the development; does it seem at all likely that the resulting kernel would be as stable and successful as what we have?" Er behauptet kategorisch "One can test, debug and improve in bazaar style, but it would be very hard to originate a project in bazaar mode."(210) Bei einem Betriebssystem, also einer Infrastruktur für Anwendungs-Software, ist es wichtiger, daß es stabil und zuverlässig ist, als daß es radikal neue Strukturen ausbildet, was auch zur Folge hätte, daß alle darüber laufende Anwendungs-Software umgeschrieben werden müßte. Wenn auch noch zu beweisen wäre, daß auch freie Projekte zu grundlegenden, revolutionären konzeptionellen Sprüngen in der Lage sind, steht außer Zweifel, daß sie sich für eine evolutive Weiterentwicklung in kleinen iterativen Schritten hervorragend eignen. In einigen Fällen hat sich der Fokus der Innovation von den proprietären Vorlagen zu den freien Projekten verlagert.

"War das PC-X anfangs ein Anhängsel der großen, seriösen Workstation-X-Entwicklung, hat sich das Verhältnis inzwischen umgekehrt. Auch Jim Gettys, einer der Urväter von X, sieht heute XFree86 als die Gruppe, die die Entwicklung von X an sich weiter trägt. X.Org soll diese Rolle wieder übernehmen, sofern die Gruppe endlich mal ins Rollen kommt, aber im Moment ist es die XFree86-Gruppe."(211)


 

-> zu Teil 2/2