Geschichte und Mechanismen freier Software

Volker Grassmuck





Inhalt
Anfänge von Software und Internet
    Unix
Wende um 1980
Wende um 1990
Wende von 1998
Wie entsteht freie Software?
Wer macht freie Software?
Wem nützt freie Software?
Betriebssystem für eine freiheitliche Gesellschaft
     Quellen
    History
 

Daß Menschen in freier Kooperation ohne primäres Interesse am Gelderwerb, ohne sich je getroffen zu haben und ohne eine Leitung, die ihnen sagt, was sie zu tun haben, hochwertige Software schreiben, ist eine erstaunliche Tatsache. Zumal in einer Zeit, da Wissen in einem Ausmaß und mit einer Reichweite kommodifiziert wird, wie es nie zuvor auch nur denkbar war. So verblüffend es sein mag, ist das Phänomen natürlich nicht voraussetzunglos. Einige der Trajektorien und geschichtlichen Zufälle, die zum Aufstieg der freien Software geführt haben, möchte ich im Folgenden in 10-Jahressprüngen ansprechen. Dann werde ich kurz darauf eingehen, wie freie Software entsteht, wer sie macht und wem sie nützt. 
 

Anfänge von Software und Internet

In den frühen Tagen des Computers war alle Software quelloffen. Die Quellen oder der Source-Code ist die von einem Menschen in einer höheren Programmiersprache geschriebene Version eines Programms, die in binären Objekt-Code übersetzt werden muß, bevor ein Computer sie ausführen kann. Kompilierung ist ein im wesentlichen irreversibler Prozeß. D.h., aus dem Binärcode läßt sich allenfalls mit großen Anstrengungen, die denen der ursprünglichen Codierung nahekommen, der Quellcode rekonstruieren. Sie stellt also einen effektiven Kopierschutz dar, zwar nicht für das ablauffähige Programm, wohl aber für das Wissen, wie das Programm macht, was es macht. 

Für reine Anwender mag eine solche Black Box zunächst keine wirkliche Qualitätseinschränkung bedeuten, für Entwickler und Systemadministratoren dagegen macht es ihre Arbeitsumgebung zu einer Welt voll Mauern und verbotener Zonen. Zur Anpassung, Integration, Fehlerbehebung und Erweiterung müssen sie Veränderungen an der Software vornehmen, und die sind nur am Quelltext möglich. 

Bis in die siebziger Jahre war es üblich, die an den Universitäten entwickelte Software frei zu verbreiten. Die Informatik und andere Software-erstellende Disziplinen standen damit selbstverständlich in der Tradition der Wissenschaftsverfassung, wie sie sich seit der Gelehrtenrepublik des 19. Jahrhunderts gebildete hatte. Aus philosophischen, ethischen vor allem aber aus methodologischen Gründen schreibt sie bestimmte Freiheiten vor. Ohne hier näher darauf eingehen zu wollen, möchte ich nur - mit Helmut Spinner - die vier großen Abkopplungen nennen, auf denen dieses Wissensordnung beruht: 

  • die Trennung von Ideen und Interessen 
  • die Trennung von Wissenschaft und Staat
  • die Trennung von Theorie und Praxis 
  • Die Trennung von Erkenntnis und Eigentum: Forschungsergebnisse müssen veröffentlicht werden, um sie in einem Peer Review-Prozeß überprüfen, replizieren, kritisieren und fortschreiben zu können. Das ist es, was Robert Merton mit dem "Wissenskommunismus" der Wissenschaften meinte.(1)
Diese Selbstverständlichkeit ist heute durch Drittmittelforschung und Ausgründungen aus Universitäten in Frage gestellt, die zu einer Privatisierung und Monopolnutzung des öffentlichen Wissens führt. 

Auch in der kommerziellen Computer-Welt waren damals die Quellen verfügbar, einfach weil Software noch keinen eigenständigen Markt darstellte. Die Hardware-Hersteller lieferten sie gleichsam als Gebrauchsanweisung dazu, alles weitere schrieben die Anwender selbst. Die Computer-Unternehmen hatten es also mit programmierkompetenten Nutzern zu tun, und förderten deren Selbstorganisation und gegenseitige Unterstützung in User-Groups wie IBMs SHARE.(2) Auch in Zeitschriften wie in der Algorithmen-Rubrik der Communications of the ACM oder im Hobbybereich in Amateurfunkzeitschriften zirkulierte uneingeschränkter Quellcode. 

Die technische Infrastruktur für eine solche offene Zusammenarbeit bildet heute natürlich das Internet. Doch noch bevor es in die Welt kam, bot eine Innovation im Betriebssystems-Design ganz ähnliche Möglichkeiten auf lokaler Ebene. Time-Sharing-Systeme der sechziger Jahre verfügten bereits über File-Sharing, eMail und Schwarze Bretter, die alle Nutzer eines Großrechners in eine Community verwandelten. 
 

Unix

Das Betriebssystem Unix spielt eine zentrale Rolle in der weiteren Entwicklung der freien Software, deshalb dazu einige Anmerkungen. Als Ken Thompson von den AT&T Bell Labs 1969 mit der Entwicklung von Unix begann, reagierte er auf die Erfahrungen mit dem gescheiterten Multics, an dem das MIT, General Electric und AT&T seit 1964 gearbeitet hatten. Statt alles für alle sein zu wollen, sollte Unix aus kleinen, einfachen, effizienten Werkzeugen bestehen, die miteinander kombiniert werden können, um komplexere Aufgaben zu lösen. (Diese Strukturentscheidung sollte später bei den freien Varianten von Unix wichtig werden, da sie es einzelnen oder kleinen Gruppen erlaubt, Module unabhängig von anderen zu entwickeln.) Unix sollte auf verschiedenen Plattformen einsetzbar sein, da AT&T Rechner verschiedener Hersteller im Einsatz hatte. Diese Portierbarkeit wurde 1971 erreicht, als Thompson Unix in der ebenfalls von ihm entwickelten Programmiersprache C neu schrieb, und es sollte Time-Sharing unterstützen. Dennis Ritchie, der Co-Autor von Unix, schrieb: "What we wanted to preserve was not just a good programming environment in which to do programming, but a system around which a fellowship could form. We knew from experience that the essence of communal computing, as supplied by remote-access, time-shared machines, is not just to type programs into a terminal instead of a keypunch, but to encourage close communication."(3)

Als staatlich reguliertem Telefonmonopol war es AT&T untersagt, Unix regulär zu vermarkten. Statt dessen gaben die Bell Labs den Unix-Quellcode gegen Selbstkosten ($50, ähnlich den heutigen GNU/Linux-Distributionen) an Universitäten ab. Seine Kompaktheit, Modularität und Zugänglichkeit durch C ermunterte viele angehende Informatiker, es zu studieren und viele Benutzer, Fehlerbehebung, Ergänzungen und eigene Entwicklungen durchzuführen, so daß Unix schnell einen hohen Reifegrad erreichte. "Dies ist deshalb bemerkenswert," schreiben Gulbin/Obermayr, "da kein Entwicklungsauftrag hinter diesem Prozeß stand und die starke Verbreitung von Unix nicht auf den Vertrieb oder die Werbung eines Herstellers, sondern primär auf das Benutzerinteresse zurückzuführen ist."(4)

Die Bell-Forscher um Thompson waren zwar sehr bereitwillig, ihr Wissen mit der Unix-Community zu teilen. Gelegentlich verbreiteten sie auch Datenbänder mit Fixes, Verbesserungen und Zusätzen, doch ihre Hauptaufgabe war es, Unix für den Gebrauch innerhalb von AT&T weiterzuentwickeln. Einen offiziellen Support gab es nicht, deshalb blieb den Nutzern gar nichts anderes übrig, als sich gegenseitig zu helfen. Zum Zentrum der akademischen Forschung wurde Thompsons Alma Mater. Die University of California at Berkeley steuerte selbst zahlreiche weitere Innovationen und Ports auf neue Hardware bei und übernahm die Sammlung und Integration der Unix-Erweiterungen aus der akademischen Nutzer-Community. 1977 stellte ein Doktorand namens Bill Joy die erste "Berkeley Software Distribution" (BSD) zusammen. 

Software wurde damals auf Datenbändern verschickt, aber Unix war nicht zufällig auch das erste Betriebssystem, das das parallel entstehende Internet integrierte. Eine Vorstufe dazu war UUCP (Unix to Unix Copy), 1976 an den Bell Labs entwickelt. Es stellte eine Art poor man's Internet dar, das es erlaubte, über Wählleitungen statt über kostspielige Standleitungen Daten auszutauschen. 1979 entstand über UUCP das USENET, das zu einem Internet-weiten schwarzen Brett werden sollte, zu einem öffentlichen Raum, in dem jeder lesen und schreiben kann, und einem auch heute noch wichtigen Kommunikationsforum für die freie Software. 

1981 begann Bill Joy an der Berkeley University mit einem Forschungsauftrag der DARPA (der Forschungsförderungsbehörde Advanced Projects Agency des US-Verteidigungsministeriums), die TCP/IP-Protokolle in das dort gepflegte BSD-Unix zu integrieren. Seit Mitte der Sechziger waren die Grundlagen für das Internet gelegt worden. Auch dies eine hochkomplexe Geschichte, aus der hier nur ein Name genannte werden soll, der von J.C.R. Licklider, der maßgeblich für den Paradigmenwechsel vom Computer als Rechenmaschine hin zum Kommunikationsgerät verantwortlich war, eine Vorstellung, die sich ebenfalls an der Erfahrung der Time-Sharing-Systeme gebildet hatte, die Ritchie in Unix erhalten wollte. Die Informatik hat im Netz nicht nur ihren Forschungsgegenstand, sondern zugleich ihr Publikations- und Kommunikationsmedium. Es ist gleichzeitig Infrastruktur und Entwicklungsumgebung, die von innen heraus ausgebaut wird. Seine Standards werden nicht im Duktus eines Gesetzes erlassen, sondern als freundliche Bitte um Kommentierung (die Request for Comments-Dokumente, RFCs). Das Internet entwickelt sich selbst im Modus der offenen Kooperation und wird zur Möglichkeitsbedingung für eine inkrementelle Wissensentwicklung durch Tausende auf der ganzen Welt verteilter Individuen, ohne Management- und andere Overhead-Kosten, in einer direkten Rückopplungsschleife mit den Anwendern. 

Die Vereinigung von Unix und Internet-Protokoll war 1983 abgeschlossen, und Joy gab das Ergebnis als 4.2BSD frei. Bald darauf verließ er die Berkeley Universität, um Sun Microsystems zu gründen, einen Technologieführer beim Generationswechsel von Mainframes zu Workstations. Damit sind wir bereits bei der... 
 

Wende um 1980

..., doch vorher muß noch die Hacker-Kultur angesprochen werden. Steven Levys 1984 geschriebener Klassiker "Hackers. Heroes of the Computer Revolution"(5) verfolgt das Phänomen zurück bis in den Modelleisenbahnclub am MIT der späten Fünfziger.(6) In den Siebzigern hatte Richard Stallman am KI-Labor des MIT ein solches Hacker-Paradies erlebt, ein Kloster, in dem man lebte um zu hacken, und hackte um zu leben. Was er am KI-Lab mochte, war, "there were no artificial obstacles, things that are insisted upon that make it harder for people to get any work done -- things like bureaucracy, security, refusals to share with other people."(7)

In den ausgehenden Siebzigern und frühen Achtzigern erlebte Stallman jedoch auch den Verfall der Hacker-Ethik und die Auslöschung der Gemeinde am KI-Lab mit. Es begann damit, daß auf den Systemen des MIT-Rechenzentrums Passwörter eingeführt wurden. Die Hacker der ersten und zweiten Generation verließen das MIT, um für Computerfirmen zu arbeiten, eigene zu gründen oder gar zu heiraten. 

Die nachwachsende Generation, die Stallman jetzt am MIT oder als 'Touristen' auf seinen Institutsrechnern beobachtete, war nicht in die Hacker-Ethik hineingewachsen, sah offene Systeme nicht selbstverständlich als Chance, Gutes zu tun und zu lernen, und sie sah nichts Verkehrtes in der Idee eines Eigentums an Programmen. Wie ihre Vorgänger schrieben sie aufregende Software, doch immer häufiger tauchte beim Starten ein Copyright-Vermerk auf dem Schirm auf. Gegen diese Form der Schließung des freien Austausches kämpft Stallman bis heute. "I don't belive that software should be owned," zitiert Steven Levy ihn im Jahr 1983, "Because the practice sabotages humanity as a whole. It prevents people from getting the maximum benefit out of the program's existence."(8)

Die Kommerzialisierung holte auch die Reste der Hacker-Kultur am MIT ein, als sich um die von der Hacker-Legende Richard Greenblatt entworfene LISP-Maschine zwei Firmen gründeten, die die noch am MIT verbliebenen Hacker abwarben. Eigenständige Software-Firmen waren in den Siebzigern entstanden, zunächst als Ableger von Hardware-Herstellern. Eine berüchtigte Episode ist 1976 der "Open Letter to Fellow Hobbyists". Bill Gates beklagte darin, daß die meisten seiner Fellows ihre Software 'stehlen' würden, was verhindere, daß gute Software geschrieben werden könne. Der neue Zeitgeist ist umso bemerkenswerter, als Gates kurz vorher beinahe aus der Harvard Universität geflogen wäre, weil er die öffentlich finanzierten Ressourcen mißbraucht hatte, um kommerzielle Software zu schreiben. Nachdem er gezwungen worden war, seine Software in die Public Domain zu stellen, verließ er Harvard und gründete Microsoft. 

Anfang der Achtziger war fast alle Software proprietär. Den Begriff 'Hacker' hatte die Presse inzwischen zu 'Computer-Einbrecher' verkehrt. Seit 1981 kann in den USA Software, die bis dato als Algorithmen oder mathematische Formeln und damit als unschützbar angesehen wurde, zum Patent angemeldet werden. Aufgrund der immer noch ansteigenden Prozeßwelle ist heute evident, daß Patentschutz nur großen Unternehmen und vor allem der Rechtsindustrie nützt. DEC stellte seine PDP-10-Serie ein, für die die KI-Lab-Hacker das freie Incompatible Timesharing System (ITS) geschrieben hatten -- unter den Betriebssystemen der Zeit der bevorzugte Tummelplatz für Hacker. 

1984 wurde AT&T aufgeteilt und konnte nun, ohne kartellrechtliche Bedenken, Unix deutlicher als kommerzielles Produkt vermarkten, als es das ohnehin schon seit einigen Jahren getan hatte. Dazu wurde das Tochterunternehmen Unix System Laboratories (USL) gegründet. USL bot jetzt Schulungen, Support, Wartung und Dokumentation an, machte Werbung für Unix und veränderte die Lizenzen. Auch den Quellcode für Unix konnten Kunden erwerben, allerdings stieg der Preis dafür schon bald auf $100.000. (Zum Vergleich: die kommerziell unterstützte Version von BSDI einschließlich Quellcode wurde zeitgleich für $995 angeboten.) 

Diese Privatisierung und Schließung einer Software, an der zahllose Leute in der ganzen Welt mitgearbeitet hatten, brachte viele von ihnen auf. Richard Stallman sah sich als 'letzten Überlebenden einer toten Kultur', doch weigerte er sich aufzugeben. Statt dessen startete er 1984 das GNU-Projekt. Das rekursive Akronym steht für "GNU's Not Unix", doch genau das war sein Ziel: ein Betriebssystem zu schreiben, das funktional äquivalent zu Unix ist, aber keine einzige Zeile von AT&T geschützten Code enthält. Und vor allem: das in freier Kooperation weiterentwickelt werden kann, ohne irgendwann dasselbe Schicksal zu erleiden wie Unix. Das GNU-Projekt ist mehr als nur ein Sammelbecken für diverse freie Programme. Es wird von einer Gesamtvision für ein vollständiges System geleitet. "The ultimate goal is to provide free software to do all of the jobs computer users want to do -- and thus make proprietary software obsolete."(9)

Stallman hat auch ausgezeichnete Software geschrieben (wie den GNU C-Compiler (GCC) und den Editor GNU Emacs), doch sein folgenreichster Hack fand auf juristischem Terrain statt. "To copyleft a program, first we copyright it; then we add distribution terms, which are a legal instrument that gives everyone the rights to use, modify, and redistribute the program's code or any program derived from it but only if the distribution terms are unchanged. Thus, the code and the freedoms become legally inseparable."(10)

Die Freiheit, die die GNU General Public License (GPL) den Nutzern einer Software gewährt, umfaßt (1) den Zugang zum Quellcode, (2) die Freiheit, die Software zu kopieren und weiterzugeben, (3) die Freiheit, das Programm zu ändern und (4) die Freiheit, das veränderte Programm -- unter denselben Lizenzbedingungen -- zu verbreiten. Die Auflage in der 4. Freiheit verhindert, daß freie Software privatisiert und ihrer Freiheiten entkleidet wird. Die GNU-Philosophie schreibt nicht vor, daß die Weiterverbreitung kostenlos zu geschehen hat. Stallmans Vision geht weit über Software hinaus: "The core of the GNU project is the idea of free software as a social, ethical, political issue: what kind of society do we want to live in?"(11)

Zwei Ereignisse an der Grenze zwischen den Siebzigern und den Achtzigern müssen noch erwähnt werden. 1981 brachte IBM den IBM-PC auf den Markt -- und nahm ihn nicht recht ernst. Zum ersten Mal fertigte IBM nicht alle Komponenten im eigenen Haus, sondern kaufte den Prozessor von Intel und faßt für das Betriebssystem CP/M von Gary Kildall ins Auge. Dessen Firma Digital Research hatte CP/M 1975 auf den Markt gebracht, und es war zum am weitesten verbreiteten Betriebssystem für Mikroprozessoren geworden. Anekdoten berichten, daß Kildall am entscheidenden Tag mit seinem Privatflugzeug unterwegs war und so das Millionengeschäft mit IBM an Microsoft ging.(12) Wie viele seiner Produkte hatte Microsoft MS-DOS nicht selbst entwickelt, sondern von einer Firma namens Seattle Computer gekauft. Es handelte sich um eine abgespeckte Version von CP/M, von der Digital Research noch dazu bewehrte, daß Seattle Computer ihren Quellcode gestohlen habe. Die Industrie war sich einig, daß CP/M ein weit überlegenes Betriebssystem war, doch mit der Unterstützung durch IBM, das sicherstellte, daß alle Programme, die anfänglich für den IBM-PC ausgeliefert wurden, nur mit MS-DOS, nicht aber mit DRs CP/M kompatibel waren, dominierte MS-DOS in kürzester Zeit den Markt. Microsoft erbte gleichsam IBMs Monopol, das in derselben Bewegung zuende ging. 

Nicht so sehr der PC selbst, als die Tatsache, daß IBM die Spezifikationen der Hardware veröffentlichte, war folgenreich. Sie führte zu einer Flut von billigen Clones aus West und Fernost. Der Computer hielt Einzug in die Haushalte. 

Das Internet erlebt Ende der Siebziger den Wechsel von der militärischen zur akademischen Forschungsförderung (von DARPA zur National Science Foundation (NSF)). Damit beginnt das Wachstum und die internationale Ausbreitung des Internet. In dieser Zeit gedieh das, was gemeinhin mit der 'wilden Phase' des ursprünglichen Internet assoziiert wird: eine Gabentausch-Ökonomie für Software und Information, eine Graswurzel-basierte Selbstorganisation, emergierende Communities und der Hacker-Geist, der jede Schließung, jede Beschränkung des Zugangs und des freien Informationsflusses zu umgehen weiß. 
 

Wende um 1990

1990 wird das ARPAnet abgeschaltet, und es beginnt die kommerzielle Phase des Internet. Nachdem die NSF ihre Beschränkungen für die kommerzielle Verwendung des öffentlichen Netzes aufgehoben hatte, wurde 1991 der erste CIX (Commercial Internet eXchange) in den USA eingerichtet, über den Anbieter wie AT&T und Sprint ihre Netze miteinander verbanden. Im selben Jahr trat das World Wide Web seinen Siegeszug an. Mehr als 100 Länder mit über 600.000 Hosts und fast 5.000 einzelnen Netzen hatten jetzt Zugang zum Internet. Mit der Verkündigung der National Information Infrastructure-Vision durch US-Vizepräsident Al Gore im Herbst 1993 begann schließlich der Wandel des Internet zu einem Massenmedium. 

Das GNU-System war 1990 nahezu vollständig. Die einzige wesentliche Komponente, die noch fehlte, war ein Kernel. Der gewählte Mikrokernansatz stellte sich als schwieriger heraus, als erwartet. 1991 kam Linus Torvalds dem GNU-Projekt mit dem Linux-Kernel zuvor. Ob nun Linux als letzter Baustein in die GNU-Umgebung eingefügt wurde oder die GNU-Module um Torvalds Kernel -- wie man es auch sehen mag, auf jeden Fall gibt es seither ein vollständiges, leistungsfähiges, freies System mit dem Namen GNU/Linux. 

Die Berkeley-Gruppe hatte BSD inzwischen von allem noch verblieben AT&T-Code gereinigt und auf den 386er PC portiert. Anfang 1992 war es unter dem Namen 386/BSD im Netz abrufbar. Unix ist auf dem PC angekommen. Internetzugang wird auch außerhalb von Universitäten und Firmen verfügbar. Damit sind die wichtigsten Ingredienzien für freie Software vorhanden. Während der Neunziger werden GNU/Linux und die bald drei freien BSD-Varianten weiterentwickelt. Projekte wie der Webserver Apache, die Skriptsprachen Perl und Python, die Grafikbibliotheken von XFree86, die grafischen Desktops KDE und Gnome und Anwendungsprogramme wie der Photoshop-Lookalike Gimp sprießen -- noch weitgehend im Verborgenen. 
 

Wende von 1998

Fast forward ins Jahr 1998. Im Februar änderte Eric Raymond in seinem berühmten Aufsatz "The Cathedral and the Bazaar" den Begriff 'free software' in 'Open Source Software'.(13) Erklärtes Ziel war es, das Phänomen in Business-Kreisen hoffähig zu machen. Offensichtlich war in The Land of the Free 'free' zu einem four-letter word geworden, klang irgendwie kommunistisch. Zu den spektakulären Entwicklungen des Jahres 1998 gehören Netscapes Freigabe des Quellcodes für seinen Browser und der Deal zwischen der Apache-Gruppe und IBM, das deren Server in sein Produkte "WebSphere" integrierte. Durch die Enthüllung des vertraulichen "Halloween-Dokuments"(14) wurde klar, daß Microsoft Open-Source-Software als direkte und kurzfristige Bedrohung seines Profits und seiner Plattform ansieht. Mehr noch sieht der Autor im freien Austausch von Ideen einen Vorteil, der von Microsoft nicht repliziert werden könne, und deshalb eine langfristige Bedrohung des Mindshare des Unternehmens bei den Software-Entwicklern darstelle. Selbst Forbes Magazine sang im August 1998 das Loblied von Open Source und Hackern. Zu Hollywood-Ruhm gelangte Linux durch den Film Titanic, dessen Computergraphiken auf einem Linux-Cluster gerechnet wurden. Sogar in der Kunstwelt fand es Anerkennung, als Linus Torvalds stellvertretend für sein Projekt der Linzer Prix Ars Electronica 1999 verliehen wurde. 

Die Zahl der installierten Linux-Systeme stieg auf über zehn Millionen weltweit. Der Markt verzeichnete eine regelrechte Linux-Hysterie. Auf der CEBIT 1999 konnte man sich vor lauter Pinguinen -- dem "Tux" genannten Maskottchen von Linux -- kaum retten. Jedes Software-Unternehmen mit einer Warenwirtschaft, einer Zahnärtzelösung oder einem eCommerce-System kündigte an, dieses Produkt jetzt auch für Linux anzubieten. 

Auch unter proprietären Anbietern setzt sich die Erkenntnis wieder durch, daß Software keinen Produktmarkt darstellt, sondern einen Dienstleistungsmarkt. So erzielen Firmen wie IBM und DEC den überwiegenden Teil ihrer Einnahmen heute durch Support-Dienstleistungen. Daher ist es genaugenommen nicht ganz so überraschend, daß Firmen wie IBM und Corel Support für Linux anzubieten begannen, große Software-Häuser ihre Produkte auf Linux portierten, und weitere Industriegrößen wie Intel Millionenbeträge in freie Software-Firmen investierten. 

Quelloffene Software bietet die ideale Grundlage für eine maßgeschneiderte Anpassung, Wiederverwendung von Modulen und Weiterentwicklung, ohne das Rad immer wieder neu erfinden zu müssen. Ohne wirklich selbst akademisch zu sein, beerbt sie einerseits die Wissenschaftstradition des freien Austausches und macht andererseits eine neue Form der Ökonomie auf. 
 

Wie entsteht freie Software?

Es beginnt meist damit, daß jemand ein Problem hat. Das Sprichwort 'Notwendigkeit ist die Mutter aller Erfindungen' übersetzt Eric Raymond in eine der Faustregeln der freien Software: "Every good work of software starts by scratching a developer's personal itch".(15) So wollte Tim Berners-Lee 1990 die Informationsflut, die am CERN produziert wird, in den Griff bekommen und begann, das WWW-Protokoll zu entwickeln.(16) Rob McCool am NCSA wollte gerne einen Server für dieses Format haben und schrieb den NCSA-httpd.(17) Linus Torvalds wollte gerne ein Unix auf seinem 386er PC zuhause laufen lassen, fand allein Minix, das seinen Ansprüchen nicht genügte, und begann Linux zu entwickeln. Brent Chapman wurde 1992 zum Administrator von 17 technischen Mailinglisten. Mit der damals verfügbaren Software mußte der Listenverwalter jede Subskription und sonstige Listenverwaltung von Hand eintragen, was eine Menge Zeit kostete. Deshalb begann er Majordomo zu entwickeln, den heute am weitesten verbreiteten Mailinglisten-Server im Internet.(18)

Freie Software entsteht also nicht auf Anweisung eines Vorgesetzten oder Auftraggebers. Sie ist vielmehr eine eigenmotivierte Tätigkeit, angetrieben von dem Wunsch, ein vor der Hand liegendes Problem bei der Arbeit oder Forschung zu lösen. Eine Ausnahme bildet das GNU-Projekt, das von der Vision eines vollständigen freien Betriebssystems geleitet wurde. 

All diese Männer der ersten Stunde -- es scheint tatsächlich nicht eine einzige Frau unter ihnen zu geben -- veröffentlichten ihre Projekte frühzeitig, in der Annahme, daß sie nicht die einzigen sind, die dieses Problem haben, und daß es andere gibt, die ihnen bei der Lösung helfen würden. 

Meist bildet sich schon bald nach der Erstveröffentlichung um den Initiator eine Gruppe von Mitstreitern, die ihre Kenntnisse und Zeit in das Projekt zu investieren bereit sind und die, wenn die Zahl der Beteiligten wächst, als Maintainer eine koordinierende Verantwortung für Teile des Projekts übernehmen. Das Credo der Internet-Entwicklergemeinde lautet: "We reject: kings, presidents and voting. We believe in: rough concensus and running code."(19) Die gleiche Philosophie herrscht auch in den meisten Open Source-Software-Projekten. Auch die Core-Team-Mitglieder sind keine Projektleiter oder Chefs.(20)

Die zentralen Kommunikationsmittel für die weltweit ortsverteilte Kooperation sind Email, genauer Mailinglisten, sowie Newsgroups. Für Echtzeitkommunikation verwenden einige Projekte auch den Internet Relay Chat (IRC). Die Projekte präsentieren sich und ihre Ressourcen auf Websites. Das zentrale Instrument zur kooperativen Verwaltung des Quellcodes sind CVS-Server. Das Concurrent Versions System (CVS) ist ein mächtiges Werkzeug für die Revisionsverwaltung, das es Gruppen von Entwicklern erlaubt, die gleichzeitige Arbeit an denselben Dateien zu koordinieren und einen Überblick über die Veränderungen zu behalten. CVS ist Standard bei freier Software, aber auch viele Firmen, die kommerziell Software erstellen, setzen es ein. Jeder kann lesend weltweit auf die Source-Bäume zugreifen und sich die aktuellste Version einer Software auf seine lokale Festplatte kopieren. 
 

Wer macht freie Software?

Unsere Gesellschaften kennen wohltätige, karitative und kulturelle (z.B. Kunstvereine) Formen des Engagements für eine gute Sache, die nicht auf pekuniären Gewinn zielen. Gemeinnützige Tätigkeiten sind steuerlich begünstigt und sozialwissenschaftlich in Begriffen wie Civil Society, Dritter Sektor und NGOs reflektiert. Doch während einer Ärztin, die eine Zeit lang in Myanmar oder Äthiopien arbeitet, allgemeine Anerkennung gezollt wird, ist die erste Reaktion auf unbezahlte Software-Entwickler meist, daß es sich entweder um Studenten handeln muß, die noch üben, oder um Verrückte, da ihre Arbeit in der Wirtschaft äußerst gefragt ist und gut bezahlt würde. 

"Jedes Geschäft -- welcher Art es auch sei -- wird besser betrieben, wenn man es um seiner selbst willen als den Folgen zuliebe treibt", weil nämlich "zuletzt für sich Reiz gewinnt", was man zunächst aus Nützlichkeitserwägungen begonnen haben mag, und weil "dem Menschen Tätigkeit lieber ist, als Besitz, ... insofern sie Selbsttätigkeit ist".(21) Diese Humboldtsche Erkenntnis über die Motivlage der Menschen bietet einen Schlüssel für das Verständnis der freien Software. 

Ihre Entwicklung gründet in einem kreativen Akt, der einen Wert an sich darstellt. Ein Learning-by-Doing mag noch von Nützlichkeitserwägungen angestoßen werden, das Ergebnis des Lernens ist nicht nur ein individuelles Verständnis, sondern eine Schöpfung, die man mit anderen teilen kann. Statt also aus dem Besitz und seiner kommerziellen Verwertung einen Vorteil zu ziehen, übergeben die Programmiererinnen und Programmierer der freien Software ihr Werk der Öffentlichkeit, auf daß es bewundert, kritisiert, benutzt und weiterentwickelt werde. Die Anerkennung, die ihnen für ihre Arbeit gezollt wird, und die Befriedigung, etwas in den großen Pool des Wissens zurückzugeben, spielen sicher eine Rolle. Die wichtigste Triebkraft vor allen hinzukommenden Entlohnungen ist die kollektive Selbsttätigkeit. 

Entgegen einer verbreiteten Auffassung, daß vor allem Studenten mit viel Freizeit sich für freie Software engagieren, ist das Spektrum erheblich breiter. Bei XFree86 bsw. liegt das Altersspektrum der Beteiligten zwischen 12 und 50 Jahren, und sie leben auf allen Kontinenten der Erde.(22) Viele sind tatsächlich Studenten (bei XFree etwa ein Drittel, beim GIMP, der von zwei Studenten gestartet wurde, ist es die Mehrzahl). Viele andere haben eine Anstellung als Programmierer, Systemarchitekt oder -Administrator, aber auch in nicht-Computer-bezogenen Berufen und entwickeln in ihrer Freizeit an freien Projekten. Eine wachsende Zahl arbeitet bei Distributoren oder Firmen, die Dienstleistung mit und um freie Software anbieten. Auch ihre beruflich erstellten Programme gehen in den wachsenden Pool der freien Software ein. 
 

Wem nützt freie Software?

Allen, die sie anwenden. Zunächst ist sie kostengünstig. Auch wenn sie gebührenfrei beschafft werden kann, ist die Total Cost of Ownership nicht gleich Null. Cygnus, die erste Firma, die kommerziellen Support für GNU-Software anbot, war mit dem Slogan "making free Software affordable". Weitere Vorteile sind Flexibilität, Stabilität (weithin getestet und debugged), Investitionssicherheit(23) und Betriebssicherheit (Software läßt sich nur dann auf Sicherheitsmängel Hintertüren überprüfen, wenn der Quellcode vorliegt). 

Immer mehr Firmen entdecken diese Vorteile für sich, ebenso öffentliche Verwaltungen. In Finnland gibt es bereits Behörden, die komplett mit Linux arbeiten. In Frankreich soll Quelloffenheit zum Ausschreibungskriterium für Software-Beschaffung werden. In Deutschland setzten sich u.a. das Bundeswirtschaftministerium, das Bundesamt für Sicherheit in der Informationstechnologie und die Koordinierungs- und Beratungsstelle der Bundesregierung für Informationstechnik für den Einsatz freier Software ein. Der KBSt-Brief aus dem Februar 2000 spricht ein klares Votum dafür aus und gibt praktische Handreichungen.(24) Auf der Konferenz "Effizienter Staat 2000" im April wurde von einer Dienststelle mit 260 Mitarbeitern berichtet, die durch die Umstellung auf Linux gegenüber einer NT-Lösung fast 50.000 DM eingespart hat.(25) Auch der EU-Kommissar für die Informationsgesellschaft Erkki Liikanen kritisiert die Nichtverfügbarkeit des Sourcecodes kommerzieller Produkte, stellte eine Bevorzugung offener Software bei Ausschreibungen in Aussicht und empfahl die Förderung von Open-Source-Projekten.(26)

Über den Nutzen für alle hinaus gibt es Bereiche, in denen freie Software von besonderer gesellschaftlicher Bedeutung ist. Einer davon ist die Bildung. Computer-Bildung mit proprietärer Software heißt, die Schüler und Studenten lernen, Menü-Punkte zu bedienen. Mit einem 'mächtigen', modularen Betriebssystem wie Unix lernt man mehr über die Funktionsweisen eines Computers. Durch die Offenheit der Quellen lassen sich diese studieren. Mehr noch erlaubt es die Lizenz, damit zu experimentieren, Änderungen vorzunehmen und dann zu schauen, ob die neu-kompilierte Software das tut, was man erwartet hat. 

Eine weitere besonders betroffene Nutzergruppe sind die weniger Betuchten dieser Welt. Ein interessantes Beispiel ist mir vor kurzem aus Malaysien zugetragen worden. Die Vereinigung der Thalassaemie-Betroffenen war mit der Bitte an die Malaysische Open Source Group herangetreten, ihnen bei der Errichtung einer eCommunity zu helfen. Geld aus einem staatlichen Förderprogramm war in Aussicht gestellt, doch Papier ist geduldig. Statt dessen fand sich ein 155er Pentium mit 500 MB Festplatte -- nach allen Standards wenig mehr als Computer-Schrott. Darauf installierte die Gruppe das schlanke FreeBSD, dazu Apache, Majordomo, Sendmail, Bind und Perl. Damit hatte die Community eine Web-Site, Mailinglisten, ein Web-basiertes Diskussionsforum und ein Formular, um sich für Veranstaltungen zu registrieren.(27) Sobald das Geld eintrifft, werden sie die Hardware und das Informationsangebot erweitern. Die Open Source Group wird der Community dabei helfen, ihnen beibringen, das System selbst zu unterhalten und dann weiterziehen zu einer anderen Non-Profit-Community. 
 

Betriebssystem für eine freiheitliche Gesellschaft

Freie Software lehrt uns etwas über die Strukturprinzipien von Kooperation und Kommerz, von Offenheit und Schließung. Ein aktuelles Beispiel für die Gegenbewegung sind die Copyright Protection Systems, an denen die Content-Industrie derzeit arbeitet. Content jeglicher Art (Musik, Texte, Bilder und Bewegtbilder) wird dabei in kryptographische Umschläge verpackt, jede Transaktion authentifiziert, mit einem Abrechnungssystem gekoppelt, der Content wird mit Wasserzeichen versehen und zerstört sich gar selbst, wenn das Sicherungssystem Manipulationsversuche registriert. Damit werden nicht nur dem Wissen elektronische Fußfesseln angelegt, sondern auch die Rechtsprechung ausgehebelt. Streitfälle z.B. um Fair Use sind nicht mehr vor Gericht verhandelbar, sondern erledigen sich durch Technologie -- ein Wechsel von Regulation durch Recht hin zur Regulation durch Code, wie ihn Lawrence Lessig analysiert. 

Die freie Software bedarf im wesentlichen der Erhaltung des kooperativen Freiraumes, der mit Hilfe der Rechtskonstruktion von Urheberrecht + Lizenz abgesichert ist. D.h. Schließungstendenzen, wie den Bemühungen, eine Software-Patentierbarkeit auch in Europa einzuführen, muß entgegengewirkt werden. Gelegentlich kann auch Förderung hilfreich sein. So unterstützt z.B. das BMWi die Entwicklung des GNU Privacy Guards(28) und seine Integration in die gängigsten Mailer. Die GMD stellt mit BerliOS Serverplatz und Informationsmaterialien für freie Software zur Verfügung.(29)

Inspiriert vom Vorbild der freien Software entstehen weitere Formen von nicht-proprietärem, kooperativ erstelltem Wissen. Dazu gehören freie Enzyklopädien, Bildungsmaterialien,(30) Theorieprojekte,(31) Literatur,(32) Musik,(33) selbst Open-Law(34) und freie Hardware.(35) Das sicherlich spektakulärste Beispiel ist der Versuch dreier Techies das Satelliten-Netzwerk des bankrotten Mobiltelefonieanbieters Iridium als Open-Source-Projekt zu übernehmen.(36) Der freie Geist breitet sich aus. Wo Probleme sich stellen, finden sich Leute, die eine Open-Source-Lösung ausprobieren. Dominante Leitbilder funktionieren wie der berühmte Hammer, der jedes Problem als Nagel erscheinen läßt. Das Konzept 'Informationsgesellschaft' z.B. läßt jede sich stellende Herausforderung in einer Form erscheinen, die mit Informationstechnologie beantwortet werden kann. Auf ähnliche Weise wirkt die freie Software als Linse, durch die freie, offene, kooperative Lösungen auf Probleme sichtbar werden. 

Selbst Verbindungen zwischen freier Software und freiem Sex werden auf diese Weise denkbar, wie ein Artikel in der aktuellen Ausgabe des Salon Magazine demonstriert. Dort heißt es: "Part of the essence of the open-source and free software communities, ideally, is that they are open to experimentation of all kinds, both in terms of practical engineering -- the compilation of efficient code -- and social engineering -- the construction of new ways of being in the world. And these new ways of being are certainly not limited to the sexual variety. Open-source enthusiasts are likely to see applications for open-source strategies in a vast number of arenas, including politics, the creation of literature and even hardware design."(37) Es besteht also tatsächlich die Hoffnung, daß über diesen 'memetischen' Effekt, die Philosophie der freien Software zu einem Betriebssystem für eine freiheitliche Gesellschaft wird. 
 
 
 


Quellen

1. Robert K. Merton, The Sociology of Science, Chicago & London, Chicago Univ. Press, 1973: S. 273 ff., zitiert nach Helmut F. Spinner, Die Architektur der Informationsgesellschaft, Philo, Bodenheim 1997, S. 36 

2. 1955 gegründet, ist SHARE auch heute noch aktiv, s. http://www.share.org

3. zitiert nach Ronda & Michael Hauben, Netizen's Netbook, Kapitel 9 "On the Early History and Impact of Unix. Tools to Build the Tools for a New Millenium", http://www.columbia.edu/~rh120/ch106.x09

4. Gulbin/Obermayr, Unix System V.4. Begriffe, Konzepte, Kommandos, Schnittstellen, Springer, Berlin, Heidelberg, New York, 1995, S.7 

5. Bantam Doubleday Dell Publishing, New York. Die Ausgabe von 1994 enthält ein neues Nachwort. 

6. Im Club gab es zwei Fraktionen, eine, die es liebte, Modellhäuser, Landschaften und Replikas historischer Züge zu bauen -- heute würde man sie die Interface-Designer nennen. Die andere Fraktion verbrachte die meiste Zeit mit dem Steuerungssystem unter der Platte, mit der Stromversorgung, den Kabeln und elektromagnetischen Relais, die sie von einem Telefonhersteller bekommen hatten. Diese zweite Gruppe strebte nach Höherem, doch der zentrale MIT-Rechner, eine IBM 704, die Lochkartenstapel verarbeitete, war von der Computerpriesterschaft abgeschirmt. Als das MIT 1959 einen der ersten Transistor-betriebenen Rechner der Welt bekam, der außerdem mit einem Kathodenstrahlmonitor ausgestattet war, verloren sie bald das Interesse an Modelleisenbahnen. Die TX-0 des Lincoln Labs war ein Zwerg im Vergleich zur 704, verwendete keine Lochkarten mehr und man bekam Zeitabschnitte zugewiesen, in denen man ihn exklusiv für sich benutzen konnte. Zum ersten Mal konnte man am Computer sitzen, während er ein Programm durchrechnete, und auf der Stelle neue Anweisungen in die Tastatur hacken. Während bislang und auch später beim 'strukturierten Programmieren' der größte Teil des Software-Entwurfs abstrakt auf Papier stattfand, war es mit der neuen 'interaktiven' Computer-Nutzung möglich, eine Idee in die Tasten zu hacken, das Programm laufen zu lassen, Fehler zu entdecken, die Korrekturen einzugeben und es sofort wieder ablaufen zu lassen. Diese Art der iterativen ad-hoc-Programmierung trug den Namen 'Hacken'. (Levy, 21 ff.) 

7. Steven Levy, Hackers. Heroes of the Computer Revolution, Bantam Doubleday Dell Pub., New York 1994 (1984), S. 416 

8. Levy: 419; s.a. Richard Stallman, Why Software Should Not Have Owners, 1994, http://www.gnu.org/philosophy/why-free.html

9. Overview of the GNU Project, updated 2 May 1999, jonas, http://www.gnu.org/gnu/gnu-history.html

10. FSF, What Is Copyleft?; http://www.gnu.org/copyleft/copyleft.html

11. Stallman, Vortrag auf den Wizards of OS, Berlin, Juli 1999, http://www.mikro-berlin.org/wos

12. Lothar Fritsch, Die Geburt des Mikroprozessors, Saarbrücken, im April 1992, http://fsinfo.cs.uni-sb.de/~fritsch/Papers/PC/node9.html#SECTION00033000000000000000

13. Eric Raymond, The Cathedral and the Bazaar (Januar 1998), http://www.tuxedo.org/~esr/writings/cathedral-bazaar/cathedral-bazaar.html. Für den Begriffswechsel siehe "14. Version and Change History" 

14. Open Source Software. A (New?) Development Methodology (aka "The Halloween Document"), Vinod Valloppillil (VinodV). Aug 11, 1998 -- v1.00. Microsoft Confidential (mit Kommentaren versehen von Eric Raymond), http://www.tuxedo.org/~esr/halloween.html

15. Eric Raymond, The Cathedral and the Bazaar, op.cit. 

16. vgl. Tim Berners-Lee, Der Web-Report, Econ, München 1999 

17. Nachdem NCSA seine Pflege aufgab, schrieben die Anwender weitere Software-Flicken, sog. Patches, bis sich eine Gruppe fand, die aus A Patch Server das Apache-Projekt machte. 

18. D. Brent Chapman, "Majordomo: How I Manage 17 Mailing Lists Without Answering '-request' Mail", 1992 http://www.greatcircle.com/majordomo/majordomo.lisa6.ps.Z

19. Dave Clark, IETF Credo (1992), http://info.isoc.org:80/standards/index.html

20. Lars Eilebrecht, Core-Team-Mitglied des Apache-Projekts, beschreibt den Entscheidungs- und Konfliktlösungsprozeß beim Apache folgendermaßen: "Alle Entscheidungen, die getroffen werden, sei es nun welche Patches, welche neuen Funktionalitäten in den Apache eingebaut werden, was in der Zukunft passieren soll und sonstige Entscheidungen werden alle auf Basis eines Mehrheitsbeschlusses getroffen. Das heißt, es wird auf der Mailingliste darüber abgestimmt, ob ein bestimmter Patch eingebunden wird oder nicht. Bei Patches, die eine große Änderung darstellen, ist es typischerweise so, daß sich mindestens drei Mitglieder der Apache-Group damit beschäftigt haben müssen, das heißt, es getestet haben und dafür sein müssen, daß der Patch eingebaut wird. Und es darf keinerlei Gegenstimmen geben. Wenn es sie gibt, dann wird typischerweise das Problem, das jemand damit hat, behoben und, wenn der Patch dann für sinnvoll erachtet wird, irgendwann eingebaut." (Eilebrecht, Vortrag auf den Wizards of OS, Berlin, Juli 1999, http://www.mikro-berlin.org/wos

21. Wilhelm von Humboldt, Ideen zu einem Versuch, die Grenzen der Wirksamkeit des Staates zu bestimmen (1792), zitiert nach: Helmut Spinner, Die Wissensordnung, Opladen 1994, S. 48 

22. Dirk Hohndel, Vortrag auf den Wizards of OS, Berlin, Juli 1999, http://www.mikro-berlin.org/wos

23. Über ein typisches Beispiel berichtete Ralf Klever, Systemadministrator der taz: "Ein Hersteller von ISDN-Routing-Software teilte uns mit, als wir von Sun-OS auf Solaris umgestiegen sind, daß wir unsere gesamten ISDN-Karten neu kaufen müßten, weil die alten Karten nicht mehr von ihrer Software gepflegt werden. Dabei ging es um Investitionskosten in Höhe von 100.000 DM. Da hätte ich, wenn ich die Sourcen gehabt hätte, gerne jemanden darauf angesetzt, der das für mich analysiert und dann die entsprechende Anpassung gemacht hätte." (Klever, Vortrag auf den Wizards of OS, Berlin, Juli 1999, http://www.mikro-berlin.org/wos

24. KBSt-Brief Nr. 2/2000, Open Source Software in der Bundesverwaltung, http://www.kbst.bund.de/papers/briefe/02-2000/

25. s. Robert Gehring, "Schneller, höher, weiter. Veranstaltungsbericht 'Effizienter Staat 2000', in: Linux-Magazin 6/2000, S. 56-57 

26. s. z.B. seine Keynote Speech auf der European Approach Information Security Solutions Europe, Berlin, 4 October 1999, http://europa.eu.int/comm/dg03/speeches/liikanen/EL041099.html

27. s. http://tam.org.my

28. http://www.gnupg.org/

29. http://www.berlios.de

30. z.B. auf http://www.opencontent.org

31. http://www.opentheory.org

32. z.B. http://www.gutenberg.net/

33. z.B. http://www.orang.org/ oder http://www.freemusic.org

34. http://eon.law.harvard.edu/openlaw/ am Berkman Center for Internet and Society der Harvard University 

35. http://f-cpu.tux.org/

36. http://www.salon.com/tech/log/2000/03/23/save_iridium/print.html

37. Annalee Newitz, "If code is free, why not me? Some open-source geeks are as open-minded about sex as they are about hacking" in: Salon Magazine, May 26, 2000; http://www.salon.com/tech/feature/2000/05/26/free_love/index.html
 

Eine kooperativ anzufüllende Geschichte Freier Software, maintained von Stefan Meretz
 
 
 
 


History

abgedruckt in Linux Magazin 09/2000

vorgetragen im
Open Source Track des Festivals garage-g
in Stralsund am 7.8.2000

vorgetragen auf 
Freie Software - Ein Modell für die Bürgergesellschaft
Evanglische Akademie Tutzing, 31.5.-1.6.2000