Freie Software
Geschichte, Dynamiken und gesellschaftliche Bezüge
 

Volker Grassmuck

Ver 1.0
September 2000

Teil 2/2
-> zu Teil 1/2


 



 

Die Software





Die Zahl und die funktionale Bandbreite der freien Programme ist unüberschaubar. Ein großer Teil hat 'infrastrukturellen' Charakter. Besonders die Bereiche Internet, Betriebssysteme (Emulatoren) und Entwickler-Tools ziehen die Aufmerksamkeit freier Entwickler auf sich. Schon grafische Desktop-Umgebungen (KDE, Gnome), die man ebenfalls als informatische Infrastruktur ansehen kann, sind vergleichsweise jung. Viele Applikationen stammen aus Universitäten und hier vor allem aus dem naturwissenschaftlich-technischen Bereich. Insgesamt läßt sich sagen, daß für alle Einsatzbereiche des Computers, einschließlich Büroanwendungen, Spiele, bis zu Videoschnittsystemen oder 3D-Modellierung freie Software exisitiert. Wer sich eine der Linux-Distributionen beschafft, erhält damit bereits zahlreiche stabile Softwarepakete (in der aktuellen SuSE Linux 6.4 z.B. mehr als 1.500)

Freie Software ist (ebenso wie proprietäre Software) nirgends katalogisiert. Ein großes Portal für Linux Software, das Dave Central von Dave Franklin,(212) verweist auf mehr als 4.000 Programme. Die größten Kategorien sind Netzwerkprogramme, Programmierung, Systemwerkzeuge und Büroanwendungen. Handelt es sich dabei überwiegend um stabile, direkt anwendbare Programme, so bietet SourceForge(213) eine Einblick in die aktuellen Entwicklungsaktivitäten. SourceForge ist ein Angebot von VA Linux Systems, Inc.(214), das Open-Source-Entwicklern Hardware- und Software-Ressourcen wie CVS-Repositorium, Mailinglisten, Bug-Tracking, Dateiarchive, Foren und eine Web-basierte Administration zur Vergügung stellt. Dort sind (im Juni 2000) 3.500 Projekte gelistet, zwei Drittel davon auf Linux (rsp. POSIX), ein knappes Drittel auf X11, ein Fünftel mit stabilen Produktionsversionen. Ein Drittel wird in C erstellt, ein weiteres knappes Drittel in C++, die übrigen in div. Programmiersprachen (Perl, Java, PHP, Python, Assembler). Bis auf wenige Ausnahmen stehen die Projekte unter einer von der Open Source Initiative gutgeheißenen Lizenz. Die Hälfte der Software richtet sich an Entwickler, die andere Hälfte an Endnutzer. Bei den Anwendungsbereichen bilden Internet, Kommunikation, System- und Entwicklungssoftware, Multimedia und Spiele die größten Gruppen. Eine weiterer wichtiger Startpunkt für die Suche nach bestimmten GNU/Linux-Programmen und für tägliche Updates über neue Projekte und neue Versionen ist Freshmeat(215)

Im Folgenden werden Kurzbeschreibungen und Verweise auf einige ausgesuchte freie Software-Projekte geben, gefolgt von längeren Ausführungen zu BSD-Unix, der Debian GNU/Linux-Distribution, XFree86, KDE, Apache und GIMP.
 

  • GNU-Software(216) -- mehr als 200 im Rahmen des GNU-Projekts erstellte Programme(217) von den Binutils über ein CAD-Programm für Schaltkreise bis zu Spielen, darunter solche Standards wie Bash (die Bourne Again SHell), CVS, Emacs, Ghostscript und Ghostview für die Erzeugung und Darstellung von PostScript- und PDF-Dateien, der Dateimanager Midnight Commander, das Notensatzprogramm lilypond, der Webseiten-Downsloader wget, ein GNU-Java-Top-level-Paket mit div. Anwendungen und GNOME.

  •  
  • GNOME (GNU Network Object Model Environment)(218), eine graphische Desktop-Umgebung. Das Projekt wurde Anfang 1998 gegründet. Es verwendet das aus dem GIMP-Projekt (s.u.) hervorgegangene Toolkit Gtk und umfaßt viele Werkzeuge für die tägliche Arbeit, wie Datei-Manager und kleine Office-Applikationen, insgesamt über 230 Programme.

  •  
  • BIND (Berkeley Internet Name Daemon)(219) ist der de facto Standard-DNS-Server für das Internet. Das Domain Name System des Internet wurde anhand von BIND entwickelt. BIND wird ebenso wie DHCP (eine Implementation des Dynamic Host Configuration Protocol) und INN (das InterNetNews-Package, ursprünglich geschrieben von Rich Salz) heute vom Internet Software Consortium(220) betreut.

  •  
  • Sendmail(221) wickelt den Transport von 90% des weltweiten eMail-Verkehrs ab. Es stammt aus der Berkeley Universität. Sein Autor, Eric Allman gründete 1997 eine Firma(222) darauf, doch parallel dazu ist die quelloffene, freie Version weiterhin verfügbar.

  •  
  • Squid(223) ist ein Proxy Server, der auf dem ICP Protokoll basiert. Squid ist populär bei großen ISPs.

  •  
  • SAMBA(224) -- ein SMB-File- und Druck-Server für Unix. Vor kurzem hat es die SAMBA Mannschaft geschafft, auch einen NT-Controller für Unix zu entwickeln. Seit der Version 2.0 werden auch MS-Windows-Clients unterstützt. SGI engagiert sich ebenfalls stark in SAMBA.

  •  
  • PERL (Practical Evaluation and Reporting Language)(225) ist die Standard-Scriptsprache für Apache-Webserver (s.u.). PERL ist auf Unix sehr beliebt, vor allem aufgrund seiner leistungsstarken Text/Zeichenkettenverarbeitung und des Vertrauens auf Befehlszeilenverwaltung aller Funktionen. Die umfangreichste Bibliothek mit freien Perl Skripts ist CPAN.(226)

  •  
  • Ghostscript(227) ein PostScript-Interpreter, geschrieben von L. Peter Deutsch, unter GPL entwickelt, dann auf die Aladdin-Lizenz umgeschwenkt.(228)

  •  
  • Majordomo(229) der vorherrschende Mailinglisten-Server im Internet ist in PERL geschrieben und ebenfalls ein OSS Projekt.

  •  
  • WINE (Wine Is Not an Emulator)(230) ist ein Windows Emulationsbibliothek für Unix.

  •  
  • Zope (Z Object Publishing Environment)(231) eine Web-Applikationsplattform für die Generierung von dynamischen Webseiten. Basiert auf der Skriptsprache Python und auf Produkten der Firma Digital Creations, die auf Empfehlung eines Venture-Capital-Investors 1998 unter eine Open-Source-Lizenz(232) gestellt wurden.

  •  
  • OpenBIOS(233) ein Projekt, eine IEEE 1275-1994-Standard Firmware zu schaffen, die proprietäre PC-BIOSe ersetzen soll. Die erste Entwicklerversion 0.0.1 wurde im November 1998 freigegeben.

  •  

     
     
     
     
     
     
     

BSD

1977 hatte Bill Joy an der Berkeley University die erste "Berkeley Software Distribution" (BSD) mit Unix-Programmen und im Jahr darauf die vollständige Unix-Distribution 2.11BSD zusammengestellt. Die Version 4.2BSD (1983), die ein schnelles Dateisystem und TCP/IP enthielt, wurde auch unter kommerziellen Anbietern von Unix-Rechnern populär und trug viel zur weltweiten Verbreitung von Unix und Internetzwerken bei. Während sich die Anbieter kommerzieller Unix-Versionen gegenseitig die Lizenzdaumenschrauben anlegten, gab die Berkeley-Gruppe 1989 zunächst die Netzwerkelemente aus BSD als Networking Release 1 unter der eigens dafür entwickelten freien BSD-Lizenz heraus. In einer im Vergleich zum Linux-Projekt wenig beachteten offenen, Internet-basierten Entwicklung wurden daraufhin alle geschützten Unix-Module durch freien Code ersetzt, der 1991 als Networking Release 2 erschien. Diese Version portierte Bill Jolitz auf den PC und veröffentlichte sie Anfang 1992 als 386/BSD unter der BSD-Lizenz. Um das 386/BSD sammelten sich enthusiastische Nutzer und Entwickler, die es als NetBSD-Gruppe weiter pflegten. Damit migrierte das Projekt vollends aus der Akademie ins Internet. Die Forschungsgruppe an der Berkeley Universität legte 1995 letzten Änderungen als 4.4BSD-Lite, Release 2 vor und löste sich dann auf.(234)

Gleich zu Anfang der Weiterentwicklung des 386/BSD kam es, aus weitgehend persönlichen Gründen, zu einer Spaltung. Die NetBSD-Gruppe(235) zielte darauf, eine möglichst große Verbreitung auf möglichst viel Plattformen zu erreichen, mit dem Ergebnis, daß es heute fast keinen 32-Bit-Prozesser mit einer Memory Management Unit gibt, auf dem NetBSD nicht läuft. Das zweite daraus hervorgegangene Projekt FreeBSD(236) zielte darauf, ein leistungsfähiges, stabiles Unix-Server-Betriebssystem für Intel-CPUs zu schaffen. FreeBSD ist auch auf den Alpha portiert, aber der Schwerpunkt liegt auf Intel. FreeBSD hat heute die größte Installationsbasis der aus dem Net Release 2 abgeleiteten Systeme. 1997 kam es innerhalb der NetBSD-Gruppe zu einer weiter Spaltung. Daraus ging ein Projekt namens OpenBSD(237) hervor, das das Betriebssystem auf Sicherheit hin optimiert. Die unterstützen Hardwarplattformen sind ähnlich wie bei NetBSD.

Die drei Projekte bestehen freundschaftlich nebeneinander und übernehmen Innovationen voneinander. Diese Zuammenarbeit gibt es auch mit der Welt des parallel heranreifenden Linux und von anderen Betriebssystemen,(238) mit XFree86, Apache, KDE und weiteren Projekten. Der Source-Baum liegt unter CVS-Kontrolle. Man kann lesend und schreibend weltweit auf ihn zugreifen.

Während eine Linux-Distribution um den Kernel herum Software-Pakete aus den unterschiedlichsten Quellen teilweise in Binärform zusammenträgt, für die verschiedene Maintainer zuständig sind, gibt es bei BSD ein zentrales Source-Code-Management für den Kernel und alle Utilities (die GNU-Tools, wie der GCC, UUCP, TOP usw.). Installiert wird aus dem Quellcode. Installierer wie der RedHat Package-Manager (rpm) oder dselect, die fertige Binary-Packages installieren, wie das in der PC-Welt üblich ist, sind in der Unix-Welt eine relativ junge Erfindung. Zur Automatisierung der Source Code-Installatation dient bei FreeBSD die Ports Collection. Sie umfaßt heute einen Source-Baum mit Make Files für mehrere tausend Applikationen und einem Umfang von 10 bis 15 MByte. Diesen Baum spielt sich der Nutzer auf seine lokale Festplatte und wählt die Make-Dateien der Software-Pakete aus, die er installieren möchte. Make ist ein Projektverwaltungs-Tool, mit dem man automatisiert Software übersetzen kann. Werden die entsprechenden Make-Dateien aufgerufen, so werden die Pakete für den Apache, KDE usw. direkt vom Original-FTP-Server geholt, eventuell für FreeBSD angepaßt, Variablen werden gesetzt, der Quellcode durchkompiliert, installiert und in einer Package-Datenbank registriert, so daß sich alles wieder sauber deinstallieren läßt. Bei der Erstinstallation erzeugt der Befehl make world auf diese Weise das gesamte BSD-System. Updates erfordern nur, daß ein Eintrag im entsprechenden Make File geändert wird, und sofort werden die aktuellen Sourcen z.B. des Apache über das Internet auf den eigenen Rechner übertragen. Die Ports Collection erlaubt es auch, vollautomatisiert in bestimmten Abständen, z.B. jede Nacht, Updates zu holen. Ein Systemadministrator kann das Update auf einem Rechner durchführen und dann per NFS auf alle BSD-Rechner in seinem Netz exportieren, was der Verwaltung einer größeren Menge von Servern sehr förderlich ist.

Sämtliche Open Source-Projekte, die man aus der Linux-Welt kennt, laufen ebenfalls auf den drei BSD-Varianten. Neben mehreren Tausend freien Applikationen lassen sich auch proprietäre binary-only Applikationen, wie z.B. WordPerfect oder eCommerce-Software, unter BSD betreiben.

Die BSD-Lizenz(239) ist gemäßigter als die GNU-GPL. Die Namen der Autoren und der Universität Berkeley muß auch in abgeleiteter Software genannt bleiben. Zugleich darf nicht mit dem Namen der Universität für das neue Produkt geworben werden. Abgeleitete Closed Source-Produkte sind erlaubt.

Unter den Benutzern von FreeBSD finden sich so illustre Namen wie Yahoo und Hotmail. Microsoft versucht seit dem Ankauf von Hotmail erfolglos, diesen kostenlosen eMail-Service auf NT-Server umzustellen. Der größte FTP-Server der Welt, mit 5-6.000 Nutzern gleichzeitig und einem Terra-Bit an täglichem Datendurchsatz ist ein FreeBSD-Rechner.(240)
 
 
 
 
 

Debian GNU/Linux

Debian(241) startet 1993, als Ian Murdock im Usenet zur Mitarbeit an einer neuen Linux-Distribution aufrief. Die Distributionen der Zeit litten noch an Kinderkrankheiten. Abhängigkeiten und Konflikte wurden nicht berücksichtigt. Zu Binärpaketen fand sich kein Quellcode. Fehler wurden in neue Versionen übertragen, obwohl bereits Korrekturen vorlagen. Die Lizenzen von Komponenten ließen sich nicht ersehen. Hier wollte Murdock und ein Dutzend Mitstreiter Abhilfe schaffen.

Bei Debian wie bei den anderen Distributionen steht nicht die Entwicklung von Software, sondern ihre Integration in ein stabiles Gesamtsystem im Vordergrund. Zentrales Instrument, um aus einer Anhäufung von Einzelelementen ein System zu komponieren, ist die Paketverwaltung. Sie protokolliert bei der Installation, welche Dateien zu einem Paket gehören, so daß sie sauber deinstalliert oder von neuen Versionen überschrieben werden können. Sie verhindert, daß konfligierende Programme installiert werden und daß Programme, die von anderen abhängen, nur mit diesen zusammen installiert werden (ein cron-Paket z.B. benötigt einen Mailserver, da es bei Fehlern eMails verschickt). Sie verwaltet Konfigurationsdateien, integriert Hilfedateien ins System und macht Shared Libraries dem System bekannt. Das Debian-Projekt erstellte also als erstes den Paketmanager dpkg. Weitere Programme (dselect, apt) holen die gewünschten Programme von FTP-Server oder CD, untersuchen sie auf Abhängigkeiten und Konflikte und übergeben sie dann an dpkg. Mit dem Programm alien lassen sich auch Pakete anderer Distributionen, wie RedHat oder Slackware, auf Debian installieren und umgekehrt.

Die Arbeit begann mit finanzieller Unterstützung der FSF. In den ersten drei Jahren baute Murdock das Projekt auf. Seither wird der Projektleiter jährlich aus den Reihen der Mitarbeiter gewählt. Es waren dies Bruce Perens, Ian Jackson, und seit 1999 Wichert Akkerman. Der Projektleiter übergibt die Verantwortung für die Betreuung einzelner Pakete, für Dokumentation, Lizenz- und Policy-Fragen, Webseiten, Mailingslisten usw. an andere Freiwillige. Das Debian-Team besteht aus weltweit etwa 500 Mitarbeitern im Alter von 13 bis 70 Jahren. Das Projekt ist offen für alle. Wer Lust hat, mitzuarbeiten, meldet sich einfach beim Debian-Team. Ein Paketbetreuer pflegt Pakete, die er selbst benutzt und gut kennt, und an deren Qualität er daher ein persönliches Interesse hat. Er verfolgt die Entwicklung in den jeweiligen Software-Projekten, wählt neue Versionen und neue Software aus, die in die Debian-Distribution aufgenommen werden, stellt sie zusammen, überprüft ihre Lizenzen daraufhin, ob die Programme in Debian aufgenommen werden können und spielt den Vermittler zwischen den Debian-Nutzern und den eigentlichen Software-Entwicklunsprojekten.

Die Pakete werden im Binärform und in einem Parallelverzeichnis im Quellcode in den Software-Baum eingefügt. Vor einer neuen Release wird ein Code-Freeze gemacht, d.h. der Software-Baum wird für Neueinträge gesperrt, der vorliegende Code wird debugged, was etwa zwei Monate dauert, und schließlich freigegeben. Das Debian-Team erstellt das Master-Image einer kompletten CD mit einem Umfang von 640 MByte und stellt es auf dem FTP-Server bereit. Im Interesse der Stabilität werden neue Versionen erst releast, wenn die Pakete die Richtlinien für die Organisation des Systems (die Policy(242)) erfüllen und alle kritischen Bugs behoben sind. Das Bug-Tracking-System beruht auf einem mehrstufigen eMail-Austausch, der im Web-Archiv(243) von jedem eingesehen werden kann. Neben den Mailinglisten verwendet die Debian-Community auch den Internet Relay Chat (IRC) als Kommunikationskanal.

Anders als bei anderen Linux-Distributionen steht hinter Debian keine Firma, die Werbung und Vetrieb übernimmt. Debian ist eine Projektgruppe unter dem Schirm der Software in the Public Interest (SPI), einer gemeinnützigen Firma, die dafür gegründet wurde, Spenden entgegenzunehmen, und die Domain und das Warenzeichen von Debian und anderen Projekten anzumelden.

Debian GNU/Linux ist die 'freieste', dem GNU-Projekt am nahesten stehende Linux-Distribution. Änlich wie das GNU-Projekt und im Gegensatz zu den anderen Linux-Distributionen ist Debian sehr darauf bedacht, ausschließlich Software unter freien Lizenzen aufzunehmen (z.B. schließt Debian aufgrund der problematischen Lizenz der Qt-Bibliothek die graphische Desktop-Umgebung KDE von seiner Distribution aus.(244)). Dafür ist ein Kriterienkatalog (die Debian Free Software Guidelines) erarbeitet worden, an dem Lizenzen überprüft werden (Unbeschränkte Weitergabe, Verfügbarkeit des Quellcodes, Modifikationsfreiheit, keine Diskriminierung von Personen und Gruppen, keine Diskriminierung von Einsatzbereichen usw.). Statt einer Lizenz regelt ein 'Gesellschaftsvertrag' (den Debian Social Contract(245)) das Verhältnis unter allen an Debian Beteiligten. Darin heißt es, daß Debian 100% freie Software bleiben wird, daß neue Komponenten als freie Software der Gemeinschaft zur Verfügung gestellt wird, daß Probleme nicht verborgen werden und daß den Anwender und der Gemeinschaft freier Software oberste Priorität zukommt. Da zugestanden wird, daß einige Debian-Anwender Programme einsetzen müssen, die nicht den Kriterien für freie Software genügen, wurde für solche Programme ein eigener Bereich non-free auf dem FTP-Archiv eingerichtet. Sie sind nicht Bestandteil des Debian-Systems (main), werden aber dennoch für eine Zusammenarbeit mit ihm aufbereitet und in der Bug-Datenbank und den Mailinglisten mitbehandelt. Das Debian-Team bemüht sich darum, daß die Lizenzen von solchen Programmen angepaßt werden und erzielte dabei auch schon einige Erfolge. Ein weiterer Bereich non-US enthält Kryptografie-Software, die in den USA besonderen Auflagen unterliegt. Zu den weiteren Projekten gehören Debian GNU/Hurd, das die gleichen Pakete, aber an Stelle von Linux als Kernel den GNU-Hurd verwendet und das Debian-Beowolf-Projekt, bei dem viele Rechner zu einem Cluster zusammengeschaltet werden. Aus Debian sind russische, französische, italienische und japanischen Distributionen hervorgegangen, und auch Corel hat seine Linux-Distribution auf Basis von Debian erstellt.

Debian GNU/Linux ist die Linux-Distribution mit der größten Anzahl von Binärpaketen (in der Version 2.1 "Slink"(246) waren es 1.500 Pakete, in der Version 2.2 "Potato" vom Frühjahr 2000 schon doppelt so viele(247)), der größten Anzahl unterstützter Architekturen (Intel, Alpha, 68000, Power-PC, Sparc, Arm, Amiga, Atari, RS/6000, UltraSparc), der größten Anzahl Mitarbeiter und der längsten Testphase vor einem Release.(248)
 
 
 
 
 

XFree86

Das X-Window-System wurde 1984 von Jim Gettys und anderen am MIT entwickelt und ist heute in der Linux- und Unix-Welt der Standard für die Basis von graphischen Benutzeroberflächen. Noch am MIT entstand unter Industriebeteiligung zu seiner Implementierung und Weiterentwicklung das X-Consortium, das 1986 die erste kommerzielle Version vorlegte. 1993 endete das universitäre Engagement, und die Technologie ging an das neugegründete X Consortium, Inc. mit weltweit über 60 Mitgliedsunternehmen über. Vier Jahre später übertrug dieses Gremium die Verantwortung für X-Window an das Open Group-Konsortium,(249) das ein breiteres Spektrum von Technologien standardisiert, testet und zertifiziert.

Als 1992 das MIT-X-Consortium die Version X11R5 veröffentlichte, war zum ersten Mal auch ein X-Server für PCs dabei: X386. Da er nicht sehr schnell und stabil war, begann eine kleine Gruppe sogleich, ihn weiterzuentwickeln. Am Anfang waren es vier Entwickler, die einige kleine Patches austauschten, und ein paar Tester. Die erste Release, die daraus folgte, hieß X386 1.2.E (E, wie erweitert). Da Linux einen wachsenden Bedarf nach einer Implementation des X-Windows-Systems für PC-basierte Unix-artige Systeme schuf, entstand daraus ein eigenständiges Projekt, das sich mit einem Wortspiel auf XThree86 "XFree86"(250) nannte. Linux und XFree86 haben sich gegenseitig vorangetrieben. Linux ist weitergekommen, weil es eine graphische Oberfläche gab, und XFree86 ist weitergekommen, weil es mit Linux eine frei verfügbare Plattform dafür gab.

Die XFree86-Gruppe hat seither etwa zwei bis vier Releases im Jahr herausgebracht. Im Juli 1999 erschienen zwei neue Versionen, die praktisch einsetzbare 3.3.4., die die 3.3.3.1 ersetzt, sowie die experimentelle 3.9.15, die auf ein fundamental neues Design zielt, das in XFree86 4.0 münden wird. Letztere ist noch nicht für den praktischen Einsatz geeignet, bietet aber einen Einblick in die laufenden Entwicklungspläne.

XFree86, das heute etwa zweieinhalb Millionen Code-Zeilen umfaßt, läuft auf einer breiten Palette von Prozessoren (Intel, Alpha, Sparc, Power-PC, dem Itzy, einem Handheld von Compaq, usw.) und Betriebssystemen (Linux, Realtime-Betriebssysteme wie QNX, OS/2, Minix usw.). Die Zahl der XFree86-Nutzer wird konservativ auf 12 bis 14 Millionen geschätzt.

Das Core-Team des Projekts besteht aus elf Personen, die die Entwicklung steuern und zu einem großen Teil selbst vornehmen, die Source-Verwaltung mit Hilfe von CVS machen und sich darum kümmern, was an neuen Funktionen aufgenommen wird. Mit etwa 600 Entwicklern weltweit ist XFree eines der größten freien Projekte.

XFree86 verwendet eine Lizenz,(251) die auf die ursprüngliche MIT-X-Window-Lizenz zurückgeht, die wiederum von der BSD-Lizenz abgeleitet, aber noch schwächer als diese ist. Sie erlaubt Verwendung, Verbreitung, Modifikation und Verkauf unter der einzigen Bedingung, daß der Copyright-Vermerk erhalten bleibt. Sie verzichtet insbesondere auf die Auflage (z.B. in der BSD-Lizenz), dieselben Freiheiten auch für abgeleitete Software zu gewährleisten und (z.B. in der GNU-GPL) den freien Code nicht in proprietären zu integrieren. Diese Lizenz ermöglichte einerseits, daß viele kommerzielle Unix-Systeme heute X-Server enthalten, die auf XFree86 basieren. Andererseits führte sie zu einer der traurigsten Episoden in der Geschichte der freien Software. Im April 1998 kündigte die Open Group eine geänderte Lizenzpolitik für X Window an. Die neue Version X11R6.4 wurde proprietär und nur für zahlende Kunden verfügbar.(252) Sogleich hielt die Open Group ausgerechnet einige Sicherheits-Bugfixes zurück. Für XFree86 wird damit eine Zusammenarbeit unmöglich. Es geht seinen eigenen Weg. Im September 1998 sieht sich die Open Group gezwungen, die Entscheidung zurückzunehmen und X11R6.4 wieder unter einer quelloffenen Lizenz freizugeben. Hintergrund war neben dem Protest vor allem, daß sich der Fokus der Entwicklung zu XFree86 verlagert hatte, und innerhalb des Konsortiums kaum noch jemand daran arbeitete. War das PC-X anfangs ein Anhängsel der 'großen, seriösen' Workstation-X-Entwicklung, hatte sich das Verhältnis inzwischen umgekehrt. Auch Jim Gettys, einer der Urväter von X, sieht heute XFree86 als die Gruppe, die die Entwicklung von X an sich weiter trägt.

Nach der Verzweigung gab es zwischen dem industriegestützten X-Window und dem freien XFree86 weiterhin Zusammenarbeiten, die jedoch an der zentralen Frage des geistigen Eigentums immer wieder zu Konflikten führte. Das Konsortiums-X-Window setzt auf das proprietäre Tookit Motif auf, und auch die darüberliegende Desktop-Umgebung CDE (Common Desktop Environment) ist nicht quelloffen. Das freie XFree86 'erbte' diesen integrierten Technologie-Stack aus X, Motif und CDE, was in der offenen Weiterentwicklung immer wieder zu Schwierigkeiten führte. Daher ersetzte es Motif 1997 durch LessTif, und als quelloffene Alternative zu CDE entstand KDE (s.u.). In dem freien Projekt GIMP (s.u.) entstand als weitere Alternative zu Motif die Toolkit-Library Gtk, auf der der Desktop Gnome beruht.

Im Mai 1999 gründete sich aus der Open Group die non-profit Organisation X.Org(253) als offizieller Verwalter der X Window System-Technologie. X.Org unterhält den technischen Standard und veröffentlicht (kostenlos) die offiziellen Beispielimplementationen. Bereits 1994 hatte die XFree-Gruppe eine Non-Profit Corporation gegründet, da nur Unternehmen Mitglied des X-Consortiums werden können. Das Konzept einer losen Gruppe von Entwicklern macht es schwierig, Kooperationen oder Verträge mit einzelnen Firmen oder Industriekonsortien abzuschließen. Non-profit bedeutet, daß sich das Untenehmen aus Spenden finanziert, die für Mitgliedschaften in Konsortien und Infrastruktur wie Hardware und Internet-Access verwendet werden. Das Unternehmen hat keine bezahlten Mitarbeiter. Im November 1999 wurde XFree86 dann zum Ehrenmitglied von X.Org

XFree86 ist ein Open Source-Projekt. Die Releases werden zusammen mit dem Quelltext freigegeben. Es ist wiederum die Zusammenarbeit mit Firmen, besonders den Herstellern von Grafikkarten, die das Projekt zu einem teilweise geschlossenen Entwicklungsmodell zwingt. Diese Firmen hüten ihre Hardware-Dokumentationen und geben sie meist nur unter einem Non-Disclosure Agreement heraus, wonach der Source-Code veröffentlicht werden darf, aber nicht die Dokumentation. Damit das XFree-Projekt seinen Entwicklern Zugang zu diesen Dokumentationen geben kann, müssen diese förmliche Mitglieder (Non-Voting Members) werden und sich zur Nichtweitergabe verpflichten. Die Freiheit wird dadurch gewährleistet, daß jeder Mitglied werden kann. Dennoch ergeben sich daraus zwei Klassen von Source Code: der Release-Code, der für jeden frei verfügbar ist, und die Internal Development Sources, die nur den offiziellen Mitgliedern zugänglich sind.

Core-Team-Mitglied Dirk Hohndel gesteht die Bedenken über die fehlende Absicherung der Freiheiten in der XFree86-Lizenz zu, die dazu führt, daß jemand ein kommerzielles Produkt daraus machen und die freie Software-Welt ausschließen kann. Tatsächlich sei XFree86 weiterhin der einzige X-Server für Linux. Die wenigen Anbieter proprietärer Produkte hätten im Markt nicht Fuß fassen können.
 

"Das zeigt, daß man in einem Open Source-Projekt rein mit der Qualität des Produkts, das man abliefert, dafür sorgen kann, daß für jemanden, der versucht, hier Closed Source zu gehen und daraus ein proprietäres Produkt zu machen, überhaupt kein Platz ist. Denn jeder der heute hingeht und dieses Projekt zumachen und daraus seine eigene Sache machen will, muß damit rechnen, daß wir all das, was er anbietet, auch anbieten. Wir bieten es mit Sourcen an und frei verfügbar."(254)
 
 
 
 
 

KDE

Die integrierten graphischen Arbeitsoberflächen von Desktop-Betriebssystemen wie MS-Windows oder Mac-OS haben wesentlich zur Popularisierung des PCs beigetragen. Unter Unix sind verschiedene Entwicklungen in diese Richtung unternommen worden. Eine davon, das Common Desktop Environment (CDE), hielt zusammen mit XFree86 und Motif Einzug in verschiedene Linux-Distributionen. Da CDE jedoch proprietär ist, kann es nicht nach dem Modell der freien Software weiterenwickelt werden. Als z.B. Red Hat 1998 Sicherheitsprobleme in CDE entdeckt, entfernt es den Desktop aus seiner Distribution, da er nicht quelloffen ist und somit diese Fehler nicht einfach behoben werden können.(255)

Hier setzt das K Desktop Environment (KDE)(256) an. Das Projekt wurde 1996 von Matthias Ettrich ins Leben gerufen. Die KDE 1.0 wurde im Juli 1998 freigegeben. KDE bietet ein konsistentes Look-and-Feel des Desktops und der darauf laufenden Applikationen, in dem sich jede Windows95- oder Mac-Nutzerin sofort zuhause fühlen wird. Eine Programmstartleiste erlaubt den Zugriff auf die Applikationen und auf die aktuell geöffneten Fenster. Drag-and-Drop wird unterstützt wo immer möglich. Der konfigurierbare Fenstermanager kwm unterstützt, wie in Unix üblich, mehrere virtuelle Desktops. Für die Konfiguration von Programmen bietet KDE graphische Dialoge. Der Dateimanager kfm fungiert gleichzeitig als Web-Browser, über den auch das umfangreiche HTML-basierte Online-Hilfesystem bedient werden und auf Dateien auf entfernten FTP- und WWW-Servern so zugegriffen werden kann, als lägen Sie in einem lokalen Dateisystem. Die Bildschirmtexte sind in über dreißig Sprachen internationalisiert, darunter Mazedonisch, Isländisch und Bretonisch. Alle Nicht-KDE-Applikationen für Unix laufen problemlos auf einem KDE-Desktop, und umgekehrt laufen die meisten KDE-Applikationen auch auf anderen Desktops.

Neben den eigenen Bibliotheken verwendet KDE die C++-Klassenbibliothek Qt der norwegischen Firma Troll Tech AS. Diese Entscheidung traf in der freien Szene auf Kritik, da Qt ein proprietäres Produkt war. Wie meistens, wenn eine nützliche, aber proprietäre Software eine freie Entwicklung verunmöglicht, finden sich Leute, die die betreffende Funktionalität von Grund auf neu schreiben, in diesem Fall das Projekt GNOME (1998). Der Desktop-Krieg zwischen KDE und GNOME(257) führte u.a. dazu, daß Troll Tech seine Lizenzpolitik änderte. Ab Ver. 2.0 liegt die quelloffene Version von Qt unter einer eigenen Lizenz, der Qt Public License (QPL), vor, die es für Open Source-Entwicklung auf Unix-Systemen zur freien Verfügung stellt und für kommerzielle Entwicklungen den Erwerb einer kommerziellen Lizenz vorschreibt. Die QPL hat die meisten Linux-Distributoren dazu veranlaßt, KDE in ihren Paketen aufzunehmen. Nur die in Bezug auf Lizenzpolitik sensibelste Distribution Debian schließt es weiterhin aus.(258) Die KDE-eigenen Bibliotheken und die KDE-Applikationen werden unter der Library GPL veröffentlicht. Das KDE-Manifest bekennt sich ausdrücklich zur kommerziellen Verwendung.(259)

KDE läuft auf einer Vielzahl von Unix-Systemen, darunter Solaris, Irix, HP-UX, AIX, Linux und den BSD-Varianten. Es ist Bestandteil von diversen Linux-Distributionen (darunter SuSE Linux, Caldera OpenLinux und DLD Linux). Die freie C-/C++-Entwicklungsumgebung KDevelop 1.0 wurde im Dezember 1999 offiziell freigegeben. Das für Herbst 2000 angekündigte KDE 2.0 soll u.a. Unterstützung für Java und JavaScript sowie für Unicode anbieten und das neue Paket K-Office enthalten.

KDE ist mit über zwei Millionen Codezeilen eines der umfangreichsten freien Projekte. Mehr als 200 Entwickler aus zahlreichen Ländern arbeiten aktiv daran mit, darunter Deutschland, Norwegen, USA, Kanada, Argentinien, Namibia und Australien. Die gesamte Entwicklung und Verwaltung findet über das Internet mit Werkzeugen wie Mailing-Listen, einem verteilten Versionskontrollsystem (CVS) und diversen frei verfügbaren Programmen zur Konfigurationsverwaltung statt. Das CVS lief anfangs an der Medizinischen Universität zu Lübeck und ist im Februar 2000 an die SourceForge (VA Linnux) in den USA umgezogen. Die verschiedenen Mailing-Listen laufen auf einem zentralen KDE-Server an der Universität Tübingen. Dazu gehören: eine Liste für Anwender, auf denen diese sich gegenseitig selbst helfen, die aber auch von den Entwicklern mitgelesen wird, um gegebenenfalls Hilfestellung leisten zu können; eine Liste für Entwickler, für die Schreibberechtigung auf Anfrage erteilt wird und die für Fragen rund um Entwurf und Entwicklung gedacht ist; eine Liste für die Autoren und Übersetzer der Dokumentation; eine Liste für Lizenzfragen und schließlich eine geschlossene Mailing-Liste, auf der das Kern-Team die allgemeine Richtung von KDE sowie Fragen des Marketings und der Öffentlichkeitsarbeit diskutiert. Aufnahme in das Kern-Team erfolgt aufgrund von fortwährenden Verdiensten um die Weiterentwicklung von KDE.

Laut Kalle Dalheimer, einem der Hauptentwickler, liegt einer der wichtigsten Gründe für den Erfolg von KDE, eine ständig wachsende Zahl engagierter Entwickler anzuziehen, in den Bibliotheken, die es möglich machen, attraktive, mit vielen Features versehene Applikationen zu schreiben, ohne umfangreiche Projektkenntnisse haben zu müssen. Viele Funktionen lassen sich mit nur wenigen Codezeilen integrieren. Damit macht KDE den Einstieg in die Programmierung von Anwendungen mit grafischer Benutzeroberfläche deutlich einfacher. KDE-Entwickler können die erforderlichen Kenntnisse zu einem großen Teil während der Arbeit an ihrem Teilprojekt erwerben, was natürlich viel motivierender ist, als sich erst lange mit den Strukturen vertraut machen zu müssen, bevor man in die eigentliche Entwicklungsarbeit einsteigen kann.(260)
 
 
 
 
 

Apache

1989 erfand Tim Berners-Lee am CERN das World Wide Web (WWW). Ursprünglich als Werkzeug für die Vernetzung der Informationsflut am europäischen Hochenergiephysikzentrum gedacht, mit öffentlichen Mitteln entwickelt und daher selbstverständlich Open Source, verbreiteten sich das HyperText Transfer Protocol (HTTP) und die Seitenbeschreibungssprache HyperText Markup Language (HTML) rasch im Internet. Das W3 brachte erstmals eine ähnliche Benutzerfreundlichkeit ins Internet, wie sie Fenster-und-Maus-Oberflächen auf dem PC einführten. Berners-Lee schrieb 1990 auch den ersten Web-Server und Client (Browser und Editor). Wenig später entwickelte ein Team unter Leitung von Rob McCool am National Center for Supercomputing Applications (NCSA) der Universität Illinois einen weiteren Webserver. Da ebenfalls mit Steuergeldern finanziert, war auch diese Software quelloffen und frei für Modifikationen. In den ersten Jahren des maßgeblich durch das Web-Format vorangetriebenen Internet-Booms war der NCSA-Webserver der meistverbreitete.

Als McCool das NCSA verließ, kam die Entwicklung des Servers ins Stocken. Viele Leute fingen an, eigenständig Fehler darin zu beheben und neue Funktionalitäten einzubauen, doch es fehlte eine Sammelstelle, die die neuen Elemente zusammenführte. Zu diesem Zweck gründete sich 1995 die Apache-Group.(261) Der Name "Apache" ist ein Wortspiel auf "A Patchy Server", der durch zahlreiche Patches veränderte Quellcode des NCSA-Servers. Die erste Version des Apache-Webservers wurde noch 1995 herausgegeben. Ein knappes Jahr später hatte der Apache den NCSA-Webserver von der Spitze verdrängt und war zum meistgenutzen Webserver im Internet geworden. 1998 erreichte der Apache einen Marktanteil von 50%. Im Juli 1999 hatte unter den Webserver im Internet Apache einen Anteil von knapp 62%, Microsoft von 22% und Netscape von etwas über 7%.(262)

Der Apache läuft derzeit auf allen gängigen Unix-Derivaten (Linux, BSD, Solaris, AIX, Irix usw.), auf Windows, Siemens BS2000 und Amiga. Er ist sehr stabil, auch für Mission critical-Anwendungen geeignet, leistungsfähig und hat einen großen Funktionsumfang. Der Apache benutzt ein modulares System. Der Kern stellt die wichtigsten Funktionen zur Verfügung, die ausreichen, um normale HTML-Seiten auszuliefern. Weitere Funktionen können in Form von Modulen ergänzt werden. Ein Großteil dieser Module ist schon bei der normalen Standarddistribution des Apache dabei. Derzeit gibt es gut hundert verschiedene Module für den Apache, angefangen von CGI und Protokollierungsfunktionen, die anzeigen, wieviele Leute eine Seite betrachtet haben, bis zu URL-Manipulationsroutinen und Server-side-Includes wie Java-Servlets. Drei eigenständige Projekte arbeiten unter dem Dach von Apache. Das PHP-Projekt(263) stellt das das PHP-Modul für die Datenbankanbindung ans Web zur Verfügung. Das mod_perl-Projekt(264) integriert einen Interpreter für Perl in den Apache. Ein ähnliches Modul gibt es auch für Python. Das Jakarta-Projekt(265) ist durch eine Kooperation mit Sun neu hinzugekommen und will einen Open Source Servelet Engine für den Apache zur Verfügung stellen. Die Entwickler sind zum Teil Mitarbeiter von Sun, zum Teil die Leuten, die bisher das freie JServ-Modul für den Apache entwickelt haben. Dieses Projekt wird, wie alle Projekte, die irgendwann dazu kommen, unter der Apache-Lizenz vertrieben werden. Mittlerweile gibt es einen großen Markt von Drittanbietern von Modulen für den Apache, einige davon quelloffen, andere proprietär.

Die Apache-Lizenz(266) entspricht der Open Source-Definition und ähnelt der von BSD. Der Quellcode ist frei verfügbar und kann ohne Lizenzgebühren sowohl für private, wie kommerzielle Zwecke eingesetzt werden. Es gibt nur zwei Einschränkungen. Wenn eine Firma den Apache modifiziert und weitervertreiben will, muß angegeben werden, daß das Produkt auf dem Apache basiert oder Teile davon in das Produkt eingefloßen sind, und dieses Produkt darf dann nicht Apache heißen. Die weiteren Einschränkungen der GPL, daß auch bei abgeleiteter Software der Quellcode mitvertrieben werden muß, gelten bei der Apache-Lizenz nicht.

Die Apache-Group (das Core Team) besteht derzeit aus 22 aktiven Mitgliedern, überwiegend aus den USA, aber auch aus Kanada, England, Neuseeland, Italien und drei von ihnen aus Deutschland. Lars Eilebrecht ist einer der drei. Das zentrale Kommunikationsmittel des Projekts ist eine einzige öffentliche Mailingliste mit oft mehr als hundert Mails pro Tag. Daneben gibt es Listen für Mitteilungen sowie interne Listen. Entwickelt wird das, wofür sich aktive Interessenten finden. Leute, die bestimmte Module entwickelt haben, fungieren meist als deren Maintainer.

Entscheidungen werden getroffen, indem auf der Mailingliste abgestimmt wird. Gibt es Gegenstimmen gegen eine bestimmte Veränderung der Software, "wird typischerweise das Problem, das jemand damit hat, behoben und, wenn der Patch dann für sinnvoll erachtet wird, irgendwann eingebaut. ... Bei Patches, die eine große Änderung darstellen, ist es typischerweise so, daß sich mindestens drei Mitglieder der Apache-Group damit beschäftigt haben müssen, das heißt, es getestet haben und dafür sein müssen, daß der Patch eingebaut wird. "(267)

Die Apache Software Foundation(268) wurde am 1. Juni 1999 gegründet. Es handelt sich um eine Not-for-Profit Corporation mit Sitz in Delaware, USA. Das Board of Directors der Apache Software Foundation setzt sich ausnahmslos aus Leuten der Apache-Group zusammen. Ziel der Stiftung ist es, Unterstützung für Open Source-Projekte in Form von Hardware, Netzanbindung und Connectivity bis hin zu finanzieller und rechtlicher Unterstützung anzubieten. Ähnlich wie bei XFree86 soll diese Rechtsform Verträge oder sonstige Vereinbarungen mit Firmen ermöglichen. Sie soll auch weitere Entwickler, vor allem Firmen, motivieren, sich an den Projekten zu beteiligen.

In der Apache-Group waren auch schon vor Gründung der Foundation mehrere Vertreter von Firmen beteiligt. Ein bekanntes Beispiel ist IBM, die den Apache in ihrem Produkt WebSphere einsetzen. Sie unterstützen die Entwicklung des Apache mit einem eigenen Apache-Development Team mit derzeit etwa 13 bis 14 Mitarbeitern. Auch Siemens liefert den Apache mit ihren BS2000 Systemen als Standard-Webserver aus und hat einen Mitarbeiter dafür abgestellt, dafür zu sorgen, daß Portierungsarbeiten vorgenommen werden, und darauf zu achten, daß zukünftige Versionen des Servers auf BS2000 lauffähig sind. Ein weiteres Beispiel ist Appel. Sie haben selber den Apache auf Rhapsody und dann auf Mac OS X portiert. Einer der Mitarbeiter, die dafür verantwortlich waren, wird Mitglied Apache Software Foundation werden.
 
 
 
 
 

GIMP

Das Projekt GIMP (GNU Image Manipulation Program)(269) ist mit dem Ziel gestartet, ein Bildbearbeitungsprogramm ähnlich Adobes Photoshop für Linux zu erstellen. Anfang 1995 begannen die beiden Informatikstudenten Peter Mattis und Spencer Kimball, die Basis des GIMP zu schreiben. Ein Jahr später stellten die beiden die Version 0.54 der Öffentlichkeit vor. Bereits in dieser frühen Version fand der GIMP so große Verbreitung, daß Mitte 1996 immer mehr Leute mitentwickeln und ihre eigenen Features einbauen wollten. Auf der GIMP-Mailingliste wurde der Rauschanteil immer höher, so daß die aktiven Entwickler sich in eine zweite Liste zurückzogen, die zwar immer noch öffentlich war, ihnen aber die Möglichkeit gab, nicht direkt sachdienliche Äußerungen auf die allgemeine Liste zu verweisen.

Als Window-Manager, der die Knöpfe, Fenster und anderen graphischen Bedienelemente zeichnet, wurde zunächst Motif verwendet. Der Quellcode für diesen proprietären Toolkit ist zwar erhältlich, aber zu einem Preis und unter Lizenzbedingungen, die es für ein freies Projekt ausschließen. Deshalb machten die beiden sich daran, ein eigenes Toolkit namens Gtk zu entwickeln. Als Grafik-Toolkit ist Gtk für alle Software unter X-Windows nützlich, weshalb die Motif-ersetzenden Routinen vom GIMP abgetrennt wurden und Gtk als eigenständiges Projekt weiterläuft. So verwendet auch das 1998 entstandene Projekt Gnome das Gtk-Toolkit.

Nach einigen nicht sehr stabilen Versionen erschien Anfang 1997 GIMP 0.99, der erstmals die Motif-Libraries durch Gtk ersetzte. Im selben Jahr wurde ein IRC-Server für die GIMP-Gemeinde eingerichtet. Auch Teilnehmer anderer Projekte treffen sich gern in Chat-Kanälen, aber GIMP ist eines der wenigen, das es als ein eigenständiges Kommunikationsmittel neben den Mailinglisten benutzt.

Wie mehrfach erwähnt scheuen es Entwickler, ihre Arbeit zu dokumentieren. Und gerade das bereits sehr komplexe GIMP bedarf eines Handbuches, um all seine Möglichkeiten auszuschöpfen. Zwei Benutzer, Karin & Olof S. Kylander, widmeten sich dieser Aufgabe und legten Mitte 1998 das zweihundertseitige GIMP Users Manual vor, das inzwischen auf 600 Seiten angewachsen ist. Es erscheint auch in gedruckter Form, ist aber weiterhin im Internet frei unter der OpenContent License verfügbar.(270)

Das Programm selbst steht unter der GPL. Die Schnittstelle stehen unter der LGPL, sodaß die Filter und andere Erweiterungen, die Firmen für GIMP oder Photoshop schreiben, in Binärform angeschlossen werden können, ohne daß der Quellcode dafür offengelegt werden muß.

Mitte 1998 erschien GIMP 1.0. Die lange Verzögerung nach Ver. 0.99 lag daran, daß die beiden ursprünglichen Entwickler ihren Universitätsabschluß machten und von der Bildfläche verschwanden, ohne das Projekt an Nachfolger übergeben zu haben. Aus der Konfusion schälten sich erst nach und nach Leute heraus, die fähig und willens waren, neue Versionen zu veröffentlichen. Im Frühjahr 1999 war die (instabile) Version 1.1 erreicht.

Ende 1998 begann Daniel Eggert, den GIMP zu internationalisieren, d.h. er übersetzte alle ursprünglich englischen Menüs ins Deutsche und stellte vor allem den Quellcode so um, daß man weitere Sprachen sehr einfach einbinden kann. Diese mühsame und verdienstvolle Arbeit tat er auf der Mailingliste kund, wo die Nachricht im Rauschen unterging. Enttäuscht über die Nicht-Reaktion beschloß er, sein eigenes GIMP-Projekt aufzumachen und Mitstreiter aufzufordern, mit ihm zusammenzuarbeiten. Die Aufspaltung bedrohte das Projekt als ganzes und hätte die Anwender verwirrt, welche Variante denn nun die bessere sei. Nach kurzer Zeit konnte der Split abgewehrt werden und Eggerts Änderungen wurden in das Hauptprojekt integriert.

Anders als die meisten Projekte verfügt GIMP über keine formelle Organisationsform, sei es eine Stiftung, ein Verein oder auch nur ein Core-Team. Wer auf den Mailinglisten hilfreiche Dinge äußert, gehört dazu. Ein formalisiertes Konfliktlösungsverfahren wie beim Apache gibt es nicht. Änderungen werden auch dann programmiert, wenn jemand nicht damit einverstanden ist -- und setzten sich dann durch oder nicht.(271)
 
 

Lizenzmodelle





Wie aus den vorangegangenen Projektbeschreibungen zu ersehen war, sind für freie Software die Lizenzen, also die vertraglichen Rechte und Pflichten, unter denen die Urheberrechtsinhaber ihre Werke veröffentlichen, von besonderer Bedeutung. Daher geht dieser Abschnitt näher auf die Dimensionen, die diese Lizenzen regeln, und einige wichtige Beispiele ein.

Software ist in Deutschland nach § 2 Abs. 1 Satz 1 UrhG urheberrechtlich geschützt. Dies betrifft insbesondere das Erstveröffentlichungsrecht (§ 12 UrhG). Die Autorin kann ihr Werk unter frei gewählten Bedingungen veröffentlichen, die in einer Lizenz, also einem Privatvertrag zwischen der Urheberin und dem Verwerter oder direkt dem Endnutzer, festgelegt werden. "Unter einer 'Lizenz' versteht man die Einräumung von Nutzungsrechten an Schutzrechten."(272) Die Modelle der freien Software umgehen das Urheberrecht nicht etwa oder verzichten auf seine Inanspruchnahme, sondern setzen darauf auf, um den offenen, kooperativen Prozeß der Erstellung und Weiterentwicklung abzusichern.

Bei der Installation einer Software, gleich ob frei oder unfrei, erscheint in der Regel auf einem der ersten Bildschirme ein langer Lizenztext. Im Falle von proprietärere Software steht darin, daß der Nutzer nicht etwa das Programm, sondern nur ein eingeschränktes Nutzungsrecht daran erworben hat, daß er maximal eine einzige Sicherungskopie erstellen darf, daß er das Programm nur auf einem einzigen Rechner installieren darf, daß er nicht versuchen wird, es zu reverse engineeren, daß der Hersteller keinerlei Haftung und Gewährleistung für sein Produkt übernimmt und dergleichen mehr. Diese in juristischen Fachbegriffen abgefaßten Texte liest normalerweise niemand, tatsächlich schließt man jedoch durch das Anklicken der Option "Akzeptieren" einen Vertrag.(273) Die gleiche Prozedur findet sich auch bei freier Software, nur daß die Vertragsbedingungen hier anders lauten.

In den sechziger Jahren war, wie bereits ausgeführt, alle Software in einem bestimmten Sinne frei. Ökonomisch war sie noch nicht zu einer Ware geworden, daher galt sie auch juristisch nicht als Werk, das den Schutz des Urheber-, rsp. Copyright-Rechts oder des Patentrechts genießen kann. Als 1969 der Marktführer IBM unter der Drohung einer kartellrechtlichen Zerschlagung begann, sein Bundling von Hard- und Software aufzugeben, war der Startschuß für die Entwicklung einer eigenständigen Software-Industrie gefallen.

Um die seit zwei Jahrzehnten ausstehende Revision des U.S. Copyright Law vorzubereiten und Richtlinien zu seiner Anwendung auszuarbeiten, berief der amerikanische Congress 1974 die CONTU (Commission on New Technological Uses of Copyrighted Works) ein. Wie der Name schon sagt, ging es vor allem darum, das Gesetz den Herausforderungen durch neue Technologien, vor allem durch Computer, anzupassen. Die CONTU empfahl, Computer-Programme zukünftig als 'literarische' Werke unter den Schutz des Copyright zu stellen.(274) Die grundlegende Copyright-Reform von 1976 folgte dieser Empfehlung, stellte jedoch eine spezifischere Computer-Copyright-Regulierung aus, bis die CONTU ihren Abschlußbericht vorlegen würde, was 1978 geschah. In der folgenden Revision von 1980 übernahm die U.S.-Legislative die CONTU-Vorlage wörtlich (mit einer folgenreichen Ausnahme(275)). Dem § 101 USCA wurde die Definition von 'Computer-Programm' hinzugefügt ("a set of statements or instructions to be used directly or indirectly in a computer in order to bring about a certain result.") Der neue § 117 USCA regelt die Ausnahmen von den ausschließlichen Rechten der Copyright-Inhaber von Computer-Programmen.(276)

Damit hatten ab 1976 Autoren und Firmen die Möglichkeit, ein Copyright auf ihre Software anzumelden. Dazu bringen sie einen Copyright-Vermerk (©, Jahr der Erstveröffentlichung, Name des Copyright-Besitzers) darauf an, müssen zwei Kopien bei der Library of Congress hinterlegen und können ihr Copyright beim Copyright Office gebührenpflichtig registrieren lassen. Eine Registrierung ist zwar keine Bedingung für den Copyright-Schutz, gilt jedoch als Nachweis im Streitfall und ist Vorraussetzung für Schadensersatzansprüche bei Copyright-Verletzungen.

Im selben Jahr veröffentlichte Bill Gates den bereits erwähnten Open Letter to Fellow Hobbyists, in dem er -- noch ohne Verweis auf das Copyright -- ein ökonomisch-moralisches Recht auf die Verwertung der eigenen Software einklagte: "As the majority of hobbyists must be aware, most of you steal your software. Hardware must be paid for, but software is something to share. Who cares if the people who worked on it get paid? Is this fair? ... One thing you do is prevent good software from being written. Who can afford to do professional work for nothing?"(277) Mit dem Copyright und ab 1981 auch dem Patenschutz für Software wurden die Auseinandersetzungen aus der öffentlichen Meinungarena in die Gerichtssäle getragen. In einem notorischen Fall wurde Microsoft zum Gegenstand eines langjährigen Urheberrechtsstreits. Apple hatte 1983 die am Xerox PARC entwickelte grafische Benutzeroberfläche mit Fenstern, Menüs und Maussteuerung als Erster auf den Massenmarkt gebracht. Das Windows, mit dem Microsoft 1985 nachzog, glich auffällig dem Apple-Desktop. Apple verklagte Microsoft, das Look & Feel des Macintosh plagiiert und damit gegen sein Copyright verstoßen zu haben. Das Verfahren endete erst 1995 mit einer Niederlage von Apple, das sofort erneut gegen das gerade erschienene Windows 95 klagte. Dieser Streit endete schließlich mit einem Vergleich.

Seit Mitte der siebziger Jahre werden Verbreitungsstücke von Computer-Programmen, anders als im Fall von Büchern, in der Regel nicht mehr verkauft, sondern lizenziert. Der Inhaber des Copyright oder in Europa der urheberrechtlichen Verwertungsrechte kann im Kauffvertrag und den Allgemeinen Geschäftsbedingungen die Konditionen und den Nutzungsumfang festlegen, unter denen er die Software seinen Kunden zur Verfügung stellt.

In Deutschland genossen Computer-Programme bis 1993 keinen wirkungsvollen gesetzlichen Urheberrechtsschutz. Seither sind Computer-Programme explizit dem Schutz für Sprachwerke (§ 2 Abs. 1 UrhG) unterstellt. Mit der Computer-Rechtsnovelle von 1993 ist eine Richtlinie des Europäischen Rates umgesetzt worden und die §§ 69a bis 69g "Besondere Bestimmungen für Computerprogramme" in das Urheberrechtsgesetz eingefügt worden. Zum Schutz von Datenbankherstellern folgten 1998 die §§ 87a bis 87e UrhG.(278)

Auf die aktuellen Entwicklungen im Bereich der kommerziellen Lizenzen wird am Ende dieses Abschnitts eingegangen. Hier sollen die Lizenzen der freien Software behandelt werden. Dazu ist es zunächst erforderlich, Free Software und Open Source Software von den benachbarten Konzepten Freeware, Shareware und Public Domain Software abzugrenzen, die häufig zu Verwirrung führen.(279) Wie die englischen Begriffe andeuten, stammen alle genannten Konzepte aus dem US-amerikansischen Kultur- und Rechtsraum. Auf die Übertragbarkeit von free software und open source auf die deutschen Rechtsverhältnisse wird unten eingegangen.

Shareware ist copyright-geschützte Software, die von ihrem Autor (in der Regel ohne Quellcode und ohne Veränderungsmöglichkeit und -Erlaubnis) kostenlos, aber mit der verbindlichen Bitte veröffentlicht wird, ihm bei regelmäßiger Nutzung des Programms einen bestimmten oder beliebig höheren Geldbetrag zukommen zu lassen. Da sie dem Nutzer erlaubt, das Programm weiterzugeben und auszuprobieren, bevor er es in täglichen Gebrauch nimmte, überschneidet sich die Kategorie mit der Demoware, aka Crippleware, die einen gegenüber der Vollversion eingeschränkten Leistungsumfang bietet.

Freeware ist copyright-geschützte Software, die von ihrem Autor (in der Regel ohne Quellcode und ohne Veränderungsmöglichkeit und -Erlaubnis) kostenlos, frei weitergebbar und oft ohne Lizenzbedingungen veröffentlicht wird.(280)

Public-Domain-Software schließlich ist nicht copyright-geschützt,(281) entweder weil sie gesetzlich nicht schützbar ist(282) oder weil der Autor auf sein Copyright verzichtet,(283) dieses verfallen oder aus formalen Gründen verwirkt worden ist. Das Werk (mit oder ohne Quellcode) wird dadurch gemeinfrei. Jede Nutzung bis hin zur Beanspruchen eines Copyrights durch einen Dritten ist zulässig.

Free software und das jüngere Konzept der open source software unterscheiden sich dadurch von den genannten drei Kategorien, daß sie das Copyright/Urheberrecht der Autoren in Anspruch nehmen und zugleich in ihren Lizenzen spezifische Nutzungsfreiheiten festschreiben. Die Details variieren, doch die drei zentralen Punkte, die von den verschiedenen Lizenzen geregelt werden, betreffen die Beifügung des Quellcodes zum Binärcode der Software, das Recht, Kopien anzufertigen und weiterzugeben und das Recht, die urpsprüngliche Software zu modifizieren und die abgeleitete Software zu verbreiten.
 
 
 

BSD-Lizenz

Eine der ersten Quellcode-Lizenzen war diejenige, unter der AT&T sein Unix an Universitäten verkaufte. Sie ging auf eine Lizenz zurück, unter der die Bell-Labs Telefonherstellern Software zur Verfügung stellten. Diese Firmen durften AT&Ts Software benutzen und auch modifizieren, aber sie nicht weiterverbreiten. Das gleiche Lizenzmodell findet man im frühen Unix.(284)

Als die Berkeley Universität begann, Unix-Versionen zu verbreiten, die eigenen Code zusammen mit dem von AT&T enthielten, erarbeiteten die Anwälte von AT&T und der Universität 1979 zu diesem Zweck eine Lizenz.(285) Sie beginnt mit einem Copyright-Vermerk und erlaubt die Verwendung und Weiterverbreitung der Software in Quell- und Binärform, mit oder ohne Veränderungen, solange der Copyright-Vermerk und der Lizenztext mitverbreitet wird, in allen Werbematerialien der Satz "This product includes software developed by the University of California, Berkeley and its contributors" genannt und der Name der Universität und seiner Kontributoren nur mit schriftlicher Genehmigung verwendet wird, um für abgeleitete Software Werbung zu machen. Schließlich folgt ein auch in proprietärer Software üblicher Passus, in dem alle Garantie- und Haftungsansprüche, die sich aus der Verwendung der Software ergeben könnten, zurückgewiesen werden.(286)

Diese einfache freie Software-Lizenz hat die Lizenzen einer Reihe anderer Projekte, wie das MIT-X-Window System, XFree86 und Apache inspiriert und wird heute noch im Wesentlichen unverändert von den freien BSD-Versionen verwendet. Sie enthält jedoch eine Unklarheit und ein praktisches Problem. Sie schreibt nicht explizit vor, daß abgeleitete Software ebenfalls im Quellcode verfügbar sein muß. Sie muß zwar unter dieselbe Lizenz gestellt werden, insofern vererbt sich auch die Freiheit, die abgeleitete Software im Quellcode weiterverbreiten zu dürfen, doch was geschieht, wenn eine Firma die Quellen für ihre Erweiterungen gar nicht erst veröffentlicht, läßt der Text offen.

Das praktische Problem ergibt sich aus der Advertising Clause. Da eine ganze Reihe anderer Projekte diese Klausel übernahmen und die Berkeley Universität durch ihren Namen ersetzten, muß jede Werbung für eine Kompilation solcher Programme eine entsprechend große Zahl dieser Hinweise enthalten. In einer NetBSD-Version von 1997 zählte Richard Stallman 75 Programme, deren Lizenzen jeweils die Angabe eines solchen Satzes vorschrieben. Stallman überzeugte den Rektor der Berkeley Universität von dem Problem, so daß die BSD-Lizenz ab 1999 diese Klausel nicht mehr enthält.(287)

In der BSD-Lizenz kamen zwei Faktoren zusammen. Zum einen durfte AT&T, als Privatunternehmen, dem der Staat ein Monopol in der Telegrafie und Telefonie zugewiesen hatte, sich aus kartellrechtlichen Gründen nicht in andere Wirtschaftsbereiche ausweiten. Es konnte also bis 1984 Unix und andere Software nicht als eigenständige Ware vermarkten. Zum anderen herrscht in den USA die Auffassung, daß die Ergebnisse öffentlich finanzierter Forschung und Entwicklung der Allgemeinheit gehören. Auch die Berkeley Universität wäre daher nicht in der Lage gewesen, ihre Unix-Entwicklungen kommerziell zu vertreiben. Die BSD-Lizenz bekräftigte insofern nur Rechte, die die Allgemeinheit nach vorherrschender Rechtsauffassung ohnehin hat, fixierte das ab 1976 möglich gewordene Copyright an Berkeley-Software und verhinderte, daß ein Dritter diese Software geringfügig veränderte und unter restriktiven Konditionen weiterverbreitete. Berkeley-Code und alle darauf aufbauende Software sollte immer frei weitergebbar und modifizierbar bleiben.
 
 
 

GNU General Public License
 

"To copyleft a program, first we copyright it; then we add distribution terms, which are a legal instrument that gives everyone the rights to use, modify, and redistribute the program's code or any program derived from it but only if the distribution terms are unchanged. Thus, the code and the freedoms become legally inseparable."(288)
 

Im neu entstehenden Software-Markt der späten Siebziger herrschte im Gegensatz dazu eine nachgerade paranoische Haltung. Jeder Käufer erschien den Firmen als potentieller 'Pirat'. Das ihnen gerade zugestandene Copyright schien ihnen nicht ausreichend, so daß sie selbst die ausführbaren Binärversionen ihrer Software nur herausgaben, wenn ihre Kunden eine Vertraulichkeitsvereinbarung (Nondisclosure Agreement, NDA) unterzeichneten.(289) Das war allenfalls praktikabel, solange sie es mit einer überschaubaren Zahl von Industriekunden zu tun hatten. Mit dem PC etablierten sich die sog. Massenmarktlizenzen, auf die am Ende dieses Kapitels eingegangen wird. Den Quellcode hüteten sie ohnehin als Handelsgeheimnis. Veränderungen durch die Nutzer sollten verhindert werden. Eine kooperierende Community wurde verboten. Die Regel, die die Eigentümer proprietärer Software etablierten, lautete: "If you share with your neighbor, you are a pirate. If you want any changes, beg us to make them."(290)

Die Hacker der ersten und zweiten Generation reagierten auf diese Entwicklung, indem sie ihre Software in die Public Domain stellten oder indem sie zwar ein Copyright dafür anmeldeten, sie aber als Freeware deklarierten, meist ohne sich weitere Gedanken über die Details einer Lizenz zu machen, wenn sie nicht gar ins Lager der proprietären Software wechselten.

Eine, wenn man so will, fundamentalistische Reaktion war die von Richard Stallman. 1984 startete er das GNU-Projekt. Er schrieb viel Software, doch seine wohl folgenreichste Erfindung ist das Copyleft.(291) Als Betriebssystementwickler dachte er nicht nur über die technischen Grundlagen von Software nach, sondern näherte sich auch ihrem rechtlichen Status auf tiefgreifendere Weise als die Verfasser anderer freier Lizenzen. In Zusammenarbeit mit juristischen Beratern der FSF, wie dem Columbia-Professor für Recht und Rechtsgeschichte Eben Moglen,(292) entstand daraus die GNU General Public License (GPL).(293)

Die Präambel der GPL beginnt mit der Feststellung: "The licenses for most software are designed to take away your freedom to share and change it. By contrast, the GNU General Public License is intended to guarantee your freedom to share and change free software -- to make sure the software is free for all its users." Um sicherzustellen, daß die Software auch in Zukunft frei bleibt, unterliegen die Freiheiten Bedingungen ("restrictions that forbid anyone to deny you these rights or to ask you to surrender the rights"), und das Hinzufügen weiterer Restriktionen wird untersagt. Die Freiheiten und ihre Bedingungen umfaßen im einzelnen:
 

  1. Die Freiheit, das Programm auszuführen (Ziff. 0).(294)
  2. die Freiheit, den Quellcode des Programms wörtlich zu kopieren und zu verbreiten, sofern der Copyright-Vermerk und die Lizenz mit kopiert und verbreitet wird. Die Erhebung einer Gebühr für die physikalische Übertragung einer Kopie und für andere Dienstleistungen, wie eine Gewährleistung, wird ausdrücklich zugestanden (Ziff. 1).
  3. die Freiheit, das Programm zu verändern und diese veränderte Version zu kopieren und zu verbreiten, sofern das abgeleitete Werk Angaben über die Änderung enhält und gebührenfrei und unter denselben Lizenzbedingungen(295) veröffentlicht wird, wie das ursprüngliche Programm. Von der Bedingung ausgenommen sind Teile des veränderten Programms, die unabhängige Werke darstellen und separat verbreitet werden (Ziff. 2).
  4. die Freiheit, das Programm oder abgeleitete Versionen in Objektcode oder ausführbarer Form zu kopieren und zu verbreiten, sofern der dazugehörige maschinenlesbare Quellcode oder ein schriftliches, mindestens drei Jahre gültiges Angebot, diesen Quellcode auf Anfrage bereitzustellen, beigefügt ist (Ziff. 3).

  5.  
Die weiteren Sektionen der GPL betreffen den Verfall der Lizenzrechte durch Verstöße (Ziff. 4.), das Verbot, den Empfängern der Software irgendwelche weitergehende Restriktionen aufzuerlegen (Ziff. 6.), Konflikte mit anderen (z.B. Patent-) Ansprüchen, die dazu führen können, daß das Programm nicht weiterverbreitet werden darf (Ziff. 7), mögliche landesspezifische Restriktionen, die dazu führen können, daß diese Länder von der Verbreitung des Programms ausgeschlossen werden (Ziff. 8), mögliche Änderungen der GPL durch die FSF (Ziff. 9) und schließlich den üblichen Gewährleistungs- und Haftungsauschluß, in dem Maße es das anwendbare Recht zuläßt(296) (Ziff. 11 und 12).

Sektion 5 erläutert, wie dieser Lizenzvertrag zwischen Copyright-Inhaber und Nutzer zustande kommt. Darin heißt es, durch die Veränderung oder Verbreitung des Programms oder abgeleiteter Werke zeige der Nutzer seine Einwilligung in die Lizenzbedingungen an. Sektion 10 eröffnet den Copyright-Inhabern die Möglichkeit, zu entscheiden, ob sie erlauben wollen, daß Teile ihres Programms in andere freie Programme integriert werden, die nicht unter der GPL stehen. Grundsätzlich ist eine enge Kopplung von GPL-Software nur mit anderer Software zugestanden, die ebenfalls unter der GPL steht.(297) Diese Sektion erlaubt Ausnahme nach Einzelfallentscheidung durch die Copyright-Inhaber. Die Kopplung von GPL-Software mit Software-Bibliotheken, die nicht im Quelltext veröffentlicht werden, regelt eine eigenständige Lizenz, die LGPL (s.u.).
 

Stallmans Ziel mit dieser juristischen Konstruktion war es nicht, Software einfach zu verschenken (wie es bei Freeware oder Public Domain Software geschieht; er betont, daß GNU nicht in der public domain sei, was es erlauben würde, alles damit zu machen, auch die weitere Verbreitung zu beschränken), sondern systematisch einen Bestand an nützlicher Software aufzubauen, der für alle Zeiten (genauer: für die Laufzeit der Schutzfrist des am längsten lebenden Urhebers) frei bleiben wird.

Das klingt nach einem ideologischen, utopistischen Programm. Tatsächlich sind die Beweggründe dahinter ganz pragmatisch: Techniker wollen Dinge erledigen und Probleme lösen, ohne daran durch legalistische Mauern gehindert zu werden. Sie hassen Redundanz. Wenn jemand anderes ein Problem gelöst hat, wollen sie nicht die gleiche Arbeit noch einmal machen müssen. Sie wollen ihr Wissen mit anderen teilen und von anderen lernen, und nicht durch NDAs, ausschließende Lizenzen oder Patente daran gehindert werden.

In juristischen Begriffen gesprochen gewährt die GPL auf des Basis des Ausschließlichkeitsrecht des Urhebers ein bedingtes einfaches Nutzungsrecht an jedermann. Die Bedingungen werden in der GPL formuliert. Verstößt ein Lizenznehmer gegen sie, verfallen die Nutzungsrechte automatisch und die Verbotsrechte von Copyright- rsp. Urheberrecht treten wieder in Wirkung.

Die wichtigste Bedingung besteht darin, daß die von einer unter der GPL stehenden Software abgeleiteten Programme ebenfalls unter der GPL stehen müssen. Ziel dieser häufig als 'infektiös' oder 'viral' bezeichneten Klausel ist es, eine Privatisierung von kollektiv erzeugtem Wissen zu verhindern und den Gesamtbestand an freier Software beständig zu erweitern. Sie hat verschiedene Aspekte. Verbesserten Versionen von GPL-Software dürfen nicht anders denn als Free Software verbreitet werden. Die MIT-X-Window-Lizenz, der dieser Vererbungsmechanismus fehlt, führte dazu, daß Firmen die Software auf neue Hardware portiert und proprietär geschlossen, d.h. dem offenen kooperativen Entwicklungsprozeß entzogen haben. Wenn Programmierer GPL-Software um eigene oder Werke Dritter, die unter einer unfreien Lizenz stehen, erweitern, kann das Gesamtwerk nur die Freiheiten der restriktivsten Lizenz gewähren. Da die freie Software-Bewegung nicht bereit ist, mögliche technische Vorteile durch den Verzicht auf Freiheiten zu erkaufen, untersagt sie dies. Programmierern, die bei Firmen oder Universitäten angestellt sind und ihre Verbesserungen an die Community zurückgeben möchten, sagt ihr Arbeitgeber nicht selten, daß er ihre Werke zu einem proprietären Produkt machen will. Erfährt er jedoch, daß die Lizenz das nicht zuläßt, wird er die verbesserte Software gewöhnlich unter der GPL freigeben, statt sie wegzuwerfen.(298)

Da der GPL häufig eine antikommerzielle Ausrichtung unterstellt wird, ist die meistgehörte Erläuterung, daß Freiheit im Sinne von Redefreiheit, nicht von Freibier gemeint ist. In der Präambel heißt es "When we speak of free software, we are referring to freedom, not price. ... the freedom to distribute copies of free software (and charge for this service if you whish)..." In Ziff. 1 S. 2 wird die Gebührenerhebung für Dienstleistungen im Zusammenhang mit freier Software ausdrücklich zugestanden: You may charge a fee for the physical act of transferring a copy, and you may at your option offer warranty protection in exchange for a fee." Während es von abgeleiteten Werken explizit heißt, daß ihr Autor sie "at no charge" an jedermann lizenzieren muß (Ziff. 2 b), enthält die GPL keine derartige Aussage über die Verbreitung unveränderter Kopien. Daß über die genannten Dienstleistungen hinaus für die Lizenzierung der Nutzungsrechte allein keine Gebühr erhoben werden darf, wird nirgends expliziert, kann jedoch wohl konkludent angenommen werden.

Nicht nur die Free Software Foundation selbst, sondern viele andere Programmierer sehen in der GPL den besten Mechanismus, um die freie kooperative Weiterentwicklung ihrer Werke zu sichern. So entsteht seit 1984 eine freie Parallelwelt zur proprietären Software, die es heute erlaubt, alles mit einem Computer zu tun, was man möchte, ohne sich den Zumutungen der Unfreiheit aussetzen zu müssen. In der Gesamtschau ist es keine Übertreibung, die GPL als den größten Hack der Wissensordnung zu bezeichnen, seit britische Verlegergilden das Urheberrecht erfanden.
 
 
 
 
 

GPL und deutsches Recht

Die GPL ist, wie die meisten der hier behandelten Lizenzen, im US-amerikanischen Rechtsraum formuliert worden. Dort ist sie bislang ebenfalls noch nicht gerichtlich überprüft worden, hat aber doch in zahlreichen Fällen zu außergerichtlichen Einigungen mit Software-Unternehmen geführt.(299) Zwar betont Stallman, daß sie den in den Beitrittsländern verbindlichen Auflagen des Berner Urheberrechtsübereinkommens genüge, dennoch ist zu überprüfen, ob sie auch unter den deutschen Rechtsbedingungen einen gültigen Lizenzvertrag darstellt. Hier wird auf die GPL näher eingegangen, da sie vergleichsweise komplexe Regelungen enthält und in der deutschen Rechtsliteratur einige Würdigung erfahren hat. Für die anderen Lizenzen mit sinngemäßen Regelungen gilt gleichermaßen das hier über die GPL Gesagte.

Die Autorin hat auch nach dem deutschen Urherbergesetz (UrhG) ein Ausschließlichkeitsrecht an ihrem Werk, demzufolge sie über seine Veröffentlichung und Verwendung entscheiden kann. Die Kernpunkte der GPL lassen sich ohne weiteres auf das deutsche Urheberrecht abbilden.(300) Die Autorin kann verfügen, daß ihre Software von anderen auf einzelne oder alle Nutzungsarten genutzt werden darf (§ 31, Abs. 1, 2 UrhG, Einräumung von Nutzungsrechten). Dies kann das Vervielfältigungsrecht (§ 16 UrhG), das Verbreitungsrecht (§ 17 UrhG) und das Recht auf Bearbeitungen und Umgestaltungen (§ 23 UrhG) umfassen.

Die Frage, ob durch den impliziten Mechanismus der Ziff. 5 GPL ("By modifying or distributing the Program (..), you indicate your acceptance of this License.") überhaupt ein Vertrag zwischen Urheber und Software-Nutzer zustande kommt, wird von Metzger/Jaeger bejaht. Es handle sich um einen Lizenzvertrag, "den der Nutzer durch die Verwertungshandlungen konkludent annimmt, wobei es eines Zugangs dieser Annahmeerklärung an den Urheber gem. § 151 S.1 BGB nicht bedarf."(301) Siepmann dagegen hält diese automatische Einverständniserklärung für eine Fiktion. "Die Schutzrechte des Urhebers hängen nicht davon ab, ob die Lizenz anerkannt wird."(302) Allerdings behaupt die GPL auch gar nicht, daß die Schutzrechte erst durch das Einverständnis entstehen auf diese wird durch den Copyright-Vermerk am Anfang unmißverständlich hingewiesen. Die Frage scheint vielmehr, ob die Gewährung der Nutzungsrechte und vor allem die daran geknüpften Bedingungen, auf diese Weise vertraglich bindend werden. Auf diesen Punkt wird am Ende des Kapitels bei den Massenmarktlizenzen eingegangen. Auch im folgenden Abschnitt, demzufolge der Empfänger bei jeder Weitergabe des unveränderten und jedes abgeleiteten Programms automatisch eine Lizenz vom Urheber erhält, sieht Siepmann eine Fiktion, die im deutschen Recht keinen Sinn habe.(303)

Die Verknüpfung der Nutzungsrechte an bestimmte Bedingungen (den Quellcode zugänglich zu machen, abgeleitete Werke wiederum unter die GPL zu stellen, Änderungen an Dateien kenntlich zu machen), deren Nichterfüllung den Vertrag automatisch auflöst (Ziff. 4: "Any attempt otherwise [anders, als in der GPL explizit zugestanden] to copy, modify, sublicense or distribute the Program is void, and will automatically terminate your rights under this License"), halten Metzger/Jaeger als ein bedingtes Nutzungsrecht i.S.d. § 158 BGB ebenfalls für rechtsgültig. Diese auflösende Bedingung gelte auch für zukünftige abgeleitete Werke, wie die Möglichkeit einer Vorausverfügung des § 40 UrhG zeige. Siepmann hält diesen Abschnitt für rechtlich größtenteils überflüssig.(304)

Die größten Unterschiede zwischen Copyright und Urheberrecht betreffen die Urheberpersönlichkeitsrechte. Während das Recht des Urhebers auf Namensnennung (§ 13 UrhG) durch die Verpflichtung zur Beibehaltung der Copyright-Vermerke in Ziff. 1 und zur Angabe von Veränderungen in Ziff. 2 a) GPL gewahrt wird, scheint der Integritätsschutz des § 14 UrhG problematischer. Danach kann der Urheber Entstellungen und andere Beeinträchtigungen seines Werkes verbieten. Zwar muß ein Bearbeiter nach Ziff. 2 a) GPL seine Änderungen an den entsprechenden Dateien kenntlich machen, dennoch ist der Fall vorstellbar, daß die Verbreitung einer entstellten Version eines Programms zu einer Rufschädigung des Autors der ursprünglichen Version führt. Dies wiegt umso schwerer, als die Ehre, die sich Programmierer für die Qualität ihres Codes in der Community erwerben können, eine nicht unmaßgebliche Motivation darstellen. In diesem Fall könnte nach deutschem Recht der ursprüngliche Autor die Verbreitung der abgeleiteten Software verbieten. Metzger/Jaeger kommen zu dem Schluß, "daß es trotz der weitreichenden Freistellung der Open Source Software durch die GPL für den Bearbeiter bei dem Risiko bleibt, sich in Ausnahmefällen einem Verbot des Urhebers auf der Grundlage des § 14 UrhG gegenüberzusehen."

Mögliche Konflikte ergeben sich aus Ziff. 9 GPL, in der die FSF mögliche überarbeitete oder neue Versionen der GPL ankündigt und die Option eröffnet, ein Programm unter eine bestimmte und "any later version" der GPL zu stellen. Der Lizenznehmer könne dann wählen, ob er den Bedingungen der spezifizierten oder der jeweils aktuellen Version folgt. Wird keine Versionsnummer angegeben, kann er eine aus allen je veröffentlichten Versionen wählen. Von der Unsicherheit abgesehen, in welchen Vertrag man eigentlich genau eingewilligt hat, lassen sich Konflikte mit § 31 Abs. 4 UrhG vorstellen: "Die Einräumung von Nutzungsrechten für noch nicht bekannte Nutzungsarten sowie Verpflichtungen hierzu sind unwirksam." Theoretisch sind neue Nutzungsarten denkbar, die in früheren Versionen der GPL nicht expliziert sind und daher Verbotsrechte von Urhebern wirksam werden lassen. Die in Ziff. 9 GPL zumindest implizierte (wenn auch durch die Wahlfreiheit des Lizenznehmers aufgeweichte) Vorausverfügung ist also nach deutschem Recht nicht zulässig. Das Problem kann vermieden werden, indem Autoren die Versionsnummer der GPL, unter der sie ihr Werk veröffentlichen wollen, angeben.

Problematischer stellt sich der generelle Gewährleistungsauschluß (Ziff. 11) -- "to the extent permitted be applicable law" -- und der Haftungsausschluß (Ziff. 12) dar. Bei einem deutschen Lizenznehmer wird das deutsche Recht wirksam, das unabhängig von der vertraglichen eine gesetzliche Haftung(305) vorschreibt, die nicht durch Erklärungen geändert werden kann. Die schuldrechtlichen Fragen sind im Vertragsrecht (BGB) und im Allgemeinen Geschäftsbedinungs-Gesetz (AGBG) geregelt. Hier kommen Siepmann und Metzger/Jaeger zu dem übereinstimmenden Schluß, daß beide Ausschlüsse unwirksam sind. Sie verstoßen gegen die absoluten Klauselverbote des § 11 AGBG. Salvatorische Klauseln wie "Schadensersatzansprüche sind ausgeschlossen, soweit dies gesetzlich zulässig ist" sind nach § 2 Abs. 1 Nr. 2 AGBG unwirksam.(306) Wenn die Nutzungslizenz unentgeltlich eingeräumt wird (eine Schenkung gem. § 516 BGB ist(307)), "ist die Haftung gem. § 521 BGB auf Vorsatz und grobe Fahrlässigkeit beschränkt, die Gewährleistungspflicht für Sach- und Rechtsmängel gem. §§ 523, 524 BGB auf arglistig verschwiegene Fehler."(308) Wird die Software kommerziell in einer Distribution oder vorinstalliert auf einem Rechner vertrieben, sehen Metzger/Jaeger und Siepmann die Anwendbarkeit des Kaufgewährleistungsrechts gegeben.(309) Ob auch das Produkthaftungsgesetz, das sich ausdrücklich nur auf körperliche Gegenstände bezieht, zur Anwendung kommt, ist umstritten. Fielen auch Computer-Programme darunter, würde hiernach eine Haftung sogar unabhängig vom Verschulden bestehen.(310)

Die Gültigkeit der GPL ist weder in Deutschland noch in den USA oder in irgendeinem anderen Land bisher gerichtlich überprüft worden. Konflikte sind in allen Fällen außergerichtlich beigelegt worden (s.u.). Dennoch ist nach der Interpretation der Rechtslage davon auszugehen, daß sich Entwickler, die ihre eigene Software unter die GPL stellen oder sich an GPL-Projekten beteiligen, ebenso wie Endnutzer freier Software ihrer Freiheiten sicher sein können. Vorsicht ist jedoch bei möglichen Haftungsansprüchen geboten. Hier kommt den Autoren und besonders den Distributoren ein Sorgfaltspflicht zu. Sie sollten sich über die Herkunft der verbreiteten Programme, ihre Qualität und mögliche Fehler kundig machen und bei Bekanntwerden von Mängeln ihre Kunden unterrichten. Bei Vernachlässigung ist davon auszugehen, daß sie für überschriebene Dateien, gelöschte Festplatten oder Schäden durch trojanische Pferde haftbar gemacht werden können.
 
 
 

Library GPL

Die GNU Library General Public License(311) der FSF datiert von Juni 1991. Die Präambel erläutert zunächst die GPL und betont, daß die Leserin ihre Software, Bibliotheken eingeschlossen, unter dieser Lizenz ausschließlich für andere freie Programme nutzbar machen kann. Dann führt sie die LGPL als Spezialfall einer Lizenz für "certain designated libraries" ein, und betont, daß sie sich erheblich von der gewöhnlichen GPL unterscheide. Die LGPL erlaubt die Verwendung von freien Software-Bibliotheken in proprietären Programmen. Als Grund für eine separate schwächere Lizenz gibt die Präambel an, daß einige Bibliotheken die Unterscheidung zwischen Veränderung von Software und ihrem einfachen Gebrauch verschwimmen lassen. "Linking a program with a library, without changing the library, is in some sense simply using the library, and is analogous to running a utility program or application program. However, in a textual and legal sense, the linked executable is a combined work, a derivative of the original library, and the ordinary General Public License treats it as such." M.a.W., Ein Programm, das eine Bibliothek unter der GPL linkt, muß selbst ebenfalls unter der GPL stehen. Die libgcc (die mit dem GNU C Compiler verbundene C-Runtime-Bibliothek) stand ursprünglich unter der GPL. Daher mußte jedes Programm, das mit der libgcc gelinkt wird, d.h. im wesentlichen jedes Programm, das mit dem gcc kompiliert wurde, wiederum unter der GPL stehen. Da dies die Verwendung des Compilers für viele Entwickler ausschloß, entwickelte die FSF die weniger restriktive LGPL.

Der dahinterliegende Grund ist ein strategischer. "Because of this blurred distinction, using the ordinary General Public License for libraries did not effectively promote software sharing, because most developers did not use the libraries. We concluded that weaker conditions might promote sharing better. [...] This Library General Public License is intended to permit developers of non-free programs to use free libraries, while preserving your freedom as a user of such programs to change the free libraries that are incorporated in them. [...] The hope is that this will lead to faster development of free libraries."(312)

Sehr viel deutlicher äußert sich Stallman zu dieser strategischen Entscheidung in der Begründung für den Namenswechsel von 'Library GPL' zu 'Lesser GPL' im Februar 1999 (s.u.). Dort schreibt er: "free software developers need to make advantages for each other. Using the ordinary GPL for a library gives free software developers an advantage over proprietary developers: a library that they can use, while proprietary developers cannot use it."(313) Grundsätzlich empfiehlt er daher die Verwendung der GPL, doch sei sie nicht für jede Bibliothek vorteilhaft. Vor allem wenn der proprietären Software die Features der freien Bibliothek aus anderen, nicht-GPLten Bibliotheken einfach zur Verfügung stünden, wie das bei der GNU C-Bibliothek der Fall ist, brächte die GPL keinen Vorteil für die freie Software, "so it is better to use the Library GPL for that library."

In anderen Fällen bietet die freie Bibliothek bedeutende einzigartige Funktionalitäten, wie die GNU Readline, dann empfiehlt Stallman die GPL. "The Readline library implements input editing and history for interactive programs, and that's a facility not generally available elsewhere. Releasing it under the GPL and limiting its use to free programs gives our community a real boost. At least one application program is free software today specifically because that was necessary for using Readline." In dem Fall fördert die GPL die weitere Entwicklung freier Software. Universitätsprojekte und jetzt, da auch Unternehmen erwägen, freie Software zu entwickeln, auch kommerzielle Projekte können auf diese Weise beeinflußt werden, ihre Software ebenfalls unter die GPL zu stellen.
 

"... we can achieve much more if we stand together. We free software developers should support one another. By releasing libraries that are limited to free software only, we can help each other's free software packages outdo the proprietary alternatives. The whole free software movement will have more popularity, because free software as a whole will stack up better against the competition."(314)
 

Die Grundintention der LGPL entspricht der der GPL. Sie schreibt alle Freiheiten der GPL fest. Die Bibliothek muß frei kopierbar, verbreitbar und modifizierbar sein, der Quellcode von Kopien und Bearbeitungen verfügbar sein, und sie spricht die Urheber ebenso von Haftungs- und Gewährleistungsansprüchen frei. Der Hauptunterschied zur GPL besteht darin, daß Programme, die die freie Bibliothek unter dieser Lizenz einlinken und damit ein ausführbares Ganzes bilden, nicht selbst diesen Freiheiten unterstehen müssen.

Die LGPL betont die Unterscheidung zwischen einem Werk, das von der Bibliothek abgeleitet ist, und einem, das sie benutzt, ohne sie zu verändern. Übersetzungen in eine andere Sprache werden den Veränderungen zugerechnet (Ziff. 0).

Wie unter der GPL müssen Veränderungen angegeben und gebührenfrei an jedermann unter der LGPL lizenziert werden (Ziff. 2 b; c). In die LGPL scheint ein größere Sensibilität für den Integritätsschutz der kontinentaleuropäischen Urheberpersönlichkeitsrechte eingegangen zu sein. Soe heißt es in der Präambel: "If the library is modified by someone else and passed on, we want its recipients to know that what they have is not the original version, so that any problems introduced by others will not reflect on the original authors' reputations." Hinzu kommen die Auflagen, daß das abgeleitete Werk selbst wieder eine Bibliothek sein muß und es in seiner Ausführung nicht von Daten aus einem möglicherweise proprietären Anwendungsprogramm abhängig sein soll (Ziff. 2 a; d). Damit soll verhindert werden, daß LGPL-Bibliotheken derart verändert werden, daß sie nicht mehr von freien Programmen genutzt werden können, da sie nur mit Bestandteilen der proprietären Software zusammenarbeiten.

Section 3 eröffnet die Möglichkeit, die LGPL für eine modifizierte Kopie der Software in die GPL umzuwandeln. Dies sei nützlich, wenn das abgeleitete Werk keine Bibliothek, sondern ein Programm ist, das Teile der Ausgangs-Software enthält. Diese Wandlung ist irreversibel. Umgekehrt ist es nicht möglich, eine Software unter GPL unter die LGPL zu stellen.

Die eigentliche Besonderheit der LGPL sind "works that use the library". Solche Werke für sich sind eigenständig und werden von der Lizenz nicht erfaßt. In dem Augenblick jedoch, wo sie (beim Booten oder zur Laufzeit) die Bibliothek einlinken, entsteht ein ausführbarer Objektcode (ein executable), der Teile der Bibliothek enthält, somit ein abgeleitetes Werk darstellt und daher unter die LGPL fällt. Eine Ausnahme bilden abgeleitete Werke, die nur einzelne Elemente einer Header-Datei der Ausgangsbibliothek enthalten (numerische Parameter, Datenstruktur-Layouts, kleine Makros und Inline-Funktionen "(ten lines or less in length)"). In dem Fall ist die Verwendung des Objektcodes nicht von der LGPL eingeschränkt (Ziff. 5).

Werke, die in diesem Sinne die LGPL-Bibliothek verwenden, dürfen unter Bedingungen eigener Wahl verbreitet werden, sofern diese Bedingungen zulassen, daß der Kunde sie verändert und die Software reverse engineeren darf, um diese Veränderungen zu debuggen. Wichtigste Voraussetzung dafür ist, daß der Quellcode der Bibliothek zugänglich ist, damit ein Anwender ihn ändern und neu einlinken kann, um ein verändertes executable zu erzeugen.(315) Und natürlich muß das abgeleitete Werk die Copyright-Hinweise und den Lizenztext der Bibliothek enthalten. (Ziff. 6). Der Quellcode der Bibliothek muß, wie bei der GPL mitgeliefert oder drei Jahre lang bereit gehalten werden, doch stärker noch als in der GPL muß der Verbreiter solcher abgeleiteter Werke hier sogar 'verifzieren', daß der Anwender den Quellcode der Bibliothek und den Quell- und/oder Objektcode des Werkes, das die Bibliothek benutzt, erhalten hat (Ziff. 6 d).

Wenn die LGPL den Lizenzbedingungen andere Bibliotheken widersprechen sollte, führt das dazu, daß die sie nicht zusammen in einem Objektcode verwendet werden dürfen (Ziff. 6). Abgeleitete Bibliotheksfunktionen dürfen zusammen mit solchen unter einer anderen Lizenz zu einer Bibliothek kombiniert werden, sofern sie zusammen mit einer nicht-kombinierten Kopie der LGPL-Bibliothek oder einem Hinweis, wo diese zu erhalten ist, verbreitet wird (Ziff. 7).
 

Die meisten GNU Bibliotheken vor Februar 1999 und ein Großteil der weiteren Bibliotheken, die bei einem Linux-System eingesetzt werden, stehen unter der LGPL. Stallman betont an verschiedenen Stellen, daß es sich um eine strategische Entscheidung handelt, ob ein Entwickler seine Bibliothek unter die GPL oder unter die Library-GPL stellt. "There is no ethical reason to allow proprietary applications on the GNU system, but strategically it seems that disallowing them would do more to discourage use of the GNU system than to encourage development of free applications."(316) Die GNU C-Bibliothek steht unter der LGPL, die sie es erlaubt, auch proprietäre Programme für GNU/Linux zu kompilieren. Bei anderen Bibliotheken müsse man von Fall zu Fall entscheiden.

Auch vorher legte die FSF es Entwicklern nahe, statt der LGPL für ihre Bibliotheken die weitergehende GPL zu verwenden. Ab Februar 1999 ruft Stallman jetzt dazu auf, mehr Bibliotheken unter der GPL zu veröffentlichen(317) und in anderen Fällen die neue Lesser GPL zu verwenden.
 
 
 
 
 

Lesser GPL

Die Library GPL ist im Februar 1999 von der GNU Lesser General Public License(318) ersetzt worden (die verwirrenderweise beide mit LGPL abgekürzt werden). Der Namenswechel erfolgte, da 'Library GPL' eine falsche Vorstellung vermittle.(319) Die neue LGPL enthält eine Reihe Änderungen in den vorangestellten Erläuterungen, die nicht Teil der Lizenz sind. So wird als möglicher Grund, statt der GPL die LGPL zu verwenden genannt, daß der weitestmögliche Einsatz der Bibliothek dazu dienen kann, sie als de-facto-Standard zu etablieren. Umgekehrt wäre bei einer freien Bibliothek, die das tut, was auch eine verbreitete unfreie tut, nichts damit gewonnen, sie auf freie Software zu beschränken. Schließlich könne die Erlaubnis, eine freie Bibliothek, wie die GNU C Library, in unfreier Software zu verwenden, dazu führen, daß mehr sie Menschen befähige, einen größeren Korpus freier Software, wie das GNU Betriebssystem oder GNU/Linux zu benutzen.

Der Lizenztext selbst ist weitgehend wortgleich mit der Library GPL. Der wesentliche Unterschied besteht darin, daß unter der Kategorie "Werke, die die Bibliothek benutzen" jetzt auch dynamisch zur Laufzeit eingebundene shared libraries erfaßt werden (die neu eingefügte Ziff. 6.b). Auch Dynamic Link Libraries (eine von Microsoft zwar nicht erfundene, aber mit seinen DLLs verbreitete Technologie) müssen somit den Tatbestand der Veränderbarkeite und Ersetzbarkeit erfüllen.(320)
 
 
 
 
 

Weitere offene Lizenzen

Der ersten Generation von Lizenzen (BSD, GPL und MIT-X) folgten ab etwa 1997 eine Fülle weiterer Lizenzmodelle. Viele Projekte verfaßten eigene Lizenztexte oder variierten bestehende, meist mit einer individuellen Note, aber oft nicht mit der juristischen Sorgfalt, die in die GPL geflossen ist. In jüngster Zeit kommen die Lizenzen von Unterehmen wie Apple, Sun und IBM hinzu, die freien Lizenzen mehr oder weniger ähneln.(321)

Um sich als freie Software oder Open Source-Software zu qualifizieren, muß die Lizenz die Freiheit gewähren, das Programm gebührenfrei und ohne Einschränkungen auszuführen, es zu kopieren und weiterzuverbreiten, und der Zugang zum Quellcode und das Recht, Veränderungen vorzunehmen, müssen gewährleistet sein. Die Hauptunterschiede betreffen die Art, wie die Lizenzen das Verhältnis von freiem zu proprietärem Code und den Status von abgeleiteten Werken regeln.

In den Lizenzen manifestieren sich die politische Philososophie der Projekte und ihr Verhältnis zur Community, zur Wirtschaft und zur Gesellschaft allgemein. Wird Software zu Packages integriert und in Distributionen aggregiert, so treten auch ihre Lizenzen in Wechselwirkung miteinander. Je mehr Lizenzmodelle in Gebrauch sind, desto schwieriger wird die Wahl einer Lizenz und desto unübersichtlicher ihre Wechselwirkungen.

Daher gibt es verschiedene Bestrebungen, Lizenzen nach bestimmten Kriterien zu bewerten und zu klassifizieren. Die FSF unterscheidet sie in ihrer Liste(322) danach, ob es sich um freie Software und um Copyleft handelt und ob eine Lizenz kompatibel zur GPL ist, d.h. ob sie mit GPL-Software gelinkt werden darf. Auch OpenBSD vergleicht in seinem Copyright Policy-Dokument eine Reihe anderer Lizenzen und bewertet sie danach, ob die entsprechende Software in die OpenBSD-Distribution aufgenommen werden kann.(323)

Peter Deutsch, Autor von Ghostscript, einer weitverbreiteten Implementation von PostScript, erfaßt in seiner Klassifikation(324)Free Redistribution Licenses (FRLs). Im Vordergrund steht für ihn die freie Weitergebbarkeit, nicht die Modifikation, weshalb auch Shareware auftaucht. Letztlich geht es ihm darum, seine eigene Aladdin Ghostcript Free Public License (AGFPL) vis à vis den anderen Lizenzmodellen zu positionieren. Deutsch unterscheidet vier Gruppen von FRLs nach ihren Bedingungen für die Weiterverbreitung, den Umständen, unter denen Zahlungen erforderlich sind, und den Bedingungen für den Zugang zum Quellcode. Modifikationsfreiheit ist für ihn kein eigenes Kriterium. Die vier Kategorien sind: (1) Unbeschränkte Lizenzen, z.B. von X-Window, Tcl/Tk,(325) IJG JPEG,(326) PNG/zlib(327) und zip/unzip.(328) Autoren, die eine solche Lizenz verwenden, möchten nur sicherstellen, daß sie als Autoren genannt bleiben, aber stellen darüber hinaus keine Bedingungen. Der Quellcode ist meist verfügbar, doch die Lizenz schreibt seine Mitverbreitung nicht vor. (2) Shareware, die üblicherweise nicht unter freier Software aufgeführt wird, da der Quellcode in der Regel nicht verfügbar ist und bei regelmäßigem Gebrauch eine Lizenzgebühr verlangt wird, aber Deutschs Kriterium ist eben die freie Weitergebbarkeit. (3) Die GNU-Lizenzen GPL und LGPL. (4) Not-for-profit FRLs. Deutschs wichtigstes Beispiel hierfür ist die Aladdin (Ghostcript) Free Public License (AFPL).(329) Sie ist von der GPL abgeleitet,(330) setzt aber drei abweichende Akzente. Sie besagt, daß der Quellcode bei jeder Distribution enthalten sein muß, während die GPL in bestimmten Fällen nur einen Pointer auf ihn vorschreibt. Sie untersagt ausdrücklich eine Gebührenerhebung für die Software. "The goal of the AGFPL is to shut out a certain class of GPL 'free riders': companies that package GPL'ed software with commercial applications in a way that maintains the integrity of the former while making it seamlessly callable from the latter, which effectively (functionally) makes the GPL'ed software part of the application while respecting the letter of the GPL."(331) Die Weiterverbreitung von Ghostscript und die Weiterverwendung des Codes in kommerziellen Produkten ist zugestanden, sie erfordert jedoch eine von der AFPL verschiedene gebührenpflichtige Lizenz. Die kommerzielle Version der Software namens Artifex Ghostscript ist identisch zum freien Aladdin Ghostscript, aber Artifex bietet außerdem Support, Bug-Fixing, und Spin-off-Produkte für OEM-Anbieter.(332) Mit dieser Doppellizenzierung vertritt die AFPL die Haltung "... that those who are willing to share should get the benefits of sharing, while those whose own activities operate by commercial rules should have to follow those rules in order to obtain the benefits of software that is [freely redistributable] for others."(333)

PGP und Minix(334) sind weitere Beispiele aus dieser Kategorie der Not-for-profit FRLs. Die FSF bezeichnet sie als 'halb-freie' Software. Zwar gewähre sie Individuen alle Freiheiten, daher sei sie viel besser als proprietäre Software. Aufgrund der Restriktionen könne sie aber nicht in eine freie Betriebssystemsumgebung (das GNU-System) integriert werden. Aufgrund der Wechselwirkung der Lizenzen in einem Gesamtsystem würde ein einziges halb-freies Programm das gesamte System halb-frei machen. "We believe that free software should be for everyone -- including businesses, not just schools and hobbyists. We want to invite business to use the whole GNU system, and therefore we must not include a semi-free program in it."(335)

Die Open Source Definition (OSD)(336) ist eine weitere Richtlinie zur Bewertung von Lizenzen. Sie stammt von Bruce Perens, dem langjährigen Maintainer von Debian GNU/Linux. Debian sah sich angsichts der Nachbarlizenzen herausgefordert, genauer zu definieren, was die Freiheit sei, die das Projekt meint. Diese Positionen formulierte Perens nach einer eMail-Diskussion mit den anderen Debian Entwicklern 1997 im Debian Social Contract, einem Bekenntnis, daß Debian 100% freie Software bleiben, daß das Projekt alle Neuerungen an die Community zurückgeben und keine Fehler verstecken wird, und in den Debian Free Software Guidelines (DFSG).(337) Aus dem Geist des ersten und dem Text der zweiten entstand die OSD. Raymond spielte bei der Universalisierung eine Rolle, da er Perens in seine Bemühungen "das Konzept der freie Software an Leute zu verkaufen, die Krawatten tragen,"(338) eingespannt hatte. Raymond hielt die DFSG für das richtige Dokument, um Open Source zu definieren. Perens entfernte alle Debian-spezifischen Referenzen, tauschte "free Software" gegen "open-source Software" aus und änderte den Namen der Lizenz. Schließlich registrierte er für SPI, der Trägerfirma von Debian, ein Certification Mark (CT) auf den Begriff "Open Source". Ein CT ist eine Form von Trademark, eine Art Gütesigel, das den Produkten von Dritten verliehen werden kann.(339) Nachdem Raymond und Perens mit dem dezidierten Ziel, die Open Source-Kampagne und ihr CT zu verwalten, die Open Source Initiative (OSI) gegründet hatten, wurde das Eigentum an dem CT von SPI auf die OSI übertragen. Ein gutes Dutzend Lizenzen hat die OSI gutgeheißen und zertifiziert, so daß sie offiziell den geschützten Titel "Open Source" tragen dürfen.(340)

Die OSD ist, wie gesagt, keine Lizenz, sondern ein Standard, an dem Lizenzen sich messen lassen.(341) Neben den eingangs genannten Freiheiten und den beiden problematischen Punkten, die im Anschluß behandelt werden, enthält die OSD einige Besonderheiten. Während die meisten Lizenzen die Nutzungen ihrer Software ohne Einschränkung an jedermann freistellen, gibt es einige, die explizite Ausnahmen vorsehen. In der Erläuterung zur OSD ver. 1.0(342) führt Perens das Beispiel einer Lizenz der Regents of the University of California, Berkeley an, die die Verwendung eines Elektronikdesign-Programms durch die südafrikanische Polizei untersagt. Obgleich das Anliegen zu Zeiten der Apartheit löblich gewesen sei, ist ihr Sinn heute weggefallen, die Lizenzvorschrift für diese und alle abgeleitete Software bestehe jedoch weiter. Ebenso sei es verständlich, daß Autoren den Einsatz ihrer Software in der Wirtschaft, der Genforschung oder einer Abtreibungsklinik untersagen wollten, doch auch diese Anliegen gehörten nicht in eine Lizenz. Deshalb schreibt die OSD für Open Source-Lizenzen vor, daß sie nicht gegen Personen oder Gruppen (Ziff. 5) und gegen Einsatzgebiete (Ziff. 6) diskriminieren dürfen.

Bei der Weitergabe an Dritte soll die Lizenz wirksam sein, ohne daß Eigentümer (der Copyright-Halter) und Lizenznehmer einen Vertrag unterzeichnen (Ziff. 7). Die Gültigkeit von unterschriftslosen Lizenzverträgen wird derzeit auch für den proprietären Bereich diskutiert (s.u.), insofern ist die Erläuterung zur Ziff. 7 der OSD ver 1.0(343) eher ein frommer Wunsch. In der Erläuterung zur ver. 1.7(344) heißt es, daß damit eine Schließung durch zusätzliche Anforderungen wie ein NDA ausgeschlossen werden soll.

Die OSD Ziff. 8 besagt, daß die gewährten Rechte nicht davon abhängig gemacht werden dürfen, daß das Programm Teil einer bestimmten Distribution ist. Es muß frei bleiben, auch wenn es von dieser Distribution getrennt wird.

Die von der OSI zertifizierten Lizenzen sind (Juli 2000)(345): die GPL und LGPL, die BSD-Lizenz,(346) die MIT- oder X-Konsortium-Lizenz, die Artistic-Lizenz (für Perl entwickelt),(347) die Mozilla Public License (MPL),(348) die Qt Public License (QPL),(349) die IBM Public License,(350) die MITRE Collaborative Virtual Workspace License (CVW License),(351) die Ricoh Source Code Public License,(352) die Python-Lizenz(353) und die zlib/libpng-Lizenz.

Bevor auf die beiden kritischen Punkte eingangen wird, sei noch die Möglichkeit der Mehrfachlizenzierung erwähnt. Wie beim bereits genannten Ghostscript gibt es eine Reihe Projekte, die dieselbe Software geichzeitig unter einer freien und einer kommerziellen Lizenz anbieten. Eine weiteres Beispiel ist Sendmail,(354) das Eric Allman an der Berkeley Universität entwickelt und 1997 eine Firma(355) gegründet hat, die parallel zur freien Version eine kommerzielle Lizenz mit Supportleistungen anbietet. Die MPL ist die einzige Lizenz, die diese Möglichkeit ausdrücklich erwähnt. Ziff. 13 erlaubt es den ursprünglichen Entwickler (nicht aber den Kontributoren), ihren Code unter die MPL und zugleich eine alternative Lizenz zu stellen, aus denen Nutzer ihre Wahl treffen können. Darin ist die Handschrift von Perens zu erkennen, der denjenigen, die ihre Software frei belassen und sie zugleich verkaufen möchten, eine beliebige kommerzielle Lizenz plus der GPL als freie Lizenz empfiehlt.(356) Eine eigenartige Konstruktion ist die CVW-Lizenz des MITRE. Sie ist nur eine Art Rahmenlizenz, in der die Warenzeichen von MITRE von der Werbung für abgeleitete Werke ausgeschlossen werden. Darüber hinaus stellt sie dem Empfänger der Software frei, ob er sie unter der GPL oder der MPL nutzen möchte, die beide in der CVW-Lizenz enthalten sind.
 
 
 

Verhältnis von freiem und proprietärem Code

Darf freier Code in unfreien integriert werden? Die GPL untersagt dies, bietet aber mit der LGPL eine Ausnahmemöglichkeit für Bibliotheken. Eine weitere Ausnahme ist die Lizenz von Guile,(357) einer erweiterbaren Interpreter-Bibliothek der FSF für die Programmiersprache Scheme. Guiles Lizenz besteht aus der GPL und einem zusätzlichen Passus(358), der die pauschale Erlaubnis gibt, unfreie Software mit der Guile-Bibliothek zu linken, ohne das resultierende Executable unter der GPL stehen muß.

Die BSD-(359) und davon abgeleitete Lizenzen(360) (wie die MIT-X-, Open Group X-(361) und die XFree-Lizenz, die des Apache,(362) die von Zope,(363) von Python,(364) PNG/zlib,(365) Tcl/Tk(366) und die von Amoeba(367)), also diejenigen, die Deutsch 'unbeschränkte Lizenzen' nennt, erlauben, alles mit ihrer Software zu machen -- auch, sie in unfreie Software zu integrieren und Änderungen zu privatisieren --, solange der Hinweis auf den Copyright-Halter erhalten bleibt und nicht mit dessen Namen geworben wird.(368) Beide Lizenzfamilien stammen aus Universitäten, und spiegeln die Auffassung wieder, daß öffentlich finanzierte Werke allen ohne Einschränkung gehören.

Der Grund dafür, daß auch außeruniversitäre Projekte diese Lizenzen verwenden, liegt in der Zusammenarbeit mit Unternehmen, die ihr geistiges Eigentum nicht freizügig teilen möchten. Hohndel vom XFree86-Projekt:
 

"Die Geschichte von vielen Projekten, nicht nur von X, auch von Dingen wie Sendmail oder BIND, zeigt, daß diese eher abschreckenden Bestimmungen der GPL gar nicht nötig sind. Für uns ist der große Grund, warum wir mit einer GPL überhaupt nichts anfangen können, wiederum die Zusammenarbeit mit den Firmen. Denn viele kommerzielle Unix-Systeme enthalten [...] heute X-Server, die im wesentlichen auf XFree86 basieren. Und viele von den Firmen, mit denen wir zusammenarbeiten und von denen wir Source Code bekommen -- es gibt ja etliche Graphikkartenhersteller, die heute selber die Treiber für ihre Karten schreiben, --, würden niemals zulassen, daß eine so virenartige Lizenz wie die GPL, die sich in den Code reinfrißt und nie wieder daraus weggeht, in ihren Code reinkommt. Von daher folgen wir dieser sehr, sehr freien Lizenz, die uns bis jetzt sehr gut gedient hat, und werden das auch weiterhin tun."(369)
 

Die OSD besagt, daß eine Lizenz andere Software nicht 'kontaminieren' darf (Ziff. 9), d.h. sie darf nicht vorschreiben (wie im Falle einer Version von Ghostscript), daß alle andere Software, die auf dem selben Medium verbreitet wird, ebenfalls freie Software sein muß. In den Erläuterungen zur OSD ver 1.7 heißt es, daß die GPL diese Auflage erfülle, da sich ihr 'Kontaminierungseffekt' nur auf Software bezieht, die mit der GPL-Software zu einem funktionalen Ganzen gelinkt wird, nicht aber auf solche, die nur mit ihre zusammen verbreitet wird.(370)

Die Perl Artistic License erlaubt es ausdrücklich (Ziff. 5), den Perl-Interpreter mit proprietärem Code zu linken und betrachtet das Ergebnis nicht als abgeleitetes Werk, sondern als Aggregation. Auch die Aggregation in einer kommerziellen Distribution ist zugestanden, solange das Perl-Paket 'eingebettet' wird, "that is, when no overt attempt is made to make this Package's interface visible to the end user of the commercial distribution." (Zif. 8) Im Umkehrschluß kann man annehmen, daß andernfalls die Integration in kommerzielle Software verboten ist.
 
 
 
 
 

Status abgeleiteter Werke

Dürfen Veränderungen privatisiert werden? Die GPL schließt dies entschieden aus. Der Oberbegriffe "free Software" (der z.B. Public Domain-Software beinhaltet) bedeutet, daß sie verwendet, kopiert, mit Quellcode weiterverbreitet und verändert werden darf, schließt aber nicht aus, das Kopien und Modifikationen ohne diese Freiheiten (z.B. ausschließlich als Executable) verbreitet werden. Das engere, wenn auch nicht auf die GPL beschränkte "Copyleft" bedeutet darüberhinaus, daß modifizierte Versionen von GPL-Software gleichfalls unter der GPL stehen müssen und keine weitere Nutzungseinschränkungen hinzugefügt werden dürfen. Einmal frei, immer frei.

Von der GPL abgeleitete Lizenzen (wie die Ghostscript AFPL und die Arphic Public License(371) schreiben gleichfalls vor, daß Modifikationen kostenfrei und zu den selben Bedingungen veröffentlicht werden müssen, wie die Ausgangs-Software.

In der OSD ist diese Lizenzvererbung nur eine Kannvorschrift. Ziff. 3 besagt, daß eine Lizenz zulassen muß, daß abgeleitete Werken unter die selbe Lizenz gestellt werden, in seiner Erläuterung schreibt Perens, daß sie es aber nicht vorschreiben muß. Ziff. 4 OSD enhält zudem ein Schlupfloch für die Veränderbarkeit. Unter der Überschrift "Integrität des Quellcodes des Autors" heißt es dort, daß die Verbreitung modifizierter Versionen des Quellcode eingeschränkt werden kann, aber nur, wenn es zulässig ist, Patch-Dateien zusammen mit dem unveränderten Quellcode zu verbreiten, die zur Build-Zeit die modifizierte Version erzeugen. Diese Integration von Patches automatisieren Werkzeuge, weshalb der zusätzliche Aufwand vertretbar sei. Damit soll eine Trennung zulässig werden, die die Integrität des 'Originals' wahrt und trotzdem Modifikation möglich macht. Die Verbreitung von Objektcode-Versionen darf nicht eingeschränkt werden, die Lizenz kann aber vorschreiben, daß abgleitete Werke einen anderen Namen tragen müssen. Als Grund für diesen Passus nennt Perens, daß er die Qt Public License (QPL) von Troll Tech in die Open Source-Definition aufnehmen wollte. Diese erlaubt Modifikationen ausschließlich in der Form von Patches. Die QPL ist zwar eine freie Lizenz, aber inkompatibel zur GPL. Daher darf Qt nicht mit GPL'ter Software gelinkt werden, doch erteilt die FSF hierfür eine Sondergenehmigung. Der Copyright-Halter eines Programmes, das Qt verwendet, kann sein Programm unter die GPL stellen, indem er folgenden Hinweis hinzufügt: "As a special exception, you have permission to link this program with the Qt library and distribute executables, as long as you follow the requirements of the GNU GPL in regard to all of the software in the executable aside from Qt."(372)

Die unbeschränkten Lizenzen (wie BSD, Apache oder X) erlauben, daß Veränderungen privatisiert werden. So ist es möglich, den Quellcode einer Software unter X-Lizenz zu verändern und Binaries davon verkaufen, ohne deren Quelltext offen zu legen und die modifizierte Version wieder unter die X-Lizenz zu stellen. Tatsächlich gibt es eine Reihe Workstations und PC-Grafikkarten, für die ausschließlich unfreie Versionen von X-Window verfügbar sind.(373)

Die Perl Artistic License verlangt, daß Änderungen kenntlich gemacht werden und bietet dann vier Optionen für das weitere Vorgehen: a) Die Änderungen müssen in die Public Domain gestellt oder auf andere Weise frei verfügbar gemacht werden, oder der Copyright-Halter muß sie in die Standardversion aufnehmen dürfen. b) Die Änderungen werden ausschließlich innerhalb eines Unternehmens oder einer Organisation genutzt. c) Die Nicht-Standard-Executables erhalten einen neuen Namen und dürfen nicht ohne die Standardversionen verbreitet weren. d) Andere Verbreitungsvereinbahrungen mit dem Copyright-Halter werden getroffen (Ziff. 3). Sie bietet somit einigen Spielraum für Privatisierungen.(374)

Die CVW-Lizenz des MITRE ist auch hier ungewöhnlich. Ziff. 5 besagt, daß derjenige, der geänderten Quellcode an MITRE übermittelt, einwilligt, sein Copyright daran an MITRE zu übertragen, das die Änderungen auf seiner Website zugänglich macht.(375)
 
 
 
 
 

Beispiele für Lizenzkonflikte

Lizenzfragen betreffen vor allem Entwickler und Vertreiber von Software. Anwender, die die Software nicht selbst modifizieren möchten, haben mit jeder der genannten Lizenz die Gewähr, sie (bei den meisten auch für kommerzielle Zwecke) einsetzen und an Freunde weitergeben zu dürfen. Ein Distributor hat vor allem auf die verschiedenen Lizenzbedingungen für die Aggregierung und den Vertrieb zu achten. Auch eine Entwicklerin muß sehr genau entscheiden, welche Lizenz sie für ihre Programme benutzt, und welche Programme sie in ihren eigenen Werken verwendet, da sie mit dem Code auch dessen Lizenz importiert. Die einzelnen Lizenzen in einem zusammengesetzten Werk treten in Wechselwirkung. Kombinationen aus proprietärem und freiem Code sind, wenn die beteiligten freien Lizenzen es zulassen, als ganze proprietär. Untersagt eine freie Lizenz wie die GPL die Verbindung mit unfreiem Code, muß dieser entweder freigegeben werden oder die Verbindung darf nicht durchgeführt werden. In der Praxis sind die Wechselwirkungen jedoch erheblich komplexer und werde durch den Zuwachs an neuen Lizenzmodellen immer schwieriger zu überschauen.

Die GPL ist vergleichsweise eindeutig. Stallman gibt zwei Beispiele für die postiven Auswirkungen ihres Schließungsverbots:
 

"Consider GNU C++. Why do we have a free C++ compiler? Only because the GNU GPL said it had to be free. GNU C++ was developed by an industry consortium, MCC, starting from the GNU C compiler. MCC normally makes its work as proprietary as can be. But they made the C++ front end free software, because the GNU GPL said that was the only way they could release it. The C++ front end included many new files, but since they were meant to be linked with GCC, the GPL did apply to them. The benefit to our community is evident.

Consider GNU Objective C. NeXT initially wanted to make this front end proprietary; they proposed to release it as .o files, and let users link them with the rest of GCC, thinking this might be a way around the GPL's requirements. But our lawyer said that this would not evade the requirements, that it was not allowed. And so they made the Objective C front end free software.

Those examples happened years ago, but the GNU GPL continues to bring us more free software."(376)
 

NeXT dachte, es könne die Objective C-Erweiterungen zu einem separaten Modul erklären und ohne Quellcode ausliefern. Nach einer Klage der FSF, der Copyright-Inhaberin des GCC, lenkte NeXT ein, und seither erfreut sich die freie Software-Welt der 'spendierten' Software. Auch die Firma Be hat GPL-Quellen unrechtmäßig verwendet, was bald entdeckt wurde und ebenfalls zum Einlenken führte. Gleiches geschah im Falle einer Firma, die Readline, eine Bibliothek, die Command-Line Editing ermöglicht und unter der GPL steht, in einem unfreien Programm verwendete. Auch hier stellte der Entwickler sein eigenes Programm auf Nachfragen ebenfalls unter die GPL. Meistens sind jedoch Lizenzverstöße nicht einfach festzustellen -- naturgemäß, wenn die betreffende Firma den Quellcode ihrer abgeleiteten Software nicht freigiebt.

Doch nicht nur Firmen, sondern auch einige freie Projekte, die mit Firmen zusammenarbeiten, haben ihre Probleme mit der GPL. Patrick M. Hausen von BSD:
 

"Wenn Sie ein Stück Software, das unter der GPL ist, in ihre eigene Software einbauen, dann wird die gesamte Arbeit, die Sie gemacht haben, automatisch eine aus der GPL-Software abgeleitete Arbeit, und damit gilt die GPL für alles, was Sie getan haben. ... Und so ist es eben schwierig, GPL-te Open Source-Software in kommerziellen Produkten mit anderen Teilen, sei es mit Treibern, die unter Non-disclosure-Agreement sind, sei es mit Librarys, mit einer Oracel-Datenbank-Library oder mit Motif oder was immer zu kombinieren, um ein Gesamtes zu entwickeln. Mir bleibt letzten Endes nichts anderes übrig, als den GPL-ten Teil komplett neu zu schreiben."(377)
 

Auch Kalle Dalheimer von KDE sieht durch die Einschränkung der Verbreitung von Binaries in der GPL die Endnutzerfreundlichkeit von Software behindert.
 

"Ich kritisiere nicht die GPL, weil sie mit der (derzeitigen) Qt-Lizenz inkompatibel ist, sondern weil sie so gestaltet ist, daß sie die Weiterentwicklung von Linux behindert. In den Anfangstagen war sie sicherlich gut und nützlich, aber jetzt hat sich die GPL überlebt -- zumindest für alles, was im weitesten Sinne eine Komponente ist."(378)
 

Die 'einschüchternde' Wirkung der GPL taucht auch in der Begründung für Netscapes 'permissivere' Mozilla-Lizenz (s.u.) auf:
 

"Netscape is interested in encouraging the use and development of the Communicator source code by other commercial developers. Netscape was concerned that these other companies would hesitate to engage in this development if the code were regulated by a license as strict as the GPL, requiring that all related software also be released as free source. At the very least, every other commercial developer would have to look very closely at the legal ramifications of embarking on free source development. This initial hurdle alone might be enough to keep them from starting at all, so it was decided to remove the hurdle by using a somewhat less restrictive license."(379)
 

Mike Loukides schlägt in O'Reillys Java-Forum ein schärferen Ton an. Die 'Chamäleon-Lizenz, von der er spricht, ist die Sun Community Source License (s.u.), die die lizenzierte Software frei mache, wenn sie im Kontext freier Software erscheint, und kommerziell, wenn sie mit proprietärer Software kombiniert wird.
 

"With all due respect to RMS, I think it's clear that the GPL significantly retarded acceptance of Open Source software. The GPL was clearly an important statement, but the ideology was way ahead of what most people wanted to practice. We all know people who could not take advantage of GNU software because they didn't understand exactly what the license meant, what they were giving up, what they could conceivably be sued for in a couple of years, and so on. We all know of companies that wouldn't allow any GNU software on their machines because they didn't want to take the risk that someone would borrow a few lines of source code and compromise the company's intellectual property. Whether you agree with this or not isn't the issue; the fact is, it didn't do any good to have a license that made people scared to use the software. [...] The bottom line is that the GPL is fundamentally coercive, and was intended to be so. Morality aside, that just plain hurt the cause. The right way to popularize free software wasn't to threaten people who chose to use it. [...] This is where the chameleon license offers an important new model. It's much more developer-friendly, and can entice developers to the Open Source model. It's a carrot, not a stick. [...] Although you can go the commercial route if you want, Sun has given you an implicit incentive to go the Open Source route--or at least to consider it. [...] It's an opportunity that opens the community's doors to pragmatic developers: people who'd like to figure out how to make some money from their work, and are put off by licensing zealotry. It gives them a real opportunity to experiment with different licensing options without penalty, and gently pushes them in the Open Source direction."(380)
 

Stallman antwortet auf diese 'Angst vor Freiheit':
 

"The main argument for the term ``open source software'' is that ``free software'' makes some people uneasy. That's true: talking about freedom, about ethical issues, about responsibilities as well as convenience, is asking people to think about things they might rather ignore. This can trigger discomfort, and some people may reject the idea for that. It does not follow that society would be better off if we stop talking about these things. [...] Years ago, free software developers noticed this discomfort reaction, and some started exploring an approach for avoiding it. They figured that by keeping quiet about ethics and freedom, and talking only about the immediate practical benefits of certain free software, they might be able to ``sell'' the software more effectively to certain users, especially business. The term ``open source'' is offered as a way of doing more of this--a way to be ``more acceptable to business.'' This approach has proved effective, in its own terms. Today many people are switching to free software for purely practical reasons. That is good, as far as it goes, but that isn't all we need to do! [...] Sooner or later these users will be invited to switch back to proprietary software for some practical advantage. Countless companies seek to offer such temptation, and why would users decline? Only if they have learned to value the freedom free software gives them, for its own sake. It is up to us to spread this idea--and in order to do that, we have to talk about freedom. A certain amount of the ``keep quiet'' approach to business can be useful for the community, but we must have plenty of freedom talk too."(381)
 

In diesem Geist ist die Welt der freien Software immer bestrebt, proprietäre Angebote für wesentliche Systembestandteile durch freie zu ersetzen oder die Rechteinhaber zu überzeugen, ihre Software unter eine freie Lizenz zu stellen. Klassisches Beispiel für letzteres ist die mehrfach angesprochene Qt-Bibliothek der Firma Troll Tech, auf die sich der freie Desktop KDE stützt. Troll Tech hat auf Drängen der Linux-Welt Qt ab Ver. 2.0 unter eine eigene Lizenz, die Q Public License (QPL)(382) gestellt, die seine proprietäre Verwendung ausdrücklich ausschließt. Die QPL läßt Modifikationen nur separat vom Original in Form von Patches zu und gewährt Troll Tech ihre Verwendung in anderen Produkten (Ziff. 3). Programme, die mit der Qt-Bibliothek linken, müssen selbst quelloffen sein (Ziff. 6). Die QPL ist eine Not-for-profit-Lizenz. Wer Qt kommerziell einsetzen möchte, muß die Professional Edition unter einer herkömmlichen kommerziellen Lizenz erwerben. Troll Tech hat die Copyright-Rechte an der Qt Free Edition und das Recht, die QPL zu ändern, an die im April 1998 errichtete KDE Free Qt Foundation(383) abgetreten -- ein außergewöhnlicher Schritt eines Unternehmens auf die freie Community zu:
 

"Should Trolltech ever discontinue the Qt Free Edition for any reason including, but not limited to, a buyout of Trolltech, a merger or bankruptcy, the latest version of the Qt Free Edition will be released under the BSD license. Furthermore, should Trolltech cease continued development of Qt, as assessed by a majority of the KDE Free Qt Foundation, and not release a new version at least every 12 months, the Foundation has the right to release the Qt Free Edition under the BSD License."(384)
 

In den Linux-Distributionen von SuSE oder RedHat ist die Bibliothek enthalten, was zu dem Mißverständnis führen kann, daß man sie in eigenen Entwicklungen einsetzen darf. Tut man dies, hat man jedoch eine Lizenzklage und entsprechende Folgekosten zu gewärtigen.
 

"SuSE hat ohnehin Qt aufgeteilt in die Bibliothek selbst und in die Header-Dateien. Und wenn Sie während der Installation eines SuSE-Systems nur die Bibliothek installieren, passiert nichts weiter, und Sie können dann ja auch nicht aufs Glatteis kommen. In dem Moment, wo Sie das Paket mit den Header-Dateien ausfrieren, poppt so eine kleine Box hoch, wo drin steht: 'Beachten Sie bitte die Lizenzbedingung'."(385)
 

Weitere Beispielfälle für denkbare urheber-, vertrags-, patent-, markenschutz-, und haftungsrechtliche Konflikte, die in den Beziehungen zwischen Autoren, Distributoren und Endnutzern auftreten können, gibt Siepmann.(386)
 
 
 
 
 

Unfreie Lizenzen

Auf aktuelle Entwicklungen bei den rein proprietären Lizenzen kommt der folgende Abschnitt zu sprechen. Hier soll es um die Unternehmens-gestützten Open Source-Lizenzen gehen, die seit Netscapes Schritt in die Bewegung hinein entstanden sind.

Die Mozilla Public License ist von der OSI als OSD-kompatibel lizenziert. Auf den zweiten Blick ist sie jedoch, ähnlich wie die Not-for-profit Freely-redistributable Lizenzen, wenn auch aus anderen Gründen, als 'halbfrei' einzuordnen. Die Open Source-Lizenz entstand, als Netscape sich Anfang 1998 entschloß, -- beraten von Raymond und Perens -- den Quellcode des Communicator 5.0 Standard Edition (bereinigt um allen Code, der geistiges Eigentum Dritter ist, und die Kryptografiemodule, die US-amerikanischen Ausfuhrbeschränkungen unterliegen) freizugeben. Die Codebasis wurde unter dem Namen Mozilla in ein freies Software-Projekt überführt. Der Lizenztext(387) trägt deutlicher als alle bislang behandelten Lizenzen die Handschrift von IP-Anwälten. Erstmals spricht eine freie Lizenz auch mögliche Patentansprüche an.(388) Als nach ausgiebigen Diskussion und öffentlicher Kommentierung ein Entwurf der Lizenz veröffentlicht wurde, richtete sich die Kritik vor allem gegen die Sonderrechte, die sich Netscape darin vorbehielt. Daraufhin entschloß sich das Unternehmen, zwei Lizenzen herauszugeben, die Netscape Public License 1.0 (NPL) für den am 31. März 1998 freigegebenen Communicator-Code und alle davon abgeleiteten Werke sowie die Mozilla Public License 1.0 (MPL), die Autoren für eigenständige Werke benutzen können, zu denen sie Netscape keinen privilegierten Zugang geben möchten. MPL und NPL bestehen aus einem identischen Hauptteil, dem bei der NPL die "Amendments" hinzugefügt sind, die den Sonderstatus von Netscape regeln.(389)

Die MPL gewährt tantiemenfrei alle Freiheiten und verlangt, daß alle Modifikationen in Quellcodeform zugänglich gemacht und unter dieselbe Lizenz gestellt werden (Ziff. 3.2.). Ziff. 3.6. erlaubt allerdings, die veränderte oder unveränderte Software ausschließlich in Objektcodeversionen unter einer beliebigen anderen Lizenz zu verbreiten, sofern ein Hinweis auf den freien Quellcode beigefügt wird. Auch die Verbindung von MPL-Code mit Code unter anderer Lizenz zu einem Larger Work ist zugestanden (Ziff. 3.7).(390) Ein solches Larger Work wird nicht als abgeleitetes Werk interpretiert, kann also ebenfalls unter eine restriktivere Lizenz gestellt werden, solange der ursprüngliche und der davon abgeleitete Quellcode weiterhin von NPL oder MPL regiert werden. Damit wird eine Aufspaltung in die freie Code-Welt der Entwickler und in die der reinen Anwender erzeugt, denen alle möglichen Restriktionen auferlegt werden können. Zwar werden aus der freien Quellcodebasis immer auch freie Binaries verfügbar sein, aber es ist leicht denkbar, daß ein Unternehmen wie Microsoft den freien Code um eigene attraktive Funktionalitäten erweitert und das Gesamtpaket ausschließlich in proprietärer Form verbreitet. Fühlen sich genug Nutzer von diesen Zusatzfunktionen angezogen und sind bereit, die Unfreiheit in kauf zu nehmen, verlieren die freien Entwickler ihre Anwender und das freie Projekt wird scheitern.

Außerdem nimmt die NPL/MPL eine ungewöhnliche Trennung in "Initial Developer" (für den NPL-Code ist das Netscape, für ein nicht-abgeleitetes eigenständiges Werk jeder Autor, der es unter die MPL stellt -- Ziff. 2.1) und "Contributors" (Ziff. 2.2) vor.

In den "Amendments" der NPL wird eine weitere Unterscheidung in die von Netscape branded Versions des Communicator und die freien Versionen unter dem Projektnamen Mozilla vorgenommen. Dort heißt es, daß Netscapes Warenzeichen (Namen und Logos) nicht mitlizenziert werden (Ziff. III.). Kontrovers sind die Abschnitte, die es Netscape erlauben, den NPL-Code einschließlich der Modifikationen durch Dritte in seinem branded Code (Ziff. V.3.) und im Laufe von zwei Jahren nach der ursprünglichen Freigabe von Mozilla auch in anderen Produkten (Ziff. V.2.) zu verwenden, ohne das es an seine eigene Lizenz gebunden ist. Netscape behält sich vor, Code unter der NPL unter anderen Bedingungen als der NPL an Dritte zu lizenzieren. Die Zusatzbestimmungen heben somit effektiv die Freiheitsvorschriften im Haupttext der NPL für die Firma Netscape wieder auf (Ziff. V.1.).

Zur Begründung hieß es, Netscape verwende einen Teil des Codes für den Client "Communicator" auch in seinen Server-Produkten und möchte sicherstellen, daß es Veränderungen am Server-Code vornehmen -- also auch Modifikationen von freien Entwicklern in den proprietären Code aufnehmen -- kann, ohne diesen gleichfalls unter die NPL stellen zu müssen. Außerdem hat Netscape Verträge mit Dritten über die Bereitstellung von Quellcode. Auch sie sollen von den Modifikationen freier Entwickler profitieren können, ohne ihre eigenen Erweiterungen unter der NPL zugänglich machen zu müssen.(391) Die Gefahr, die davon ausgeht, spielt Netscape jedoch herunter. Es re-lizenziere nur einen spezifischen Snapshot des Codes an einem bestimmten Datum. Wenn ein solcher Lizenznehmer nicht mit der Community zusammenarbeite, indem er seine eigenen Entwicklungen in die freie Codebasis zurückgibt, werde der von ihm lizenzierte Code mit der Zeit immer stärker von der freien 'Standardversion' abweichen.(392) Das, so wird suggeriert, sei eine hinreichende Motiviation für Hersteller, ihre Software freizugeben.

Das Argument unterschlägt, daß schon der Hautpteil der NPL (= MPL) mit Ziff. 3.7. "Larger Works" die Möglichkeit zuläßt, Mozilla oder Teile davon mit proprietären Modulen zu koppeln. Nach Ziff. 3.6 "Distribution of Executable Versions" würde dann ein Hinweis auf die Verfügbarkeit des Quellcodes der freien Bestandteile ausreichen und jeder kann sich aus dem freien Pool bedienen, Änderungen vornehmen und das Ergebnis zu Bedingungen der eigenen Wahl verwerten.

Freie Entwickler, die eine solche Privatisierung ausschließen wollen, können ihre eigenständigen Beiträge zum Mozilla-Code (nicht aber Modifikationen von NPL-Code)(393) unter die MPL (= NPL ohne Amendments) oder eine kompatible Lizenz, wie die BSD, die LGPL oder fast jede andere Lizenz stellen oder sie gar nicht veröffentlichen. Ausgeschlossen ist allein die GPL, von der Netscape behauptet, daß sie inkompatibel mit allen Lizenzen außer sich selbst sei.
 

"Under our reading of the GPL, it will not be possible to incorporate code covered by the GPL into the Communicator source code base. It is also not possible to use GPLed code and NPLed code together in a Larger Work. This is different for LGPL code. It is possible to create a larger work using LGPLed code that can then be used in conjunction with NPLed code through an API."(394)
 

Diese Ansicht wird von der FSF bestätigt:
 

"This [die MPL] is a free software license which is not a strong copyleft; unlike the X11 license, it has some complex restrictions that make it incompatible with the GNU GPL. That is, a module covered by the GPL and a module covered by the MPL cannot legally be linked together. We urge you not to use the MPL for this reason."(395)
 

Vergleichsweise harmlos, obgleich es ebenfalls viel Kritik auf sich gezogen hat, ist Netscapes Vorrecht, die Lizenz zu ändern. Denselben Mechanismus sieht auch die GPL vor. Keine Dynamik einzubauen wäre angesichts des raschen Wandels in Technologie und Recht auch unseriös. Doch selbst wenn Netscape oder gar die FSF plötzlich entscheiden sollten, MPL/NPL rsp. GPL in eine vollständig proprietarisierende Lizenz zu verwandeln, hätte das keine rückwirkende Folgen für alle vorangegangenen freien Versionen. Eine radikale Lizenzänderung würde allerdings unweigerlich eine Split in der weiteren Entwicklung der Code-Basis auslösen.(396)

Es ist hier nicht der Ort, um über die Hintergründe von Netscapes Business-Entscheidung zu spekulieren. Die veröffentlichten Motive sind, "to balance our goals of engaging the free source development community and continuing to meet our business objectives. ... The NPL and MozPL both attempt to strike a middle ground between promoting free source development by commercial enterprises and protecting free source developers."(397)

Netscape wollte also nicht die Tore zu seiner gesamte Produktlinie öffnen,(398) sondern nur zu Mozilla, d.h. dem bereinigten Code des Communicator 5.0 Standard Edition. Netscape schenkte der freien Software-Community einen Web-Browser und wollte -- quasi als Gegenleistung -- die 'freie' (im Doppelsinn von 'freiwilliger' und 'unbezahlter') Zuarbeit proprietär verwerten. "Netscape believes that it is in the interest of all who develop on the Communicator code base to contribute their changes back to the development community. In this way, they will reap the benefits of distributed development."(399) Viele in der Diskussion damals unterstellen Netscape, daß es solche Aussagen ehrlich meinte, doch spätestens als AOL Netscape (für $ 4 Mrd.) kaufte, kamen lautstarke Zweifel auf. Entscheidend sind nicht solche Aussagen, sondern der lizenzrechtliche Status des gemeinsam bearbeiteten und genutzten Codes. Zwar wies Jamie Zawinski, im ersten Jahr mozilla.org Core-Team-Mitglied, darauf hin, daß die Freiheiten, die Mozilla durch die NPL gewährt wurden, nicht nachträglich entfernt werden können(400) -- einmal aus der Copyright-Flasche, kann kann der Code nicht zurückgerufen werden. Doch die weitere Pflege und Entwicklung des Codes hängt mit der NPL/MPL zu einem gewissen Maß von der Benevolenz ihres industriellen Hauptnutzers ab.

Netscapes Lizenzmodell hat eine Reihe Nachfolger gefunden. In der Regel verwenden sie MPL, also ohne den Sonderstatus, den die NPL dem ausgebenden Unternehmen verleiht. Dazu gehört Cygnus, das sein embedded Cygnus operating system (eCos), im Oktober 1998 released, unter die Cygnus eCos Public License ver 1.0 gestellt hat, die wortgleich zur MPL 1.0 ist, nur das 'Netscape' gegen 'Cygnus', und, nachdem Cygnus an Red Hat verkauft worden ist, gegen 'Red Hat' ausgetauscht wurde.(401)

Ebenso verfuhr Ricoh Silicon Valley, Inc. mit seiner Ricoh Source Code Public License,(402) die es für seine Platform for Information Applications (PIA) verwendet, eine Umgebung für die rasche Entwicklung von leicht zu unterhaltenden Web-basierten Anwendungen.

Open Source hat auch bereits Eingang in die Hochfinanz gehalten. Den Originaltext der MPL ver. 1.0, einschließlich Netscapes Vorrecht, die Lizenz zu ändern, verwendet Price-Waterhouse für sein FpML (Financial products Markup Language),(403) ein XML-basiertes Protokoll für Business-to-Business eCommerce im Bereich von Finanzderivativen.

Die Netizen Open Source License (NOSL), Version 1.0.(404) beruht auf der MPL 1.1, ersetzt nur 'Netscape' durch 'Netizen Pty Ltd.' und fügt einige Australien-spezifische Bits ein. Es ist die Lizenz von Eureka, einem Satz von Data-Mining-Tools für HTTP-Log-Dateien. Wie die MPL hat sie eine Fassung mit Zusätzen, die die hostende Firma favorisieren, in diesem Fall Netizen, eine 15-Personen Firma, die sich auf Consulting, Entwicklung und Training für Open Source-Software und Internet-Technologie spezialisert hat. Ein zweites Produkt von Netizen, das Projekt/Task Management-System Xen, steht unter der Xen Open Source3 License Version 1.0 (XOSL), also der NOSL mit denselben Zusätzen wie die NPL.

Auch Sun Microsystems hat neben andere Linzenzmodellen MPL-Varianten in Verwendung. Bei der Sun Public License ver 1.0(405) für NetBeans, eine in Java geschriebene integrierte Entwicklerumgebung, handelt es sich um den Text der MLP 1.1, bei der der Freiheit des Code auch die der Dokumentation hinzugefügt und die Markennamen ausgetauscht wurden.

Eine andere Strategie verwendet Sun für sein NFS (Network Filesharing System). Die Sun Industry Standards Source License 1.0 (SISSL)(406) besteht zu großen Teilen aus der MPL 1.1. Die Ziffern 2.2 bis 3.4 der MPL, die sich auf die Modifikationen durch Contributors im Gegensatz zum Initial Developer beziehen, entfallen. Sun bindet mit der SISSL vor allem den Originalcode, also seinen eigenen. Die 'Auslieferung' einer 'Kontributorenversion' unterstellt sie einer besonderen Auflage. 120 Tage vorher muß sie die Anforderungen eines Standardisierungsgremiums erfüllen (Ziff. 3.0), was mit Hilfe eines Kompatibilitäts-Kits getestet wird. Nur für den Fall, daß die geänderte Version vom Standard abweicht, verpflichtet die SISSL den Autor, die Dokumentation und eine Referenzimplementation seiner Software unter denselben Bedingungen wie die der SISSL öffentlich zu machen. Wer die Standards einhält, kann also Modifikationen auch proprietär halten. Suns erklärtes Ziel ist es, die NFS-Infrastruktur zu stärken, deren Spezifikationen es als öffentliche Standards an die IETF übertragen hat.(407)

Für Java und Jini führte Sun im Januar 1999 eine dritte Lizenz ein, die Sun Community Source License (SCSL),(408) die eigentlich drei Lizenzen in einer sind. In kumulativer Abstufung enthält sie die 1) Research Use License, die für Evaluation, Forschung, Entwicklung und Prototyping potentieller Produkte die größten Freiheiten gewährt, die 2) Internal Deployment Use License für eine sehr begrenzte interne Distribution, um Produkte vor ihrer Markteinführung zu testen, und schließlich die 3) Commercial Use License, die jeder unterzeichnen muß, der Original und Modifikationen verbreiten möchte. Nach 1) darf Quellcode einschließlich Modifikationen nur an andere Lizenznehmer verbreitet werden. Nach 2) muß jeder Code, wie bei der SISSL, den Test mit dem Java Compatibility Kit (JCK) bestehen. Wie bei NSF handelt es sich bei Java und Jini um infrastrukturelle Technologien, mit einem Kern, den Sun unter enger Kontrolle hält, und einer Vielzahl möglicher Diensten drumherum, die von möglichst vielen ausgebaut werden müssen, damit der Wert des Systems für alle Beteiligten wächst. Um Javas Cross-Plattform-Versprechen "write once, run anywhere" halten zu können, muß Sun dafür sorgen, daß in allen Implemententationen ein für alle verbindlicher Standard eingehalten wird. Das Anliegen ist umso verständlicher, als Micrsoft einen schwergewichtigen Versuch unternommen hat, Java auf Kompatibilitäts-brechende Weise zu verändern. Die beiden Unternehmen standen sich deshalb gerade vor Gericht gegenüber, als die SCSL verfaßt wurde. Zur Wahrung der Einhaltung der Standards dienen zwei Mechanismen: Arbeitsausschüsse der beteiligten Organsiationen und der JCK. Der JCK ist ein komplexes Werkzeug, dessen Benutzung an eine eigene Lizenz und vor allem -- da er so komplex ist -- an einen kostspieligen Support-Vertrag mit Sun oder zertifizierten Dritten gebunden ist.(409) Das sind nun keine Anforderungen mit denen die freie Software-Welt üblicherweise zu tun hat. Mike Loukides gesteht Sun, bei aller Kritik an der SCSL, zu, daß es mit dieser Konstruktion auch auf die Angriffe von Microsoft antworte. "It's not a problem that the open source community has faced, and it's unclear how a completely open process would respond. What would happen, for example, if Microsoft decided that it was in their interest to introduce incompatibilities into Perl, and herd their developers towards some private version? I think this will happen -- probably sooner rather than later."(410)

Sun vermeidet sorgfältig, die SCSL als eine 'Open Source'-Lizenz zu bezeichnen. Weder sie noch die SISSL ist von der OSI als OSD-gemäß zertifiziert worden. Und auch die FSF identifiziert beide als inkompatibel mit der GPL.

Wie Netscape möchte Sun das Beste aus der Welt der proprietären und der Open Source-Lizenzen vereinigen. Als Vorteile von letzteren sehen Gabriel und Joy eine verstärkte Innovation, die Vergrößerung der effektiven Arbeiterschaft, verbesserte Qualtität und eine schnellere Kommerzialisierung. "A participating organization can reap the benefits of expertise not in its employ."(411) Auch der kommerzielle Vorteil ist deutlich. Sun wird erste Adresse für Java und Jini bleiben. "Thus, even when source is out in the open, the value still remains with those who can expertly manipulate it." Und auch von den Lizenznehmern fließen Einnahmen zurück, nicht mehr, wie bislang, vor Beginn der Entwicklung, sondern in dem Moment, wo auch der Lizenznehmer Geld verdient.(412)

Die 'Community', die die SCSL vorsieht und schafft, besteht aus einer 'entwickelnden Organisation' und hinzukommenden Organisationen. Freie Entwickler tauchen nicht auf, sind allenfalls als Lehrende und Studierende hochwillkommen. Wo die freien Lizenzen ein Netzwerk von Individuen im Auge haben, zielt die SCSL auf ein Netzwerk von Firmen. "For example, Jini technology licensing is based on a community of companies who wish to build and sell Jini devices. Sun Microsystems is the developing organization which invented, designed, and built the initial Jini infrastructure."(413)

Auch andere Softwareunternehmen entfernen sich stärker von Netscapes Lizenzmodell. So hat IBM seinen Jikes-Compiler unter die IBM Public License 1.0(414) gestellt, die der MPL ähnelt und von der OSI als OSD-kompatibel zertifiziert worden ist. Kontroverser wurde die Apple Public Source License (APSL)(415) aufgenommen, die u.a. Darwin (den Kern von Mac OS X) und den Darwin Streaming Server (einschließlich QuickTime-Streaming) für registrierte Entwickler zugänglich macht. Mit ihrem Sonderstatus für das ausgebende Unternehmen ähnelt sie der NPL. Kontributoren müssen Apple eine unwiederrufliche Lizenz erteilen, die Copyright- und Patentrechte an ihren Modifikationen zu nutzen (Ziff 3), gleichzeitig behält sich Apple vor, die APSL im Falle von Patentstreitigkeiten pauschal zu wiederrufen (Ziff. 9.1.c). Modifikationen der Kontributoren müssen im Quellcode freigegeben und mit einem Online-Formular bei Apple angemeldet werden (Ziff 2.2.c), gleichzeitig behält sich Apple alle Rechte am Originalcode und an seinen eigenen Modifikationen vor und entbindet sich selbst bei deren Nutzung von seiner eigenen Lizenz (Ziff 11). Im März 1999 verurteilten Perens (der inzwischen die OSI verlassen und die Seite der FSF ergriffen hatte) und andere in einem offenen Brief(416) die Entscheidung der OSI, der APSL das OSD-Gütesiegel zu verleihen. U.a. wiesen sie darauf hin, daß erhebliche Teile des von Apple unter der APSL -- und eigenem Copyright -- veröffentlichten Codes unwesentliche Modifikationen von Code aus der Berkeley Universität und der Carnegie-Mellon seien. Diese sind vom Steuerzahler finanziert und stehen unter freien Lizenzen und sollten deshalb von der APSL verschont bleiben. Raymond verteidigte die Entscheidung zunächst,(417) doch schließlich wurde die Zertifizierung der APSL zurückgenommen.
 

Die Lizenzkonstruktionen von Netscape, Sun, IBM und Apple weichen deutlich vom herkömmlichen proprietären Modell ab. Hier sei an den Unterschied zwischen 'kommerzieller' und 'proprietärer' Nutzung erinnert. Kommerzielle Software wir von Firmen entwickelt, die damit Geld verdienen wollen. Sie ist in der Regel proprietär, aber es gibt auch kommerzielle Software unter GPL (z.B. GNU Ada) und ebenso nichtkommerzielle proprietäre Software. Strenggenommen haben auch GPL-Programme einen proprietas, einen Eigentümer, nämlich den oder die jeweiligen Copyright-Halter. Und auch die FSF hat keine Einwände dagegen, mit freier Software Geld zu verdienen. Der Unterschied liegt in der Gewichtung. Priorität der FSF sind die Freiheiten. Priorität der genannten Unternehmen ist ein, wenn auch ungewöhnliches, so doch unzweifelhaft auf Profitmaximierung zielendes Business-Modell.

Beide gleichen sich darin, daß sie eine geschlossene Gemeinschaft von Entwicklern

erzeugen, die Quellcode miteineinander teilen und sich zu gegenseitiger Kooperation verpflichten. Bei den Kommerziellen wird man Mitglied in dieser In-Group durch einen schlichten Mausklick auf den 'Akzeptieren'-Knopf der Lizenz und meist eine Registrierung. Unter den Kooperierenden gibt es hier eine bevorrechtigte Partei. Sun beispielsweise wird als Eigentümerin von Plattformtechnologie von deren Gedeihen in jedem Fall profitieren, selbst wenn es keine Lizenzzahlungen bekommen sollte.

Für solche geschlossenen Gemeinschaft ist der Begriff 'Gated Communities' geprägt worden. Tim O'Reilly erläutert ihn an einem Beispiel. Sein Unternehmen verwendet ein Software-Paket für Verlage namens CISpub, ein proprietäres Produkt mit höchstens einigen hundert Nutzern, die aber alle Zugriff auf den Quellcode haben und es aktiv weiterentwickeln. Der freie Austausch ist auf die Nutzerbasis beschränkt, und um Nutzer zu werden muß man CISpub käuflich erwerben. O'Reilly hält es auch für unwahrscheinlich, daß sich irgendjemand anderes dafür interessieren könnte. "This is a specialized package written in a specialized language for a specialized industry segment."(418) Den wichtigsten Vorteil sieht O'Reilly darin, daß umzäunte Communities einen Weg darstellen, auf dem Open Source-Ethik und Methodologie in die Welt der spezialisierten Businesswelt, zu denjenigen, die noch nicht bereit sind, vollständig den Open Source-Weg zu beschreiten, vordringen könne. Im übrigen schließe das Modell an die frühen Tage von Unix und IBM-Software an, in denen ebenfalls Lizenznehmer reichlich Code entwickelten und mit der Nutzerbasis teilten.
 

"In short, if a 'gated source community' means that I can share my changes only with other existing licensees of the base package, but not with any outsiders, I'm still for it. [...] To make this work, you need to use licensing terms allowing redistribution of modifications to other licensees, public repositories for contributed code, discussion forums so users can find each other, and other mechanisms familiar to open source developers.(419) It also helps if you have a modular architecture that makes it easier for people to add-on without changing more than they need to. [...] Perhaps the term 'gated source community' has some negative connotations, since it suggests exclusivity, but at bottom, all it means is enabling users of a particular piece of software to form their own private community for source code access and sharing. This is a very appealing scenario for vendors and customers alike."(420)
 

O'Reilly nimmt dem negativen Beiklang weiterhin die Spitze, indem er auf die GPL-Community verweist.
 

"Incidentally, you could argue that the GPL (though not BSD-style licenses) creates a kind of gated community, in that only those agreeing to the license can (in theory) redistribute the source code. Because of the terms of the license, this is an evangelical gated community, always trying to bring in new members, but it's still closed to those who don't want to abide by the license agreement."(421)
 

Dem ist zuzustimmen. Beide Modelle stecken Territorien von Privateigentum und Kollektiveigentum ab. Gabriel/Joy sehen den Vorteil des Open Source-Modells (das, anders als 'freie Software' keine "politischen Überzeugungen" darüber verkörpere, was Eigentum sein kann und was nicht) u.a. darin, daß "[t]here is a self-organizing effect in which the boundaries between proprietary concerns and community concerns are adaptively set."(422) Diese Selbstorganisation nimmt in den Lizenzen Form an, was es umso plausibler erscheinen läßt, daß Debian seine Lizenz einen 'Gesellschaftsvertrag' nennt.

Stallman schreibt (in seiner Kritik an der APSL): "[T]he spirit of free software, which is that we form a community to cooperate on the commons of software."(423) Diese Idee eines Commons, zu Deutsch 'Allmende', oder genauer Wissens-Allmende, ist beim GNU-Projekt am konsequentesten durchdacht, das darauf zielt, einen vollständigen freien Software-Korpus aufzubauen, der erlaubt, alles mit dem Computer zu machen. Wissen braucht, ebenso wie natürliche Ressourcen, Pflege und Weiterentwicklung, also Investitionen. Die werden im Falle einer Allmende von den Allmendgenossen getragen, hier der Community freier Entwickler. Zur Erhaltung und Pflege der gemeinsamen Investitionen werden bestimmte Nutzungen ausgeschlossen. Deshalb steht GNU-Software ausdrücklich nicht in der public Domain, sondern schöpft den Eigentumsanspruch des Copyright voll aus. Auch das GNU-Projekt ist also ein geschlossener Wissensraum, eine gated Community. Ihre Grenzen werden von der GPL abgesteckt. Die Vereinbarungen, die die Almendgenossen unter sich treffen, nehmen bei Wissensgütern die Form von Lizenzen an. Wer sie akzeptiert und respektiert gehört dazu. Wer gegen sie verstößt wird automatisch von der Nutzung ausgeschlossen (die Verfallsklausel Ziff. 4 GPL). Die GPL ist der Maßstab, der eine Lizenz genügen muß, damit eine Software in das GNU-Projekt aufgenommen werden kann -- die Grenze ins Innere der Allmende passieren darf.
 
 
 
 
 

Der Uniform Computer Information Transactions Act

Vollkommen unfreie Lizenzen, wie die konventionelle Software-Industrie sie verwendet, verbieten die Nutzung durch Dritte, das Kopieren, die Weiterverbreitung und die Modifikation. Sie lizenziert binäre, also ausschließlich ausführbare, nicht aber veränderbare Versionen. In einigen Fällen wird auch der Quellcode angeboten, gegen zusätzliche Gebühren und nur für beschränkte Zwecke. Netscapes Tools End User License Agreement(424) und Microsofts End User License Agreement (EULA) sind Beispiele für solche Lizenzen. Wer nachlesen möchte, wie Unternehmen von Sega über Microsoft und AT&T bis Caldera ihr geistiges Eigentum untereinander lizenzieren wird auf "Tech Deals: Intellectual Property Licenses"(425) reiche Beute finden.

Um es noch einmal deutlich zu sagen: Unternehmen verkaufen ihre Software (Bücher, Musik-CDs, Video-DVDs, MP3-Dateien, usw.) nicht an die Endkunden, sondern lizenzieren nur bestimmte Nutzungsrechte daran. Und selbst diese werden immer stärker eingeschränkt. Microsoft verkündete zum 1. Januar 2000 eine Innovation in seiner Lizenzpolitik, derzufolge künftige Versionen von MS-Windows nicht mehr frei re-installierbar sind.(426) Original Equimpment Manufacturers (OEMs) dürfen seither keine vollwertigen Windows-CDs mit ihrer Hardware ausliefern. Vielmehr spielen sie ein Disk-Image des Betriebssystems auf die Festplatte und geben den Kunden eine "Recovery CD" mit, die ausschließlich auf dem jeweiligen Computer läuft. Ist das vorinstallierte Windows zerschossen oder die Festplatte versagt oder der Kunde ersetzt sie durch eine neue, so kann er die Software von dieser CD neu installieren. Eine vollwertige Version erlaubt es, Windows über eine defekte Installation erneut zu installieren -- keine elegante, aber eine in vielen Fällen wirksame Methode, die zudem andere installierte Software und individuelle Konfigurationen unberührt läßt. Die "Recovery CD" dagegen überschreibt alle Windows-Dateien und damit die Registry für andere Programme, alle Konfigurationen und Updates seit der Erstinstallation. Tauscht der Kunde die Grundplatine mit dem BIOS-ROM aus, dessen Kennung bei dieser 'Individualisierung' abgefragt wird, so verliert er vollständig die Möglichkeit, von seinen für etwa 200 DM erworbenen Nutzungsrechten Gebrauch zu machen. Jeder OEM, wie Compaq, Toshiba und Dell usw., fügt dem BIOS eine individuelle Kennung bei, die von der Recovery-CD abgefragt wird und verhindert, daß sie auf einem Rechner eines anderen Herstellers verwendet werden kann. Auf einem anderen Rechner desselben Herstellers mit derselben BIOS-Signatur ließe sie sich verwenden, doch das ist eine hypothetische Option, da Microsoft es in seinen Verträgen mit den OEMs untersagt, Rechner ohne ein vorinstalliertes MS-Betriebssystem zu vekaufen. Dieses BIOS Lock soll Software-'Piraterie' verhindern.(427) Zwar war es auch nach bisheriger Lizenzpolitik nicht zulässig, ein Windows auf zwei Rechnern zu installieren, doch es auf dem ersten zu löschen und dann auf dem zweiten zu installieren, war rechtens und sollte es auch bleiben, nur daß Microsofts Stragie es technisch verunmöglicht.

Dieser Trend zur 'Individualisierung' von Software und digitalen Inhalten zeigt sich auch an anderen Stellen. Auch MS-Office 2000 geht durch eine Zwangregistrierung eine ähnliche Bindung mit dem jeweiligen System ein, wie die Recovery-CD bei der Installation durch den OEM. Ähnliches plant auch die Musikindustrie, die uns Stücke verkaufen möchte, die nur auf einem einzigen Abspielgerät gehört werden können.

Nach der Erstverkaufsdoktrin von Copyright und Urheberrecht darf der rechtmäßige Besitzer eines Buches, einer Musik-CD usw. dieses Werkstück (nicht aber Kopien davon) weiterverkaufen. Was das Recht auch für Software erlaubt, verbieten die Lizenzen, vor allem für OEM-Software ("Vertrieb nur mit einem PC", "Produktunterstützung erhalten Sie vom Hersteller des PCs"), die lizenztechnisch an die Hardware gekoppelt ist. Sie wird nur zusammen mit der Hardware verkauft und darf ausschließlich mit ihr zusammen weiterverkauft werden, und auch dann nur, wenn alle Sicherungskopien gelöscht sind. Wer z.B. Linux auf dem betreffenden Rehner installiert, darf also nicht einen Teil der Investitionen in die MS-Software zurückgewinnen, indem er sie verkauft. Ein Markt für gebrauchte Software wird so unterbunden, und ebenso, daß die Kunden von ihrem Weiterverkaufsrecht Gebrauch machen.

Bis 1999 die großen OEMs begannen, auch Rechner mit vorinstalliertem Linux anzubieten, gab es für einen Käufer nur einen Weg, an Microsoft vorbeizukommen: die Lizenz zu verweigern. Wer bei "Akzeptieren?" auf "Nein" klickt, dem wird die Nutzung der MS-Software verweigert und mitgeteilt, daß er sein Windows gegen Rückerstattung des Kaufpreises zu seinem Händler zurückbringen kann.(428) Doch auch diese Option war eine rein hypothetische, bis Ende 1998 ein australischer Linux-Nutzer nach hartnäckigen und langwierigen Bemühungen, bei denen sich Microsoft, OEM und Händler gegenseitig die Verantwortung zuschoben, tatsächlich erstmals eine Rückerstattung erwirken konnte.

Das alles hat mit Copyright/Urheberrecht wenig zu tun. Beide geben dem Konsumenten das Recht, Sicherheitskopien anzufertigen, Sofware zu dekompilieren, um Fehler zu beheben und interoperable Programme zu erstellen, und ein nicht mehr benötigtes Programm an Dritte weiterzuverkaufen -- Rechte, die ihm die Lizenz verweigern. Einem Autor gibt das Gesetz das grundsätzliche Recht, sein Werk zu Bedinungen seiner Wahl zu veröffentlichen, solange diese nicht gegen geltendes Recht verstoßen. Genaugenommen ist ein Urheberrechtsanspruch nicht einmal erforderlich. Eine Firma könnte selbst gemeinfreies Material unter einer restriktiven Lizenz verkaufen, solange ihre Kunden bereit sind, sie zu akzeptieren. Bei den genannten Mechanismen wird das Urheberrecht mit seiner lästigen Balance zwischen Rechteinhaber und Öffentlichkeit gleichsam links liegen gelassen, während die möglichen Nutzungen von Lizenz und Technologie regiert werden. Wo z.B. das Recht (nach der Erstverkaufsdoktrin) die Möglichkeit vorsieht, Werkstücke weiterzuverkaufen, verhindern Lizenz und Technologie dies.

Die Gültigkeit von sog. Massenmarktlizenzen (Shrink-Wrap Licences, die binded werden, sobald der Kunde die verschweißte Packung öffnet, oder Click-Through Licenses für die Online-Distribution, die mit dem Anklicken eines "Lizenz akzeptieren"-Knopfes bindend werden; nach demselben Mechanismus sehen auch die Lizenzen der freien Software vor, daß der Nutzer durch Verbreitung oder Veränderung des Programms seine Einwilligung in die Lizenzbedingungen anzeigt) ist umstritten. So schreib Siepmann für die deutsche Rechtslage:"AGB auf Schutzhüllen von Datenträgern (sog. 'Shrink-Wrap-Agreements') haben aus vertragsrechtlicher Sicht im allgemeinen keine Gültigkeit, da diese erst nach Vertragsschluß zur Kenntnis genommen werden können. Sie können jedoch urheberrechtlich von Bedeutung sein."(429) Lizenzen waren individuell zwischen Firmen ausgehandelte und unterzeichnete Verträge, bis mit dem PC ein anonmyer Massenmarkt für Software aufkam. Für diesen Bereich enwickelten die 'Inhaltsbesitzer' das vereinfachte Lizenzierungsverfahren. Doch viele amerikanische Richter weigern sich bislang, die Shrink-Wrap-Lizenzen durchzusetzen. Mit der Bezahlung der Ware im Laden, so die Argumentation, sei ein Kaufvertrag zustande gekommen. Die Lizenz, die der Käufer erst zur Kenntnis nehmen kann, wenn er die Packung öffnet, sei ein Versuch, die Natur der Transaktion durch zusätzliche Bedingungen nachträglich zu verändern. Diesen geänderten Vertragsbedingungen muß der Käufer separat zustimmen, und dafür reiche ein Mausklick nicht aus.

Diese Rechtsunsicherheit sollte im Zuge der Revision der US-amerikanischen Uniform Commercial Code (UCC), dem Äquivalent zu den deutschen Allgemeinen Geschäftsbedingungen (AGB), beseitigt werden. Zur Begründung heißt es: "As the nation moves from an economy centered around transactions in goods and services to an information economy, the need has grown dramatically for coherent and predictable legal rules to support the contracts that underlie that economy. Lack of uniformity and lack of clarity of the legal rules governing these transactions engender uncertainty, unpredictability, and high transaction costs."(430)

Die Reform des UCC wurde gemeinsam vom American Law Institute (ALI) und der National Conference of Commissioners on Uniform State Laws (NCCUSL) betrieben, da Vertragsrecht Ländersache ist. Anfangs waren Bestimmung zu Computer-Programmen als Artikel 2b des UCC geplant, wobei das Gesetz aber ansonsten den Handel mit materiellen Gütern behandelt. Mitte 1999 gaben die Beteiligten bekannt, daß die Regeln für Computer-Informationstransaktionen in einem eigenständige Rahmengesetz, dem Uniform Computer Information Transactions Act (UCITA)(431) geregelt werden, das derzeit in den einzelnen US-Bundesländern umgesetzt wird.(432)

Das UCITA legalisiert Shrink-Wrap- (Ziff. 209) und Online-Lizenzen (Ziff. 211) für die Nutzung von 'Computer-Information' (nicht nur Programme, sondern jede Art elektronischer Inhalte, die von einem Computer verarbeitet werden können, einschließlich der dazugehörigen Dokumentation -- Ziff. 102.10), sofern der Lizenznehmer die Möglichkeit hat, die Vertragsbedingungen zur Kenntnis zu nehmen, bevor er seine Zustimmung manifestieren muß. Daneben regelt das UCITA den Zugang für eine bestimmte Zeitspanne zu Online-Informationen (Ziff. 611).

Besonders umstritten ist der Passus, der es Software-Herstellern erlaubt, Mechanismen zur Electronic Self-Help Repossession in ihre Produkte einzubauen, die im Falle eines Vertragsbruchs durch den Lizenznehmer ausgelöst werden können (Ziff. 816). Mit 'Self-Help' ist gemeint, daß das Unternehmen bei einem (tatsächlichen oder vermeintlichen) Verstoß des Lizenznehmers, ohne eine Gericht anzurufen, die Lizenzenz wiederrufen und 15 Tage nach einer Vorwarnung,(433) mit elektronischen Mitteln,(434) z.B. über das Internet, die Programmversion des Kunden deaktivieren oder löschen kann. Die 'Selbsthilfe' der Industrie ist an einige Bedingungen gebunden (der Abschnitt ist auch nicht 'Self-Help', sondern "Limitations on Electronic Self-Help" betitelt), doch grundsätzlich problematisch an dieser 'Wiederaneignung' bleibt, daß das Rechtsgut der geschützten Privatsphäre (der Festplatte des Nutzers) im Interesse des Rechts von Copyright-Eigentümern, die Nutzung ihrer Werke zu kontrollieren, eingeschränkt wird.

Auch ein Verbot auf den Wiederverkauf von Massenmarktlizenzen, sofern es es deutlich kenntlich gemacht wird, legalisiert das UCITA (Ziff. 503.4). Tatsächlich liefert Ziff. 503.1(b) ("A party's contractual interest may be transferred unless the transfer ... would ... materially impair the other party's property or its likelihood or expectation of obtaining return performance.") das Argument dafür, jeglichen Second-Hand-Markt für digitales Wissen zu unterbinden.

Befürworter des UCITA sehen es als einen Fortschritt im Konsumentenschutz. Zwar gewährt es (den Inhaltsanbietern) weitgehende Vertragsfreiheit, aber es schreibt auch einen Minimalsatz von Rechten fest, auf deren Verzicht keine (für den Konsumenten nicht-verhandelbare) Lizenz die Vertragsparteien festschreiben kann (Ziff. 113), darunter explizite und implizite Garantieansprüche (Teil 4), z.B. die -- wenn auch mehrfach eingeschränkte -- Garantie, daß die gelieferte Information das hält, was der Anbieter in Werbung oder Demonstrationen versprochen hat.

Interessanterweise betont Carol Kunze auf der nichtoffiziellen Ucitaonline.com(435) unter dem Titel "Myths about UCITA", daß es gerade nicht verhindere, daß Hersteller alle Garantieansprüche ausschließen. Das ist tatsächlich übliche Praxis in der Software-Branche. Die Rechtslage ändere sich nicht. Software kann "as is" verkauft werden. Die Belehrung ist direkt an die Linux-Anhänger adressiert, die 'das traurigste Beispiel' für häufige Mißverständnisse des UCITA abgeben würden.(436) Ihre Ablehnung begründe sich darin, daß die Linux-Anhänger gesagt bekommen hätten, daß das UCITA den Lizenzgebern erlaube, sich von allen Garantieansprüchen freizusprechen, was zur Auslieferung von defekten Produkten führen würde. Die absurde Mißrepräsentation der Kritik der freien Software-Welt benutzt Kunze, um sie zu wiederlegen. Diese, sagt sie -- zu recht --, habe gerade kein Interesse an rechtlichen Garantieansprüchen. Es sei ja gerade die Möglichkeit des Garantieausschlusses, die den Aufstieg der freien Software hervorgebracht habe [sic!]. Auch die verbreitete Fehlersuchtechnik der Betaversionen würde verschwinden, wenn man eine Garantie vorschreiben wollte.(437)

Die juristische Untermauerung für diese vertrackte Logik lieferte Robert Gomulkiewicz im Houston Law Review unter dem Titel "How Copyleft Uses License Rights to Succeed in the Open Source Software Revolution and the Implications for Article 2B".(438) Der Artikel beginnt mit einem Debian GNU/Linux-Zitat: "To stay free, software must be copyrighted and licensed," und liefert einen kundigen Überblick über die Lizenzmodelle der freien Software. Dann weist er pinkanterweise nach, daß einige zentrale Kritikpunkte an 2B UCC rsp. jetzt UCITA auch dort verwendet werden und auch unerläßlich für freie Software sind. Pikant, da Gomulkiewicz Vorsitzender der damals noch UCC-2B-Arbeitsgruppe der Business Software Alliance sowie leitender Unternehmensanwalt von Microsoft ist. Sein zentraler Punkt ist, daß es sich bei freien Lizenzen um "non-negotiated, standard-form, take-it-or-leave-it licenses" handelt, deren Rechtmäßigkeit die UCITA ja gerade absichern soll. Auch am Punkt der Garantiepflicht treffen sich die Interessen von Industrie und Freien. Beide sind gleichermaßen "unwilling to assume the risk of a multi-million dollar class action law suit" und möchten die Möglichkeit von Software-Entwicklern bewahren, "to freely allocate risk." Seine Conclusio zur Zukunft der Open Sourc-Software: "Licensing will be at the center of its success or failure. Article 2B should provide a contract law regime that allows revolutionaries like the open source hackers to succeed."

Das die freie Software der Software-Industrie, gegen deren Schließungsmechanismen sie sich gegründet hat, unfreiwillige Schützenhilfe leistet, ist ein Treppenwitz der Geschichte. Tatsächlich würde die freie Software jeglichen Schutz verlieren, wenn Massenmarktlizenzen invalidiert würde, und im Bankrott enden, wenn sie gesetzlich verpflichtet wäre, eine Garantieleistungsinfrastruktur zu unterhalten. Nach Aussagen von Eben Moglen könnte es im Spätsommer 2000 wegen eines Verstoßes durch ein nichtgenanntes bedeutendes internationales Software-Haus erstmals zu einer gerichtlichen Überprüfung der GPL kommen.(439) Wenn es dabei auch um die Frage der grundsätzlichen Gültigkeit von Massenmarktlizenzen geht, könnte -- nächste Stufe des Treppenwitzes -- die FSF Rückendeckung von Microsoft und den UCITA-Befürwortern bekommen -- falls Microsoft nicht selbst dieses Software-Unternehmen ist.

Schwerwiegende Konsequenzen für die freie Software und ihre Lizenzen sind von der UCITA auf den ersten Blick nicht zu erwarten. Auch sie fallen unter den Schutz der Vertragsfreiheit. Gomulkiewicz nennt die 'Lückenfüller-Regel' des UCITA, die bei Abwesenheit von Vereinbarungen zwischen den Vertragsparteien wirksam werden. Auch das, was die freien Lizenzen nicht explizit festlegen, würde durch Standardregeln eingefüllt. Doch zum einen darf man annehmen, daß die Software-Industrie ihr Bestes dafür gegeben hat, daß diese für Informationsanbieter möglichst harmlos ausgefallen sind, und zum anderen kommen Kriterien wie 'Angemessenheit' und 'redliche Verkehrsübung' zur Geltung, die dem freien Software-Modell -- mit über 15 Jahren Praxis und millionenfacher Verbreitung -- ein schwer zu bestreitendes 'Gewohnheitsrecht' verleihen.

Generell ist jedoch damit zu rechnen, daß durch das UCITA das Klima, in dem wir Wissen schaffen und austauschen, rauer wird. Hat man früher ein Buch gekauft, wenn man die darin enthaltene Information haben wollte, so kauft man heute eine Lizenz -- die handelbare Instantiation von Wissen. "If information ever wanted to be free, it must have changed its mind because under UCC 2B, information seems intent on being licensed."(440) Der schwerwiegenste Aspekt des UCITA ist, daß es den Trend einen gewaltigen Schritt vorantreibt, Vertragsrecht über Urheberrecht dominieren zu lassen (und damit US-Landesrecht über Bundesrecht(441)). Zwar heißt es in Ziff. 105 UCITA, daß Bundesgesetze Vorrang haben vor den UCITA der Länder und natürlich allen mit ihnen kompatiblen Lizenzen, doch ausgerechnet für das Copyright scheint das nicht zu gelten. Das Wort 'Copyright' taucht in dem länglichen Gesetzestext nur viermal peripher auf, obgleich das UCITA an zahlreichen Stellen in den Geltungsbereich des Copyright-Rechts hineinragt. Während z.B. ein Copyright nach Ablauf einer Frist verfällt, d.h. der Eigentumsstatus des Wissens sich verändert, kann nach UCITA ein Lizenzvertrag den Kunden auf alle Zeiten binden. Die Aufgaben der Bibliotheken, wie Zugänglichmachung und Erhaltung von Wissen, können vertraglich und technisch verunmöglicht werden.(442) Was das Coypright nach der Fair Use-Doktrin erlaubt, kann eine Lizenz verbieten. Anbieter von Information können ihre Kunden und auch ihre Autoren zwingen, auf Rechte zu verzichten, die sie nach Copyright-Gesetz haben. Wem's nich gefällt, der kann ja wo anders kaufen oder verkaufen. Der Markt wird's schon regeln.

Samuelsons Fazit: bei der Aushebelung des Copyright-Rechts durch Massenmarkt-Lizenzen gehe es darum, "whether copyright owners can have their cake and eat it too." Copyright schreibt mit Verfassungsmandat eine Balance zwischen den Rechten der Autoren und der Öffentlichkeit vor. Diese Balance sei Angriffen durch die überbreite Copyright-Gesetzgebung der jüngsten Zeit, einen Schutz für Datenbanken und nun durch Vertragsrecht ausgesetzt. "We shouldn't let them get away with it. If publishers want the rights that

copyright confers, they must take the responsibilities along with the rights."(443) Man kann hinzufügen: Wenn Autoren die Kontrolle über die Nutzung ihrer Werke weitgehend aufgeben, müssen sie von den Verantwortlichkeiten, denen kommerzielle Software-Hersteller unterstehen sollten, freigestellt werden.
 
 





Gesellschaftliche Potentiale freier Software





Freie Software bietet fast allen Nutzern Vorteile. Ihre ökonomischen und technischen Vorzüge übersetzen sich natürlich auch in volkswirtschaftliche Effekte. Zwei aus öffentlicher Sicht bedeutsame Bereiche sollen im Folgenden hervorgehoben werden, ihre Bedeutung in der Bildung und für ärmere Gruppen und Länder. Doch auch der öffentliche Sektor selbst beginnt freie Software zu nutzen. Vielleicht stehen quelloffener Code und der Trend zu einer für den Bürger transparenteren Verwaltung mit weitgehendem Akteneinsichtsrecht ja in morphogenetischer Beziehung zueinander.

Ebenso wie Firmen geben auch Behörden neben praktischen Gründen für den Einsatz freier Software häufig an, daß sie die Abhängigkeit von einzelnen Herstellern vermeiden wollen. "Scandinavia, Germany, and France are some of the main centers of Linux use. Some people say that this is because companies and the government want to avoid becoming too dependent on U.S. -- read Microsoft -- products."(444)

Ein Beispiel für mögliche Proleme bot sich 1998 in Island, das, um seine Schrift in der digitalen Welt zu erhalten, eine Unterstützung für Isländisch in Microsoft Windows implementiert haben wollte, und sogar bereit war, dafür zu bezahlen. Microsoft sah den Markt als zu klein an und winkte ab. Ohne Zugang zum Quellcode und ohne das Recht, ihn zu modifizieren, ist das Land vollkommen abhängig von Microsofts Gnade.(445) Daraufhin wurde ein Projekt gestartet, die Sprachunterstützung in GNU/Linux zu implementieren, was dank seiner Freiheiten problemlos möglich war, und die öffentliche Verwaltung migrierte auf das freie Betriebssystem. Die Quelloffenheit führt dazu, daß freie Software in einem viel größeren Umfang lokalisiert wird als proprietäre.(446)

Der Staat als Marktregulierer hat die Aufgabe, Monopolauswüchse zu verhindern und kulturelle und Marktvielfalt zu gewährleisten. Immer mehr seiner Organe machen das vor, was sie predigen sollten. In Finnland gibt es bereits Behörden, die komplett mit GNU/Linux arbeiten. In Frankreich soll Quelloffenheit zum Ausschreibungskriterium für Software-Beschaffung werden.(447) Ähnliche Initiativen gibt es in Dänemark und Brasilien. In Deutschland setzten sich u.a. das Bundeswirtschaftministerium, das Bundesamt für Sicherheit in der Informationstechnologie und die Koordinierungs- und Beratungsstelle der Bundesregierung für Informationstechnik für den Einsatz freier Software ein. Der KBSt-Brief aus dem Februar 2000 spricht ein klares Votum dafür aus und gibt praktische Handreichungen.(448) Auf der Konferenz "Effizienter Staat 2000" im April wurde von einer Dienststelle mit 260 Mitarbeitern berichtet, die durch die Umstellung auf Linux gegenüber einer NT-Lösung fast 50.000 DM eingespart hat.(449) Auch der EU-Kommissar für die Informationsgesellschaft Erkki Liikanen kritisiert die Nichtverfügbarkeit des Sourcecodes kommerzieller Produkte, stellte eine Bevorzugung offener Software bei Ausschreibungen in Aussicht und empfahl die Förderung von Open-Source-Projekten.(450)
 
 
 

Freie Software in der Bildung

Computer-Bildung mit proprietärer Software heißt unweigerlich, daß die Schüler und Studenten lernen, Menü-Punkte zu bedienen. Mit einem 'mächtigen' modularen Betriebssystem wie Unix lernen sie mehr über die Funktionsweisen eines Computers. Durch die Offenheit der Quellen lassen sich diese studieren. Mehr noch erlaubt es die Lizenz, damit zu experimentieren, Änderungen vorzunehmen und dann zu schauen, ob die neu-kompilierte Software das tut, was man erwartet hat. Vor allem autodidaktische Neigungen werden von quelloffener Software angestachelt.

Die Unabhängigkeit von einzelnen Herstellern und die Vermittlung von Computerkenntnissen als Kulturtechnik, nicht als Kompetenz, die Software dieser Hersteller bedienen zu können, sieht auch Peter Bingel als seinen Bildungsauftrag. "Freie Software schafft, so denke ich, einen informationellen Freiraum. Entscheidend ist, dass sie für jeden verfügbar und zu besitzen ist und mit ihrer Hilfe ein von kommerziellen Interessen unabhängiger Raum entsteht. Und ich denke, dieser freie Raum ist besonders für den Bildungsbereich wichtig. [...] Alleine durch Freie Software ist man in der Lage, sich informationstechnologisch von der Vorherrschaft einiger weniger Global Players zu lösen. Dies ist eine Botschaft, die wir als Lehrer unseren Schülern unbedingt mitgeben sollten."(451) Bingel warnt insbesondere vor der Kommerzialisierung der Wissensbasis durch das Engagement von Firmen wie Microsoft, Apple, IBM und Sun im Bereich von Lern-Software und bei der Errichtung kommerzieller Bildungsangebote. Er schätzte Mitte 1999, daß deutlich über 10% aller deutschen Schulen Linux einsetzen. Meist geht das auf die Inititive einzelner Lehrer zurück, die aber im Verein Freie Software und Bildung(452) Unterstützung finden. In der Regel wird Linux als Server eingesetzt, aber Bingel betont, wieviel Unterricht-geeignete Software es bereits gibt.(453) Auch er spricht den Vorteil für Schüler an, deren Muttersprache nicht Deutsch ist, KDE in verschiedenen Sprachen laufen zu lassen. Nur freie Software erlaubt es außerdem, den Schülern Kopien der Programme mit nach Hause zu geben.

Emre Demiralp berichtet von einem Beispiel aus der höheren Bildung in der Türkei. Im Fachgebiet Elektrotechnik der technischen Universität Istanbul wurde 1998 eine Version des türkischen Linux (Turkuvaz) entwickelt. Bis 1991 standen den Studenten elf PCs zur Verfügung. Es gab dauernd Probleme mit Viren und Systemzusammenbrüchen. Ab 1992 stand ein SUN-Rechner zu Verfügung. Über das BITNET wurde die Leitung des Fachbereichs auf ein neues Betriebssystem namens Linux aufmerksam. Die Software war kostenlos und es gab genug Informationen im Internet. Die Angehörigen der Universität stellten jedoch fest, daß die Administration der Rechner keine leichte Aufgabe war. Es war zeitintensiv und fast unmöglich, mit wenigen Administratoren hunderte von Studenten zu betreuen. Da es zu teuer war, Fachkräfte für die Systempflege einzustellen, wurden Studenten als Administratoren gewonnen. Sie sollten die Systeme warten und konnten zugleich mehr lernen. Heute sind schätzungsweise 100 Studenten an der Pflege des Systems beteiligt. Sie opfern ihre Freizeit, um ihr Wissen zu erweitern, wodurch sie bei ihrem Abschluß eine zusätzliche Auszeichnung erhalten können. Außerdem werden Informationen über LINUX und verwandte Themen gesammelt und Studenten zur Verfügung gestellt. Alle zwei Monate wird auch ein türkisches Online-Magazin publiziert. Mittlerweile bestehen die Rechnerpools aus 70 Pentium 166ern, von denen 50 unter Linux laufen. Die Wartung wird durch die Studierenden vorgenommen. Das System selbst wird von ca. 500 Studenten 24 Stunden genutzt, die längste Zeit ohne einen einzigen Crash war 90 Tage.(454) Ähnliche Gruppen und Initiativen wie den Verein Freie Software und Bildung gibt es auch in anderen Ländern.(455)
 
 
 
 
 

Freie Software in den Nicht-G7-Ländern

Eine weitere besonders betroffene Nutzergruppe sind die weniger Betuchten dieser Welt. Der offenkundigste Vorteil für sie ist, daß Software-Kosten gespart werden können. Aber auch bei der Hardware ist es nicht erforderlich, das Wettrennen um die allerneueste Technologie mitzumachen, da GNU/Linux und andere freie Software in Versionen entwickelt wird, die ältere Hardware einsetzbar macht. Ein Intel-386er, Eine Rechnergeneration, die die meisten kommerziellen Nutzer längst ausgemustert haben, genügt den meisten heutigen Anforderungen. Das erlaubt es Organisationen wie der Computer Bank Hardwarespenden von Firmen, Behörden und Privatleuten entgegenzunehmen, sie mit freier Software auszustatten und an diejenigen umzuverteilen, die sich selbst solche Rechner nicht leisten können. Computer Bank ist ein australisches Projekt, das alte Niedrigverdienende, Community-Gruppen und benachteiligte Schulen mit alten Rechner ausstattet.(456)

Ende 1998 gab die mexikanische Regierung Pläne für ein Scholar Net Program bekannt, das in den folgende fünf Jahren Linux an 140.000 Schulen im ganzen Land mit fast 20 Millionen Schülern einführen wird. Die mexikanischen Schüler sollen Web- und eMail-Zugang erhalten, mit Textverarbeitung und Tabellenkalkulation vertraut gemacht werden und im Computer-Raum ihre Recherchen und Hausaufgaben machen können -- umso wichtiger, in einem Land, in dem nur eine verschwindende Minderheit einen Computer zu Hause hat. Parallel dazu bietet ein Projekt für eine digitale Bibliothek den Schülern die Möglichkeit, auf Lehrbücher im Netz zuzugreifen. Die Wahl von Linux begründete der Projektleiter Arturo Espinosa Aldama damit, daß die Kosten für kommerzielle Software nicht tragbar gewesen wären. Eine Microsoft-Lösung hätte das Land 124 Millionen Dollar gekostet. Nicht allein das Budget sprach für die Einführung von LINUX, sondern auch die bessere Verläßlichkeit, Anpassungsfähigkeit und Effizienz im Vergleich zu kommerzieller Betriebssystem-Software.(457) Scholar Net schließt Fernunterricht über Fernsehen (RED EDUSAT) und eMail ein. Schulen und Schüler erhalten eMail-Adressen und persönliche Webseiten. Koordiniert wird das Projekt von der Universidad Nacional Autónoma de México (UNAM) und dem Instituto Latinoamericano de la Comunicación Educativa (ILCE). Das Geld stammt von der Regierung und aus Spenden. In der ersten Phase hat das Projekt eine GNU/Linux-Distribution (mit Servern, wie sendmail, httpd, diald und squid, und für die Workstations GNOME-Applikationen, wie gwp, gnumeric und Netscape) namens Red Escolar(458) zusammengestellt und sie bei den Bildungsbehörden und Schulen in den einzelnen Bundesländern bekanntgemacht. Möchte eine Schule von dem Angebot Gebrauch machen erhält sie in der nächsten Phase Unterstützung bei der Installation auf der vorhandenen Hardware und Training. Espinosa ist über die Rückendeckung durch die Behörden erfreut: "We thought there would be some resistance from the big bosses but, due to the attention GNU/Linux is being paid in the mainstream computing media, the University is now considering GNU/Linux as a valid option and we are being accepted because we do have something to show."(459) Im Bildungsministerium denkt man bereits über die nächste Phase nach, in der die Entwicklung von Bildungs-Software im Vordergrund stehen soll.

Während in Mexico und Brasilien die Regierung diesen Kurs fördert, geht die ersten Schritte in die freie Software meist auf Grassroots-Initiativen zurück, wie ein Beispiel aus Malaysien zeigt. Die Vereinigung der Thalassaemie-Betroffenen war mit der Bitte an die Malaysische Open Source Group herangetreten, ihnen bei der Errichtung einer eCommunity zu helfen. Geld aus einem staatlichen Förderprogramm war in Aussicht gestellt, doch Papier ist geduldig. Statt dessen fand sich ein 155er Pentium mit 500 MB Festplatte -- nach allen Standards auch das schon wenig mehr als Computer-Schrott. Darauf installierte die Gruppe das schlanke FreeBSD, dazu Apache, Majordomo, Sendmail, Bind und Perl. Damit hatte die Community eine Web-Site, Mailinglisten, ein Web-basiertes Diskussionsforum und ein Formular, um sich für Veranstaltungen zu registrieren.(460) Sobald das Geld eintrifft, werden sie die Hardware und das Informationsangebot erweitern. Die Open Source Group wird der Community dabei helfen, ihnen beibringen, das System selbst zu unterhalten und dann weiterziehen zu einer anderen Non-Profit-Community.

Afrika hat die geringste Durchdringung mit Computern und Internet. Während 1995 nur acht afrikanische Staaten über einen Internet-Zugang verfügten, waren es Ende 1997 bereits zweiundvierzig. Seit 1999 gibt es in allen Ländern Afrikas, außer in Somalia, Internetzugang.(461) Die Bandbreite wird in den nächsten Jahren u.a. mit Hilfe von neuen Satelliten und eine Unterwasser-Glasfaserkabels, das den gesamten Kontinent umspannt, erheblich erweitert. Nazir Peroz, Sprecher der Fachgruppe 'Informatik und Dritte Welt' der Gesellschaft für Informatik und Dozent an der TU Berlin, berichtete daß Linux an Universitäten in Simbabwe und bei der WHO verwendet wird, da es sich um ein robustes Betriebssystem handelt. Die Lage in Äthiopien ist ähnlich. Peroz' Ansprechpartner in Mosambik sind zwar an freier Software interessiert, scheitern jedoch an grundlegende Problemen der Informatikausbildung und der Ausstattung der Universität. Neben den technischen Möglichkeitsbedingungen sind Wissen und Bildung Voraussetzungen für eine Teilhabe an der globalen Informationsgesellschaft. Die Informatikausbildung an afrikanischen Hochschulen sei zu wenig praxisorientiert. Hier sieht Peroz Herausforderungen für den Informationstechnologie-Transfer. In der Arbeitsgruppe Computer Information Transfer unterstützt er afrikanische Dozenten und Studierende über das Internet bei Informatikfragen. So arbeiten die AG-CIT z.B. mit dem Fachbereich Informatik der Universität Simbabwe in Harare zusammen.(462)

Einen gewaltigen Zulauf könnte freie Software in China erhalten. Mit einer Zuwachsrate von zehn Millionen verkauften PCs pro Jahr nimmt die Computerisierung dort rasch zu. Da eine Kopie von Microsoft Windows 98 zu einem Preis verkauft wird, der einem halben Jahreslohn eines Arbeiters entspricht, handelt es sich bei der verwendeten Software überwiegend um illegale Kopien. In diesem Segment herrschten bislang Microsoft-Betriebssysteme vor, obgleich sie der Handhabung chinesischer Schriftzeichen nicht besonders entgegenkommen. Am Software-Institut der Chinesischen Akademie der Wissenschaften wurde im Juni 2000 die erste chinesischsprachige 64-Bit-Version von Linux vorgestellt. Während bei Windows vier bis sechs Tasteneingaben nötig sind, um ein Zeichen aufzurufen, benötigt das neue Chinese 2000 der Wissenschaftsakademie nur durchschnittlich 2,5 Tasteneingaben. Federal Software, der größte Software-Vertreiber des Landes, verkaufte 1999 sein chinesisches Linux beinah 200.000 Mal, etwa 200 Mal häufiger als das chinesische Windows. Federal bietet denjenigen Bluepoint-Linux zum Preis von 10 Yuan ($2) an, die eine Kopie illegaler Software aushändigen. Verschiedene wichtige Regierungsbehörden beschlossen, das einheimische Red Flag Linux einzusetzen. Auch Red Flag wurde an der Wissenschaftsakademie in Zusammenarbeit mit Compaq entwickelt.(463)

Ein Gutteil der primären Ressourcen der Welt liegen in den ärmeren Ländern des 'Südens,' wenngleich auch ihre Ausbeutung häufig in den Händen externer Unternehmen liegt. Das Eigentum an Wissen (wie das an Kapital) dagegen konzentriert sich im 'Norden'. Das traditionelle Wissen des Südens, z.B. über Pflanzenheilkunde, wird auch noch, ohne Kompensation, enteignet, um es in die Informationsverarbeitungsmaschinerie des Nordens zu speisen. Wo in ärmeren Ländern Computer verfügbar sind, ist häufig auch 'kostenfreie' proprietäre Software zu haben, doch die kann man nur unter der Drohung der Einschüchterung und Verfolgung durch Unternehmen und Polizei verwenden. Vor allem die WIPO und die WTO stehen für eine aggressive Agenda der Durchsetzung von geisten Eigentumsrechten in aller Welt. Freie Software bietet auch in dieser Hinsicht eine bessere Alternative.

SatelLife(464) ist eine international not-for-profit Organization, die die Kommunikation im Gesundheitswesen in den Entwicklungsländern verbessern hilft. Sie hat dazu ein umfassendes Netz aus Funk, Telefon und dem Low Earth Orbit (LEO)-Satelliten HealthSat-2. HealthNet ist ein (store-and-forward) FidoNet. Die Software für seine Satelliten-Gateways und die Bodenstationen hat SatelLife auf der Basis von Linux entwickelt.
 

"For starters, the staff of Satellife had to seek out and master technologies cheap enough for users in the world's poorest countries but reliable enough to deliver vital medical information fast. And the organization didn't have the funds that corporate IT departments have for equipment and software -- so it used free and open-source software to link users to forums. And as the Internet became a more vital tool, Satellife had to make sure that users without browsers could still get information via the Web. It also used second-hand gear where possible and relied on research institutes and discussion groups, rather than high-priced consultants, for advice."(465)
 

Nicht nur NGOs, sondern auch die 'große' Entwicklungspolitik hat sich dem digital Divide(466) angenommen. Das Third World Network of Scientific Organizations, aber auch Organisationen wie die UNESCO, die Weltbank (InfoDev) und USAID betreiben Initiativen, um die IT-Infrastruktur, Ausbildung und Forschung in Entwicklungsländern zu verbessern und Kooperationen zu fördern. Das United Nations Developement Programme betreibt seit 1992 das Sustainable Development Networking Program (SDNP) eine Initiative um die lokale wie Internet-Netzwerkinfrastruktur in Entwicklungsländern zu fördern und Menschen zu helfen Wissen für eine nachhaltige Entwicklung miteinander zu teilen. "Information and Communication Technologies [ICTs] are now fundamental to dealing with all development issues in developing countries and cuts across UNDPs main areas of concentration. It is a core tool needed to achieve Sustainable Human Development (SHD) and one that can facilitate the 'leap-frogging' of developing countries into 21st century ICTs and SHD goals."(467) Corel(468) und Red Hat statten das Programm mit ihren Linux-Distributionen aus. Auch die UNESCO verbreitet kostenlose Linux CD-ROMs an wissenschaftliche, Bildungs- und Community-Projekte in Lateinamerika:
 

"We believe LINUX can play a very important role in Latin American and Caribbean modernisation, constructing networks to permit a great number of universities, colleges, schools and educational centers, to connect to Internet in order to use this fabulous tool to improve their scientific and cultural levels. In a few words, LINUX is the tool which permits to reduce the 'technological gap' between the countries. LINUX permits the acces to 'the informatics [of] the most advanced' implemented according to the reduced economic capacities in our region. LINUX is a new way to make informatics, where the most important thing is 'the technical quality and people solidarity.'"(469)
 

Auf dem Colloque Inforoute et Technologies de l'Information im Oktober 1997 in Hanoi ebenso wie auf der von der UNESCO in Zusammenarbeit mit dem International Council for Science organisierten World conference on Science im Juni 1999 in Budapest spielte die Bedeutung von freier Software für die Teilhabe am technologischen Fortschritt eine wichtige Rolle.
 
 

Wirtschaftliche Potentiale freier Software





"The Linux community, a temporary, self-managed gathering of diverse individuals engaged in a common task, is a model for a new kind of business organization that could form the basis for a new kind of economy."

(Harvard Business Review, September 1998)
 

Die Bewegung der freien Software mag auf den ersten Blick als eine Aberration vom allgemeinen Marktgeschehen erscheinen. Auf den zweiten wird man sie für einen 'Rückfall' in den ursprünglichen Zustand der Software-Branche vor Beginn ihrer Kommodifizierung halten können. Noch genaueres Hinsehen fördert dann jedoch eine Reihe Korrespondenzen und Strukturähnlichkeiten zu Trends der 'offiziellen' Ökonomie zutage.

Seit den sechziger Jahren wird hier ein Strukturwandel von der Industrie- und Warengesellschaft zur Informations- und Dienstleistungsgesellschaft attestiert. Information wird anstelle von Materie zur zentralen industriellen Ressource und Ware. Als einen Umschlagpunkt nannte der Club of Rome in seiner Studie "Grenzen des Wachstums" das Jahr 1970. Die Indikatoren für stofflichen Reichtum, die bis dahin mit dem Bruttoinlandsprodukt korrelierten, entwickeln sich seither umgekehrt proportional: je reicher ein Land, desto geringer der stoffliche Anteil an diesem Reichtum. Im Maße das Internet zur Infrastruktur der Wirtschaft wird, werden Grenzen zwischen Unternehmen und die zwischen Nationalökonomien fließend. 'Virutelle Unternehmen' bestehen aus nicht mehr als einem Planungskern, der für die Dauer eines Projekts Kooperationen mit anderen eingeht und Leistungen nach Bedarf von außen zukauft.

Jeremy Rifkin sagt in seinem neuen Buch das Verschwinden des Eigentums voraus, dessen Besitz durch den Zugang ("Access") zu vor allem geistigem Eigentum ersetzt werde.
 

"Unternehmen sind in diesem Übergang vom Besitz zum Zugang schon ein Stück vorangekommen. In einem gnadenlosen Wettbewerb verkaufen sie ihren Grundbesitz, verschlanken ihr Inventar, leasen ihre Ausstattung und lagern ihre Aktivitäten aus; sie wollen sich von jeglichem immobilen Besitz befreien. Dinge, und zwar möglichst viele, zu besitzen wird in der an Schnelligkeit und Flexibilität orientierten Wirtschaft des neuen Jahrhunderts als überholt und lästig betrachtet. In der heutigen Geschäftswelt wird fast alles geliehen, was ein Unternehmen zu seinem Betrieb braucht."(470)
 

Den gleichen Trend sieht er bei den Verbrauchern.
 

"Zwar werden niedrigpreisige haltbare Dinge auch weiterhin gekauft und verkauft werden, teurere Objekte jedoch, Geräte, Autos oder Häuser, werden zunehmend von Anbietern gehalten werden, die den Konsumenten über zeitlich befristete Leasing- oder Mietverträge, Mitgliedschaften und andere Dienstangebote Zugang und Nutzung gewähren."(471)
 

Und was wird aus der materielle Produktion, der Landwirtschaft und den nicht-informationellen Dienstleistungen? Hier werde die menschliche Arbeitskraft zunehmend von intelligenten Maschinen ersetzt. 2050, so prophezeit Rifkin, werden nicht mehr als fünf Prozent der erwachsenen Bevölkerung benötigt, um die herkömmlichen Betriebe in Gang zu halten. Die übrigen 95 Prozent (falls es eine Vollbeschäftigung geben sollte) werden dann, so suggeriert er, in der Informationsökonomie arbeiten, vor allem in der Kulturindustrie, die die letzte Stufe des Kapitalismus darstelle.

Wie die Arbeitsbedingungen im Herzen der High-Tech-Industrie, im Silicon Valley, heute aussehen, umreißt Netzaktivist Florian Schneider so:
 

"'Nettokratie' ist eine der jüngsten Wortschöpfungen, die den Blick auf die soziale Zusammensetzung der Informationsgesellschaft lenken soll. Den von Arthur Kroker schon 1994 zur 'virtuellen Klasse' erhobenen Entrepreneurs steht ein Heer von Netzsklaven gegenüber, die sich bei den Start-Ups in den Silicon-Somethings verdingen [...] Die Arbeitskräfte, sagt Andrew Ross, der als Direktor des American Studies Program an der New York University(472) die Situation im Silicon Alley untersucht hat, seien zur Hälfte Werkvertragsarbeiter, die vor allem darauf angewiesen seien, daß ihre Aktienanteile steigen. Das Durchschnittseinkommen liege mit 50.000 US Dollar ungefähr bei der Hälfte dessen, was in den alten Medien verdient werde. Bemerkenswert ist, daß ausgerechnet Künstler mit ihrem flexiblen und selbstlosen Arbeitsethos das Rollenmodell für die 'freiwillige Niedriglohn-Armee' abgeben. Der 'Glamour der Boheme' kommt nach Ross einer Einladung zur Unterbezahlung gleich. [...]

Daß die 'New Economy' aber nicht nur hochqualifizierte Jobs hervorbringt, sondern vor allem Unmengen von vergleichsweise banalen Tätigkeiten wie Telefonieren, Pizza-Bringen oder Saubermachen schafft, wird in den gegenwärtigen Debatten gewöhnlich unterschlagen. In den USA machen seit einigen Wochen Tausende von Reinigungskräften mit einer Streikwelle bisher ungekannten Ausmaßes auf sich aufmerksam. Die 'Janitors', die die Office-Türme jede Nacht von den Überresten der immateriellen Arbeit reinigen, sind meist lateinamerikanische Einwanderer. Die 'Janitors' kämpfen um eine sukzessive Anhebung ihrer Hungerlöhne, für die die boomenden High-Tech-Firmen allerdings keine Verantwortung übernehmen wollen. Für die schmutzigen Geschäfte sind nämlich Subunternehmer zuständig."(473)
 

Auf der Konsumentenseite sieht der führende deutsche Mikroökonom Norbert Szyperski durch Online-Auktionen den Markt sich in einen 'Basar' im eigentlichen Sinne verwandeln: die Güter haben keine feste Ausschilderung, alle Preise werden ausgehandelt. Mit dem neuen Ort des Marktes entstehen neue Regeln, neue Verhältnisse zwischen Anbieter, Käufer und Ware und neue Fragen: "Wie kann man Übertragung sicherer machen? ... Wie kann man ein geschäftliches Vertrauensverhältnis in dieser Medienwelt etablieren, wie man das üblicherweise mit seinen Stammlieferanten oder Stammkunden haben konnte? ... Wie macht man internationale Kleingeschäfte? Welche Rechte gelten da?"(474)

Verschiebt die informationstechnologiegestützten Ökonomie den Schwerpunkt von materiellen zu immateriellen Gütern, so gleichzeitig den vom Verkauf von Werkstücken zur Lizenzierung von Nutzungen. "Heute schon gibt das reiche obere Fünftel der Weltbevölkerung für den Zugang zu kulturellen Erlebnissen genausoviel aus wie für Fertigerzeugnisse und Dienstleistungen."(475) Mit diesem Wandel geht auch der vom Produkt zum Prozeß einher. Bislang wurde eine Software als Werkzeug angesehen, das -- zumindest bis zum nächsten Upgrade -- statisch bleibt. Nach dem neuen Verständnis steht auch im kommerziellen Teil der Branche die Implementierung, die laufende Anpassung und die Mitarbeiterschulung im Vordergrund. Software könnte statt als Produkt als eine Dienstleistung zur Generierung, Distribution, Manipulation und Archivierung von Informationsflüssen verstanden werden. Perry Barlow schrieb 1994 in seinem klassisch gewordenen Aufsatz "The Economy of Ideas", Information sei eine Aktivität, eine Lebensform und eine Beziehung.(476) Die Aussage ist der freien Software-Bewegung wie auf den Leib geschneidert.

Wird also die Linux-Commmunity, wie die Harvard Business Review schrieb, zum Modell einer neuen Art von Ökonomie? Ist sie die Avantgarde eines generellen Stukturwandels oder nur ihr Nutznießer? Oder ist sie das Trüffelschwein, das im Möglichkeitsraum des Internet stöbert und dabei Schätze hervorholt, aus denen sich die kapitalistische Maschinerie nimmt, was sie zu ihrer Verjüngung braucht? Oder ist im Grunde das, was die freie Software-Welt macht, dasselbe, was seit den achtziger Jahren auch in den Unternehmen geschieht?

Eine allgemeine Tendenz zu Dezentralisierung, Abbau von Hierarchien und offenen Systemgrenzen ist auf jeden Fall nicht zu übersehen. Globalisierung und Flexibilisierung der Wirtschaftsstrukturen sind vielfach verzeichnete Trends. Die Projekte der freien Software übetreffen jede management- und organsiationstheoretische Vision an Ortsverteiltheit, lockerer Kooperation und zwangloser Koordination. Genauso wie die Frage nach dem 'Standort' eines multinational operierenden Unternehmens wenig Sinn macht, kann man auch von den Software-Projekten nicht sagen, sie seien amerikanisch, deutsch oder sonstwie nationalstaatlich zuzuordnen. Ihr 'Standort' ist das Internet.

Auch das Konzept vertikaler Kooperation ist der Wirtschaft nicht fremd. Der 'Wertschöpfungspartner auf der Nachfrageseite', wie es im Ökonomenjargon heißt, also der Anwender, wird zum 'Koproduzenten'.
 

"die freie Mitwirkung ist etwas, was praktisch wie eine Epidemie durch die gesamte dienstleistende und wissensintensive Industrie hindurchgeht. Nicht umsonst versucht man Kooperation und Competition, also Wettbewerb, auch begrifflich in Cooptition zu fassen, weil wir nicht mehr so scharf sagen können: Wer ist eigentlich mein Gegner oder mit wem mache ich gemeinsame Entwicklung und mit wem treffe ich mich nur beim Vertreter, möglicherweise beim Kunden, als Konkurrent? Koproduktion ist der Begriff für die Dienstleistung schlechthin. Wenn Sie heute z.B. das Gesundheitswesen neu diskutieren, sprechen Sie nicht mehr über die Frage: Was sollte der Arzt mit dem Patienten tun, wenn der in die Klinik oder in die Sprechstunde kommt? Sondern wir gehn davon aus, daß derjenige, der noch leben will, selber Koproduzent seiner Gesundheit sein muß."(477)
 

Software-Anwender, die ein Programm benutzen, testen, Fehler zurückmelden und Verbesserungsvorschläge machen, sind Koproduzenten, ob von Microsoft-Windows oder von GNU/Linux. Wie oben gezeigt,(478) ist nicht einmal die Kooperationsgemeinschaft oder, wenn man so will, Allmendgenossenschaft ein Privileg der freien Software. Auch herkömmliche Unternehmen errichten und pflegen ihre gated Communities. Bleibt also der Preis?
 

"Traditionell bestimmt sich der Preis einer Ware aus den Faktoren Angebot und Nachfrage. Da die Freie Software per Definition beliebig kopiert und verteilt werden darf, und weil die Reproduktion im Zeitalter von CD-ROM und Internet mit keinen nennenswerken Kosten verbunden ist, wird das Angebot beliebig groß. Der Preis für die Software muß demnach selbst bei überwältigender Nachfrage beliebig klein werden. In der Realität befindet er sich tatsächlich auf dem Niveau des Selbstkostenpreisen für die Reproduktion. Einen Internetanschluß vorausgesetzt ist Freie Software ohne zusätzliche Kosten erhältlich."(479)
 

Die nahezu kostenlose Distributionsmöglichkeit gilt auch für proprietäre Software, doch die ist eben in der Regel nicht kostenlos. Es ist gerade der Free Beer-Aspekt der freien Software, der gestandenen Ökonomen Rätsel aufgibt. Meist ordnen sie das Phänomen zunächst dem Marketing zu. Freie Software entspräche demnach einem Werbegeschenk, das Kunden für andere Produkte oder Dienstleistungen gewinnen soll, etwa einem Mobiltelefon, das in der Erwartung kostenlos abgegeben wird, daß die Grund- und Verbindungsgebühren über den Vertragszeitraum hinweg nicht nur die Kosten des Gerätes, sondern einen Profit darüber hinaus einspielen.(480) Auch Rifkin sieht dies als einen generellen Trend. "Im klassischen Industriezeitalter wollten Unternehmen vorrangig ihre Produkte verkaufen; kostenlose Servicegarantien setzten Kaufanreize. Heute ist dies geradezu umgekehrt. Immer häufiger geben Unternehmen ihre Produkte buchstäblich umsonst ab: Sie hoffen statt dessen auf langfristige Servicebeziehungen zu ihren Kunden."(481)

Solche Mechanismen findet man an zahlreichen Stellen in der emergierenden Internet-Ökonomie. Kostenlos zugängliche Information in Form von redaktionell erstellten Magazinen, aufbereiteten Portalen und thematischen Diskussionen generiert eine Aufmerksamkeit, die in Form von Bannern, Listen potentieller Kunden und anderen Mechanismen an die Werbeindustrie verkauft werden kann. Information wird zur Markteinführung und zum Betatesten eine Zeit lang kostenlos angeboten, um dann Gebühren dafür zu erheben. Proprietäre Software wird als Demoversion mit eingeschränkter Funktionalität oder Laufzeit verschenkt, um zum Kauf der Vollversion zu locken. Client-Software (Web-Browser, Viewer und Player für Text- (z.B. Adobe Acrobat), Audio- und Video-Formate (z.B. Real-Player)) wird kostenlos abgegeben, um Informationsanbieter zu bewegen, die Editier- und Server-Software für diese Formate zu erwerben. Klassische Werbegeschenke, wie kleine Werkzeuge oder Spiele, sollen Kunden auf Webseiten locken und helfen, einen Firmen- oder Markennamen zu etablieren.

Dabei handelt es sich natürlich nicht um freie Software. Weder ist hier der Quellcode verfügbar, noch darf er modifiziert werden. Doch mancher Nutzerin mag es gleich sein, ob ihre Programme von Microsoft oder von der FSF kommen, solange sie nur kostenlos sind. Auch freie Software wird in diesem Marketing-Sinne als Add-On zur Aufwertung von proprietären Produkten verwendet. So wird beispielsweise der Apache Webserver von IBM zusammen mit dessen Server-Systemen vertrieben. Für SCO-Unix gibt es die Skunkware-CD, auf der freie Software für dieses Betriebssystem verteilt wird. Computerfachbüchern und Zeitschriften enthalten als Added-Value CDs mit freier Software.

Ein anderes 'Geschenkmodell' benutzen Unternehmen, die bestehende oder neue Software open-sourcen.(482) Gründe dafür können sein, daß sie ein neues Produkt in einem saturierten Marktsegment einführen und dazu Aufmerksamkeit generieren, daß sie Entwicklerressourcen aus der freien Szene einbinden wollen oder daß ihr Business-Plan sich nicht auf den Verkauf von Software, sondern von Dienstleistungen stützt. Es handelt sich dabei also um traditionelle Firmen, deren Aktivitäten in den Bereich der freien Software hineinragen, während umgekehrt die freie Software-Szene sich geldökonomische Tätigkeitsfelder erschließt.

Werbegeschenke haben, im Gegensatz zu reiner Werbung einen Gebrauchswert. Sie werden kostenlos abgegeben und auf anderen Wegen, letztlich vom Käufer der beworbenen Ware bezahlt. Die freie Software wäre in Analogie das Geschenk, das die Dienstleistungen (Distribution, Support usw.) bewirbt, deren Möglichkeitsbedingung sie zugleich ist. Die Analogie findet darin ihre Grenzen, daß Werbegeschenke in einer engen geldökonomischen Schleife von 'Geschenk' und erhofftem Ertrag desjeniegen stehen, der das Geschenk vorfinanziert. Freie Software lebt jedoch weiterhin wesentlich davon, daß viele Menschen Arbeit in sie stecken, die die Reproduktion ihrer Arbeitskraft anderweitig sichern können.

Bei allen Ähnlichkeiten bleibt der zentrale Unterschied: freie Software wird nicht aus pekuniären Gründen erstellt. Perry Barlow schrieb 1994 unter der Zwischenüberschrift "Information ist ihre eigene Belohnung":
 

"And then there are the inexplicable pleasures of information itself, the joys of learning, knowing, and teaching; the strange good feeling of information coming into and out of oneself. Playing with ideas is a recreation which people are willing to pay a lot for, given the market for books and elective seminars. We'd likely spend even more money for such pleasures if we didn't have so many opportunities to pay for ideas with other ideas. This explains much of the collective 'volunteer' work which fills the archives, newsgroups, and databases of the Internet. Its denizens are not working for 'nothing,' as is widely believed. Rather they are getting paid in something besides money. It is an economy which consists almost entirely of information.

This may become the dominant form of human trade, and if we persist in modeling economics on a strictly monetary basis, we may be gravely misled."(483)
 

Daß Menschen Dienstleistungen lieber mit Gegenleistungen als mit Geld bezahlen, motiviert auch die Tauschringe, die in vielen deutschen Städten und andernorts sprießen. Sie sind dem Phänomen der freien Software noch am ehesten verwandt in der gemeinsamen Überzeugung, daß es neben dem Geld noch andere würdige Werte gibt. "[N]othing kills the notion of community faster than putting a price on it."(484) Auch bei Oekonux, einer Gruppe, die über die Ökonomie von GNU/Linux diskutiert, herrscht die einhellige Auffassung, daß sich Geld und freie Entfaltung gegenseitig ausschließen.
 

"Der Aspekt des 'nicht-kommerziellen' [...] oder der Entwicklung außerhalb von Verwertungszusammenhängen wie ich das nennen würde, ist IMHO der entscheidende Aspekt. [...] Wenn 'free beer' für Verwertungsfreiheit steht, dann bin ich auch für free beer, so hats Stallman allerdings nicht gemeint.

Warum verwertungsfrei? Nur außerhalb solcher Verwertungszusammenhänge (sprich: außerhalb von Lohnarbeit) ist wirkliche Entfaltung des kreativen Menschen möglich. Das hat auch Eric Raymond erkannt, irgendwo auf seiner Seite zitiert er Untersuchungen, aus denen hervorgeht, das Menschen viel unproduktiver sind, wenn sie 'für Geld arbeiten' als wenn sie 'for fun' sich entfalten. Verwertung und Entfaltung ist ein unaufhebbarer Widerspruch!(485)
 

Nachdem das gesagt ist, bleibt die Frage, womit wird denn nun in der freien Software Geld verdient? Eine frühe Analyse der Nutzungsschritte frei weiterverbreitbarer Software und der jeweiligen Möglichkeit von Einkünften findet sich bei Peter Deutsch.(486) Die wichtigsten Chancen für Software-Arbeiter sieht er in der Unterstützung von Anwendern bei Installation und Bedienung sowie bei Anpassung und Erweiterung. Da der Quellcode offen ist, bieten sich dazu auch für Dritte Gelegenheiten, die bei proprietärer Software auf den Hersteller und lizenzierte Partner beschränkt sind. Deutsch weist auch auf die unter Gewinngesichtspunkten widersprüchliche Position der Autoren hin. Es sei in ihrem Interesse, rasch unfertige Software mit mangelhafter Dokumentation zu verbreiten, da dadurch ihre Chancen für Dienstleistungen steigen. Ist die Software von guter stabiler Qualität und gut dokumentiert, sei der Bedarf nach Support minimal, besonders, da sich freie Software meist an Entwickler richte. Reine Anwender-Software gebe es nur in sehr geringem Umfang. Tatsächlich sei aus diesen Gründen die Support-Industrie derzeit (1996) verschwindend klein. Ihm sei nur eine Firma bekannt, Cygnus, die einen jährlichen Umsatz von mehr als einer Million Dollar hat. Deshalb erwartete er, daß mehr Autoren versuchen werden, in Form von Shareware oder einer Doppellizenzierung mit freien not-for-profit- und parallelen kommerziellen Versionen eine Entschädigung zu erhalten. Aus der Sicht eines kommerziellen Distributors sei freie Software kein besonders profitables Geschäft. Selbst ihre Leistung, Programmen ausfindig zu machen, könne durch immer ausgefeiltere Suchmaschinen überflüssig werden. Sein Fazit: "The rewards available to authors with pure FRLs [Freely Redistributable Licenses], and the nature of end-users' expectations, make it unlikely that functionally rich, end-user-oriented FRS will be created other than as shareware; however, the FRS model can work well for more developer-oriented applications. It will be interesting to see how FR and non-FR software compete in the emerging domain of reusable components."(487) Die Bewegung ist inzwischen auf dem besten Wege, Deutschs erste Einschätzung zu widerlegen. Seine Frage nach den Komponentenarchitekturen bleibt weiter interessant.

Eine ähnliche Lagebeschreibung liefert im selben Jahr Jim Kingdon, der vorher für Cygnus und die FSF gearbeitet hatte und zu der Zeit bei Cyclic Software beschäftigt war.(488) Cygnus (heute Red Hat) mit damals 50 Beschäftigten und das kleinere Startup Cyclic (heute OpenAvenue(489)) waren die frühen Vorzeigebeispiel für erfolgreiche Geschäftsmodelle mit freier Software. Kingdon nennt außerdem das X Window-Firmenkonsortium, das damals etwa 25 Personen beschäftigte, und die FSF, für die acht Angestellte arbeiteten. Als Support-Dienstleister erwähnt er Yggdrasil und als Distributor Red Hat. "Five successful ways of making money are by providing custom work for ports and new features, support contracts, training, consulting/customization, and telephone support." Er beschreibt sie ausführlich und gibt Beispiele aus der Zeit. Seine Folgerung: "People in free software businesses can make a living. And free software businesses need not inhibit in any way the communities of users and contributors which have been so instrumental in many free software projects." Was die Endnutzer-Software betrifft ist Kingdon optimistischer als Deutsch: "Software for hackers [...] is only the beginning."

In den vier Jahren seither hat die freie Software eine gewaltige Dynamik entfaltet. Heute gibt es die unterschiedlichsten Hybridformen in einer wachsenden Grauzone zwischen Open Source und eCommerce. Auch Venture Capital und das schnelle Geld der Börsengänge ist im Spiel. Vor allem der begrifflichen Wende von 'Free Software' zu 'Open Source Software' folgte -- Raymonds Kalkül erfüllend -- eine Wende des Marktes. Zu den ersten Ereignissen gehörte noch 1998 der Deal zwischen IBM und der Apache-Gruppe, bei die IBM-Anwälte entsetzt fragten, wie sie denn einen Vertrag mit einer Website schließen sollen. Die Phase der Unschuld ist lange vorüber. Spätestens nach dem überaus erfolgreichen Börsengang von Red Hat im August 1999, strömt das Geld in alles, was einen Pinguin trägt. Im Dezember 1999 brach VA Linux Systems alle Rekorde, als die $30-Aktie am ersten Tag für ganze $300 gehandelt wurde (die Höchstmarke unter allen IPOs stand bei 606% am ersten Tag, VA trieb sie auf 697,50%). Im Januar 2000 zog TurboLinux Investitionen in Höhe von $50 Mio von Dell, Compaq, Toshiba, NEC u.a. an, nachdem zuvor bereits Intel zugeschlagen hatte. Intel hat ebenfalls in Red Hat und SuSE investiert. Caldera Systems bekam $30 Mio und meldete sein IPO an. LinuxCare bekam $32 Mio von Sun. Covalent, Support-Anbieter für Apache, hat eine Finanzspritze von $5 Mio erhalten und der kommerzielle Supporter Linuxcare eine von $30 Mio. Zu den Investoren gehören Dell und Oracle.(490)

All das kann sich natürlich mit den mehr als $6 Milliarden Einnahmen nicht messen, die Microsoft im selben Jahr erzielte. Doch, daß mit einem Mal hunderte Millionen Dollar in einen sozialen, technischen, kreativen Prozeß fließen, in dem Geld bislang nur eine sehr eingeschränkte Rolle spielte, wird ihn ohne Frage verändern. Die bislang zu beobachtenden Folgen waren ambivalent. Auf der positiven Seite ist sind Einrichtungen wie Sourceforge(491) von VA Linux und das Red Hat Community Center(492) zu nennen, mit dem Unternehmen der freien Software der Community wertvolle Ressourcen zur Verfügung stellen. Problematischer scheint sich das Verhältnis zu traditionellen Software-Uternehmen zu gestalten, wie die gespannten Beziehungen zwischen Corel und KDE zeigen.(493)

"Wieviel Geld läßt sich mit freier Software verdienen?" Dieser Frage ging eine Studie des Investment-Dienstleisters WR Hambrecht + Co im Mai 2000 nach. Die Antwort: "Our estimate: over $12 billion by 2003. Revenue from the market for Linux products and services is expected to explode with a compounded annual growth rate (CAGR) of 90%, growing rom $2 billion in 2000 to over $12 billion in 2003. [...] While the revenue opportunity presented by companies focused on Linux products and services seems large, we believe that these estimates are only the beginning."(494) Vor allem mit der weiteren explosiven Ausbreitung des Internet und dem Anbruch einer mobilen und Post-Desktop-Ära sieht die Studie ein mögliches lawinenartiges Anwachsen des freien Software-Marktes voraus.
 

Im Folgenden werden die wirtschaftlichen Potentiale freier Software aus Sicht der verschiedenen beteiligten Aktoren betrachtet, den Anwendern, den Dienstleistern (Distributoren, Systemhäuser und Application Service Providers), den Autoren und der Handbuchbranche.
 
 
 

Anwender von freier Software

Hauptgewinner sind die Anwender, die den Gebrauchswert der Programme erhalten. Ob private Anwender oder Systemverwalter, sie können sich aus dem Pool freier Software selbständig bedienen und von den Vorteilen, wie Flexibilität, Stabilität (weithin getestet und debugged), Investitionssicherheit und Betriebssicherheit (Software läßt sich nur dann auf Sicherheitsmängel und Hintertüren überprüfen, wenn der Quellcode vorliegt), profitieren. Kooperative Hilfe finden sie im Internet.(495)

Freie Software bietet die Chance, sich von proprietären Anbietern zu emanzipieren und sich selbst zu qualifizieren. Sie fordert zum Ausprobieren und zum Lernen heraus. Dabei vermittelt sich duch Freie Software neben dem Wissen über die Anwendung auch das Wissen über die zugrundeliegende Technologie. Die Gängelung durch herkömmliche Industriepraktiken verunmöglicht nicht nur eigene Modifikationen, sondern kann schon die reguläre Anwendung eines Produktes schwierig machen, wie eine Erfahrung der taz zeigt: "Z.B. hatten wir das Problem, daß wir unser NT-Netzwerk vernünftig backupen wollten und feststellten, daß wir überhaupt keine vernünftige Dokumentation darüber bekommen, wie ich das jetzt eigentlich machen kann. Man muß ein Non-Disclosure Agreement unterschreiben und bekommt dann unter Umständen die Hinweise -- das weiß man vorher gar nicht genau. Und wenn man dann daraus etwas entwickelt, kann ich das noch nicht einmal weitergeben."(496) Dagegen erlaubt freie Software eine individuelle Anpassung und Weiterentwicklung durch eigene Mitarbeiter oder externe Dienstleister. Die Integration in bestehende Systeme und die Herstellung von Interoperabilität mit anderen freien oder kommerziellen Lösungen ist möglich.

Freie Software ist kostengünstiger. Einer Gartner-Group-Studie zufolge betragen die Kosten für Software-Lizenzen im Schnitt nur etwa 10% der Investitionen in Internetprojekte.(497) Doch auch wenn die Software gebührenfrei beschafft werden kann, ist die Total Cost of Ownership natürlich nicht gleich Null.(498) Cygnus, die erste Firma, die kommerziellen Support für GNU-Software anbot, warb mit dem Slogan "Making Free Software Affordable". Die Installation und Wartung kosten weniger als bei vergleichbaren kommerziellen Produkten. Wie in jede neue Software müssen sich die Anwender zunächst einarbeiten. Die Einstiegshürde ist hier z.T. größer als bei proprietärer Software (Beispiel: Sendmail), doch führt die Offenheit zu einem höheren Maß an Verständnis dafür, wie die Software arbeitet. Alle folgenden Anpassungen und Entwicklungen sind daher mit weniger Aufwand verbunden. Bei einem Wechsel der Hardware oder der Plattform können die erworbenen Kenntnisse weiterverwendet werden. Das bedeutet eine Unabhängigkeit von den Herstellern und damit eine hohe Investitionssicherheit. Ein weiteres Beispiel aus der Erfahrung der taz:
 

"Ich muß nicht, wenn ich eine Plattform oder das Betriebssystem-Release wechsle, eine neue Lizenz vom Software-Hersteller kaufen oder habe Beschränkungen, wie sie z.B. bei Sun-Maschinen sehr üblich sind, daß sie abhängig sind von einem Motherboard und die Software nur auf dem Board läuft. Wenn der Rechner kaputt geht, habe ich ein Problem und muß erst einmal zwei, drei Wochen hin und her faxen, bis ich eine neue Lizenz bekomme. Oder ein anderes Beispiel: Ein Hersteller von ISDN-Routing-Software teilte uns mit, als wir von Sun-OS auf Solaris umgestiegen sind, daß wir unsere gesamten ISDN-Karten neu kaufen müßten, weil die alten Karten nicht mehr von ihrer Software gepflegt werden. Dabei ging es um Investitionskosten in Höhe von 100.000 DM. Da hätte ich, wenn ich die Sourcen gehabt hätte, gerne jemanden darauf angesetzt, der das für mich analysiert und dann die entsprechende Anpassung gemacht hätte."(499)
 

Durch ihre Unabhängigkeit von Produktzyklen, Marktkonzentration und Insolvenzen bietet die freie Software eine unübertreffliche Investitionssicherheit. Die kontinuierliche Entwicklung kann durch immer neue Generationen von Programmierern aufrecht erhalten werden.

Die Angst vor der Abhängigkeit von einem einzigen Lieferanten einer Software ist für viele Anwender in Unternehmen und Behörden ein wichtiges Argument für freie Software. Sie schließt Monopolbildung aus und fördert eine lokale KMU-Infrastruktur von Dienstleistern (allerdings schließt sie einen Support durch weltweite Unternehmen wie IBM nicht aus). Während sich die Hardware-, Software- und Internet-Industrie in den USA konzentriert, kann das offene Kooperationsmodell auf Basis des Internet unvergleichlich mehr kreative und produktive Ressoucen erschließen. "Die große Beliebtheit von OSS in Deutschland und die hohe Zahl der OSS-Entwickler und -Entwicklungen in Europa sind ein deutliches Zeichen dafür, daß die innovative Kraft überall vorhanden ist. Die Zukunft der Informationstechnologie liegt nicht in einem kalifornischen Tal sondern in den Weiten des Internet."(500)

Ferner sind Anwender zu nennen, die auf Grundlage freier Software neue Märkte gründen, z.B. das Internet Service Provider-Geschäft. Rick Adams, ehemals Betreiber des größten Usenet-Knotens der Welt und Autor von BNews, der am weisten verbreiteten Usenet-News-Software, gründete UUNET:
 

"And he really invented what we now take for granted, the commercial Internet Service Provider Business. So when people think about free software and money, they think, they very often play right in to Bill Gates' hand because they think about the paradigm that he has perfected so well, which is put software in a box, ship it, get a locked in customer base, upgrade them. And Rick just kind of went sideways from that. And he was the first person to say, 'I'm gonna build a serious business that is based on free software,' and it was basically providing a service that was needed by the people who used that software, who talked to each other, who distributed it, who worked with each other online."(501)
 

Eine Netzgeneration später waren es Firmen wie Amazon und Yahoo, die eine neue Klasse von 'Infoware'-Dienstleistung(502) auf Grundlage freier Software entwickelten.

Kein Wunder also, daß GNU/Linux auch im Management immer mehr Akzeptanz gewinnt. Die WR Hambrecht-Studie schreibt: "According to an Information Week research survey of 300 IT managers, Linux use by application is migrating from handling Web servers and email to areas such as systems management, thin servers, and even enterprise resource planning. This data is significant because it shows that Linux is truly gaining legitimacy as it is being deployed in critical enterprise environments."
 
 
 

Dienstleister rund um freie Software

Mit der wachsenden Popularität freier Software steigt auch die Nachfrage nach Dienstleistungen wie Beratung, Installation, Support, Wartung, Schulung und Gewährleistung. In den Unternehmen, in denen bislang die hausinternen Techniker unter der Hand freie Systeme eingeführt hatten, wächst seit 1998/99 die Akzeptanz auch im Management. Damit entsteht eine Nachfrage nach externen Dienstleistungen, z.B. der Entwicklung maßgeschneiderter Systemlösungen für Kunden und der Auftragsentwicklung neuer freier Software. Linux-biz.de listet fast 150 Firmen in ganz Deutschland, die sich auf Dienstleistungen für GNU/Linux spezialisiert haben.(503) Auch die Tatsache, daß Unternehmen wie IBM ein flächendeckendes Service-Angebot für Linux aufbauen, läßt darauf schließen, daß hier erhebliche Marktchancen gesehen werden.

Tatsächlich machen Dienstleistungskosten den Löwenanteil im IT-Bereich aus. Eine Gartner-Group-Studie über Software-Investments von 1998 ergab, daß ungefähr 80% aller Internet-Investitionen in den Service (Professional Services, Consulting, Tech-Support usw.) fließen und nur 20% zu gleichen Teilen in das Anlagevermögen, also Hardware und Software.(504)

Patrick Hausen vom BSD-Projekt erläutert den Zusammenhang von unbezahlter Entwicklung in den Projekten und Dienstleistungsbranche:
 

"Ich habe vielleicht zehn Entwickler, die diese Apache-Software für Gotteslohn schreiben. Ich habe hunderttausend Anwender. Dann brauche ich für diese hunderttausend Anwender tausend Consultants, von denen jeder hundert Anwender betreuen kann. D.h., ich habe tausend Consultants, die davon leben können, und ich habe hunderttausend Anwender, die durch den Einsatz dieses kostenlosen Webservers mehr Geld für vernünftiges Consulting ausgeben können und letztendlich ja auch wieder etwas tun mit dieser Software, was hoffentlich in der einen oder anderen Form Umsatz generiert."(505)
 

Über den Dienstleistungsmarkt äußert sich die WR Hambrecht-Studie am optimistischsten: "Perhaps the most significant opportunity in the Linux market for Linux services, support, and training. We project revenue of almost $500 million in 2000, growing at a CAGR of 100% to nearly $4 billion in 2003. Although traditional companies like IBM and Hewlett Packard (HWP) have begun to provide Linux consulting and support, this market opportunity is largely untapped."(506)
 
 
 

Systemhäuser, Hard- und Software-Hersteller

Anbieter von proprietärer Software und von Hardware setzen freie Software als Basistechnologie ein. Für Cobalt Micro war Linux der Schlüssel, mit dem es den Servermarkt für eine neue Hardwareplattform öffnen konnte. SGI ersetzt Irix durch Linux und hofft auf diese Weise Synergieeffekte nutzen zu können. Zu den Firmen, die Linux-Hardware vertreiben, gehören VA Linux, Cobalt, Atipa, aber auch traditionelle Unternehmen wie IBM, Compaq und Dell. Die WR Hambrecht-Studie kommt zu der Einschätzung: "Linux hardware companies sell the crucial systems that serve the growing number of the world's Web pages, email, and internal information networks. We expect revenue from Linux hardware to grow from almost $1.2 billion in 2000 to over $7.7 billion in 2003, with a CAGR [compounded annual growth rate] of 83%. [...] The Linux software market is in the early stages of its growth and maturity. Revenue from the sale of Linux client and server operating system (OS) software is predicted to grow from $160 million in 2000 to over $700 million in 2003, with a CAGR of 67%."(507)

Ein Marktsegment, das heute noch in den Kinderschuhen steckt, auf das sich aber große Erwartungen richten, ist das für eingebettete Systeme. Die Studie, die diese Entwicklung noch ausklammert, sieht hier ein Potential, das den gesamten derzeitigen Linux-Markt als winzig erscheinen lassen könnte.

Auf ähnliche Weise ist freie Software für Anbieter von standardisierten Branchenlösungen interessant. Die Betriebssystemplattform und die Software-Umgebung sind für die Kunden unwesentliche aber eventuell kostenrelevante Nebenleistungen des eigentlichen Geschäfts. Hier kommen ebenfalls Linux und die freien BSD-Derivate zum Einsatz.

Aus demselben Grund bieten sie sich auch als Basis für kundenspezifische Softwareentwicklung an. Software-Häuser finden dazu eine Fülle wiederverwendbarer Bausteine und können unter Umständen sogar aus dem kooperativen freien Entwicklungsprozeß Nutzen für ihr jeweiliges Projekt ziehen.
 
 
 

Distributoren

Die vorangegangenen Wissensordnungen hatten ihre Materialität und ihre Leiblichkeit. Datenträger (also Bücher, zumindest bis zur Erfindung neuer Papier- und Drucktechniken Ende des 19. Jahrhunderts) und gute Lehrer waren Mangelware. Das digitale Wissen hat natürlich immer noch einen physikalischen Träger, doch innerhalb des Internet kann es -- der Sache nach -- frei fließen. Wissen gibt es im Überfluß.

Die Verbreitungskosten gehen bei Bereitstellung auf einem Server zum freien Download gegen Null. Ob von einer Software zehn oder zehn Millionen Kopien gemacht werden, spielt keine Rolle. Proprietäre Software dagegen muß eine artifizielle Knappheit herstellen, indem sie den Kopierprozeß monopolisiert. Ein Teil der Kosten für die Erzeugung der Knappheit (z.B. polizeiliche und gerichtliche Maßnahmen gegen 'Raubkopierer') werden externalisiert.

Distributionen sind Sammlungen freier Software auf CD-ROM (früher auf Disketten). Sie ersparen dem Anwender die Recherche (Was ist die neueste Version eines Programms? Was ist die letzte stabile? Arbeiten bestimmte Programme zusammen?) und die Übertragung von z.T. sehr großen Datenmengen aus dem Internet. Firmen, die solche Sammlungen vertreiben, bieten zusätzlich ein Installationsprogramm, Dokumentation, Verpackung und Installations-Support. Neben den Linux-Distributoren wie RedHat und SuSE bieten Walnut Creek oder PrimeTime Freeware Sammlungen freier Software an.

O'Reilly führt den Gründer und CEO von Red Hat an: "Bob Young likes to say: 'We're not a software company, we're a sales, marketing and distribution company, just like Dell.' Now whether or not Red Hat in fact is the winner in what's shaping up to be the Linux distribution wars and probably the next big Wall Street feeding frenzy is somewhat irrelevant. The fact is that there is a business model niche."(508)

Auch Hersteller von proprietärer Software wissen den nahezu kostenlosen Distributionseffekt für sich zu nutzen. Corel gibt sein Word Perfect und Star Division (und nach dessen Aufkauf Sun) sein StarOffice für persönlichen Gebrauch kostenlos ab, während Corel sich den Einsatz in Unternehmen und Behörden bezahlen läßt. Das hat zwar nichts mit free software und mehr mit free beer zu tun, zeigt aber, daß ein anderes Business-Modell dazu führen kann, daß der de facto Status (freies Kopieren im Privatbereich) legalisiert wird. Selbst Microsoft ist sich bewußt, daß eine gewisse Durchlässigkeit der Copyright-Regeln ihm mehr nützt als schadet und bedient z.B. den schwarzen Markt in Indien mit Not For Resale-Kopien seiner Software.(509)
 
 
 

Application Service Providers (ASPs)

Ein neues Paradigma in der Informatik sind thin Clients, die ihre Anwendungen und Daten von zentralen Servern beziehen. Solche Strukturen können sowohl im unternehmensinternen LAN, wie Internet-weit errichtet werden. Im zweiten Fall hat ein Nutzer von überall Zugriff auf seinen 'Arbeitsplatz im Netz.' Dafür sollen monatliche oder per use-Gebühren für die Nutzung und ggf. Mietgebühren für den verwendeten Plattenspeicher anfallen.

Sun Microsystems ist ein Vorreiter dieser Bewegung und hat das Hamburger StarDivision aufgekauft, um dessen Hauptprodukt StarOffice als APS-Anwendung anzubieten. Im Juli 2000 stellte Sun den über 15 Jahre entwickelten Quellcode des Office-Pakets unter die GPL.(510) Offenkundig ist es Sun also wichtiger, den Mindshare der freien Entwicklerszene für das Projekt zu gewinnen, als aus der kontrollierten Vermietung von StarOffice Profit zu schlagen. Die wird es in erster Linie aus dem Verkauf von Thin-Client-Hard- und Software beziehen.

Das gleiche Server-Side Computing Modell betreibt auch das im Januar 1999 gegründete Workspot, das einen Linux-Desktop im Netz anbietet.(511) Mit einem Webbrowser, einem PDA oder einem WAP-Telefon kann man sich von überall in der Welt in seinen persönlichen Arbeitsplatz einloggen, den man -- mit allen geöffneten Applikationen und Daten -- so vorfindet, wie man ihn beim letzten Mal verlassen hat. Die professionelle zentrale Systemwartung inkl. Backups bannt die Gefahr für Daten durch defekte Festplatten und entwendete Laptops. Das System befindet sich noch in der Testphase und soll durch die Vermietung von unfreier Software und Plattenplatz, sowie Hosting von öffentlicher Software oder Intranet-Lösungen Dritter Gewinne einspielen. Zu Workspots Kunden gehören eBay, Barnes & Noble und OmniSky. Workspot hebt hervor, daß es auch eine Gelegenheit für Linux-Interessierte sei, es auszuprobieren, ohne sich erst lokal Software installieren zu müssen. Aus demselben Grund sei es eine attraktive Plattform für Entwickler, die ihre Software hier zum Ausprobieren bereitstellen könnten.
 

"Making this dream a reality involves distributed computing, virtual machines and extending the use and migration of persistent data. These are technological challenges that could not be met on proprietary systems.

Enter Linux, and free software. The source code is available for modification and improvement until the end of time. It's a grand, busy, community-minded movement. And it's the best environment for building large, coherent systems. Server-side computing is natural for Linux, and will naturally drive Linux [to] become the best consumer computing experience."
 
 
 

Projekt-Hosting und Portale

Ein weiteres neues Business-Modell ist direkt aus dem Kooperationsmodell der freien Software hervorgegangen. Unternehmen wie Andover.Net (das im Juni 1999 das wichtige Szene-Forum slashdot.org kaufte) und Collab.Net (ein Spin-Off von O'Reilly & Associates, gegründet und unter Präsidentschaft von Brian Behlendorf, Mitgründer von Apache(512)) betreiben seit 1999 Sites, auf denen Käufer und Anbieter von Open Source-Projekten einander finden können. Unternehmen schreiben hier gleichsam Programmieraufträge aus und wieviel sie dafür bereit sind zu bezahlen, und freie Enwickler und Firmen können sich darum bewerben. Andover.Nets QuestionExchange(513) und eBay Open Source verwenden dafür eine Auktionssystem. Collab.Nets sourceXchange(514) und EarthWeb hosten freie Projekte, bieten Marktplätze für Support und hosten gated Communities. Profite machen diese Firmen mit Werbeeinnahmen und mit Transaktionsgebühren. Die Einschätzung der WR Hambrecht-Studie ist auch hier rosig:
 

"Successful Linux Internet properties will leverage Web traffic into increased opportunities in advertising, ecommerce, and business-to-business development services and support. [...] Revenue from online Linux advertising is projected to grow from $33 million in 2000 to nearly $500 million in 2003, a CAGR of 132%. These estimates only include revenue from online advertising and we anticipate that other significant revenue opportunities will emerge, such as online Open Source markets. While the Linux advertising revenue numbers may not seem significant, it is important to recognize that revenue from online advertising is very high margin (typically greater than 70% gross margin)."(515)
 
 
 
 
 

Erstellung freier Software

Auf die Motivelagen freier Entwickler wurde oben bereits eingegangen. Es hatte sich gezeigt, daß hier kreative, kulturelle, soziale und Lernaspekte an die Stelle einer pekuniären Entlohnung treten. Auch hierin steht die Bewegung in einem größeren Trend zur Neubewertung der sozialen, kulturellen, kreativen Arbeit außerhalb der Lohnarbeit, wie Szyperski sie benennt:
 

"Wir leben, oberflächlich betrachtet, in der sogenannten Freizeitgesellschaft. Wenn Sie sich mal ein Jahr vorstellen, dann haben wir 8760 Stunden zur Verfügung. Die Erwerbstätigkeit in Deutschland macht nur noch 1900 Stunden aus -- im Gegensatz zu Japan, wo es etwa noch 2300 sind, aber irgendwo um diese Größe pendelt sich das in der Welt ein. Wenn Sie nun davon ausgehen, daß wir zehn Stunden am Tag Schlaf, Ruhe, Speisen, Pflege brauchen, dann bleiben insgesamt 3210 Stunden im Jahr übrig. Was ist das für eine Zeit? Wollen wir die jetzt wieder in die Erwerbszeit integrieren? Wollen wir sie nur in die Schlaf-, Pflege- und Entertainment-Zeit integrieren? Oder -- und das ist ein Vorschlag, der sehr intensiv z.B. von Amitai Etzioni im Zusammenhang mit der Reaktivierung des Kommunalverständnisses und der kommunalen Aktivitäten diskutiert wird --, wollen wir die Zeit investieren, um für unsere Gemeinschaften konstruktiv Beiträge zu leisten, die nicht in irgendeiner Form über Geld abgerechnet werden? Das sind Sozialleistungen, das sind Sportleistungen, das ist aber auch die Selbstverwaltung unserer Organe, das ist das Lehren und Lernen außerhalb der geordneten Schulen, das ist aber auch das Erziehen der Kinder, das ist das Machen der Familie und ich weiß nicht was alles. Das heißt, wenn wir so einen großen Teil der verfügbaren Zeit 'Freizeit' nennen, dann mißdeuten wir schon ihre Funktion. Darum gibt es Bemühungen, das als 'Sozialzeit', 'Gemeinschaftszeit' oder wie auch immer -- mir ist da jedes Wort lieb -- zu bezeichnen."(516)
 

Neben der unbezahlten Volunteer-Arbeit gibt es auch Firmen, die sich auf die Kommerzialisierung freier Software spezialisieren. Das mehrfach genannte Cygnus Solutions war eine der ersten. 1989 wurde es in Californien gegründet und bot vor allem Hardware-Herstellern an, die GNU-Tools auf ihre Plattform zu portieren. Die Dienstleistung wird bezahlt, das Ergebnis ist, wie es die GPL vorschreibt, frei. Es schuf mehr als 120 Host-Target-Kombinationen seiner Werkzeuge für eingebettete Mikroprozessoren und bot Auftragsprogrammierung, Entwickler-Support und andere Leistungen. Die Fima hatte Vertretung in Nordamerika, Japan und England und wurde seit 1997 in Software Magazines List der führenden 500 Software-Unternehmen aufgeführt.(517) Cygnus wurde im November 1999 von Red Hat für $674 Millionen aufgekauft.(518)

Zahlreiche weitere Firmen sind dem Vorbild gefolgt und setzen entweder vollständig oder in einem Teil ihres Angebots auf freie Software. Sie entwickeln Programme aus bestehender freier Software oder integrieren Bestandteile freier Software in ihre Programme, die aus lizenzrechtlichen Gründen ihrerseits frei sein müssen. Die Einbindung von Bibliotheken in proprietäre Software ist nach dem Open Source-Modell zulässig, nach dem FSF-Modell jedoch allenfalls dann, wenn sie unter der LGPL stehen. Auch freie Compiler wie der GCC, und andere Tools, wie CVS oder FreeCASE, werden in der kommerziellen Software-Entwicklung eingesetzt. In dem Fall kommt es nicht zu einer Lizenzvererbung, d.h. die entstehenden Produkte dürfen proprietär sein.

Entsprechend gewachsen ist der Arbeitsmarkt in diesem Bereich. Dem kommt entgegen, daß freie Software häufig in Forschung und Lehre eingesetzt wird, Informatiker also meist fundierte Erfahrungen mitbringen. Und um Entwickler, die sich in der freien Szene verdient gemacht haben, reißen sich die Unternehmen ohnehin.

Schließlich gibt es noch Unternehmen wie Sun, Netscape und IBM, die ihre konventionell von ihren Angestellten entwickelte Software quelloffen machen und mit Arbeitskraft aus ihrem Haus weiterentwickeln. Netscape erläutert, welchen Gewinn es sich davon verspricht:
 

"Netscape (and the world) benefits from giving away its source code in a number of different ways. First and foremost is from the expected explosion of creative input to the Communicator source code base. Netscape is confident that this will allow Communicator to retain its position as the preeminent communications software. Second, freeing the source code allows it to go places and into products that Netscape may never have had the resources or time to take it on its own, extending internet accessibility to hardware platforms and software products far and wide."(519)
 

Die WR Hambrecht-Studie stellt fest: "The market for Linux applications has yet to emerge. However, we feel that the opportunity from proprietary software companies opening the source code to some or all of their product offerings could be a significant, disruptive event in the software industry. The result could be software that is more reliable and amenable to the needs and utility of end users."(520)
 
 
 

Dokumentation

Auch diejenigen, die sich die Software aus dem Internet beschaffen oder (durch die Lizenzen zulässig) CDs von Freunden ausleihen oder kopieren, benötigen in der Regel Handbücher und andere Fachliteratur. Marktführer bei solchen Handbüchern für freie Software ist der O'Reilly Verlag (s.u. unter "Praxisbeispiele"). O'Reilly schätzt, daß er im Laufe der Jahr Bücher über Open Source-Software im Wert von mehr als 100 Mio Dollar verkauft hat und sein Open Source-bezogener Umsatz im vergangenen Jahr größer war, als der von SuSE oder Red Hat.

In Deutschland ist der Fachbuchhandel für EDV-Literatur auch zu einem wichtigen Vertriebskanal für die CD-ROM-Distributionen selbst geworden. Hier hat sich vor allem die Lehmanns Buchhandelskette einen Namen gemacht (s.u. unter "Praxisbeispiele").
 
 













Praxisbeispiele





Firmen, die sich mit freier Software beschäftigen, lassen sich grob in drei Kategorien einteilen (auf die Beispiele in den Klammern wird im Folgenden näher eingegangen):
 

  1. Anbieter von freier Software und Dienstleistungen (SuSE, Lunetix, innominate, New Technologies Management GmbH)
  2. Anwender von freier Software (Lehmanns Buchhandlung, die tageszeitung, Babcock-BSH, Individual Network)
  3. Anbieter von quelloffener, aber im Sinne der GPL unfreier Software und von proprietären Produkten für freie Plattformen, in den meisten Fällen GNU/Linux und BSD, aber auch Module für Apache etc. (Apple, O'Reilly Verlag, Intershop).

  4.  
Viele der freien Projekte haben keinerlei Bedenken dagegen, daß ihre Software kommerziell verwertet wird. Auch hier setzte die FSF Zeichen, indem sie von Beginn an einen Teil ihrer Arbeit aus dem Verkauf von Distributionen auf Datenbändern und dann CDs finanziert. Dennoch besteht ein Spannungsfeld zu denjenigen, die den Gelderwerb durch Dritte ablehnen, das z.B. auf der Linux-EXPO in Durham 1998 zur Sprache kam. Doch "die einzigen, die sich wirklich aufgeregt haben, waren Reporter, die meinten, da muß doch ein Konflikt sein."(521) Im Gegenteil freuen sich viele Entwickler, wenn Firmen ihre Software verkaufen und die Verbreitung damit erhöhen. Dankbar sind sie dafür, daß Distributoren das Packaging, die Produktion von Handbüchern und den Support übernehmen und so die Entwickler entlasten, die sich dadurch auf das konzentrieren können, was ihnen Spaß macht: das Entwickeln.
 
 
 

LunetIX

Am Anfang stand das "Linux Anwenderhandbuch" (LHB), das heute immer noch, inzwischen in der 7. Auflage, das deutschsprachige Standardwerk ist. Als Sebastian Hetze, Dirk Hohndel, Olaf Kirch und Martin Müller 1992 seine erste Version fertiggestellt hatten, fand sich dafür kein Verlag, da noch niemand von Linux gehört hatte. So gründeten sie ihren eigenen Verlag, und ein Jahr später stand das LHB in den Bestsellerlisten der Computer-Literatur vor Titeln zu Microsoft-Word und Excel. Das ist umso bemerkenswerter, da das LHB parallel zu gedruckten Version im Netz frei verfügbar(522) und unter den Bedingungen der GPL für nichtgewerbliche Zwecke frei kopierbar und weitergebbar ist. So sind viele der LHB-Texte in die Online-Dokumentation (die man pages) deutschsprachiger GNU/Linux-Distributionen, wie der von SuSE, eingegangen. Wie SuSE ist die LunetIX Müller& Hetze GbR(523) 1992 gegründet worden. Aus dem Verlag wurde schnell ein Linux-Systemhaus. Noch im selben Jahr stellte es seine erste Linux-Distribution, die LunetIX Software-Distribution (LSD) zusammen und vertrieb sie über die Lehmanns-Buchhandlungen und kurz darauf auch über eMedia des Heise Verlags.

LunetIX bot auch von Anfang an Support für Linux an, doch gab es in den ersten Jahren dafür fast keinen Bedarf. Zwar gab es auch in dieser Zeit bereits Unternehmen, die Linux einsetzten, doch waren es in der Regel firmeninterne Systemadministratoren und Entwickler, die Projekte mit freier Software realisierten. Diese Art von bottom-up Verbreitung bedeutete, daß keine Etats bereitstanden, um Dienstleistungen von außen einzukaufen. Die Praktiker in den Unternehmen mußten sich selbst behelfen und konnten das auch dank der Unterstützung, die sie im Internet fanden.

Auch heute bietet LunetIX noch Support an, nur daß die Popularität von Linux inzwischen auch das Management erreicht hat, das jetzt entsprechende Etats für externe Dienstleister vorsieht. Im Frühjahr 2000 wurde LuneIX zum Teil der Linux Information Systems AG.(524) Während Hetze im reinen Distributionsgeschäft nur begrenzte Entwicklungsmöglichkeiten sieht, hält er die individuelle Anpassung auf Kundenerfordernisse, die Neuentwicklung im Kundenauftrag, Wartung, Schulung und andere Dienstleistungen für die erfolgversprechensten Geschäftsmodelle für freie Software. Sie seien gegenüber proprietärer Software für den Kunden günstiger, "weil wir die Wiederverwendung von freier Software mit einkalkulieren können. Zudem ist es möglich, unter bestimmten Umständen zusätzliche Ressourcen durch kooperative Entwicklung, die von mehreren Unternehmen getragen wird, und auch von freien Entwicklern -- wenn man in der Lage ist, daraus ein richtiges Open Source-Projekt nach dem Basar-Stil zu entwickeln --, einzubinden und weiterhin für den Kunden Kosten zu sparen."(525)

Hetzes Vision für die Zukunft der freien Software in Deutschland ist, daß sich in dieser Zeit, die dafür reif ist, eine Vielzahl kleiner Firmen und selbständiger Entwickler herausbildet, die untereinander kooperieren können, aber auch mit dem Basar der freien Szene, um auch große Projekte im industriellen Maßstab durchzuführen. "Das ist mein Entwicklungsmodell, meine Vorstellung für eine Integration von wirtschaftlichem Arbeiten mit Open Software und der Entwicklung von Open Source-Software, die an erster Stelle eben nicht mit kommerziellen Interessen verbunden ist."
 
 
 

SuSE

Die Firma ist 1992 von vier Studenten gegründet worden. Der damalige Tätigkeitsschwerpunkt war Auftragsprogrammierung, also das, was man heute Neudeutsch als Outsourcing bezeichnet. Im Frühjahr 1993 kam SuSEs erste Linux-Distribution auf den Markt. Damit ist die SuSE einer der ältesten Anbieter kommerzieller Linux-Distributionen weltweit. Das US-amerikanische RedHat hat ungefähr ein Jahr später angefangen. SuSE hatte im Juli 1999 zirka 150 Mitarbeiter weltweit. Davon arbeiten gut 60% in der Technik, im Support und im Servicebereich.

Im Geschäftsjahr zwischen April 1998 und März 1999 hat SuSE zirka 14 Millionen Dollar Umsatz gemacht und ist damit der größte Umsatzmacher überhaupt weltweit im Linux-Umfeld. Die Firma ist seit Beginn ihres Bestehens von Jahr zu Jahr um etwa hundert Prozent gewachsen. Der allgemeine Linux-Hype trägt dazu bei, daß viele Firmen, darunter auch SuSE, stark expandieren. Im Spätherbst 1997 ist im Zusammenhang mit der Gründung der SuSE Inc. Niederlassung in Oakland, Kalifornien, die SuSE Holding AG etabliert worden. Im April 1999 sind die SuSE München GmbH (Vorstand: Harald Milz) und die SuSE Rhein-Main AG (Vorstand: Dirk Hohndel) gegründet worden. Unter der Holding stehen außerdem das alte Stammhaus, die SuSE GmbH in Nürnberg, der Verlag SuSE Press und weitere Firmen, wie eine Werbeagentur, die in erster Linie PR-Kontakte herstellt. Schließlich wurden im Juli 1999 die SuSE-Labs eingerichtet. Sie haben das innovative Ziel, Third Level Support durchzuführen, d.h., technischen Support und Bug-Fixes auf Source Code-Ebene, und zwar mit garantierten Reaktionszeiten, 24 Stunden x 7 Tage und das ganze Jahr hindurch. Das Angebot richtet sich, weil es nicht kostenlos sein kann, natürlich in erster Linie an Großkunden, an Firmenkunden und an Kooperationspartner.

Die Käufer der normalen SuSE-Linux-CDs erhalten 60 Tage freien Installations-Support. Wer darüber hinausgehende Unterstützung benötigt, kann außerdem einen Wartungsvertrag abschließen.

Open Source bedeutet für SuSE, daß alle Software, die von der Firma entwickelt wird, wo immer es irgend möglich ist, an die Entwicklergemeinde zurückfließt. Dem stehen nur Vertraulichkeitsvereinbarungen mit Dritten, meist Hardware-Herstellern, entgegen. Beispiele für solche NDAs finden sich bei X-Servern, ISDN-Kartentreibern, KDE und ALSA (Advanced Linux Sound Architecture(526)), also Programme, bei denen die Hersteller der Meinung sind, daß die Information über ihre Hardware, die in der Software steckt, nicht an die Öffentlichkeit und damit an ihre Konkurrenten gelangen sollte. Solche Software wird ohne Quellcode in die Distributionen aufgenommen. SuSE fördert Open Source-Projekte, auch solche, die außerhalb der SuSE stattfinden und solche, die in Kooperation mit Firmen durgeführt werden, finanziell oder durch andere Ressourcen. Die engen Kontakte in die Entwickler-Community ermöglichen eine schnelle Umsetzung neuer Idee und schnelle Verfügbarkeit von Bug-Fixes.

Harald Milz sieht die Zukunft der Computer-Industrie darin, daß die Hardware immer billiger werde, bis sie zur Commodity, zur Massenware geworden ist und es möglich sei, die Hardware bei einem Kundenprojekt oder beim Kauf eines Rechnersystems fast kostenlos dazuzuliefern. Die Software werde nach seiner Auffassung den gleichen Weg gehen. Zumindest die Betriebssystem-Software und ein großer Teil der Middleware und der Systemadministrationswerkzeuge werde durch den Preisdruck und durch die Stückzahlen immer billiger. Open Source sei somit die einzig mögliche Strategie auf dem IT-Markt.

SuSEs Kernkompetenz liegt in der Weitereinwicklung von Linux. Die Firma engagiert sich aber auch in der Weiterentwicklung der Hardware, z.B. mit dem SALT-Cluster.(527) SuSE vertreibt als OEM- (Original Equipment Manufacturer) oder VAR- (Value Added Reseller) Produkte Komplettsysteme auf Rechnern von Herstellern wie IBM, Compaq, Siemens, SGI und anderen, die normalerweise mit einem Support-Vertrag dieser Hersteller verkauft werden.

Der zweite Wachstumsmarkt, auf dem SuSE agiert, ist der Dienstleistungsbereich. Die Firma will ihr Support- und Service-Angebot regional und international ausweiten. Auch die strategischen Kooperationen mit großen Hardware- und Software-Herstellern sollen ausgebaut werden. SuSE baut ferner einen eigenen VAR-Kanal auf, d.h., Systemhäuser, die in Deutschland und außerhalb bereits etabliert sind, sollen als zertifizierte Vertriebspartner gewonnen werden, um mit den SuSE-Produkten in die Fläche gehen zu können. Ein Kunde z.B. in einer Kleinstadt, kann auf diese Art davon ausgehen, daß er in Rufweite jemanden hat, der ihm bei einem Problem helfen kann.(528)
 
 
 

Innominate

Die Linux-Dienstleistungsfirma wurden im Mai 1997 gegründet. Die beiden Gründer waren Informatikstudenten. Im Juli 1999 arbeiteten dort ca. 15 Techniker. Im April 1998 wurde Innominate Berliner Landessieger im "Startup-Wettbewerb", einem Gründungswettbewerb von Stern, Sparkassen und McKinsey. Im Mai 1998 wurde die Firma der europaweit erste Support-Partner von RedHat Software. Sie war auch die erste deutsche Linux-Firma, die Venture Capital bekam, nämlich von der BMP AG. Damit will Innominate weitere Standorte innerhalb Deutschlands eröffnen.

Innominate versteht sich als Allround-Systemhaus für Linux und BSD und bietet die gesamte Palette von Dienstleistungen an. Zur Beratung dient das Infotelefon 0180 1LINUX-BIZ und die Website www.linuxbiz.de, die die Firma zusammen mit dem LIVE Linux-Verband gestartet hat. Hier können sich kommerzielle Linux-Anbieter kostenlos eintragen lassen, und der Kunde kann sehen, wo er in seiner Nähe Linux-Support findet.

Schulungen von Standard-Einführungen bis zu maßgeschneiderten Schulungen werden bei Innominate selbst, als auch direkt beim Kunden durchgeführt. Kundenspezifische Lösungen werden entwickelt, angepaßt und implementiert. Das Support-Konzept ist abgestuft: eine kleine Firma, die nicht so schnelle Reaktionszeiten benötigt, kann einen kostengünstigeren Support erwerben, als eine größere Firma, die sofort jemanden braucht, der vor Ort hilft.

Zu der bei Innominate entwickelten Software gehört der Lingo-Kommunikations-Server auf Linux, der kleinen und mittleren Unternehmen, die kaum IT-Know-how im Haus haben, eine kostengünstige, stabile Lösung für Drucken, Faxen, Internet-Zugang, Email, sowie Datenbank- und File-Server-Anbindung bietet.

Zunehmend sind auch mittlere und große Firmen an innominate herangetreten, die Linux-Support und Linux-Solutions wollen, wie Netzwerkaufbau und Netzwerkmigrierung.
 

"Für diese Firmen ist der Kostenfaktor bei der Anschaffung der Software überhaupt kein Thema mehr. Sie interessiert die total cost of ownership, d.h. was kostet mich die Software im Laufe des Einsatzes, und da ist der Kaufpreis nur noch ein verschwindend geringer Bestandteil. Diese Firmen sehen, daß Linux sehr wartungsarm und sehr administrationsarm ist und damit Kosten eingespart werden können. Diese Firmen sind an der Offenheit des Systems interessiert, an der Reaktionsschnelligkeit, wenn es Probleme gibt, wenn Fehler auftauchen und natürlich an der Sicherheit, die Linux einfach auch mit bietet."(529)
 

Die etwa 75 Kunden von innominate zeigen, daß sich die ganze Branchenvielfalt für Linux interessiert. Darunter befinden sich die Karl Blatz Gruppe, Produzent der Kinderfernsehsendungen "Bibi Bloxberg" und "Benjamin Blümchen," das Deutsche Institut für Normung (DIN), das Deutsche Institut für Bautechnik, der Internet-Serviceprovider X-Online und die Bundesdruckerei.

Unter den Motiven, sich auf Open Source-Software zu konzentrieren, nennt Kerstin Tober, freiberufliche Beraterin bei innominate, das Preis-Leistungs-Verhältnis, die Offenheit und die Stabilität sowie die wachsenden Akzeptanz für den Linux-Markt. Sie preist das schnelle und hochwertige Feedback der Linux-Community auf Probleme. Innominate selbst hat Bug-Reports und Feature-Vorschläge gemacht und einige kleine Patches beigesteuert.

Zu den Nachteilen zählt Tober die Haftungsunsicherheit, den Mangel an komplexen Applikationen, bestimmte technologische Schwächen gegenüber kommerziellen Unixen bei High-End-Anforderungen wie High-Availability und Schwächen in der Nutzerfreundlichkeit gegenüber MS-Windows. Bei allen Vorteilen der freien Software sieht Innominate auch weiterhin einen Platz für proprietäre Software. "Solche Projekte wie Lotus-Notes oder andere komplexe Anwendungen, in dem wirklich Mann-Jahre an Software-Entwicklungsarbeit stecken, für die wird es sich nicht unbedingt rechnen, die Sourcen frei zugeben. ... Es soll kein Dogma werden, daß alle plötzlich ihre Quellen freigeben müssen."(530)
 
 
 

New Technologies Management GmbH

Rudolf Strobl ist seit Anfang der neunziger Jahre mit diversen Firmen, angefangen bei ARTICON, im Linux-Bereich aktiv. 1994 gründete er das Linux-Magazin.(531) 1996 verließ er ARTICON, gründetet Cybernet und darunter die Firma Linuxland. Ende 1998 verließ er Cybernet und gründete die Firma New Technologies Management GmbH (NTM), die Linux-Firmen dabei unterstützt, ihren Markt zu finden.

Firmen, die in der ersten Hälfte der neunziger Jahre, oft von Studenten, gegründet wurden, bauten auf Idealismus und eine gute Idee. "Früher hat man klein angefangen, die Zahl der User ist gestiegen, und man konnte mit dem Markt mitwachsen. Das ist heute ein Problem. Die technische und betriebswirtschaftliche Kompetenz konnte ebenfalls mit der Firma wachsen. Wenn man heute wirklich auf die Beine kommen will, sollte man eigentlich schon vorher wissen, was ein Businessplan ist. Man sollte betriebswirtsschaftliche Auswertungen lesen können, sollte ein bißchen was wissen zum Marketing, weil einfach die Konkurrenz stärker geworden ist."(532)

Früher waren die Manager dieser Firmen selber alle Anfänger. Heute ist das nicht mehr so, weil es eben schon arrivierte Firmen gibt. Außerdem migrieren Firmen aus dem Windows-Bereich, wo die Konkurrenz immer schon da war, zu Linux. Ein Start bei Null ist somit schwieriger.

"Erfolgsfaktoren waren früher technisches Know-how und viel Enthusiasmus. Heute würde ich sagen, sind es gute Managementfähigkeiten. Und Ideen und Kapital werden immer wichtiger. Das ist nicht zuletzt zu sehen an den Gründungen oder Beteiligungen durch VC's [Wagniskapitalinvestoren] bei Innominate und ähnlichen Firmen. Früher finanzierte sich das Firmenwachstum aus dem Umsatz. Die Geschwindigkeit wäre heute zu gering, um ein major Player zu werden. Kapital ist auf alle Fälle ein Thema."(533)

Die Finanzierung einer Neugründung ist eine Herausforderung. Ideal ist natürlich eine Eigenfinanzierung, aber die ist nicht immer möglich. Dann gibt es die klassischen Instrumente: Bankenfinanzierung und Finanzierung durch Fördermittel. Doch Banken wollen einen Businessplan sehen und wissen, wie sich der Linux-Markt entwickelt. Sie würden gern den Geschäftsmechanismus verstehen: 'Wie verdient man denn da überhaupt Geld? Was verkaufen Sie denn?' Leuten, die Handfestes gewohnt sind, ist das nicht immer einfach zu erklären. So bekommt man deutlich einfacher eine Finanzierung in Millionenhöhe für ein leerstehendes Bürogebäude, weil es dann eben das Gebäude und ein Grundstück gibt, als für eine zündende Geschäftsidee. Deutsche Banken agieren nach Einschätzung Strobls hier noch deutlich konservativer als amerikanische.

Eine Finanzierung durch Fördermittel sieht zunächst sehr attraktiv aus. Allerdings ist hier eine Vorgabe, daß man mit dem Projekt noch nicht angefangen haben darf, wenn man den Antrag stellt. In einem Markt, der so dynamisch ist wie bei Linux, ist das ein Problem. Wenn man sechs bis acht Monate wartet, bis über den Antrag entschieden wird, kommt man mit seiner Idee meistens bereits zu spät. Zudem werden auch Fördermittel über eine Bank ausgezahlt, die sicherstellen muß, daß das Geld wieder zurückfließt. Die kapitalsuchende Startup-Firma steht also wieder vor denselben Schwierigkeiten, wie bei einer direkten Bankenfinanzierug.

Im Endeffekt, so Strobl, ist die erfolgversprechenste Methode eine Finanzierung über Venture Capital. Venture-Kapitalisten sind spezialisiert auf die Probleme bei Firmengründungen, z.B. daß die erwarteten Umsätze nicht eintreffen und Kapital nachgeschossen werden muß. Desweiteren sind VCs typischerweise auf Hightech-Unternehmen, z.B. Internet-Dienstleister wie Yahoo, spezialisiert und mit den Bedingungen des neuen Marktes vertraut. Schließlich bringen sie solche Firmen an die Börse, weil sie ihr Geld zurückbekommen wollen.

Die New Technologies Management GmbH will nun Linux-Startups auf die Beine helfen. NTM übernimmt z.T. Kapitalbeteiligungen in einem Startup. Ein solches Lead-Investment kann größere Follow-up-Investitionen von Dritten nach sich ziehen, da ein VC viel eher in einen Start-up geht, in den schon jemand investiert hat, noch dazu jemand, der die Szene kennt. Vor allem aber vermittelt und koordiniert NTM passenden VCs. Bei den VCs gibt es extrem große Unterschiede. Neben denen, die die Geduld für diesen neuen Markt aufbringen gibt es solche, die möglichst rasch die Mehrheit einer Firma bekommen wollen. Das bedeutet häufig, daß die Gründer aus den Managementpositionen gedrängt werden, wenn der VC nervös wird, weil die Umsätze nicht schnell genug eintreffen oder die Richtung nicht zu stimmen scheint. Oft geht durch solche erzwungenen Umbesetzungen an der Spitze die Kreativität der Firma, das geistige und kreative Potential verloren.

NTM fungiert außerdem als Berater und unterstützt die Gründer beim Erstellen eines Businessplans als Basis für alle weiteren Aktivitäten, da nach Strobls Erfahrung die wenigsten Firmengründer einen Businessplan erstellen können, der von einer Bank oder einem VC akzeptiert würde. NTM kann auch beim Aufbau von Management- und Firmenstruktur, beim Workflow, bei der Organisation und beim Aufbau des Vertriebs helfen und Dienstleistungen wie Buchhaltung, Financial Controlling und juristische Unterstützung übernehmen. Nicht zuletzt verspricht NTM Synergieeffekte mit anderen Firmen im Verbund, zu dem auch die unter LunetIX genannte Linux Information Systems AG gehört, und mit Firmen, zu denen partnerschaftliche Beziehungen bestehen.

NTM will, im Gegensatz zu herkömmlichen VCs, ein Teil der Linux-Community bleiben. "Wir wollen ein Enabler und Moderator für Business Opportunities sein, um die Firmen zu unterstützen."(534)
 
 
 

die tageszeitung

Die taz setzt offene Software seit mehr als zehn Jahren ein, als erstes im Bereich Mail-, News- und Domain Name-Server und mit Software wie Bind und Sendmail sowie den gesamten GNU-Tools: dem GCC und den weiteren Entwicklungs-Tools. Ein größeres Projekt war es, das gesamte interne Volltextarchiv auf WAIS (Wide Area Information Servers) umzustellen. Es folgten Web-Server innerhalb des taz-Intranets und, als externe Web-Server, zuerst CERN HTTPD und dann Apache.

Die taz-EDV lief anfangs unter Sun-OS und wurde dann nach Solaris-2 portiert. Seit etwas 1995 wird Linux eingesetzt. Die Systemadministratoren und Software-Entwickler Ralf Klever und Norbert Thies begannen mit einem kleinen System von Slackware, das sie nach und nach bis zum heutigen Stand (Juli 1999) ausbauten. Den Anstoß gab, daß Linux zu der Zeit erstmals das X-11-Objekt-Format unterstützte, dessen Vorteile sie bereits vom Sun-OS kannten.

Die Einsatzgebiete von Linux heute sind Mail- und Web-Server, Firewall, Archivsystem und das Redaktionssystem. Den Anfang machten 1995 ISDN-Router und Web-Server unter Linux. Zur der Zeit begann man, im Internet vorsichtiger zu werden und zwischen das eigene Firmennetz und das Internet eine Schutzmauer, eine Firewall zu errichten. Den Ausschlag für Linux gab die Tatsache, daß die Firewall-Software im Quelltext verfügbar ist. Anders als bei einem anonymen, proprietären Produkt wie die Firewall-1 von Sun, konnten die taz-Entwickler hier den Quelltext überprüfen und genau feststellen, wie die Filter funktionieren.

Das Archivsystem unter Linux für Texte und Fotos haben Thies und Klever ursprünglich auf Sun entwickelt. Heute laufen pro Tag 2.000 Agenturmeldungen ein, die direkt indiziert und in die Redaktionen verteilt werden. Dieses Archiv umfaßt einen Zeitraum von drei Jahren. Das Textarchiv der taz selbst beinhaltet die Volltexte von mehr als 12 Jahren, da die Zeitung nahezu seit ihrer Gründung die Texte elektronisch archiviert hat. Auch die Fotodatenbank läuft unter Linux, hinter dem WAIS als Indizierer dient. Hier laufen 500 Bilder pro Tag ein, plus weitere Agenturfotos und Bilder von den eigenen Fotografen. Klever betont, daß das System zuverlässig und rund um die Uhr laufe. Es müsse nur alle halbe Jahre um einige Gigabyte an Festplatten erweitert werden.

Das Redaktionssystem unter Linux ist ebenfalls eine Eigenentwicklung der taz. Es besteht aus einem Editor zur Eingabe der Texte, der gesamten Ablaufsteuerung, Zugriffskontrollen, Anzeigen über den Produktionsstatus, Textdatenbanken usw. Diese Funktionen sind als Intranet-Lösung realisiert worden und laufen als Module von Apache und als Dämonen, die im Hintergrund die Texte verwalten. Zunächst wurden bei der taz die Entwickler- und Administrationsarbeitsplätze auf Linux umgestellt und mit der Einführung des Redaktionssystems schließlich alle Arbeitsplätze innerhalb der Redaktionen. Heute sind etwa 140 Linux-Workstations im Einsatz

Auf den Redaktions-Workstations ist das einzige kommerzielle Produkt, die Office-Software Applixware, im Einsatz, so daß sich die Software-Kosten für einen Arbeitsplatz auf etwa 70 DM belaufen. Auch als Layout-System wird das proprietäre Programm Framemaker verwendet, aber Klever denkt, daß möglicherweise K-Word eine Alternative darstellen könnte.

Die Softwarekosten pro Server belaufen sich auf exakt Null Mark. Alle Programme stammen aus dem Internet und werden im Haus angepaßt und erweitert. Linux ist schließlich auch attraktiv, weil es auf preiswerter Hardware läuft. Als wichtigsten Grund für freie Software nennt Klever jedoch ihre Flexibilität. Beispielsweise wollten sie einen Radius-Server außerhalb ihrer Firewall einsetzen, allerdings ohne dort Paßwörter vorzuhalten. Da ihnen der Quellcode zur Verfügung stand, konnten sie sich ansehen, wie die Authentifizierung arbeitet und sie entsprechend ändern.

Die Standzeiten von Linux im Server-Bereich entsprechen nach Einschätzung der beiden taz-Entwickler denen von Sun-OS oder Solaris. Firewall und Web-Server laufen 3-4 Monate ohne Re-Boot durch. Auch die Desktops seien wartungsarm. Mit Hilfe von Shell-Scripts werden Updates einfach auf die einzelnen Workstations gespielt.

Neben der sehr guten Verfügbarkeit und Testmöglichkeit hebt Klever die Qualtität und den guten Support für freie Software hervor. Durch ihre weite Verbreitung im Internet werden Fehler schnell bekannt und behoben. In den Newsgroups oder direkt von den Entwicklern bekomme man sehr schnell kompetente Antworten auf seine Fragen. "Das sind alles Aspekte, die uns proprietäre Betriebssysteme und Software in dieser Form nie hätten geben können."(535)
 
 
 

Babcock-BSH

Das Unternehmen Babcock-BSH befaßt sich mit der Planung, Konstruktion und Lieferung von Anlagen, Systemen, Apparaten und Komponenten der Verfahrenstechnik. Schwerpunkt ist dabei die thermische Behandlung von Schüttgütern aller Art in den verschiedensten Industriezweigen: in der chemischen Industrie, Nahrungsmittelindustrie und der Pharmaindustrie.

Bernd Driesen, Leiter der Datenverarbeitung bei Babcock, sieht Linux als ein ideales System, um die verschiedenen Rechnerwelten des Unternehmens miteinander zu verbinden. Es sei äußerst kostengünstig, und es gebe, anders als oft behauptet, sehr guten Support, sowohl über die Newsgroups, als auch über die Support-Datenbank ihres Providers.

Linux wird als Bindeglied zwischen der Unix-Welt (AIX) und der von MS-Windows und Lotus-Notes eingesetzt. Babcock hat zwei vollkommen unterschiedliche Rechnerwelten im Einsatz. Das ist zum einen ein Tokenring-Netzwerk mit RS/6000-Rechnern von IBM unter AIX, die als CAD-Workstations mit der Software CC-Draft eingesetzt werden. Zum anderen gibt es PC-Arbeitsplätze mit Windows 95 in einem Ethernet. Hier kommt Novell-Netware als Server zum Einsatz. Auf den PCs laufen diverse Anwendungen, in der Hauptsache jedoch leider, wie Driesen sagt, Office 97. Für die Kommunikation innerhalb des Unternehmens wird auch die Groupware Lotus-Notes eingesetzt. Früher mußten deswegen PC-User die CAD-Zeichnungen manuell per FTP von den Unix-Rechnern herunterladen, um sie dann von den PCs aus verschicken zu können, eine fehlerträchtige Vorgehensweise. Darum wurde Linux in einem ersten Schritt eingesetzt, um die CAD-Daten per NFS zu mounten, um sie dann per Samba der PC-Welt zur Verfügung zu stellen. Die Anwender konnten jetzt ihre Dateien einfach von einem Laufwerk auf ein anderes schieben, und der Dateitransfer war vollzogen. Weil dabei eine zusätzliche Installation auf den Clients erforderlich war, hat Driesen später den Samba-Server durch den Netware-Emulator Mars ersetzt. Der Mars-Emulator gibt die Unix-Laufwerke als ganz normale Netware-Volumes frei. Da alle PCs grundsätzlich mit der Client-Software für den Zugriff auf einen Novell-Server ausgestattet sind, braucht der Administrator nur noch den Benutzer in eine bestimmte Gruppe aufzunehmen, ein Vorgang, der nur noch fünf Sekunden dauert. Startschwierigkeiten, z.B. mit der Übertragungsgeschwindigkeit, konnten sehr schnell mit Hilfe der News-Groups und der Support-Datenbank des Distributors gelöst werden.

Die 120 Windows-PCs werden mit Hilfe einer einzigen Linux Boot-Diskette installiert. Darauf befindet sich ein komplettes Linux mit allen wichtigen Funktionalitäten. Dadurch, daß Linux beim Booten automatisch die richtige Netzwerkkarte (inklusive I/O-Adresse und IRQ) findet, hat der Rechner nach dem Booten von der Diskette einen direkten Zugriff auf den Support-Server. Von dort wird dann mit Hilfe von tar eine vorbereitete Windows-Installation herunterladen. Innerhalb von etwa einer halben Stunde läßt sich so ein komplettes laufendes Windows-System, mit allen Standardprogrammen, den wichtigsten Netzwerkdruckern, Internet-Browser usw. installieren.

Ein Intranet-Webserver hilft dem Anwender, quasi als Menüsystem, schnell auf die verschiedenen Dienste, die für die Firma wichtig sind, zugreifen zu können. Hierfür wird der Apache genutzt, dessen out of the box-Installation den Anforderungen genügt. Die schwierige Administration des Apache sei daher, so Driesen, erst einmal kein Thema, höchstens eine Herausforderung.

Linux übernimmt außerdem als Router die Anbindung des lokalen Netzes an das Internet. Nachdem 1997 die Fertigung ge-outcourced wurde, müssen täglich Daten, wie Office-Dokumente, aber hauptsächlich CAD-Zeichnungen, zu den externen Fertigern geschickt werden. Die Standard-Firewall von Linux und als Proxy-Server der Squid kommen ebenfalls zum Einsatz. "Und gerade in dem Bereich gibt uns das Open Source-Projekt Sicherheit. Wir könnten uns, wenn wir Zeit hätten, den Quellcode anschauen, um da eventuell noch Sicherheitslücken zu finden. Machen wir natürlich nicht, aber wir haben zumindest das Gefühl der Sicherheit." Die Homepage der Firma läuft aus Sicherheitsgründen und wegen der hohen Standleitungspreise auf einem Server des Providers.

Nachteile von Linux hat Driesen in all diesen Einsatzgebieten noch keine festgestellt. Abstürze habe es bisher keine gegeben. Die meisten Dienste laufen monatelang absolut störungsfrei.
 
 
 

Lehmanns Buchhandlung

Lehmanns ist eine Kette von Fachbuchhandlungen mit dem Schwerpunkt auf Informatik, Medizin, Naturwissenschaften, Technik und Wirtschaft und mit Filialen in 20 Städten in Deutschland. Lehmanns begann bereits 1992 mit eCommerce, und das auf Linux. Als erste Buchhandlung weltweit hat es mit dem Lehmanns Online Bookshop (LOB)(536) Bücher über das Internet vertrieben.

Die beste Software taugt ohne Handbücher nur die Hälfte. Bernd Sommerfeld, Buchhändler bei Lehmanns Berlin, übernahm 1985 die junge EDV-Abteilung und baute sie zur "UNIX-Buchhandlung in Deutschland" auf. Ab 1990 waren hier auch schon die Bücher der Free Software Foundation zu GNU Emacs, Lisp oder gcc erhältlich, ebenso Software wie Minix und Coherent (das erste kommerzielle PC-Unix). 1992 hörte Sommerfeld zum ersten Mal durch Studenten der FU-Berlin und durch Diskussionen auf der Usenet-Newsgroup comp.os.minix von Linux.
 

"Linux gab es zur dieser Zeit ausschließlich im Internet per ftp. Ich aber wollte es auf Disketten an alle die verkaufen, die den Zugang zum Netz noch nicht hatten. Sebastian Hetze, damals Mathematik-Student in Berlin, war gerne bereit, eine Distribution 'Lunetix lsd' auf sieben Disketten mitsamt photokopiertem Handbuch zu erstellen. Ich erinnere mich gut, wie zur Cebit 1993 der Messestand von Lehmanns wegen des ersten Linux- Anwenderhandbuchs und der ersten Distribution auf Disketten regelrecht gestürmt wurde. Auch Verleger und Softwarefirmen witterten interessante Geschäfte."(537)
 

Aus sieben Disketten wurden schnell über hundert, und man ging zum Pressen von CD-ROMs über. 1994 publizierten aufgeschlossene Computerbuch-Verlage die ersten Linux-Bücher, darunter das bereits genannte Linux-Anwenderhandbuch von LunetIX. Neue Distributoren wie Suse, Caldera, Yggdrasil, DLD und LST brachten Linux-CDs heraus. Linux-Zeitschriften, das amerikanische Linux Journal und das deutsche Linux-Magazin, kamen auf den Markt. Sommerfeld gibt selbst verschiedene Linux-Distributionen heraus. Auch durch die Initiierung des ersten internationalen Kongresses "Linux & Internet" 1994 in Heidelberg machte er sich um Linux verdient. 340 Entwickler und Freunde freier Software aus Finnland, England, den USA und Frankreich trafen sich dort zum ersten mal live.

Bei Lehmanns selbst ist Linux seit Februar 1993 als Mail- und bald darauf als Webserver im Einsatz. Die eCommerce-Lösung für den Lehmanns Online Bookshop wurde von LunetIX (s.o.) entwickelt. LOB bietet eine komfortable Suche im Kataloge der lieferbaren Bücher, CDs und Videos. Z.T. gibt es durchsuchbaren Abstracts. Die Bestellungen erfolgt über einen Warnkorb und wird per eMail bestätigt. In einem Vergleichstest verschiedener Online-Buchläden durch die c't ließ LOB in der Gesamtwertung und vor allem bei den Suchfunktionen, der Übersichtlichkeit, Handhabung und Lieferzeit fast alle Konkurrenten hinter sich.(538)

Sommerfeld lobt vor allem die Stabilität des Linux-Systems. Der Rechner läuft zwei Jahre lang weitgehend wartungsfrei und bootet selbst nach Stromausfall während des laufenden Betriebs ohne größere Datenverluste. "Ich als Buchhändler hatte wenig Erfahrung mit Linux und habe es dem Linux überlassen, sich selber immer wieder hochzufahren. Wenn ich dagegen sehe, wie oft am Tag unsere Rechner, die mit Windows laufen, abstürzen, ist es für mich traumhaft, wie stabil so ein Betriebssystem ist."(539)
 
 
 

Individual Network

Ein Beispiel aus dem nichtkommerziellen Bereich ist das Individual Network (IN).(540) Das IN ging aus der Berliner Mailbox-Szene hervor, die 1980 den Austausch von Mail und News per UUCP kennen- und über die TU und die FU nutzen lernte. 1990 schlossen die Berliner Sites eine Vertrag mit UniDo über UUCP-Zugang, reservierten die Domain IN-BERLIN.de und gründeten das IN-Berlin.(541) Ein Jahr darauf entstand zusammen mit drei ähnlichen Gruppen das das bundesweite Indiviual Network. Der Individual Network e.V. vertritt als Solidargemeinschaft das Ziel eines kostengünstigen privaten Zugangs zum Internet. Es tritt als als Einkaufsgemeinschaft auf, die von EUnet, DFN und anderen Netzbetreibern IP-Kontigente erwirbt, um sie seinen Mitgliedern für private, nichtkommerzielle Nutzung zur Verfügung zu stellen. In einer Zeit, als Internetzugang außerhalb der Universitäten kaum verfügbar und wenn, sehr teuer war, stellte der IN für viele nicht nur die einzige Möglichkeit dar, Internetzugang zu bekommen, sondern auch einen Ort, um Gleichgesinnte zu treffen und mehr über die Technologie zu lernen. Nicht wenige kommerzielle ISPs, wie z.B. das Berliner SNAFU, wurden von ehemaligen Mitgliedern des IN gegründet. 1996 hatte diese 'Graswurzelbewegung' der Netzkultur IP-Zugängen in 84 Städten Deutschlands. Es gab knapp 60 sog. Regional-Domains mit knapp 7.800 Rechnern und schätzungsweise 70.000 Teilnehmern. Damit dürfte das IN der größte reine Internetprovider in Deutschland gewesen sein.(542)

In der Frühzeit des IN wurden NeXT- und Sun-Rechner oder K9Q-Router eingesetzt. Das WWW war noch nicht erfunden. Das Internet außerhalb der kostspieligen Standleitungsinfrastruktur beruhte auf UUCP und bot im wesentlichen die Dienste Mail und News. Im Laufe der Zeit wurden beim IN-Berlin alle Rechner auf Linux umgestellt und einer auf BSD. "Wir können uns über mangelnde Qualität der Software wirklich nicht beklagen. Wir haben unter unseren aktiven Leuten auch einige Entwickler, die auch an Linux-Projekten mitarbeiten, bsw. jemand, der hauptberuflich bei AVM arbeitet und auch ISDN-Treiber für Linux entwickelt. Von daher können wir, wenn es Probleme gibt, direkt eingreifen."(543)
 
 
 

O'Reilly Verlag

O'Reilly & Associates(544) ist 1978 als Consulting-Firma für technische Schriften entstanden, die z.B. Unix-Handbücher verfasste, die Workstation-Anbieter zusammen mit ihrer Hard- und Software ausliefern. Mitte der Achtziger begann sie, die Rechte an ihren Auftragswerken zu behalten, um sie auch an andere Software-Herstellern zu lizenzieren. Spätestens auf der MIT X-Konferenz 1988 wurde deutlich, daß es einen großen Bedarf nach Handbüchern gab, die unabhängig von der Software zu erwerben sind. Aus den Auftrags-Dokumentationen wurden Bücher und aus O'Reilly ein Verlag. Heute hat O'Reilly 120 Titel im Programm mit Schwerpunkten auf Unix, X, Internet und anderen offenen Systemen. Vor allem unter Entwicklern hoch angesehen sind Referenzwerke zu freier Software (Apache, Debian GNU/Linux, Linux-Kernel, GNU Emacs und andere GNU-Software, TCP/IP, Python, sendmail, Samba). Der Verlag beschäftigt über 200 Menschen und hat Niederlassungen in den USA, Japan, Frankreich, Deutschland, Großbritannien Taiwan und der Volksrepublik China.

An der großen Nähe zur technischen Community merkt man, daß O'Reilly aus der Computer-Welt und nicht aus dem traditionellen Verlagsgeschäft kommt. Alle Lektoren sind ehemalige Programmierer. Die Auflagen sind bewußt klein, um in häufigen Nachdrucken die Leserreaktionen und die rasche Änderungen der Software aufnehmen zu können.

O'Reilly hat sich früh auch mit Online-Publishing beschäftigt. Software-Hersteller wollten ihre Dokumentation auch online anbieten. In den Achtzigern entstanden mehrere Dutzend Formate für die digitale Präsentation von Handbüchern und Hilfetexten, z.B. AnswerBook von Sun oder InfoExplorer von IBM. Der O'Reilly-Verlag hätte seine Bücher in zahlreichen unterschiedlichen Formaten anbieten müssen. Um der Abhängigkeit von den verschiedenen Formaten zu entkommen, begannen er zusammen mit HaL Computer Systems 1991 eine SGML-DTD (Document Type Definition) namens DocBook(545) für Online-Handbücher zu entwickeln. Der Kreis, der diesen freien Standard entwickelt, erweiterte sich zur Davenport Group. DocBook hat sich unter den offenen Systemen und auch in der Linux-Community weithin durchgesetzt.

1993 entdeckte Tim O'Reilly das Web und damit HTML, einen Dialekt von SGML. Aus Arbeiten an einem Browser für das DocBook-Format und aus Viola, eine Art HyperCard-Clone unter Unix, ein Tool-Kit zum Bauen von Hypertext-Applikationen, entstand der Global Network Navigator (GNN). Sein Inhalt bestand anfangs aus dem Internet-Verzeichnis der ersten 300 Websites aus dem von O'Reilly herausgegebenen "The Whole Internet User's Guide & Catalog" von Ed Krol. GNN begann als Demo und wuchs sich zu einem neuen Informationsdienst mit Nachrichten, Artikeln und Rezensionen über Internet-Dienste aus, eine Art Informations-Interface als Pforte zu den eigentlichen Diensten. GNN wurde 1995 an AOL verkauft. Mit "Web Review" und dem "World Wide Web Journal" setzt der Verlag seine Online-Publishing-Aktivitäten fort. Im Bereich Online-Bücher werden heute thematische Auswahlen aus dem Verlagsprogramm zu Handbibliotheken zusammengestellt. Verfügbar sind derzeit Referenzwerke zu Java und zu den Schlüsseltechnologien für Webmaster. Verfügbar sind sie im Web, in HTML mit Querverweisen und Suchmaschine, zum Preis von $ 59,95 im Jahr.

Auch in der Software-Entwicklung hat sich O'Reilly engagiert. Wer in den Anfangsjahren Internetzugang haben wollte, mußte sich die nötige Software zusammensuchen. Gemeinsam mit der Software-Firma Spry enwickelte O'Reilly das "Internet in a Box", das Spry-Software, GNN und wiederum den Whole Internet User's Guide and Catalog enthielt. Es folgte WebSite Professional für Webseitenentwickler, ein Webserver für Windows NT and Windows 95 und weitere Produkte.

Der O'Reilly Verlag hat nicht nur Handbücher für freie Software wie Bind und Perl verlegt, sondern unterstützt sie auch durch Veranstaltungen, wie dem Open Source Summit im April 1998 und die jährlichen Perl-Konferenzen, Software wie den Perl Resource Kit und durch das Hosting von perl.com. Er ist dabei immer darum bemüht, freie Software auch im kommerziellen Software-Markt zu stärken.(546)

Tim O'Reilly schätzt, daß er im Laufe der Jahr Bücher über Open Source-Software im Wert von mehr als 100 Mio Dollar verkauft hat und sein Open Source-bezogener Umsatz im vergangenen Jahr größer war, als der von SuSE oder Red Hat. Dennoch ist er der Ansicht, daß nicht er, sondern Bill Gates der größte Open Source-Profiteur sei, da er offene Standards, Protokolle und Software in seine proprietäre Software integriert und seinen Kunden Upgrades für MS-Windows und Office verkauft, damit sie Internet-Funktionalität erhalten.(547)
 
 
 
 
 

Intershop

Der heutige Marktführer für eCommerce-Lösungen wurden 1992 in Jena gegründet. Intershop(548) zog relativ schnell Venture Capital an und verlegte seinen Hauptsitz ins Silicon Valley, aber beläßt seinen Entwicklungsstandort mit 200 Software-Ingenieuren in Jena. Heute hat das Unternehmen 14 Büros rund um die Welt. Im Juli 1998 ging es an die Börse mit einer Marktkapitalisierung von heute ungefähr drei Milliarden DM. Für 1999 rechnete Intershop mit einem Umsatz von 50 Millionen Dollar. Ende das Jahres sollte es erstmals den Break Even Point erreichen. Vision des Unternehmens ist es, 17-20% des eCommerce-Marktes zu halten.

20.000 Unternehmen nutzen Intershop-Software, um Produkte im Internet anzubieten. Das Produkt bietet eine Storefront mit der gesamten Warenwirtschaft dahinter, Integration in Enterprise Resource Planning-Systeme, Customer-Relation-Managementsysteme und was noch zu einem komplexen eCommerce System gehört. Die Software bewegt sich im höheren Preisbereich. Die Kosten fangen bei minimal 5.000 Dollar an und gehen dann bis zu einer Million Dollar oder mehr.

Intershops Kunden sind Telekommunikationsunternehmen, die für ihre Kunden eShops hosten. Eine zweite Kundengruppe sind die Enterprises, mittlere bis größere Unternehmen, die mit eigener IT-Infrastruktur eCommerce betreiben. Zu den Kunden gehören auch Systemintegratoren wie KPMG oder Price-Waterhouse und kleinere Design-Agenturen, die für ihre Kunden wiederum Läden im Internet eröffnen.

Intershops Haltung zu Open Source-Software ist zurückhaltend und unenthusiastisch. Die Produktpalette von Intershop wird seit April 1999 auch unter Linux angeboten, wohl vor allem, um die Aufmerksamkeitswelle auzunutzen. Die Verkaufszahlen der Linux-Versionen sind allerdings bislang gering. In den IT-Systemen von Intershops Kunden werden hauptsächlich NT und Solaris eingesetzt, und es gebe kein Interesse, dies zu ändern. Frank Gessner, Mitbegründer und Vice President Engineering von Intershop, erwartet nicht, daß der Linux-Hype in den nächsten 12 Monaten nennenswerte Folgen für ihren Markt haben wird. Er rechnet auch nicht damit, daß sich die Lizenzpreise für Software allgemein in den nächsten Jahren drastisch reduzieren werden.

Gleichzeitig betont Gessner die Vorteile, die Intershop davon hat, viele Informationen und Ideen aus dem Internet beziehen zu können. Das Unternehmen setzt vor allem Java ein und gibt eigenes Wissen an die Java- und an andere Newsgroups zurück.

Die Intershop-Software selbst ist nicht Open Source. "Wir haben gelernt, daß man Leuten, die sich selbst helfen können, sich selbst helfen lassen muß,"(549) sagt Gessner, schränkt jedoch ein, daß das nicht einfach ist, wenn ein Produkt eine gewisse Komplexität überschritten hat. Er unterscheidet zwischen Produkt und Plattform: "Ich bin kein Jünger von Open Source, aber ein Jünger von offenen Standards." Wer ein Produkt kaufe, möchte auch von seiner Weiterentwicklung profitieren, aber nicht selbst in den Source-Code eingreifen. Die Entscheidung gegen eine Offenlegung des Codes begründe sich nicht mit dem Schutz des 'geistigen Eigentum', sondern mit der Unterstellung, die Kunden wollten ohnehin nicht in die über eine Millionen Zeilen Quelltext der Intershop-Software eingreifen.

Im Quelltext verfügbar sind allein die APIs und die Dokumentationen (java.doc, db.doc usw.). In Ausnahmefällen wird anscheinend "trainierten Systemintegratoren" der Source Code verfügbar gemacht. "Die wissen auch, wenn sie das machen, daß sie oft alleine damit zurechtkommen müssen. Das ist ja bei Open Source der Vor- und Nachteil in einem."

Auf die Frage nach der Community sagt Gessern, das sei ganz einfach: Man müsse die Leute zum Kommerz befähigen, ihnen Wege aufzeigen, wie sie, wenn sie um eine Technologie herum investieren, ein Return of Investment erhalten. Sprachs und forderte die versammelten Open Source-Entwickler auf, sich von Intershop einstellen zu lassen. Gessner: "Wir sind eine Firma, die nicht davor zurückschreckt, Geld zu verdienen."
 
 







Sicherheit





Der Problemkomplex Sicherheit läßt sich in die Bereiche Betriebssicherheit (Stabilität, Verfügbarkeit, Investitionssicherheit, Haftung) und Systemsicherheit (Abhörschutz, Kryptografie, Firewalls) gliedern. Die Experten vom Bundesamt für die Sicherheit in Informationstechnik (BSI) über Bundeswirtschafts- und Forschungministerium bis zum Chaos Computer Club (CCC) sind der einhelligen Überzeugung, daß die Quelloffenheit einer Software essentielle Voraussetzung für ihre Sicherheit unter allen Gesichtspunkten ist. Proprietäre Software, bei der der Anwender sich einzig auf das Wort des Anbieters verlassen kann, muß grundsätzlich suspekt sein. Überprüfbarkeit durch Experten des eigenen Vertrauens, d.h. Quelloffenheit, ist Vorraussetzung für Vertrauensbildung. Besonders die Vertreter des BSI sagten mit deutlichen Worten, daß sie lieber heute als morgen auf MS-Windows-Software verzichten würden.

Dies steht im Kontrast zu einem erheblichen Mißtrauen in Bezug auf Sicherheitsfragen, auf das Open Source-Software weiterhin trifft. Ingo Ruhmann (BMBF) hält vertrauensbildende Maßnahmen und eine Öffentlickeitsarbeit in erster Linie durch die Distributoren für erforderlich, die breite Anwenderkreise über die Sicherheitsvorzüge freier Software aufklären.

Umgekehrt herrscht an vielen Orten weiterhin ein unbegründbarer Vertrauensvorschuß gegenüber proprietärer Software. Unbegründbar, weil die zahlreichen bekanntgewordenen Mängel und sicherheitsbedenklichen Features eigentlich jedes Vertrauen in proprietäre Software zunichte gemacht haben sollten. Zu der langen Kette gehört die mangelhafte Implementierung des Point-to-point-Tunneling-Protokolls von Microsoft,(550) die Fernsteuerung fremder Rechner mit Hilfe von MS Back-Orifice(551) oder die Identifizierungsnummern, die Intel in seinem neuesten Prozessor einbrannte, und die auch Microsoft nicht nur jeder einzelnen Version von Windows98 und Anwenderprogrammen mitgibt, sondern die sich auch in Word-, Excel- und PowerPoint-Dokumenten findet. "Wenn man das in einem größeren Zusammenhang sieht -- für mich ist proprietäre Software etwas ganz Suspektes. Sie können das in eine Reihe setzen mit dem, was amerikanische Sicherheitsbehörden machen: auf der ganzen Welt eMails, Telefongespräche und Telefaxe aufzunehmen oder die Exportrestriktionen für Kryptoalgorithmen, dann ist für mich eine Software, in die ich nicht hineingucken kann, etwa genauso verdächtig."(552)

Ebenso unbegründbar ist das Vertrauen in die stabilen Besitzverhältnisse der Unternehmen, auf die man sich in IT-Sicherheitsfragen verläßt.
 

"1997 hat die Bundesregierung erklärt, daß im Bereich der Bundesbehörden 65.000 PCs mit Microsoft-Betriebssystemen im Einsatz sind. Heute werden es einige Tausend mehr sein. Keiner dieser PCs läßt sich auf Sicherheitsmängel überprüfen, ob er jetzt im Berlin-Bonn-Verkehr eingesetzt wird oder nicht. Im übrigen wurde die genutze Krypto-Hardware im Bonn-Berlin-Verkehr von einer Firma geliefert, die, nachdem der Kaufentschluß gefallen war, von der südafrikanischen Firma Persetel Q Holdings gekauft wurde, die während der Zeiten des Boykotts gegen Südafrika großgeworden sind, mit besonders guten Kontakten zum südafrikanischen Militär. Im Herbst 1999 wurde dieser Firmenteil immerhin von der deutschen Firma UtiMaco gekauft. Für Black Box-Systeme ist daran wichtig: Das Know-How um die Kyptomodule war für einige Zeit für Beteiligte offengelegt, deren Vertrauenswürdigkeit niemand geprüft hat. Hier gibt es einige Probleme, die dadurch nicht besser werden, wenn wir uns auf große kommerzielle Anbieter verlassen."(553)
 

Im Office-Bereich bedarf der Wechsel zu quelloffenen Systemen keiner weiteren Evaluierung mehr, trifft aber auf andere Schwierigkeiten. Zum einen ist Microsoft-Software in der Verwaltung und in der Wirtschaft heute Quasi-Standard. Eine Abteilung, die im Alleingang umsteigt, läuft somit Gefahr, nur in eingeschränktem Umfang Daten mit Kommunikationspartnern austauschen zu können. Zum anderen stehen unter Linux grafisch zu bedienende Oberflächen, die Anwender in diesem Bereich für ihre Office-Applikationen erwarten, erst seit relativ kurzer Zeit zur Verfügung. Die Anforderungen an den Anwender bei Installation und Wartung sind heute unter Linux noch deutlich höher als unter Mac-OS oder MS-Windows. Angesichts der kurzen Zeit, in der sich die grafischen Oberflächen KDE und Gnome und andere Merkmale der Benutzerfreundlichkeit entwickelt haben, ist jedoch damit zu rechnen, daß dieser Unterschied bald verschwinden wird.

Ruhmann fordert einen Wandel in der Sicherheitskultur. "Weg von dieser Aufregung: 'Der und der Browser hat mal wieder dies und jenes Sicherheitsloch', und der Panik, die dann hinterher kommt. Oder diese mittlerweile notorischen Meldungen über neue Viren, bei denen die Hälfte der Mails sich auf Viren bezieht, die gar nicht existieren. Diese Aufregung ist ja ganz schön und nützlich, sie führt aber letztendlich nur zu reiner Panikmache ohne vernünftige Differenzierung. Open Source-Software kann diese vernünftige Differenzierung dadurch leisten, daß es eine überprüfbare Sicherheit bietet, nur müssen dann auch die Mechanismen dafür her."(554)

Frank Rieger (CCC) sieht Mängel in der Sicherheitskultur auch auf Produzentenseite. Sicherheit ist häufig keine Priorität im Entwicklungsprozeß und kein strukturelles Element eines Produkts, sondern ein add-on, über das erst kurz vor der Markteinführung nachgedacht wird. Oft genug ist nicht klar, wer eigentlich dafür zuständig ist, daß ein Produkt am Ende sicher und vor der Auslieferung auch daraufhin getestet worden ist. Auch eine Zertifizierung bietet hier keine Gewähr, zumal, wenn sie wie im Falle von Windows NT zehn Jahren zuvor für ein komplett anderes Produkt errungen wurde. Schließlich werden Produkte, die von sich aus relativ sicher sein können, mit falschen Default- und Installationswerten ausgeliefert. Rieger führt als Beispiel eine aktuelle SuSE-Distribution, die nach einer Standardinstallation unnötig viele Ports offen hat. Auch wenn es möglich ist, ein SuSE-Linux wasserdicht zu machen, zeigt es sich doch bei allen Computer-Systemen, daß viele Endanwender die Default-Einstellungen nie verändern.(555)

Für Ruhmann bedeutet eine IT-Sicherheitskultur, "daß das Bewußtsein um IT-Sicherheit steigen muß; daß es kein Kostenfaktor ist, sondern ein erheblicher Nutzenfaktor; und daß der Grad der Panik aus Unwissenheit bei irgendwelchen Problemen dadurch herabgesetzt werden muß, daß die Leute auf der einen Seite einfach kompetenter mit IT umgehen können und auf der anderen Seite ein kompetenteres Beratungsangebot zur Verfügung haben. ... Qualität sollte nicht vom Glauben abhängig sein, sondern von überprüfbaren Kriterien."(556) Und Voraussetzung für eine Überprüfbarkeit ist Zugang zum Quellcode.
 
 
 

Betriebssicherheit

Auf der fundamentalsten Ebene ist nach der Betriebssicherheit von Systemen, nach ihrer Ausfallhäufigkeit, Stabilität und Verfügbarkeit zu fragen. In diesen Punkten sind Open Source-Systeme wie Linux durch eine weitergehende Fehlersicherheit proprietären Systemen deutlich überlegen. Freie Software ist natürlich nicht per se fehlerfreier, doch wenn ein Fehler auftritt, findet sich meist sehr schnell Unterstützung im Internet oder es kann ein Software-Entwickler angeheuert werden, der den Fehler beseitigt, während der Benutzer einer proprietären Software darauf angewiesen ist, daß der Hersteller den Fehler behebt.

Zur Investitionssicherheit ist oben unter "wirtschaftliche Potentiale" bereits einiges gesagt worden. Verantwortungsbewußte Firmen,(557) hinterlegen den Quelltext ihrer Software, so daß die Kunden weiterhin darauf zugreifen können, falls die Firma aufgekauft wird, bankrott geht oder aus anderen Gründen die Software nicht mehr warten kann.

Auch die Flexibilität und Anpaßbarkeit von quelloffener Software, die dort bereits genannt wurde, ist sicherheitsrelevant.
 

"Wenn ich mir ein kleineres Sicherheitsproblem der letzten Wochen und Monate angucke, wird offenbar, daß Verbesserungen im Sicherheitszusammenhang immer wieder notwendig sind, und zwar im laufenden Betrieb. Die US-Navy hat festgestellt, daß Schiffe in der Adria im Kosovo-Krieg Mails senden und empfangen konnten und daß ihre Soldaten ziemlich blauäugig nicht nur Mails anderer Leute gelesen, sondern auch sensitive Informationen per Mail an ihnen unbekannte Leute weitergegeben haben. Was war die Lösung? Eingehende Mails wurden erlaubt, ausgehende nicht. Das funktioniert mit schlecht anpassbaren Systemen nur auf diese Art und Weise. Man hätte sich natürlich auch andere Wege überlegen können, diese Systeme ein wenig besser der neuen Situation anzupassen. Eine solche Anpassung ist natürlich bei Black Box-Systemen schlichtweg unmöglich. Bei Open Source-Systemen kann ich entsprechende Veränderungen jederzeit einbringen, wenn ich die Leute kenne oder selbst dazu in der Lage bin."(558)
 
 
 

Gewährleistung und Haftung

Ein immer wieder zu hörender Einwand gegen OSS lautet: 'Wie kann ich diesen "langhaarigen Leuten" trauen, die mir einen Bug Fix schicken?' Natürlich kennt man auch bei proprietärer Software in der Regel die Entwickler nicht persönlich. Der vermeintliche Unterschied besteht darin, daß man ihre Firma im Falle eines Fehlers verklagen könnte. "Hier wird also versucht, Sicherheit durch die Möglichkeit des Rechtsweges herzustellen."(559) Daß diese Strategie bei kommerziellen Produkten auf theoretische und praktische Grenzen stößt, soll hier dargestellt und mit der Lage bei freier Software kontrastiert werden. Da freie Software niemandem gehört und keine großen Unternehmen die Gewährleistung dafür übernehmen, wie kann ein Nutzer sicher sein, daß die Software auch in kritischen Situationen das hält, was sie verspricht?

Zunächst ist anzumerken, daß auch kommerzielle Unternehmen für ihre Produkte keine Gewährleistung übernehmen. Ihre Software wird as is angeboten, mit so weitgehenden Garantie- und Haftungsausschlüssen, wie es die jeweilige nationale Jurisdiktion zuläßt.(560) Joseph Weizenbaum hat das Mißverhältnis zwischen der Software- und anderen Branchen einmal so beschrieben: eine Fluggesellschaft, die sich so verhalten würde wie eine Informatikfirma, wäre innerhalb von zwei Wochen pleite. Das Produkthaftungsrecht aus der Welt der materiellen Waren findet auf Software noch keine Anwendung, obgleich es wünschenswert wäre, eine Situation zu schaffen, in der Nutzer erwarten können, daß das, wofür sie bezahlt haben, auch funktioniert.(561) Das entspricht jedoch nicht dem Stand der Kunst in der Informatik, und auch der tatsächliche Trend geht in die entgegengesetzte Richtung. Das US-amerikanische Produkthaftungsrecht wird derzeit dahingehend korrigiert, daß den Herstellern von Software eine stark verminderte Haftung eingeräumt wird.(562) Es ist ferner zweifelhaft, ob die Gerichtsstandsklauseln wie sie in der Bankenwelt üblich sind, in denen Unternehmen eine Jurisdiktion der eigenen Wahl vorschreiben, in der Software-Branche Anwendung finden. Das Produkthaftungsrecht ist in verschiedenen Ländern sehr unterschiedlich geregelt, so daß Computer-Konzerne, auch wenn sie in den USA weitgehend aus der Haftung entlassen sind, in anderen Ländern mit sehr strikten Auflagen rechnen müssen.(563)

Umgekehrt verfügt die Welt der freien Software sehr wohl über Mechanismen der Qualitätskontrolle und der Stabilitätssicherung für offiziell freigegebene Releases. Der offene Prozeßcharakter und die fehlende Rechtsform vieler Projekte schließt jedoch eine rechtsverbindliche Gewährleistung aus. Das gleiche gilt auch für Firme, die freie Software zusammenstellen und vertreiben. SuSE z.B. bietet keine generelle Gewährleistung.(564)

Anders sieht es bei Firmen aus, die Dienstleistungen auf Basis freier Software anbieten. Da sie die Software, mit der sie arbeiten, kennen und im Sourcecode überprüfen können, können sie auch einschätzen, welche Leistungen sie gewährleisten können und welche nicht. LunetIX z.B. gewährleist sehr umfänglich, daß das, was mit dem Kunden vereinbart ist und wofür er bezahlt, auch tatsächlich zum Funktionieren gebracht werden kann. "Ich habe die Erfahrung gemacht, daß man viel ehrlicher ist, mit den Sachen die nicht gehen. Eine Freiheit, die wir uns nehmen können, weil wir eben kein Produkt verkaufen, das all singing, all dancing ist. Wir können sagen, da hat es seine Stärken, da seine Schwächen. Wenn die Schwächen für Euch ein Problem sind, können wir daran arbeiten."(565)

Ingo Ruhmann ist der Ansicht, daß im Streitfall eine Sachverständigenüberprüfung vor Gericht nur dann überhaupt möglich ist, wenn der Quellcode eingesehen werden kann.
 

"Das Problem an der Sache ist aber: Wieviele Fälle von Prozeßen gegen solche Firmen werden überhaupt geführt? Die Kriminalstatistik sagt, daß es jenseits von Kreditkartenbetrug allenfalls ein bis zwei Dutzend Fälle von Computerkriminalität gibt, die vor Gericht landen. Das rührt einfach daher, daß keine Analyse der Systeme möglich ist. Das heißt, wenn ein Fehler auftritt, kann ich mich effektiv nicht mit einiger Sicherheit an die Firma wenden, die für diesen Fehler verantwortlich ist. Wir kennen es, wenn man eine Hotline befragt, dann wird meistens gesagt: 'Das könnte ja auch noch den und den Grund haben. Es könnte der Treiber von irgendeinem Hardwareteil sein.' Solange die Sourcen nicht wirklich offenliegen, hat der Anbieter eines prorietären Systems natürlich die Möglichkeit abzustreiten, daß der Fehler bei ihm liegt. Und ich habe keine Möglichkeit, das herauszufinden.

Bei Black-Box-Systemen ist eine Fehlererkennung nur durch einen Funktionsfehler im Betrieb möglich, bei Open Source-Systemen aber eine konkrete Analyse, woran dieser Fehler liegen könnte. Das heißt, effektiv ist erst in dem Fall, daß ich Open Source-Software einsetze, überhaupt die Möglichkeit gegeben, daß ich diesen Rechtsweg -- den viele bei prorietären Systemen für gegeben halten -- mit einiger Aussicht auf Erfolg beschreiten kann. Hinzu kommt sogar, daß ich, wenn ich bei bestimmten proprietären Systemen eine Analyse mache und herausfinde, daß der zur Sicherheit benutzte Mechanismus extrem schwach ist, da oftmals sogar rechtlich besonders schlechte Karten habe, weil der Schutz gegen Datenmißbrauch auch einen ausreichenden technischen Hintergrund voraussetzt. Das heißt, sind die technischen Mechanismen schwach, habe ich rechtlich auch gar keine Möglichkeiten. Das Ganze zu überprüfen ist rechtlich ausgesprochen schwierig, und möglich ist es nur bei Open Source-Systemen."(566)
 

Eine systematische Kontrolle der Funktionstüchtigkeit von Black Box-Systemen ist ausgeschlossen. Eine gerichtliche Würdigung ist allenfalls möglich, wenn ein Unternehmen den Quellcode seiner proprietären Software (üblicherweise unter Vertraulichkeitsverpflichtung) den Sachverständigen zugänglich macht.

Eine Überprüfung vorab ist selbst bei Vorliegen des Quellcodes schwierig, doch nachträglich lassen sich immer wieder bewußt eingebaute Sicherheitslücken nachweisen. Hier sieht Frank Rieger eine Möglichkeit für das Eingreifen des Gesetzgebers. Wenn die Haftbarkeit von Herstellern für Hintertüren drastisch verschärft würde, gäbe es keine anderen Möglichkeit mehr gibt, als Sicherheitsprodukte Open Source zu machen. "Dadurch würde das, was sowieso schon üblich ist bei kleineren Firmen, alles, was Krypto und Security ist, Open Source zu machen, auch für große Firmen bindend und verpflichtend werden, und könnte tatsächlich eine ganze Menge bewegen."(567)
 
 
 

Kryptografie: Security by Obscurity vs. offene Verfahren

Das Schlüsselelement für Sicherheit in digitalen Systemen ist die Kryptografie. Der Schutz von Daten auf einem Rechner (z.B. Patientendaten), die Vertraulichkeit von Kommunikationen (z.B. Vertragsverhandlungen zwischen Unternehmen), die Verhinderung der nachträglichen Veränderung von Dokumenten (z.B. vertraglichen Abmachungen), die Sicherung der Identität von Transaktionspartnern durch digitale Signaturen, der Beleg für das Absenden und den Empfang von Dokumenten, die Verhinderung der Nichtanerkennung von Vereinbarungen und schließlich der gesamte Komplex der digitalen Zahlungsverfahren beruhen alle auf kryptografischen Systemen. Sie waren bis vor kurzem die exklusive Domäne von Militär und Geheimdiensten. Als in den 70er Jahren Konzerne und Banken begannen, digitale Netze einzusetzen, entstand erstmals ein ziviler Bedarf nach Kryptografie. Seit Anfang der 90er Jahre verbreitet sich die PC-gestützte private Nutzung von offenen Netzen und damit der allgemeine Bedarf nach kryptografischen Produkten.

Zwei Positionen treffen an dieser Frage aufeinander: einerseits das Grundrecht auf Unantastbarkeit der Kommunikation und Schutz der Privatsphäre, andererseits das

Sicherheitsinteressen des Staates. Die Konfliktlinie verläuft in allen Ländern zwischen den Daten- und Persönlichkeitsschutzverfechtern und den Strafverfolgungs- und Nachrichtendiensten, zwischen den Wirtschafts- und den Innenministerien.(568) Schließlich ist Kryptografie nicht nur Voraussetzung für eCommerce, sondern selbst ein erheblicher Markt.

Wenn Kryptografie Vertrauen in das Internet schaffen soll, stellt sich die Frage, auf welcher Grundlage man Kryptografie-Software vertrauen kann. Auf dem Markt für diese Produkte stehen sich zwei Herangehensweisen gegenüber. Zum einen soll ein Vertrauen in die Sicherheit solcher Systeme erzeugt werden, indem sie in einem vertraulichen Prozeß entwickelt werden und ihre Funktionsweise geheimgehalten wird. Dieser sog. Security by Obscurity-Ansatz herrscht unter den proprietären oder Black Box-Produkten vor. Dagegen kann die Sicherheit von Open Source-Systemen, die im Prinzip jeder Interessiert einsehen kann, nur darauf beruhen, daß der Mechanismen auch dann schützt, wenn er bekannt ist.
 

"Es gibt einige Microsoft-Systeme, die ihre Paßwörter ganz einfach mit einer xor-Verschlüsselung mit einer relativ einfachen Zahl ablegen. Wenn bekannt wird, wie dieser Mechanismus funktioniert, dann ist er nichts mehr wert. Im Gegensatz dazu, wie allen bekannt, verschlüsselt Unix Paßwörter in einer Einwegfunktion und vergleicht sie auch in der verschlüsselten Version. Da es keine Umkehrfunktion dazu gibt, ist es völlig unerheblich, ob diese Einwegfunktion bekannt ist oder nicht. Und jeder kann auch das abgelegte Paßwort lesen, weil er damit nichts anfangen kann, denn es liegt ja nicht im Klartext vor."(569)
 

Rieger nennt als weitere Beispiele GSM, den Standard, der heute in den meisten Mobiltelefonen verwendet wird, und der trotz strenger Geheimhaltung von einer US-amerikanischen Hacker-Gruppe geknackt werden konnte, sowie die Telefonkarte der Deutschen Telekom. Im letzteren Fall kam ein Hamburger Sicherheits-Consulting-Unternehmen zu dem Ergebnis, daß die von der Telekom gewählte Chipkarte keine inhärente Sicherheit biete, sondern diese allenfalls in einem Technologievorsprung gegenüber möglichem Mißbrauch von etwa drei oder vier Jahre beruhe. Die Vorhersage hat ich bewahrheitet. Gefälschte Telefonkarten sind ein erhebliches Geschäft. Rieger schätzt, daß es sich um einen der größten Schäden handelt, die durch Security by Obscurity entstanden sind. Er bezeichnet das Modell der Security by Obscurity als ein Wissensmonopol einer Priesterschaft:
 

"Ich designe ein System so, daß es von außen auf den ersten Blick nicht durchschaubar ist und seine inneren Wirkungsweisen nicht verstanden werden können -- so glaubt man zumindest. Und wenn man dann der Sache doch nicht so traut, baut man lieber noch so ein paar Gemeinheiten ein, einige Fallen oder Inkonsistenzen, um zu verhindern, daß, falls es einen Security-Bruch gibt, die Sachen zu schnell vorangehen. Dieses geschlossene Modell ist sehr kompatibel mit dem Kulturraum von großen Entitäten wie Siemens z.B. ... Die haben da eine kleine Abteilung mit einer großen Stahltür davor, und da ist ein Zahlenschloß und ein Iris-Scanner dran und noch eine große Stahltür und dahinter liegen in dem Safe die drei Blätter Papier, auf denen steht, wie's geht. Da ist etwas, was sie verstehen. Da können sie einen Wachmann davorstellen, der notfalls schießt, und damit ist die Sicherheit dann eigentlich gewährleistet. Daß der Algorithmus, den sie in dem Panzerschrank mit den drei Stahltüren haben, auf jeder beliebigen Chipkarte, die zehn Millionen Mal verteilt wird, nach draußen geht, daran haben sie nicht wirklich gedacht."(570)
 

Das Priesterschaftsmodell wird ferner durch die zunehmende Mobilität und Informationsdichte infrage gestellt. Angestellte aus Sicherheitsabteilungen wechseln ihre Arbeitgeber häufiger als früher, und kein Non-Disclosure Agreement kann verhindern, daß sie ihr Wissen mitnehmen.

Das quelloffene Modell ist wiederum nicht per se sicherer, doch durch das öffentliche Testen und Studieren werden Mängel und Fehler meist relativ schnell gefunden und behoben. Auch Hintertüren sind dadurch nicht ausgeschlossen, doch auch hier ist die Chance, daß jemand sie entdeckt, relativ hoch.

Rieger weist aber darauf hin, daß Open Source kein Allheilmittel ist. Besonders große Programme, die erst nachträglich quelloffen gemacht werden, sind extreme schwer zu überschauen. Kaum jemand hat den gesamten Quellcode von PGP durchgelesen und kann sicher sagen, daß sich darin keine Hintertür befindet. Und wenn man so etwas mit mehreren Personen macht, ist die Gefahr, etwas zu übersehen, noch viel größer. Seit Anfang 1998 liegt das Programm PGP 5.0 im Quelltext vor, ein gravierender Fehler, der unter bestimmten Voraussetzungen die Sicherheit unterminiert, für die das Programm eigentlich sorgen soll, wurde jedoch erst im Mai des darauffolgenden Jahres bekannt.(571) Für Rieger ist der einzige Weg zu solchen Kernsicherheitssystemen wie PGP, diese von Anfang an offen zu entwickeln. Nur ein permanent mitlaufender Review bietet Gewähr, daß nicht nachlässig oder gezielt Sicherheitsprobleme eingebaut werden.(572)

Die Bundesregierung faßte am 2. Juni 1999 einen Beschluß, der die Verwendung von starken Kryptografieprodukten ohne jede Beschränkung vorsieht.(573) Sie strebt damit ihren breiten Einsatz durch jedermann an. Zu den Schritten, die Hubertus Soquat (IT-Sicherheit im BMWi) in Berlin vortrug, gehört die Erhöhung der Verfügbarkeit von Kryptoprodukten, von der Entwicklung über die Produktion und den Vertrieb bis zum Einsatz. Im Zentrum der Aktivitäten zur Sensibilisierung breiter Nutzerschichten steht die Kampagne "Sicherheit im Internet",(574) die sich besonders an normale Nutzer und an kleine und mittlere Unternehmen richtet. Das BMWi wird die deutsche Krypto-Industrie beobachten, um abzuwägen, welche Möglichkeit bestehen, durch öffentliche Auftraggeber entsprechende Nachfragepotentiale zu realisieren. Zur Förderung des Einsatzes von Verschlüsselung innerhalb der Bundesbehörden und darüber hinaus dient das Pilotprojekt "Sphinx".(575)

Auf die Frage, was geschehe, wenn sich herausstellt, daß das, was die Strafverfolgungs- und Nachrichtendienste als ihre legitimen Bedürfnisse sehen, sich mit alle anderen Eckpunkten ausschließt, wie z.B. Security, sicherer Nachrichtenverkehr, freie Verfügbarkeit der starken Kryptographie, antwortete Soquat in einem TAZ-Interview:(576) "Dann haben sie [die Sicherheitsdienste] Pech gehabt." Er verwies darauf, daß Nachrichtendienste und die Strafverfolgungsbehörden nachgeordnete Behörden sind und daß das Bundesverfassungsgerichtes in einer jüngsten Entscheidung unterstrichen hat, daß es Grenzen für deren Tätigwerden gibt. Wenn die Maßnahmen des BMWi nach Ablauf von zwei Jahren 2001 einer Prüfung unterzogen werden, spielen dabei neben internationalen Fragen auch die Interessen der Strafverfolgungs- und Sicherheitsbehörden eine Rolle.

Voraussetzung für das Vertrauen in Kryptografie ist also einerseits, so auch Soquat, die Quelloffenheit der Software. Andererseits strebt die Bundesregierung eine Prüfungen und Zertifizierungen von Software an, die u.a. vom Bundesamt für Sicherheit (BSI) auf Grundlage eines Erlasses des Bundesinnenministeriums vorbereitet wird.

Erschwert wird die Situation dadurch, daß Kryptgrafie in vielen Ländern als Waffentechnologie klassifiziert und mit Ein- und/oder Ausfuhrbeschränkungen belegt ist.(577) Das führt dazu, daß Hersteller von kryptografischen Algorithmen oder anderer Software, die solche Algorithmen enthält, jeweils eine starke Version für den Inlandsmarkt und eine schwächere für den Export anbieten müssen. Freie Software-Projekte, die sich nicht nach Ländergrenzen organisieren, stehen hier vor besonderen Problemen.

Das Wassenaar Abkommen(578) ist ein Versuch, die verschiedenen nationalen Politiken zu harmonisieren. Für die freie Software besonders interessant ist, daß es kryptografische Software in der public domain von Restriktionen ausnimmt.
 

"Nun profitiert als 'public domain' -- in einem speziellen Sinne, der eigentlich heißt: frei weitergebbar -- gekennzeichnete Software von Teil 2 der General Software Note des Wassenaar Arrangements. Es gibt relativ glaubwürdige Hinweise, u.a. in Form der neuen australischen Exportrichtlinien, daß wohl darauf gedrungen wird, diese Ausnahme für kryptographische Software aus dem Wassenaar Arrangement zu streichen. Das hieße, daß man diese kryptographische Software innerhalb der EU im kommenden Jahr [2000] zwar noch frei verteilen könnte, aber international nicht mehr. Wenn ich das mit Aspekten, wie der von Herrn Dalheimer angesprochenen großen Internationalität schon in der Software-Entwicklung, dem generisch zu dieser Software gehörenden weltweiten Zurverfügungstellen des Quellcodes, in einen Topf rühre, dann bekomme ich da heraus: einen Angriff auf die legale Erstellbarkeit frei verfügbarer Sicherheits-Software. Angenommen, diese freie Software wäre nicht mehr per se ausgenommen von den Restriktionen, dann kann ich zwar versuchen, diese Exportrestriktionen zu umgehen oder zu ignorieren (was mit Sicherheit auf viele machen werden), aber bei dem, wovon wir hier reden: Einsatz freier Software in Verwaltungen und Unternehmen, da ist das nicht mehr eine Option. Da muß ich schon davon ausgehen können, daß diese Sachen in einem legalen Rahmen erstellt wurden und erhältlich sind."(579)
 

Die Kryptorichtlinien der Bundesregierung haben international Anerkennung gefunden, sind aber auch, z.B. in den USA auf Kritik gestoßen. Auch Frankreich und Großbritannien haben eine andere Haltung dazu als die die Bundesregierung. Diese will aber in den laufenden Gesprächen im Rahmen des Wassenaar-Abkommens selbst, seiner Umsetzung innerhalb der EU auf Dual-Use-Verordnungsebene und bei der Umsetzung dieser europäischen Regelungen auf der nationalen Ebene dafür einsetzen, daß die Grundidee hinter den "Kryptografie-Eckwerten", also die freie Verfügbarkeit, nicht verwässert wird.(580) In einem ersten Schritt ist der Handel zwischen den Mitgliedsstaaten bereits liberalisiert worden.

Auch die NSA hat ihre Haltung gegenüber Verschlüsselungssystemen inzwischen abgeschwächt. Grund könnte sein, daß deutlich geworden ist, daß nicht alle Kryptografie-Kompetenz in den USA sitzt und selbst dafür Exportverbote wenig Wirkung zeigen. Die neue Strategie der NSA, so vermutet Rieger, sind Hintertüren.
 

"Darin haben sie eine wirklich große Erfahrung, angefangen bei der Krypto-AG, wo über Jahrzehnte hinweg die Keys mit im Cyphertext-Stream ge-leakt wurden, bis hin zu Hintertüren, die in irgendwelche Produkte eingebaut werden, z.B. Router, Firewalls, ISDN-Systeme, Betriebssysteme. Da wird, denke ich, in nächster Zukunft deren großes Arbeitsfeld liegen, weil sie genau wissen, daß der Aufwand, die Kryptografie auf dem Transportweg zu brechen, sich so schnell nicht verringern wird, selbst wenn sie noch so viel in die Forschung stecken. Deswegen ist der Weg, den sie gehen werden, Hintertüren. Wir haben auch einen deutlichen Anstieg von Angriffen über Hintertüren gesehen, die von professionellen Industriespionen erfolgen, die solche Hintertüren tatsächlich auch kaufen. Es gibt Leute, die kennen die halt und verkaufen dieses Wissen. Etliches von dem, was an Sicherheitsproblemen da ist, wird mittlerweile nicht publiziert, sondern immer noch unter der Decke gehalten, gerade was ISDN-Systeme betrifft."(581)
 

Sicherheit läßt sich nicht auf die Frage der Kryptographie reduzieren.
 

"Die eigentlichen Probleme in der Sicherheit liegen darin, daß man Software und Systeme mit sehr vielen Unbekannten verwendet. Bei der Kryptographie ist es so, ich kann mir vorstellen, ich habe eine starke Kryptographie unter MS NT über einen Treiber eingebunden und die Gefahren liegen wo ganz anders: die Dateien werden zwar wunderbar verschlüsselt, aber über einen verdeckten Kanal kommen sie letztendlich doch dort hin, wo sie nicht hin sollen. Aus diesem Grund ist der Schwerpunkt bei unserem Projekt nicht in der Kryptographie. Wir binden die hardware-mäßig ein. Das ist im Grunde nur eine Schnittstelle zu einer Hardware. Die müssen wir natürlich nicht offenlegen -- die Schnittstelle schon, aber die Hardware nicht. Selbst wenn wir ein Software-Modul schaffen würden unter Linux, auch das würden wir nicht weitergeben. Das würde mit eingelinkt werden in das System. Das ist so etwas wie ein Gerätetreiber oder etwas ähnliches. Und dort würde sich die Krypto befinden. Das ist überhaupt nicht der Sicherheitsfaktor. Sondern: die Tatsache, daß ich weiß, daß meine Krypto überhaupt angesprochen wird und daß nicht noch etwas anderes auf dem System gemacht wird -- all dieses sind die entscheidenden Sicherheitsfragen. Insofern laufen das Wassenaar-Aggreement und diese Dinge für mich im Grunde an der Zeit vorbei. Das ist nicht mehr das Problem. Und das weiß auch letzendlich die amerikanische Regierung, deshalb setzen sie auch viel mehr auf so etwas wie MS, da haben sie viel mehr Power drin, wenn die NSA dort ihren Einfluß geltend macht, als wenn sie den verlorenen Krieg gegen irgendwelche kryptographischen Programme führen -- das ist mit dem Internet sowieso vorbei. Insofern ist das nicht das Hauptproblem der Security. Und ich denke, wir haben das erkannt.(582)
 

Für die Verschlüsselung von Mail mit public-private-key-Verfahren gibt es derzeit zwei Standards: PGP (Pretty Good Privacy von Phil Zimmerman) und S-MIME. S-MIME setzt für die X.509-Zertifikate eine zentrale Certificate Authority voraus, die alle Schlüssel beglaubigt.

Auch Open-PGP ist mittlerweile durch das RFC 2440 standardisiert. Es ist unter Zusammenarbeit von Lutz Donnerhacke aus Jena und Jon Callas von PGP erabeitet und verabschiedet worden, so daß auch hier der gleiche Status erreicht ist wie bei S-MIME. Die Zertifizierung von PGP-Schlüsseln beruht auf einem Web of Trust ohne zentrale oberste Instanz. Es erlaubt ebenfalls, hierarchische Strukturen für die Zertifizierung zu bilden, doch die Grundstruktur ist ein Netzwerke von Leuten, die sich kennen und vertrauen.

PGP weist zwei Probleme auf. Erstens steht es nicht unter der GPL. Das heißt, der Source Code ist zwar verfügbar, aber es ist nicht erlaubt, Modifikationen daran vorzunehmen und zu vertreiben, also zusätzliche Features einzubauen, Teile aus PGP zu entfernen, die man für Sicherheitsrisiken hält und Software bereitzustellen, die auf PGP basiert. Zweitens wurde PGP von Network Associates gekauft. Als kommerzielles amerikanisches Produkt unterliegt es den Exportbeschränkungen. Starkes PGP ab einer bestimmten Schlüssellänge darf nicht ausgeführt werden. Außerdem war Network Associates Mitglied der Key Recovery Alliance, einem Zusammenschluß von US-Firmen, der es ermöglichen soll, eine Key Recovery-Infrastruktur nach den Vorstellungen der US-Regierung zu betreiben, die nur dann an eine Firma Aufträge vergibt, wenn sie Mitglied in der Key Recovery Alliance ist. Dann sind Network Associates wieder ausgetreten und wieder eingetreten. Phil Zimmerman behauptet zwar, es gäbe eine klare Position gegen Key Recovery, aber die Firma, der diese Software gehört, hat offensichtlich eine andere Meinung.

In der jüngsten Entwicklung von PGP sind Features hinzugekommen, die sicherheitstechnisch bedenklich sind und die Rückwärtskompatibilität einschränken. Einer der Kritikpunkte betrifft das Corporate Message Recovery (CMR). Anders als beim firmenexternen Key Recovery, das die NSA anstrebt, wird dabei jede Mail an einen Angestellten einer Firma nicht nur mit dessen persönlichem öffentlichem Schlüssel, sondern auch mit dem seines Unternehmens verschlüsselt. Ziel ist, daß die Firma auch dann noch auf die Korrespondenz dieses Mitarbeiters zugreifen kann, wenn er selbst nicht mehr zur Verfügung steht. Andreas Bogk (CCC) sieht darin die Unterscheidung zwischen der Lagerung und der Übertragung von Informationen verletzt.
 

"Eigentlich viel sinnvoller wäre es, einen Mechanismus einzubauen, der einen sogenannten Storage Key verwendet. Das heißt, wenn etwas an mich geschickt wird, lege ich das mit einem Storage Key ab, auf den die ganze Abteilung Zugriff hat. Es sind auch Verfahren denkbar, bei denen Abteilungsschlüssel existieren, mit denen jeweils zwei Personen aus der Abteilung zusammen die Mail eines dritten lesen können usw. Also, die Art, wie diese Corporate Message Recovery angewendet werden soll, ist nicht wirklich nachvollziehbar. Aber sie ist natürlich hervorragend dafür verwendbar, zu einem späteren Zeitpunkt eine Überwachung einzurichten, indem man einfach bestimmten Firmen vorschreibt, eine solche Corporate Message Recovery mit einem Schlüssel zu verwenden, der bei staatlichen Stellen hinterlegt ist."(583)
 

Eine weitere bedenkliche Neuerung ist die Message-ID, die seit PGP-Version 5.0 unverschlüsselt im Header steht. Offiziell soll sie dazu dienen, eine Mail, die in mehreren Teilen verschlüsselt ist, wieder zusammenzusetzten, doch existiert für diese Aufgabe der technische Standard Multipart-MIME. Vollkommen unbegründet ist diese Message-ID in einer PGP-Message, die nur aus einem Teil besteht. Bogk sieht darin einen weiteren Weg, über den eine PGP-Nachricht angegriffen werden kann.
 

"PGP ist ja ein Hybridverfahren, d.h., ich habe einmal ein Public Key-Verfahren, mit dem ein Session Key verschlüsselt wird. Mit diesem Session Key wird dann in einem klassischen symmetrischen Verfahren der Rest der Mail verschlüsselt. Die beiden Punkte, die ich angreifen kann, sind einmal das Public Key-Verfahren. Wenn ich es schaffe, aus dem Public Key den Secrete Key zu generieren, kann ich die Message lesen. Der zweite Punkt, den ich angreifen kann, ist der Session Key, der für den symmetrischen Schlüssel verwendet wird. Wenn ich den knacke, kann ich die Message auch lesen. Und diese Message-ID bringt nun einen dritten Angriffsweg mit. Der Session Key wird nämlich aus einem Entropie-Pool generiert. Da werden also Random-Informationen gesammelt, miteinander ver-hasht, und daraus wird der Session Key gewonnen. Und direkt nachdem der Session Key generiert wurde, wird diese Message-ID aus demselben Pool generiert. Da ist zwar ein Prozeß dazwischen, der sich Whitening nennt und der mit Hilfe eines Hashing-Algorithmus' verhindern soll, daß man daraus den Zustand des Pools zurückrechnet, aber erstens ist die Forschung auf dem Gebiet noch ein bißchen dünn und zweitens wird hier grundlos ein weiterer Angriffsweg eingeführt."(584)
 

Inkompatibilitäten in der PGP-Welt schließlich hat die Umstellung des zugundeliegenden Public-Private-Key-Algorithmus' bewirkt. Das bislang verwendete RSA-Verfahren hat den Nachteil, patentiert zu sein. Das Patent auf dem jetzt in PGP verwendeten Diffie-Hellman-Verfahren ist 1998 ausgelaufen. Dieser Schritt, der die Zugänglichkeit der Technologie erhöht, führt dazu, daß diejenigen, die PGP 6.0 verwenden, nicht mehr mit denjenigen kommunizieren können, die ältere Versionen benutzen.

Aus diesen Gründen wurde das freie Projekt GNU-Privacy-Guard(585) ins Leben gerufen. Eine Gruppe um Werner Koch hat dazu den Open PGP-Standard neu implementiert. GNU-PG kann sowohl mit alten als auch mit neuen PGP-Versionen kommunizieren. Es enthält kein Corporate Message Recovery oder Message-IDs. Und schließlich steht es unter der GPL, sodaß sichergestellt ist, daß der Quellcode überprüfbar bleibt und jeder die Teile, die ihm verdächtig vorkommen, entfernen kann. Als "public domain"-Software ist es von den Restriktionen des Wassenaar-Abkommens ausgenommen. "Durch diesen Open-Source-Ansatz ist eine dezentrale Evaluierung durch zahlreiche Stellen und Nutzer auch für gehobene Ansprüche realisierbar. ... Mit dem Konzept von GPG könnte ein Werkzeug geschaffen werden, das ohne Einschränkungen für alle Benutzerschichten frei und unentgeltlich verfügbar ist (inkl. Behörden, kommerzielle Nutzer, Privatbenutzer etc.)."(586)

Im Juli 1999 lag GNU-PG in einer Command Line-Version und als Integration in Mutt (einer der beliebtesten Unix-Mail-Clients) und Emacs vor. Was noch nicht existierte, waren Einbindungen in klassische Mail-Programme wie Eudora und Netscape. Ziel des Projektes ist es, mehr Internet-Benutzern, vor allem auch denjenigen in der Windows-Welt, GNU-PG zugänglich zu machen.(587)

Es ist das erklärte Interesse auch des BMWi, daß GNU-PG möglichst breit eingesetzt wird und dazu komfortablerer Benutzerschnittstellen und eine Einbindung in die verschiedenen Betriebssysteme und eMail-Programme geschaffen wird. Auch hier gibt es inzwischen erste Ergebnisse. Das BMWi fördert daher die Weiterentwicklung des GPG mit 318.000 DM.(588)
 
 
 

Militärische Software und Hochsicherheitsbereiche

Die Sicherheitsanforderungen sind beim privaten und wirtschaftlichen Gebrauch andere als in sensitiven Bereichen, wie Banken, Atomkraftwerken, Militär und Nachrichtendiensten. Selbst in diesen Einsatzfeldern gewähren Software-Unternehmen ihren deutschen Kunden keinen Einblick in den Quellcode. Für den Einsatz im Hochsicherheitsbereich evaluiert das BSI Open Source-Software. Andere, wie der Hamburger Informatiker Klaus Brunnstein, hingegen halten OSS für nicht hochsicherheitstauglich.

In militärischen Einsatzbereichen geht seit einigen Jahren sowohl in den USA wie in Europa der Trend weg von spezialisierter Software. 1994 gab US-Präsident Clinton im Zuge einer Kostenreduzierung die Anweisung aus, daß Behörden wo immer möglich Commercial Off the Shelf (COTS)-Software einsetzen sollten. Für spezialisierte Anwendungen in Bereichen wie Militär oder Banken werden Customized Automated Information Systems (CAIS) eingesetzt. Auch das im Januar 1997 gestartete Programm Information Technology for the 21st Century (IT-21) sieht den Übergang zu einem PC-gestützten taktischen und unterstützenden Kriegsführungsnetzwerk und dabei zu Industriestandards vor. Ziel von IT-21 ist es, alle US-Streitkräfte und letztendlich auch die amerikanischen Allierten mit einem Netzwerk zu verbinden, das ein nahtlose Sprach-, Video- und Datenübertragung von geheimer und nichtgeheimer, taktischer und nichttaktischer Information über dieselben PCs erlaubt. Konkret heißt dies, daß die gemeinsame Betriebsumgebung der US-Streitkräfte auf Windows NT, MS Exchange und MS Office beruhen soll. Die Verwendung aller Nicht-Standard-Netzwerkbetriebssysteme und eMail-Produkte (wie das DoD Messaging System AUTODIN) wurde zum Dezember 1999 eingestellt.(589) Software-Entwicklung für den ausschließlich militärischen Einsatz (Military Unique Development) macht einen zunehmend kleineren Anteil aus, der aber als wichtigste Kategorie für die nationale Sicherheit angesehen wird (Waffensysteme, störsichere Kommunikation und Atombombensimulationen). Selbst für diese Katergorie von Software werden Stimmen lauter, die den Basar als das beste Entwicklungsmodell ansehen.

In seinem Aufsatz "Open Source and these United States" zählt C. Justin Seiferth, Major der US Air Force, die Vorteile auf, die das US-Verteidigungsministerium (DoD) daraus ziehen kann, wenn es generell eine Open Source-Lizenzierungspolitik betreiben würde. Dadurch könnten Kosten gesenkt und die Qualität der Systeme und die Geschwindigkeit, mit der sie entwickelt werden, erhöht werden. Die Zusammenarbeit mit anderen Organisationen, Händlern und Alliierten werde durch quelloffene Software erleichtert. Das gleiche gelte für die Beziehungen zwischen Behörden unter dem DoD, da sie nicht auf finanziellen Transaktionen beruhen, sondern auf Tausch und Management-Abkommen. Da viele Entwickler die Gelegenheit, interessante Arbeit zu leisten, höher schätzten als finanzielle Entlohnung, sei quelloffene Software auch ein Anreiz, IT-Spezialisten im DoD zu halten. "The adoption of open source licensing may allow the military to leverage some of the current enthusiasm garnered by open license related methods. ... The judicious application of open licensing offers the possibilities of improving both the performance of government systems and the job satisfaction, competence and retainability of military members, civilians and contractors."(590) Die Hauptvorteile einer Übernahme der Open-Source-Konzepte für das DoD sieht Seiferth in der Interoperabilität, im langfristigen Zugang zu archivierter Information und in einem Kostenfaktor, der bislang verhindert habe, daß das Militär auf dem neuesten Stand der Software-Entwicklung bleibt.(591) Offene Dokumentation könne für den jeweiligen Anwendungsbereich angepaßt werden. Zur Frage der Sicherheit schreibt er:
 

"While many non-technical managers believe the release of source code lowers the security of a system, experience shows the opposite. Security 'holes' are omissions or weaknesses designed into the code. Compiling the code into a binary application doesn't fix a security hole or hide it from prying eyes. Unfortunately, the discovery of all security problems is known in computer sciences as an NP-Hard problem- that is one which is believed to be impossible to resolve absolutely. The best current practice can hope for is to avoid obvious mistakes, test as much as a project's budget can afford and correct problems as soon as they are identified. Open licensing is designed to tackle this process. Most security experts believe that the release of source code improves, rather than diminishes the security of a software system. As the saying goes, bad news doesn't improve with time. It is far better to go 'open kimono' and identify security risks early when there is a better chance they can be fixed with less schedule and cost risk. Further, if components supplied by foreign or unfamiliar subcontractors are incorporated into the system, open licensing makes it far less likely that an accidental or deliberate security problem will be introduced. ... Open licensing also ensures that an identified fix can be incorporated without being hindered by licensing arrangements or proprietary agreements. If one of configuration or operation and procedures are required to prevent a vulnerability, open licensing allows the manuals and technical orders to document the vulnerability."(592)
 

Es gäbe bereits Open Source-Aktivitäten, auf die eine breitere Übernahme innerhalb des DoD aufsetzen könnte. "Within the Department of Defense, the National Laboratories and Defense Advanced Research Agency have been the most visible users and producers of open licensed systems. They've released such advances as the original firewall and network security toolkits. As a more recent example, within the last year the National Laboratories have been constructing inexpensive supercomputers."(593) Er bezieht sich dabei auf die FORTEZZA-Algorithmen der NSA, die im Defense Messaging System verwendet werden, und auf den Firewall-Toolkit der DARPA, als zwei extrem erfolgreiche Beispiele dafür, wie eine offene Lizenz die Akzeptanz und die Qualität von Systemen im Sicherheitsbereich dramatisch erhöhen kann.(594) Ferner führt er die Forschungsförderung für eine der größten Erfolgsgeschichten des Open-Source, das Internet-Protokoll TCP/IP, an. Mit einem jährlichen IT-Haushalt von mehr als $57 Milliarden stelle die US-Regierung ein bedeutendes Marktgewicht dar, das sie verwenden könne, um auch kommerzielle Anbieter zu ermuntern, ihre Produkte unter offene Linzenzen zu stellen.
 
 
 

Vertrauenswürdige Instanzen

Software-Systeme haben mittlerweile eine Komplexität erreicht, daß nur wenige Experten sie noch durchschauen können, und gleichzeitig stellen sie einen allgemeinen Massenmarkt dar. Es besteht also eine Dichotomie zwischen einer Minderheit von Experten und der Mehrheit von Benutzern, die zwar im Prinzip die Möglichkeit hat, Open Source-Systeme zu überprüfen, effektiv hat sie sie aber nicht. Für eine Mehrheit ist -- bei quelloffener ebenso wie bei proprietärer Software -- das Funktionsprinzip von IT-Sicherheit nichts als der Glaube, daß es funktioniert. Der Mehrheit ist es nur möglich, auf das Urteil von Experten zu vertrauen.
 

"Wenn ich irgendein System beschaffe, und ich bin mir nicht klar, wie sicher das ist, kann ich mir eine Sicherheitsfirma anheuern, die mir das erklärt und die ich selber dafür bezahle. Das ist die eine Lösung. Die andere Möglichkeit wäre, daß Distributoren dafür zahlen, daß sie sichere Systeme haben und das jemanden haben prüfen lassen. Das ist die kommerzielle Variante. Oder, und das wäre vielleicht das Effektivste, diese vertrauenswürdigen Instanzen beteiligen sich direkt an der Entwicklung.

Wer könnten diese Instanzen denn sein? Es gibt, und das ist das interessante an offenen Systemen, auf einmal doch eine ganze Reihe mehr Akteure, als bisher. Bisher hatten wir für solche Überprüfungen ein Standardmodell: Der TÜV-IT oder das BSI bekommt einen Antrag auf den Tisch, ein bestimmtes System auf einen bestimmten Sicherheitsgrad hin zu prüfen. Die bekommen auch den Quelltext, machen hinterher einen Stempel drauf, nachdem sie Gebühren kassiert haben, und das war's. Wenn ich Open Source-Software habe, kann ich mir diese Sicherheitsakteure für entsprechende Zwecke, für die ich die Software hinterher einsetzen will, aussuchen. Das können entweder staatliche Akteure sein, d.h. Datenschutzbeauftrage, wenn es um Datenschutzfragen geht, das BSI oder TÜV-IT wie herkömmlich, oder ich kann mir auch den CCC vorstellen oder irgendwelche anderen Instanzen, die hier gerufen werden, um die Sicherheit bestimmter Features und Systeme zu überprüfen.

Man kann sich genauso gut vorstellen, daß diese vertrauenswürdigen Instanzen national gerufen werden oder, wenn ich ein System global vertreiben will, daß ich mir international verteilt verschiedene Instanzen ins Boot hole. Und man könnte sich sogar vorstellen, daß hier neue organisatorische Strukturen geschaffen werden, im Zusammenhang mit der Open Source-Bewegung z.B. eine Security Task Force -- das ist nur so ein hingeworfener Begriff, der in diesem Bereich recht häufig zu hören ist -- zur Evaluation von Sicherheits-Features. Genau so etwas wäre eine Möglichkeit, um eine Vielzahl von Sicherheitsexperten in die Entwicklung miteinzubeziehen. Ich denke, der Beitrag von Frank Rieger hat auch gezeigt, daß eine ex-post-Analyse eines Riesenberges von Source Code genauso schwierig ist für solche Experten, wie für das BSI, wie für jeden anderen. Wichtiger und besser ist, diese Experten gleich in den Entwicklungsprozeß miteinzubeziehen."(595)
 

Bei den vertrauenswürdigend Instanzen ist eine gewisse Vielfalt gefordert, da eine Instanz, die für eine Person oder eine Firma vertrauenswürdig ist, es nicht unbedingt auch für andere ist. Ein Beispiel aus einem anderen Bereich ist die Stiftung Warentest, die anhand von Kriterien prüft, die allen offengelegt werden. Die Enquetekommission "Deutschlands Weg in die Informationsgesellschaft" des deutschen Bundestages in der letzten Legislaturperiode hat in ihrem Bericht zu IT-Sicherheit eine "Stiftung Software-Test" gefordert, die sich mit den Kriterien und mit der Evaluation von Software unter IT-Sicherheitsaspekten auseinandersetzen sollte.

Statt einer zentralistischen "Stiftung Software-Test" wäre auch ein Netzwerk von vertrauenswürdigen Instanzen vorstellbar. In jedem Fall ist deutlich, daß eine begründete Vertrauensbildung eine komplexe Sicherheitsinfrastruktur erfordert. Dokumentation des Quellcodes und Werkzeuge, die sein Studium erleichtern, würden eine Überprüfung auch von zertifizierter Software ermöglichen. Auch, ob eine gegebene Software tatsächlich aus einem zertifizierten Quellcode kompliliert worden ist, müßte überprüfbar sein.

Auch an die Informatikausbildung stellen sich neue Anforderungen. Ein Sicherheitsbewußtsein, die Einhaltung von RFCs, die Kommentierung von Code sollten im Curriculum stärker gewichtet werden. Bogk zufolge sind 95 Prozent aller Sicherheitsprobleme Buffer Overflows. Dabei handele es sich um triviale Fehler, deren Vermeidung in der Universität gelehrt werden müßte.

Zur Vermittlung der Prinzipien freier Software wäre es zudem an den öffentlichen Universitäten, mit gutem Beispiel voranzugehen. TCP/IP, BSD, der Linux-Kernel und zahlreiche weitere Software ist an Universitäten entwickelt worden. In den USA muß Software, die mit staatlichen Mitteln entwickelt wurde, allen zu Gute kommen. An deutschen Hochschulen gibt es diese Verpflichtung nicht. Durch die Zunahme der Drittmittelforschung gestaltet sich die Situation noch schwieriger. Auch hier gibt es -- nicht zuletzt im Interesse der Sicherheit -- ein Bedarf nach strukturellen Änderungen.

"Ich denke, daß diese ganze Auseinandersetzung um IT-Sicherheitsfragen ..., die momentan nur als Dichotomie gesehen wird von Security by Obscurity, die niemand überprüfen kann, versus Offenheit, die jeder überprüfen kann, eigentlich nur ein erster Schritt ist. Dieser erste Schritt wird dazu führen, daß wir eine Infrastruktur von Überprüfbarkeit und von vertrauenswürdigen Instanzen brauchen, die das auch beglaubigen kann, was wir im offenen Code lesen können."(596)
 
 



'Betriebssystem' für eine freiheitliche Gesellschaft





Wie gezeigt wurde, geht die offene Software-Kooperation bis auf die Frühzeit des Computers zurück -- und die freie Wissenskooperation bis auf die Anfangszeit der Menschheit überhaupt. Die Schließung des Wissens unter dem Konzept des 'geistigen Eigentums' besonders in der zweiten Hälfte des 20. Jahrhunderts drohte diese Tradition vergessen zu machen, wenn nicht einige Unverbesserliche vermeintlich unzeitgemäß an ihr festgehalten hätten. Aus dieser untergründigen Entwicklungslinie wurde schließlich ein gewaltiger Strom, der die Fundamente der proprietären Kathedralen zu unterhölen begann und die Schwächen der durch Geheimhaltungsvorschriften und Patente eingezäunten Wissensgenerierung und der so entstehenden intransparenten, gezielt inkompatiblen und mit FUD-Strategien (Fear, Uncertainty, Doubt(597)) gegen die Konkurrenz abgeschotteten Wissensprodukte aufgezeigte. Seit gut zwei Jahren konnte die freie Software einen kolossalen Zuwachs an Mindshare verzeichnen.

Etwas, wovon zuvor nur eine vergleichsweise kleine Gruppe von Beteiligten auch nur wußte, wurde zum Stoff für Titelgeschichten. Wirtschaftskreise, die überzeugt waren, daß es so etwas wie ein kostenloses Mittagessen nicht gebe, begannen sich dafür zu begeistern. Selbst auf dem Weltwirtschaftsforum in Davos gab es einen Workshop über Open Source-Software.(598) An den soziologischen, wirtschaftwissenschaftlichen, anthropologischen und informatischen Fakultäten werden Diplom- und Doktorarbeiten über das Phänomen geschrieben. Ministerien, Verwaltungen und Schulen beginnen, die Vorteile von freier Software zu erkennen und sie einzusetzen und zu fördern. Einiges bliebe noch zu wünschen, z.B. daß Ausschreibungen der öffentlichen Hand für Software, Systeme und verwandte Dienstleistungen technologieneutral spezifiziert würden, so daß nicht ohnehin nur Microsoft-Produkte in Frage kommen, sondern freie Software konkurrieren kann. "Das würde einerseits die kleineren und mittleren Unternehmen -- denn die sind es, die freie Software im Moment einsetzen und anbieten -- fördern und auf der anderen Seite auch eine Menge Geld für den Bundeshaushalt sparen."(599)

Generell ist jedoch auch die öffentliche Politik den öffentlichen Wissensgütern gegenüber sehr aufgeschlossen. Ein bemerkenswertes Beispiel ist die Förderung des GNU Privacy Guard durch das Bundeswirtschaftsministerium. Ein anderes ist das Open Source-Zentrum BerliOS,(600) initiiert vom Forschungszentrum für Informationstechnik GmbH der Gesellschaft für Mathematik und Datenverarbeitung (GMD), das ab Herbst 2000 den Entwicklern und Anwendern Infrastruktur, Geld und Informationen zur Verfügung stellen will. BerliOS soll auch aktiv Anwenderbedürfnisse erforschen und Anstöße in Bereichen geben, in denen das Angebot freier Software heute noch ungenügend ist. Auch BerliOS erhält eine Anschubfinanzierung vom Bundeswirtschaftsministerium, das zudem noch eine Informationsbroschüre zu Open Source-Software für kleine und mittlere Unternehmen und die Verwaltung in Auftrag gegeben hat.

Neal Stephenson argumentiert überzeugend, daß Betriebsysteme Arbeitsumgebungen und Werkzeuge von Entwicklern und keine Konsumprodukte sind, und sie daher ihrer Natur nach frei zu seien haben.(601) Auch Peter Deutsch schrieb: "Software is essentially a public good"(602)

Der freie Geist breitet sich aus. Wo immer Probleme sich stellen, finden sich Leute, die eine 'Open Source'-Lösung ausprobieren. Noch nah am Programmcode ist die Dokumentation von freier Software, die ebenfalls frei verbreitet und verändert werden können sollte,(603) doch auch andere Wissensformen, wie Bildungsmaterialien, literarische Texte, Musik und Enzyklopädien, werden heute von ihren Autoren als Open Content in den offenen dialogischen Wissensprozeß gestellt. Selbst an freier Hardware wird gearbeitet.(604) Das sicherlich spektakulärste Projekt war der Versuch dreier Techies, die 66 Satelliten des bankrotten Mobiltelefonie-Netzwerks Iridium von Motorola zum ersten öffentlichen Open Source-Netzwerk im Weltall zu machen.(605)

Bei aller Mächtigkeit, mit der sich die Wissensfreiheit Bahn bricht, ist sie doch immer gefährdet. Zu den aktuellen Bedrohung von außen gehört vor allem die Software-Patentierung, die, seit 20 Jahren in den USA gängige Praxis, im Herbst 2000 auch in Europa eingeführt werden soll.(606) Eine weiter klimatische Verschärfung stellen die Kampagnen der Software- und der Musikindustrie gegen das 'Raubkopieren' dar. Stallman vergleicht sie mit dem anhaltenden 'Krieg gegen Drogen' der US-Regierung. In den USA sitzen deshalb bereits ein Millionen Menschen im Gefängnis. Er führe zu Korruption und Verzerrung der Bürgerrechte. Der Krieg gegen das Kopieren könne noch schlimmere Folgen haben.
 

"Think how much fear is going to be required to stop people from passing along copies of things on their computers. I hope you don't want to live in a world with that much fear. The Soviet Union tried to stop people from passing around copies of things, and they found a number of very interesting methods of preventing it. Today, the US government is proposing and enacting all of the same methods. It turns out that if you want to stop people from sharing copies of things, there are only certain methods that are applicable. It doesn't matter whether the motive is political censorship or simply enforcing the monopoly power for some business -- they use the same methods, and they make society monstrous in the same way."(607)
 

Nicht die Software, sondern das Wissensregime und letztlich die Gesellschaft, in der wir leben wollen, steht für Stallman im Zentrum der Bewegung: "The core of the GNU project is the idea of free software as a social, ethical, political issue: what kind of society do we want to live in?"(608)

Doch auch von innene gibt es Bedrohungen. Die Monetarisierung des freien Austausches, die von solchen Projektbörsen wie Collab.net eingeleitet wird, könnte seinen Charakter grundlegend verändern. Natürlich soll ein Spitzwegscher 'armer Programmierer' mit Laptop auf dem Dachboden nicht zu einem Ideal erhoben werden. Das Hauptproblem sind vielmehr die Schließungen des Prozesses und seiner Resultat, die damit einhergehen.

Es ist deutlich geworden, daß freie Software nicht nur technische, sondern kulturelle, politische und ökonomische Implikationen hat. Sie, ebenso wie das Internet insgesamt, belegt, daß eine Selbstorganisation in der öffentlichen Domäne alternativ zur staatlichen Domäne und zur profitmaximierenden privatwirtschaftlichen Domäne machbar und in vieler Hinsicht äußerst attraktiv ist. Freie, quelloffene Software erlaubt Nutzern ein viel größeres Maß an Transparenz und Kontrolle über ihre Rechnerumwelt. Anwender sind nicht auf die Rolle von Konsumenten fertiger Produkte festgelegt, sondern sind Ko-Produzenten. Zusammen mit ihren bewährten Eigenschaften -- Flexibilität, Bildung, Innovation, Sicherheit, Stabilität, Kosteneinsparung -- ist freie Software somit ein attraktives Modell eines 'Betriebssystems' für eine freiheitliche Gesellschaft.

Was wir heute erleben, erinnert an die Vision von der 'Noosphäre', die der Jesuitenpater Pierre Teilhard de Chardin schon 1947 formulierte, als es nicht einmal eine Handvoll Computer auf der Welt gab und von ihrer Vernetzung noch keine Rede sein konnte. Bei der Noosphäre handelt es sich um eine planetare "Hülle aus denkender Substanz ... im Ausgang und oberhalb der Biosphäre".(609) Das "radiophonische und televisionelle Nachrichtennetz [verbindet] uns alle schon jetzt in einer Art 'ätherischem' Mitbewußtsein. Vor allem denke ich hier aber an den fallenreichen Aufstieg dieser erstaunlichen Rechenmaschinen, die mit Hilfe von kombinierten Signalen in der Größenordnung von mehreren hundertausend in der Sekunde, ... die Denkgeschwindigkeit, also einen wesentlichen Faktor, in uns erhöhen." (212 f.) Teilhard sieht darin "die Grundzüge einer besonderen Art von Super-Gehirn, das fähig ist, sich zu steigern, bis es irgendeinen Super-Bereich im Universum und im Denken meistert!" Die Noosphäre ist ein Gehirn aus Gehirnen. Alles geht vom Individuum aus, "doch alles vollendet sich oberhalb des Individuums." (224)

Man muß Teilhard nicht in die schwindelerregenden Höhen des Gottesproblems folgen, um zu sehen, daß das Internet viele der Qualitäten seiner Noosphäre verkörpert. Und ein Beispiel dafür, was die Verdichtung und die freie Assoziation von vielen, was ein "'ätherisches' Mitbewußtsein", was das "Gehirn der Gehirne" zustande bringen kann, ist eben die freie Software.

Dieses Potential muß gepflegt und gegen die aggressiven Schließungsbestrebungen der globalen Rechteindustrie in Schutz genommen werden. "Die Freiheit des Wissens zu verteidigen, ist wahrscheinlich die wichtigste Aufgabe, die wir in der Zukunft vor uns haben."(610) In dieser Überzeugung treffen sich Ökonom und Hacker.