Zur normalen Fassung

Freie Software - eine Gegen-Ökonomie?

von Oliver Heins (sopos)


Anleitung zum Lesen

Der folgende Text enthält notwendigerweise einige informationstechnische Fachbegriffe, die dem sozialwissenschaftlich interessierten Leser nicht unbedingt geläufig sind. Im Regelfall sind diese Begriffe, soweit zum Verständnis des Textes notwendig, erläutert; an Stellen, wo dies nicht der Fall ist, ist das Verständnis der technischen Zusammenhänge nicht unbedingt nötig. Der Leser kann an dieser Stelle getrost über die ihm unbekannten Fachbegriffe hinweglesen; wenn es ihn jedoch zu mehr drängt, sei er auf das Glossar zur Geschichte Freier Software von Stefan Meretz verwiesen.


The Dynamic Duo

Freie Software - so die Generalthese des Autors - ist als ein Phänomen von modernen Klassenauseinandersetzungen zu begreifen, die imstande sein könnten, die auf Eigentum zentrierte kapitalistische Ökonomie der Gegenwart sozialistisch zu transformieren. Copyright und Patentrecht stehen dem als Fesseln einer allgemeinen Produktivkraftentwicklung auf qualitativ erweiterter Stufenleiter entgegen, weshalb sich die Klassenkämpfe der Zukunft gegen diese Fesseln richten könnten.

Den populärsten Ausdruck freier Software stellt das Betriebssystem Linux dar.

Das Linux-Phänomen

Im März 1991 begann der junge finnische Informatikstudent Linus Benedict Torvalds die Fähigkeiten des Intel-80386 Prozessor in seinem neuen PC zu studieren. Im September 1991 war ein kleines funktionsfähiges Betriebssystem entstanden. Die ersten Versionen stellte er als Quelltext in die Newsgroups des Internet, wo sie regen Zuspruch fanden. Linux wurde auf vielen Rechnern weltweit installiert, an die jeweiligen Verhältnisse angepaßt und weiterentwickelt - es ist ein Kind des Internet und der egalitären Kommunikation.

Die Anzahl der Benutzer ist schwer schätzbar, da die meisten verkauften PCs Windows vorinstalliert haben und Linux erst nachträglich installiert wird. Auch die Menge der verkauften Distributionen gibt keinen guten Indikator ab, da Linux keiner restriktiven Lizenz unterliegt und auf beliebig vielen Rechnern installiert werden darf. Es liegt jedoch nachweislich bei den Serverbetriebssystemen auf Platz 2 und ist das am schnellsten wachsende Betriebssystem überhaupt. Und auch im Desktopbereich (den privat oder im Büro genutzten Computern) hält Linux mittlerweile einen geschätzten Marktanteil von 4%.

Der Name Linux soll übrigens dem Administrator des FTP-Servers, auf dem die Linuxquellen ursprünglich lagen, zu verdanken sein. Linus selbst hatte an den Namen Freax gedacht, doch der Administrator packte die Quellen kurzerhand in ein Verzeichnis, dem er den Namen "Linux" gab.

Freie Software ist in aller Munde. Als Geheimtip wird gehandelt, was längst zum Common Sense geworden ist. Nicht nur, daß kaum eine Computerzeitschrift es wagt zu erscheinen, ohne einen übergewichtigen, feist grinsenden Comicpinguin[1] auf ihrem Cover abzudrucken, auch die normale Journaille ist voll des Lobs.

Freie Software ist ebenso Kind des Internet, wie das Internet Kind freier Software ist.

Linux lehrt Microsoft das Fürchten; was kein Konkurrent vermochte, schafft nun das kostenlose Betriebssystem - so hallt es unisono aus dem Blätterwald, gleich ob Fach- oder allgemeine Presse. Daß auch Microsoft dies erklärte, wird als Bestätigung begriffen, ungeachtet des zu dieser Zeit laufenden Kartellprozesses, der den Monopolisten mit Zerschlagung bedrohte.

Das Phänomen erklären diese reißerischen Aufsätze allerdings nicht, es bleibt unklar, wie dieses "anarchistische", "kommunistische" Betriebssystem inmitten eines sich seiner Sache in der Geschichte noch nie so sicher glaubenden Kapitalismus und einer sich in Auflösung befindenden Arbeiterbewegung es schafft, die Verkörperung eben dieses prosperierenden Kapitalismus, Microsoft, unter Druck zu setzen und mit Siebenmeilenstiefeln zur "Worlddomination" zu schreiten, die Linus Torvalds nicht ohne Ironie (und eben mit Blick auf Microsoft) als Ziel proklamiert hat.

Welches Prinzip steckt hinter freier Software, als deren Sinnbild Linux gelten mag?

Freie Software ist ebenso Kind des Internet, wie das Internet Kind freier Software ist. Auf gut 80% der Rechner des Internet, die E-Mails transportieren, läuft das Programm Sendmail - freie Software. Auf 60,5% der Webserver läuft Apache - freie Software.[2] Auf faktisch sämtlichen Rechnern, die das Usenet bilden, läuft INN - freie Software. Die Mehrzahl der Rechner, die zusammen das WWW bilden, verwenden als Betriebssystem Linux oder ein anderes freies Unix.[3] Der DNS-Dienst des Netzes wird durch BIND zusammengehalten, und das WWW wäre ohne die Skriptsprachen Perl und Python nicht zu dem geworden, was es heute ist. Ja, das Internet selbst basiert auf dem offenen Protokoll TCP/IP; und nahezu alle Standards liegen als Request for Comment, RFCs vor und verdanken ihre Existenz öffentlichen Diskussionen.

Dies rührt daher, daß die Entstehung des Internet eng mit den Universitäten verbunden ist. Seine Anfänge hat das Internet im Jahre 1969, die Kommerzialisierung beginnt erst sehr viel später - Bill Gates hat das Internet bekanntermaßen erst 1995 "entdeckt". Das Internet ist im Geiste freier wissenschaftlicher Forschung entstanden, als Gemeinschaftsprojekt aller Beteiligten und nicht als Tat einzelner Unternehmen.

Linux lebt in diesem Geiste. Seit Veröffentlichung der ersten Quelltexte 1991 im Usenet haben Tausende von Entwicklern, über das Internet miteinander verbunden, an diesem Projekt mitgewirkt: Haben es verbessert, an ihre Hardware angepaßt, neue Funktionen hinzugefügt oder auch einfach nur Fehlerberichte geschrieben. Das ist das Prinzip freier Software: vorhandene Programme werden den eigenen Bedürfnissen angepaßt und erweitert - andererseits heißt es aber auch: Contribute nothing, expect nothing.

Linux ist Teil einer Bewegung, als deren Sinnbild es zugleich fungiert - der Bewegung der freien Software.

Linux ist streng genommen nichts anderes als der bloße Betriebssystemkern - ein Programm, daß die Hardware wie Drucker, Festplatte usw. anspricht, ein Dateisystem bereitstellt, den Speicher verwaltet, Programmen Rechenzeit zuteilt, usw; es enthält noch nicht einmal eine Benutzerschnittstelle. Erst durch das Zusammenspiel mit dem GNU-System wird Linux zum vollwertigen Betriebssystem, das deshalb auch besser GNU/Linux genannt wird.

Linux ist Teil einer Bewegung, als deren Sinnbild es zugleich fungiert - der Bewegung der freien Software. Um die Schilderung der Geschichte dieser Bewegung soll es im folgenden gehen.

Die Geschichte freier Software ist zunächst einmal Technikgeschichte. Man kann recht gut ihren Anfang bestimmen; es gibt gewissermaßen ein fixierbares Datum, sofern man sich auf die Beschreibung der Handlungen von Personen bezieht. Man könnte freilich einwenden, so lediglich Legenden wiederzugeben; in der Tat liest sich die Geschichte freier Software oft wie ein Märchen. Aber natürlich ist jede Technikgeschichte zugleich auch Sozialgeschichte, es gibt auch eine Vorgeschichte freier Software. Die ist übrigens weitestgehend identisch mit der Geschichte und Vorgeschichte des Internet - dazu später. Beginnen will ich - mit einem Märchen!


Die Geschichte freier Software

Der Tag Null

Es war einmal ...

1979 war es noch keinesfalls die Regel, daß an jedem Arbeitsplatzrechner ein eigener Drucker angeschlossen war.[4] Nicht selten mußten sich mehrere Abteilungen einen Drucker teilen. Die Forschungsgruppe über Künstliche Intelligenz am Bostoner Massachusetts Institute of Technology (MIT) hatte von Xerox einen damals hochmodernen Laserdrucker gestiftet bekommen. Verantwortlich für die Wartung war Richard M. Stallman. Da die Druckaufträge von den entfernten Arbeitsplatzgeräten an den Drucker gesendet wurden, konnten die häufigen Fehlfunktionen meist erst nach geraumer Zeit bemerkt werden. Stallman war es leid, daß der wichtige Drucker so lange ruhte und wollte den Druckertreiber so umschreiben, daß dieser ihn bei einer Fehlfunktion automatisch per E-Mail benachrichtigte. Dazu aber brauchte er den Quelltext[5] des Druckertreibers. Zu Stallmans Erstaunen weigerte sich Xerox aber, diesen herauszugeben. Schließlich fand er zwar jemanden an der Carnegie Mellon University, der den Sourcecode hatte. Dieser hatte jedoch ein "Non-Disclosure-Agreement" (NDA) abgeschlossen und durfte den Quelltext nicht weitergeben. Stallman gibt sich sehr erschrocken über die asozialen Konsequenzen dieser Vereinbarung. Die Person mit dem Sourcecode "had promised to refuse to cooperate with just about the entire population of the Planet Earth".[6]Der Drucker war laut Richard Stallman damit fast wertlos geworden.

In einem Interview mit dem Online-Magazin Telepolis erzählt Stallman 1999 rückblickend:

"1983 gab es auf einmal keine Möglichkeit mehr, ohne proprietäre Software einen sich auf dem aktuellen Stand der Technik befindenden Computer zu bekommen, ihn zum Laufen zu bringen und zu nutzen. Es gab zwar unterschiedliche Betriebssysteme, aber sie waren alle proprietär, was bedeutet, daß man eine Lizenz unterschreiben muß, keine Kopien mit anderen Nutzern austauschen darf und nicht erfahren kann, wie das System arbeitet. Das ist eine Gräben öffnende, schreckliche Situation, in der Individuen hilflos von einem 'Meister' abhängen, der alles kontrolliert, was mit der Software gemacht wird. Vielleicht haben viele Leute, die damals mit dem Computern begannen, einfach nur diesen Weg gesehen und ihn akzeptiert."[7]

1984 gründete Stallman die "Free Software Foundation" (FSF), die es sich zum Ziel gesetzt hat, ein freies Betriebssystem zu schaffen: GNU. GNU ist ein rekursives Akronym und steht für "GNU's Not Unix".[8] Dieses Betriebssystem sollte nicht die Entwicklung nehmen, die Unix genommen hatte. Es sollte frei sein und frei bleiben. Frei im Sinne der Free Software Foundation bedeutet, daß derjenige, der die Software erhält, sie ganz erhält: mitsamt den Quelltexten, mit dem Recht, diese zu verändern, sogar mit dem Recht, die Software - ob verändert oder nicht - an Dritte weiterzugeben.

Das ist der Punkt, an dem die Bewegung für freie Software ihren Ausgangspunkt nimmt. Vorher war alle Software gewissermaßen frei gewesen, es war die Regel, nicht die Ausnahme, daß Software mit ihrem Quelltext geliefert wurde und den eigenen Bedürfnissen angepaßt werden konnte. Der Name des Projektes: GNU's Not Unix verweist auf diese Vorgeschichte freier Software.

UNIX

Software war so lange frei verfügbar, wie sie nicht verwertbar schien.

Vor Ende der 70er, Anfang der 80er Jahre hatte es praktisch keine nichtfreie Software gegeben. Computerindustrie war Hardwareindustrie, Software wurde kostenlos dazugegeben, war Beiwerk. "Ich denke, es gibt einen Weltmarkt für vielleicht fünf Computer", erklärte IBM-Chef Thomas Watson im Jahr 1943 - Computer blieben noch lange Zeit exotisch und existierten nur in den Rechenzentren großer Firmen und Universitäten. Es machte ökonomisch keinen Sinn, Software für diesen Markt zu entwickeln, die nicht entweder unmittelbar an Hardware geknüpft war (Beiwerk) oder im Auftrag geschrieben wurde; im letzteren Fall hätten sich die Auftraggeber kaum mit der Form des "binary only" abgefunden.

1969 entwickelten Ken Thompson und Dennis Ritchie in den Bell-Laboratories von A.T.&T. das Betriebssystem Unix; der Legende nach, um auf einer längst ausgemusterten DEC PDP-7 ein Computerspiel laufen zu lassen. Der Name "Unix" leitet sich von dem sich damals in der Mache der Bell-Labs befindenden Betriebssystem "Multics" ab, daß sich im Gegensatz zum Lückenfüller "Unics" (zu Anfang noch so geschrieben) jedoch nicht durchsetzen konnte.

Aufgrund der Anti-Kartellgesetzgebung der USA durfte der Telekommunikationsmonopolist A.T.&T. in den frühen 70er Jahren kein Geld mit Software verdienen. U.a. deshalb gab er das Betriebssystem Unix für wenig Geld - faktisch für die Kopierkosten - an amerikanische Universitäten im Quelltext weiter. Diese lockere Lizenzvergabe, die es den Universitäten auch erlaubte den Quelltext von Unix zu verändern und weiterzuentwickeln, trug zusammen mit dem geringen Preis maßgeblich zum Erfolg von Unix bei - Unix ist an den Universitäten entwickelt worden.

Nach der Zerschlagung des Monopols in die sogenannten "Baby Bells" - 7 lokale Telefongesellschaften statt einer großen - durfte A.T.&T. mit Software wieder Geld verdienen. Das an den Universitäten gewachsene Unix wurde proprietarisiert und - nunmehr lediglich in Binärform - teuer verkauft. 1984 verkaufte A.T.&T. das erste kommerzielle Unix. Software wurde zur Ware.

Software war so lange frei verfügbar, wie sie nicht verwertbar schien. Mit gestiegener Leistungsfähigkeit bei gleichzeitig gesunkener Werthaftigkeit der Hardware wurde Software nun auch für die Verwertung interessant. Die Software, und mit ihr die Informatik, schien ihrer enthusiastisch-egalitären Jugend entwachsen und nunmehr im Kapitalismus angekommen.

GNU's Not Unix

Dies stellt für Richard Stallman freie Software dar: derjenige, der sie besitzt, besitzt sie ganz, und nicht etwa nur ein Nutzungsrecht an ihr. Stallman wendet auf Software/Information die gleichen Prinzipien an wie auf "harte Ware" wie etwa Computer, Autos, Tische, etc., die man nach Belieben (sofern sie einem gehören) auseinandernehmen, verändern, zerteilen, verschenken, verkaufen etc. darf und stellt sich gegen das Prinzip vom "geistigen Eigentum". Doch verwirft er nicht einfach das Copyright, er dreht es um - ins "Copyleft": Freie Software im Sinne der FSF untersteht einer speziellen Lizenz, der GNU General Public License (GPL), die dem Besitzer die oben erwähnten Rechte garantiert - und zugleich bestimmt, daß etwaige Kopien ebenfalls unter der GPL weitergegeben werden müssen. Der neue Besitzer erhält die Software ebenfalls mitsamt dem Quellcode, darf diesen verändern und selbst die Software (nach Gutdünken, aber wenn, ebenfalls unter der GPL) weitergeben.

Dies soll sichern, daß GNU-Software sich nicht wie Unix proprietarisiert: freie Software darf und soll von vielen besessen werden, aber niemandes Eigentum sein.

Freie Software darf und soll von vielen besessen werden, aber niemandes Eigentum sein.

Die GPL spricht bewußt nicht vom Preis, freie Software darf und soll verkauft werden, es ist ausdrücklich erlaubt, mit ihr Geld zu verdienen. "Free software means freedom, not price", wird Stallman nicht müde zu betonen.

Ziel der Free Software Foundation war und ist es, das GNU-Betriebssystem zu entwickeln. Ein Betriebssystem ist gewissermaßen das Basisprogramm eines Computers: es spricht die einzelnen Komponenten des Rechners (beim PC etwa Grafikkarte, Soundkarte, Tastatur, Maus, Massenspeicher wie Diskettenlaufwerk und Festplatte) an - sonst müßten alle Applikationen (= Anwendungen wie Textverarbeitung, Tabellenkalkulation, Doom) selbst jeweils die Treiber für die Geräte mitbringen, stellt den einzelnen Applikationen Ressourcen (Speicher und Rechenzeit) zur Verfügung, bietet ihnen definierte Programmierschnittstellen und ermöglicht schließlich erst die Interaktion zwischen Mensch und Maschine durch Bereitstellung einer Benutzerschnittstelle (z.B. eine Kommandozeile oder eine grafische Oberfläche). Weiterhin bedarf es dann natürlich noch jener Applikationen, mit denen erst ein sinnvolles Arbeiten möglich ist. Ein Betriebssystem ohne ein Mindestmaß an Applikationen ist keins, da sein Betrieb nicht möglich ist.

Die Vielzahl von Aufgaben verweist darauf, daß sich ein Betriebssystem in einzelne Komponenten zerlegen läßt. Es gibt Programmbibliotheken, diverse Anwendungen wie z.B. Editoren, kleinere nützliche Programme... Auch die Benutzerschnittstelle braucht z.B. lediglich den Status eines "einfachen" Programms zu haben. Schließlich gibt es dann den Betriebssystemkern, der die Treiber für die jeweiligen Hardwarekomponenten bereithält und die Ressourcen verteilt: den sog. "Kernel".

Tatsächlich hatte es die FSF bis Anfang der 90er Jahre geschafft, ein fast komplettes Betriebssystem zu entwickeln: es existierten diverse Benutzerschnittstellen, Programmbibliotheken, eine C-Bibliothek,[9] Editoren, Tools etc. Allein der eigentliche Betriebssystemkern fehlte.

Dieser war ein so gewaltiges Projekt, daß die vereinzelten Autoren freier Software, die diese zumeist bloß in ihrer Freizeit schrieben, nicht in der Lage zu sein schien, ihn zu schaffen.[10] Das GNU-Projekt mußte zu dieser Zeit noch auf einen proprietären Kernel zurückgreifen.


Die Bedingungen der Möglichkeit - das ARPA-Net

Das Internet ist ein Produkt des Kalten Krieges.

Das Internet ist ein Produkt des Kalten Krieges. 1957 schoß die Sowjetunion einen Satelliten ins Weltall - Amerika und die westliche Welt waren vom "Sputnik-Schock" getroffen. Als Reaktion darauf wurde 1958 die Advanced Research Projects Agency (ARPA) innerhalb des US-Verteidigungsministeriums gegründet. Aufgabe war die Einrichtung und Koordinierung von Forschungsprojekten mit dem Ziel der Erringung der (militär-) technologischen Vorherrschaft. Die vorherige ausschließliche Förderung militärischer Institutionen und Projekte wurde durch eine breite Einbindung des wissenschaftlichen Potentials in eine staatlich gesteuerte, militärische Forschungsstrategie ersetzt. Ziel war es, die durch den offenen Austausch der Forschungsergebnisse entstehenden Synergieeffekte zu nutzen. Ein Kind dieser auf offenem Austausch und offenen Standards beruhenden Forschungsstrategie ist das Internet.

In dem von der ARPA 1963 ins Leben gerufenen Programm namens Information Processing Techniques (IPT) etwa wurde relativ ins Blaue hinein geforscht. Alan Kay, Mitarbeiter des damaligen ARPA-Chefs Ivan Sutherland, erzählte über die Anfangszeit dort:

"Die Grundidee von ARPA ist, dass man gute Leute findet, ihnen eine Menge Geld gibt und sich dann zurückzieht."[11]

Anfang der 60er Jahre machte sich eine der Denkfabriken des Kalten Krieges, die "RAND Corporation" (ein Kind der ARPA) Gedanken über ein strategisches Problem: Wie sollten die US-Machthaber, -Behörden und -Militärs nach einem Nuklearkrieg untereinander die Kommunikation aufrecht erhalten?

Ein atomar verwüstetes Amerika würde ein Kommando- und Steuerungsnetzwerk benötigen, das alle Städte und Staaten, sowie alle militärischen Stützpunkte miteinander verbindet. Wie schwer auch die Verwüstungen (auch des Netzes selber) gewesen wären, die funktionsfähigen Teile sollten nach wie vor in der Lage sein, untereinander zu kommunizieren.

Wie aber sollte dieses Netzwerk selbst gesteuert werden? Jede zentrale Behörde oder jede zentrale technische Einheit würde naturgemäß das Risiko des Ausfalls in sich tragen, egal wie gut sie geschützt wäre. Sie wäre selbst wahrscheinlich ein bevorzugtes Ziel gegnerischer Angriffe geworden. Das Grundschema der von Paul Baran erarbeiteten Lösungsvorschläge war simpel: Das Netz selbst wurde bereits in Annahme vorhandener Beschädigungen entworfen. Die Strategie bestand im wesentlichen aus zwei Punkten:

  1. Das Netzwerk sollte keine zentrale Steuerung und damit auch keine zentrale Autorität erhalten.
  2. Das Netzwerk sollte von Beginn an so ausgebildet werden, daß schon die kleinsten Komponenten komplett funktionsfähig und autark wären.

Die Hackerethik ist eine teilweise recht krude Mischung aus Hippiemoral, Science-Fiction und Technologiegläubigkeit. Sehr weit verbreitet ist unter den Hackern die libertäre Ideologie, eine anarchokapitalistische Haltung.

Im Frühjahr 1969 wurde der erste Knotencomputer in der kalifornischen Universität installiert. Im Dezember waren dann schon 4 Universitäten mit so einem Knotenrechner ausgestattet und über schnelle Datenleitungen miteinander verbunden. Eben jene Advanced Research Projects Agency war federführend bei dem Aufbau und gleichzeitig Namensgeber des Netzes: das ARPA-Net war geboren. Mit Hilfe des ARPA-Netzes waren die Wissenschaftler in der Lage, Computerdaten und -programme auf fremden Rechnern über weite Entfernungen direkt zu nutzen und diese Rechner Ihren Wünschen entsprechend zu steuern.

Das ARPA-Net hatte zu keiner Zeit den Charakter eines militärischen Netzes; der Hauptverkehr bestand nicht aus Botschaften von Computern an Computer, sondern von Computerbenutzern an Computerbenutzer. Die Wissenschaftler nutzten das Netz zum Austausch von Forschungsergebnissen, Neuigkeiten und persönlichen Mitteilungen. "SF-Lovers", ein System zum Austausch von Fan-Informationen über Science Fiction, war eine der ersten großen Mailinglisten im ARPA-Net.[12]

Die dezentrale Struktur des Netzes machte eine Erweiterung sehr einfach. Solange neu hinzukommende Maschinen nur die paketorientierte "Sprache" dieses neuen "anarchischen" Netzwerks beherrschten, war es gleichgültig, wem sie gehörten, welchen Inhalt sie hatten, oder wie ihr Name war. Aus den anfänglich vier Knoten wurden 1972 bereits 37 Knoten. 1984 bestand "das Netz" bereits aus 1.000 Knoten, 1992 wurde die Millionengrenze erreicht. Mittlerweile besteht das Internet aus mehr als 100 Mio. Knoten.

Wie man leicht sieht, ging die Entwicklung des Internet mit der Entwicklung von Unix synchron. Einher mit der Entwicklung dieser Technologien ging die Entstehung einer eigenen Kultur, die der Hacker und des Hackens.


Die Hackerkultur: "Information has to be free"

Unter "Hackern" versteht man gemeinhin Leute, die in die Computer anderer Leute eindringen, um dort Daten auszuspionieren, zu verändern, zu löschen oder sonstwie Schaden anzurichten.

Dieses Bild vom Hacker ist allerdings ein sehr einseitiges und zumeist völlig verkehrtes. Die Hacker selbst bezeichnen ein solches Verhalten übrigens abfällig als "cracken", knacken, und die Leute, die das tun, als "Cracker".

Der Beginn der Hackerkultur wird auf das Jahr 1961 datiert, als das Massachusetts Institute of Technology den ersten Rechner der Reihe PDP-1 erhielt. Hier taucht auch zum ersten Mal der Ausdruck "Hacker" auf. Die Kultur der Hacker enstand im Umfeld der Entwicklung des Netzes und der modernen Betriebssysteme, ja ist der ureigene Ausdruck dieser Entwicklung:

"But the ARPANET did something else as well. Its electronic highways brought together hackers all over the U.S. in a critical mass; instead of remaining in isolated small groups each developing their own ephemeral local cultures, they discovered (or re-invented) themselves as a networked tribe."[13]

Diese durchs Netz betriebende bzw. in und durch dieses lebende Stammesgesellschaft entwickelte bald eine eigene Sprache,[14] aber auch eine eigene Ethik. Der deutsche "Chaos Computer Club"[19] beschreibt diese so:

"Grundlagen dieser Hackerethik waren unter anderem der freie und unbegrenzte Zugang zu Computern wie zu Information, ein Mißtrauen gegenüber Zentralismus und Autorität sowie ein Gleichheitsideal, das nur informelle Hierarchien qua Fertigkeiten zuließ. Ein Ausfluß dieser Ethik war beispielsweise, daß BASIC in den 1970ern als 'faschistische' Programmiersprache angesehen wurde, weil seine Struktur nur eingeschränkten Zugang zum Rechner bot und daß Informatikstudenten gegen proprietäre, hierarchisch organisierte Stapelverarbeitungssysteme auf IBM-Mainframes kämpften. Hacken war ebenso wie andere Protestbewegungen der 1960er eine Form von antibürokratischer Rebellion."[15]

Die Hackerethik ist eine teilweise recht krude Mischung aus Hippiemoral, Science-Fiction und Technologiegläubigkeit. Sehr weit verbreitet ist unter den Hackern die libertäre Ideologie, eine anarchokapitalistische Haltung.[16] 1996 gaben bei einer Netz-Umfrage 25,1% der Teilnehmer ihre politische Einstellung als 'libertarian' an.[17]

Das heißt aber nicht, daß die libertäre Ideologie die vorherrschende Geisteshaltung der Hacker ist. Es sind durchaus auch sozialistische Vorstellungen verbreitet, etwa im GNU-Projekt. So schreibt Richard Stallman im GNU-Manifest von 1984:

"Auf lange Sicht ist das Freigeben von Programmen ein Schritt in Richtung einer Welt ohne Mangel, in der niemand hart arbeiten muß, um sein Leben zu bestreiten. Die Menschen werden frei sein, sich Aktivitäten zu widmen, die Freude machen, zum Beispiel Programmieren, nachdem sie zehn Stunden pro Woche mit notwendigen Aufgaben wie Verwaltung, Familienberatung, Reparatur von Robotern und der Beobachtung von Asteroiden verbracht haben. Es wird keine Notwendigkeit geben, von Programmierung zu leben."[18]


Eine Anti-Ökonomie?

Daß die Hacker die Kommerzialisierung und - schlimmer noch - die Proprietarisierung der Software nur als Rückschritt begreifen konnten, ist klar. Software sollte, wie Information allgemein, frei sein; d.h. vor allem allgemein zugänglich und verwertbar.

Dem kommt der besondere Charakter von Software ebenso zugute wie die neuen Kommunikationsmethoden des Internet: Die Grenzkosten von Softwareproduktion gehen gegen Null. Im Gegensatz zu gegenständlicher Produktion wird die Software nur noch einmal produziert und kann dann beliebig oft kopiert werden, es fallen lediglich die Kosten für die Datenträger an; bei Distribution über das Internet nicht einmal mehr diese. Waren Informationen im vordigitalen Zeitalter immer an Gegenständlichkeit gebunden: Bücher werden gedruckt, und die Druckkosten sind ein nicht unerheblicher Kostenfaktor in der Buchproduktion, entfällt diese Gegenständlichkeit im Bereich Software nunmehr tendenziell völlig.

Das wissenschaftliche Peer-Review als Produktionsmethode

Die wissenschaftliche Basistechnik des Peer-Review bildet die Grundlage der Produktion freier Software als gesellschaftlicher Produktion.

Dies ermöglichte zugleich eine neue Organisation der Produktion. Im offenen, durch kein Copyright behinderten Austausch der Experten wird die Software perfektioniert.[20]

Beim Peer-Review begutachten Fachleute die Arbeit von Kollegen, es stellt die Qualitätskontrolle der scientific community dar. Diese wissenschaftliche Basistechnik bildet die Grundlage der Produktion freier Software als gesellschaftlicher Produktion, d.h. als Produktion durch die Gemeinschaft und für diese. Während beim traditionellen Peer-Review die Arbeit der Kollegen lediglich beurteilt werden konnte - sie war ja bereits in Fachzeitschriften gedruckt und vergegenständlicht - ermöglichten die neuen Kommunikationsmethoden, daß eventuelle Fehler und Irrtümer nicht mehr bloß kritisiert, sondern selbst behoben werden konnten.

"Wenn die Begutachtung von Verfahren und inhaltlichen Vorschlägen ohne Zeitverlust erfolgt, wandelt sich der Charakter von peer reviews so radikal, wie sich etwa transkontinentale Kommunikation verändert, wenn sie statt Briefen, die Wochen mit der Schiffspost unterwegs sind, Telefon oder Chat nutzt. Die Echtzeitbedingungen der Open-Source-Praxis schufen so ein interaktives dialogisches Produktionsmittel für geographisch zerstreute Gruppen."[21]

Das Werkzeug der Freien Software-Gemeinde zur Organisation dieser neuen Form kollektiver Produktion ist das Concurrent Versioning System (CVS). Es ermöglicht die gleichzeitige Arbeit vieler Personen an einem Projekt, ja an einer Datei. CVS ist ein sehr mächtiges Werkzeug, kennt aber nur zwei Benutzerstatute: Nur Leserecht, oder generelles Lese- und Schreibrecht. Dies verweist auf den egalitären Charakter der Produktion: Jeder Mitarbeiter eines Projektes hat Zugriff auf alle Teile desselben.

Eine sozialistische Wende des Neoliberalismus?

Daß solcherart produzierter Software durch mit traditionellen Methoden erstellter kaum beizukommen ist, ist offensichtlich. Freie Software gilt im allgemeinen als stabiler, wenn denn mal Fehler auftreten, werden diese im Regelfall schnell behoben (bzw. können selbst beseitigt werden), die Software kann den eigenen Bedürfnissen angepaßt werden, problemlos an Dritte weitergegeben werden - und nicht zuletzt ist sie zumeist kostenlos.

Emanzipative Software ist nicht nur das Produkt der Selbstermächtigung der Anwender, sondern fordert diese auch ein.

Allein, solch emanzipative Software ist nicht nur das Produkt der Selbstermächtigung der Anwender, sondern fordert diese auch ein.[22] Freie Software stellt eine quasi unermeßliche Bibliothek menschlichen Wissens dar - für denjenigen, der sie zu benutzen, d.h. eben auch zu lesen und anzupassen, weiß. Sie ist Bildung im doppelten Sinn, Bildung des Subjekts und Bildung des gesellschaftlichen Ganzen.

Im Gegenzug glänzt Freie Software deshalb auch zumeist nicht durch einfache, sog. "intuitive" Bedienbarkeit, sondern erfordert oftmals ein vorheriges Einlesen in die Dokumentation mit nachfolgender Editierung von Konfigurationsdateien, etc. An dieser Stelle treten die "Distributionen" auf den Plan. Das eigentliche Linux ist, wie bereits oben erwähnt, lediglich der Betriebssystemkern, der Kernel, mit dem allein ein Arbeiten noch nicht möglich ist. Ein arbeitsfähiges System zusammenzustellen und mit einer Installationsroutine zu versehen ist die Aufgabe der Distributionen.

Die meisten der großen Distributionen wie SuSE, RedHat, Caldera, TurboLinux und Mandrake sind kommerziell, eine Ausnahme bildet das Debian-Projekt.[23] Zwar sind die Distributionen auch im Internet zum Download vorhanden, jedoch ist es i.d.R. aufgrund der großen Datenmengen ökonomischer, sich das CD-Set zu kaufen. Die Distributionen bieten eine Dienstleistung um Linux (und freie Software insgesamt) herum an und verdienen daran.

Die ins Unendliche beschleunigte, globale und digitalisierte Konkurrenzgesellschaft fängt an, sich nach dem Prinzip freiwilliger Assoziation und Selbstorganisation neu zu formieren und die Warenförmigkeit aufzuheben.

Wollte man diese Firmen jetzt als Parasiten betrachten, die lediglich die Früchte der Arbeit anderer ernten, läge man falsch. Alle diese Unternehmen haben ein vitales Interesse an der Weiterentwicklung freier Software. Den Firmen erscheint als ureigenstes Kapital, was in Wahrheit allgemeinster Rohstoff wie Luft ist. Sie fördern einzelne Projekte und bezahlen Entwickler. Doch die Investition in freie Software kommt der Allgemeinheit zugute - und mit dieser auch den Konkurrenten. Der ehemalige RedHat-Chef Bob Young hat in diesem Zusammenhang das Kunstwort von der "Cooptition" kreiert - eine Melange von "Cooperation" und "Competition". Diese Firmen besitzen nicht mehr das, was die Betriebswirte den "stragischen Wettbewerbsvorteil" nennen (abgesehen von den jeweiligen Installationsroutinen, die aber, wie etwa beim Marktführer RedHat, oftmals ebenfalls frei sind). Ökonomisch ist dies Modell von der "Cooptition" freilich nur so lange denkbar, wie der Markt für freie Software derart rasant wächst, daß das einzelne Kapital die Konkurrenz nicht zu fürchten braucht. Fraglich ist, was passiert, wenn ein "strategischer Wettbewerbsvorteil" über das Überleben einer Firma entscheiden mag. Die Versuchung wird groß sein, die vormals freie Software zu schließen und zu proprietarisieren, in (privates) Eigentum zu überführen.[24] Ob es der Entwicklergemeinde gelingt, dies zu verhindern wird der erste Prüfstein sein für die Verbindung von nicht-warenförmiger Produktion und Kommerz.

Man könnte argumentieren, daß die neoliberale Ideologie, die ja zumindest zum Teil auch in den Protagonisten der Hackerszene wirkmächtig ist, sich selbst ihr eigenes Grab schaufelt. Für Marx lag der Antagonismus bekanntermaßen im Kapitalverhältnis selbst; das "Kapital ist selbst der prozessierende Widerspruch [dadurch], daß es die Arbeitszeit auf ein Minimum zu reduzieren strebt, während es andrerseits die Arbeitszeit als einziges Maß und Quelle des Reichtums setzt."[26] Die ins Unendliche beschleunigte, globale und digitalisierte Konkurrenzgesellschaft fängt an, sich nach dem Prinzip freiwilliger Assoziation und Selbstorganisation neu zu formieren und die Warenförmigkeit aufzuheben.

"Sobald die Arbeit in unmittelbarer Form aufgehört hat, die große Quelle des Reichtums zu sein, hört und muß aufhören die Arbeitszeit sein Maß zu sein und daher der Tauschwert [das Maß] des Gebrauchwerts. Die Surplusarbeit der Masse hat aufgehört Bedingung für die Entwicklung des allgemeinen Reichtums zu sein, ebenso wie die Nichtarbeit der wenigen für die Entwicklung der allgemeinen Mächte des menschlichen Kopfes."[25]

Dies wäre gewissermaßen die "sozialistische Wende des Neoliberalismus".


Eine Neuformierung der Arbeiterklasse als revolutionäres Subjekt?

1980 verkündete der französische Philosoph André Gorz seinen Äbschied vom Proletariatmit der ernüchternden Einschätzung, der Kapitalismus habe eine Arbeiterklasse hervorgebracht,

"die in ihrer Mehrheit außerstande ist, die Produktionsmittel in Besitz zu nehmen, und deren unmittelbar bewußte Interessen mit einer sozialistischen Rationalität nicht übereinstimmten."[27]

Automatisierung und Informatisierung hätten qualifizierte Arbeiter und Angestellte immer weiter durch bloße Angelernte ersetzt. Die Arbeiter, die in ihrer Totalität zwar die Maschinen beherrschten, seien individuell durch diese versklavt und entmündigt worden, ihrer autonomen Fähigkeiten beraubt. Die Proletarier konnten individuell den Produktionsprozeß nicht mehr überblicken. So seien sie zu keinem eigenständigen Gegenentwurf mehr fähig gewesen, der "kollektive Gesamtarbeiter" hätte selbst nach der Art und dem Modell von Armeen funktioniert, als "kollektive Kopie des Kapitals" - und mit ihm seine Organisationen, die Organisationen der Arbeiterklasse.

"Der Aufstieg der Facharbeiter, ihre Macht im Betrieb, ihre anarchosyndikalistischen Vorstellungen waren bloß eine Episode, die der Taylorismus, später die 'wissenschaftliche Arbeitsorganisation', schließlich Informatik und Roboter beendet haben."[28]

Den Ausgangspunkt dieser Entwicklung stellt für Gorz eine Evolution im Kapitalverhältnis selbst dar, die Entwicklung der großen Industrie. "Abenteurer, Eroberer, Schumpetersche Unternehmer haben in dieser Gesellschaft keinen Ort mehr."[30] Es erscheint so, als sei mit dem gegenwärtigen Evolutionsschub der Informations- und Kommunikationstechnik eine Wiederkehr jener historischen Formation verbunden, mit deren Absenz Gorz seinen "Abschied vom Proletariat" begründete.

Die Tätigkeit des modernen Informationsarbeiters ist eine allumfassende, insoweit er tatsächlich fast unmittelbaren Zugriff auf das Arbeitsvermögen aller anderen hat.

Die Gegenwart ist gekennzeichnet durch eine Umbruchsituation, der bereits eine komplette Gesellschaftsordnung - der real-existierende Sozialismus- zum Opfer gefallen ist. "Auflösung der traditionellen Arbeitsgesellschaft", "Wissensgesellschaft", "Informationsgesellschaft" sind Stichworte, die auf einen gewaltigen Umwälzungsprozeß hindeuten, der die Arbeitsorganisation komplett umgestaltet und in seiner Folge eine Arbeiterklasse erzeugt, die in ihrer Struktur den Facharbeitern des 19. Jahrhunderts stark ähnelt.

Der moderne (Informations-)Arbeiter ist nicht mehr im doppelten Sinne frei - frei von der Scholle und frei von Produktionsmitteln - sondern besitzt letztere zumindest tendenziell: Die PCs in der Firma unterscheiden sich nicht von seinem PC zu Hause. Seine Tätigkeit ist eine allumfassende, insoweit er tatsächlich fast unmittelbaren Zugriff auf das Arbeitsvermögen aller anderen hat: über das Internet auf die frei verfügbaren Informationen und das Wissen - und, nicht zu vergessen, auf freie Software. Wo die Informationen nicht frei verfügbar sind, wird dies als Manko begriffen, und bekämpft. Die Kämpfe gegen Software-Patente und gegen die Patentierung des menschlichen Erbguts sind moderne Klassenkämpfe.

Es verwundert nicht, daß Gorz mittlerweile auch die Freie Software als gesellschaftlich relevante Kraft entdeckt hat:

"Gemäß diesen Prinzipien funktionieren auch die virtuellen Gemeinschaften, die im Internet sogenannte freie Software - Systeme mit offenem Quellcode - betreiben. Die Programmiersprache, in der die Software-Programme ursprünglich konzipiert wurden (hauptsächlich der Quellcode GNU), ist allen bekannt und die Software-Programme (von Linux) können folglich von den Teilnehmern geändert, verbessert und weiterentwickelt werden. Je zahlreicher die Teilnehmer, umso größer wird der Gebrauchswert des Systems für alle. Es entsteht eine 'anarcho-kommunistische Ökonomie des Gebens', wie sie Richard Barbrooke nennt. Sie weist darauf hin, daß eine auf Schöpfung, Austausch und kooperativem Einsatz von Wissen gegründete 'Wissensgesellschaft' sich von der Logik von Waren-, Geld- und Kapitalbeziehungen befreien müßte und in radikalem Gegensatz zur kapitalistischen Gesellschaft steht."[29]


Copyright? - Copyleft!

Vieles deutet darauf hin, daß substantielle Klassenauseinandersetzungen der Zukunft über die Verfügbarkeit von Wissen geführt werden.

Vieles deutet darauf hin, daß substantielle Klassenauseinandersetzungen der Zukunft über die Verfügbarkeit von Wissen geführt werden. "Wissen ist Macht!" - dieser alte Slogan der Arbeiterbewegung wird einmal Bedeutung erlangen. Bereits jetzt ist absehbar, daß der Kampf gegen freie Software vornehmlich auf der Ebene des Copyrights und des Patentrechts geführt werden wird; es gibt ähnliche Diskussionen über die Patentierbarkeit von Software wie über die Patentierbarkeit von menschlichem Leben und seinen Genen - der Software des Menschen, als die die Biologen die Gene begreifen.

Beides ist nicht bloß eine Klassenauseinandersetzung, sondern auch eine zwischen Nord und Süd. Wenn eigentlich billig zu produzierende, lebensrettende Medikamente nicht produziert werden können, da die Lizenzgebühren nicht zahlbar sind, könnte der Imperialismus unter neuem Vorzeichen thematisiert werden.

Aber auch die Forscher in den Industrieländern könnten eine Situation, die ihnen den Zugriff auf bereits vorhandenes Wissen verwehrt, nicht länger hinnehmen.

Eine Neuformulierung des Urheber- und Patentrechts, dessen Prinzipien der Frühzeit der Industrialisierung verpflichtet sind und praktisch wie ethisch mit dem Potential digitaler Technologien kollidiert, steht aus.


Fußnoten

[1] Der Pinguin Tux ist das Logo von Linux.

[2] Microsofts Internet Information Server liegt mit 27,9% abgeschlagen auf Platz 2.

[3] FreeBSD, NetBSD oder OpenBSD.

[4] 1979 gab es eigentlich noch nicht einmal PCs. Gearbeitet wurde an Terminals - Geräten, die nur aus Tastatur und Bildschirm bestanden und mit einem Großrechner, dem sog. "Mainframe", verbunden waren.

[5] Der Quelltext (engl.: Sourcecode) ist das Programm in seiner für den Menschen lesbaren Form im Gegensatz zum für den Computer verständlichen, ausführbaren Binärcode (binary).

[6] http://www.gnu.org/events/rms-nyu-2001-summary.txt

[7] Software muß frei sein! Interview mit Richard Stallman.

[8] "Rekursives Akronym" meint, daß die Abkürzung selbst wieder Teil der Langform ist. In "GNU's Not Unix" steckt ein nicht aufgelöstes "GNU", welches wiederum auf "GNU's Not Unix" verweist. Worüber der Mensch lacht, treibt den (dummen) Computer in eine Endlosschleife.

[9] C ist eine Programmiersprache, die eng mit der Entwicklung von Unix verknüpft ist.

[10] Am GNU-Kernel HURD ist zwar bereits damals gearbeitet worden, dieser befindet sich aber bis zum heutigen Tag noch in der Entwicklung und ist noch nicht aus dem Experimentierstadium herausgekommen.

[11] Zit. nach Peter Mühlbauer, Es klingt wie eine Mischung aus "liberal" und "pubertär". Libertäre Ideologie, Teil 1: Was ist libertäre Ideologie? http://www.heise.de/tp/deutsch/special/libi/4221/1.html

[12] Eric S. Raymond, A Brief History of Hackerdom, http://www.tuxedo.org/esr/writings/hacker-history/hacker-history-3.html

[13] Eric S. Raymond, A Brief History of Hackerdom, a.a.O.

[14] Siehe z.B. den Jargonfile, aber auch das Hackerwörterbuch: Eric S. Raymond, The New Hacker's Dictionary, MIT Press, 3rd edition 1996.

[15] Peter Mühlbauer, Es klingt wie eine Mischung aus "liberal" und "pubertär". a.a.O.

[16] Den Anarchokapitalisten in der Szene ist der Begriff der freien Software denn auch zu politisch und antikommerziell. Sie bevorzugen den technizistischen Begriff Open Source, der auf die Offenheit der Quelltexte abzielt und nicht mehr auf die Freiheit der gesellschaftlichen Aneignung.

[17] Nach ders., Es klingt wie eine Mischung aus "liberal" und "pubertär". a.a.o.

[18] Richard M. Stallman, Das GNU-Manifest, http://www.gnu.de/mani-ger.html

[19] Deutschland spielt hier eine gewisse Sonderrolle. Aufgrund des Postmonopols konnte sich eine eigenständige Hackerkultur immer nur in Auseinandersetzung mit der Legalität entwickeln; noch in den 80er Jahren kostete etwa ein legales Postmodem 120DM im Monat und war nicht kompatibel mit internationalen Standards. Im letzten Interview vor seinem Tod hat Wau Holland, der Alterspräsident des CCC, die Tätigkeit des deutschen Hackers so beschrieben: "Unterhalb der strafbaren Handlung steht die Ordnungswidrigkeit. Unterhalb dieser gibt es noch den groben Unfug. Wir sind aber nicht grob. (...) Wir machen das Gegenteil von grobem Unfug. Wir machen feinen Fug." ("Mit Geheimdiensten kann man nicht spielen." Die Hacker-Legende Wau Holland über illegales Verhalten, Kontrolle und Staubsauger. In: Sonntagszeitung (CH) vom 6.5.2001.)

[20] Vgl. zum folgenden v.a. Gundolf S. Freyermuth, Offene Geheimnisse. Aus der Open-Source Geschichte lernen, Teil 1. In: c't 20/2001, S. 176ff.; und ders., Die neue Hackordnung. Aus der Open-Source Geschichte lernen, Teil 2. In: c't 21/2001, S. 270ff.

[21] Gundolf S. Freyermuth, Offene Geheimnisse, a.a.O., S. 182.

[22] Neulinge, die sich in den Welten des Usenets bewegen, werden denn auch häufig als DAUs, "Dümmste Anzunehmende User", beschimpft. Zwar kennt die Hackergemeinde auch den neutralen Begriff des "Newbies" für Frischlinge, um sich dergestalt zu bewegen, um als "Newbie" zu gelten, muß der Probant sich aber bereits derart geschickt in der für ihn doch fremden Welt bewegen, daß er bestenfalls "Newbie" in einem bestimmten Gebiet sein kann - und den Verhaltenskodex bereits verinnerlicht hat.

[23] Debian ist eine nichtkommerzielle, von einigen hundert (z.Zt. ca. 900) Freiwilligen weltweit gepflegte Distribution.

[24] Vorreiter dieser negativen Entwicklung ist Caldera, die ihre Distribution (bzw. ihre Eigenleistung daran) unter eine sehr restriktive Lizenz gestellt hat. So darf die Distribution nun z.B. nicht mehr auf mehreren Computern installiert werden. Allerdings wird damit freie Software nicht unfrei gemacht; auch Caldera muß sich weiterhin an die Lizenzen der von ihr vertriebenen Software halten und bspw. den Sourcecode bereitstellen, dessen freie Kopierbarkeit gewährleisten usw.

[25] Ebd.

[26] Karl Marx, Grundrisse der Kritik der politischen Ökonomie, MEW, Bd. 42, Berlin 1983, S. 601.

[27] André Gorz, Abschied vom Proletariat. Jenseits des Sozialismus, Reinbek bei Hamburg 1983, S. 10.

[28] Ebd., S. 21.

[29] André Gorz, Vom totalitären Vorhaben des Kapitals. Notizen zu Jeremy Rifkins "The Age of Access", in: Freitag Nr. 28 vom 6.7.2001.

[30] Ebd., S. 48.

Zur normalen Fassung


https://sopos.org/aufsaetze/3c48ca89b119c/1.html