Oliver Heins: Utopien aus Technik. Die emanzipative Kraft der Freien Software und die Dystopie des Kapitals

Utopien aus Technik. Die emanzipative Kraft der Freien Software und die Dystopie des Kapitals}

Vortrag, gehalten am 8. Oktober 2005 auf dem Kongreß »Die Möglichkeiten einer anderen Welt« (Hannover, 7. bis 9. Oktober 2005)

Oliver Heins

Zwischen der sozialistischen Utopie – auch in ihrer marxistischen Variante – und der Utopie des Kapitals gibt es eine denkwürdige Übereinstimmung: Beiden zugrunde liegt die Vorstellung einer vollautomatisierten Produktion. Während in der sozialistischen Fassung freilich die Vollautomatisierung die materielle Grundlage einer umfassenden Entfaltung der Individuuen im Reich der Freiheit bildet, ist in der kapitalistischen Variante das Kapital endlich sich selbst genug: Im Moment, da die lebendige Arbeit durch die tote vollständig ersetzt wird, ist das Kapital geschichtlich bei sich selbst angelangt und nicht mehr auf den Menschen angewiesen. Der Mensch wird durch die Maschine ersetzt oder zum unmittelbaren Gegenstand sich selbst verwertenden Werts und selbst zur Maschine: Menschmaschine und Maschinenmensch.

Die Spur dieser bereits von Marx ihrem Wesen nach skizzierten Dialektik der Produktivkraftentwicklung suche ich in diesem Vortrag anhand der Entwicklung der Maschine und der ihr inhärenten Logik nachzuzeichnen. Das Ergebnis ist in seiner Deutlichkeit überraschend. Es gleicht einem Treppenwitz der Geschichte, daß sich beide Utopien zeitgleich am selben Ort konkretisieren: Freie Software, deren enormes emanzipatives Potential als eine »Keimform« radikal anderer, wertfreier Produktion gerade erst wahrgenommen wird, entsteht zuerst in den Labors für Künstliche Intelligenz, in denen an der vollständigen Ersetzung des Menschen durch die Maschine gearbeitet wird.

Das Verhältnis von Utopie und Technik

Das Verhältnis Utopie und Technik ist nicht unproblematisch. Zwar ist auch die Marxsche Theorie durchaus technische Utopie: Die sich im Prozeß der fortschreitenden Entwicklung der Produktivkräfte entfaltende Herr–Knecht-Dialektik versetzt die Arbeiterklasse in die Lage, sich kollektiv die Produktionsmittel anzueignen und die ihrem Inhalt nach längst gesellschaftliche Produktion auch mit ihrer Form auszusöhnen. Mit der Aneignung der Produktion durch die Produzenten verändert sich also auch die Form der Produktion und damit die Technik: Technik, die als Maschine immer auch Herrschaftstechnik über Menschen ist, wird im Prozeß der fortschreitenden Aneignung der Produktion gleichsam mit auf eine höhere Stufe gehoben.

In der Geschichte des Marxismus und der Arbeiterbewegung wurde dieses kritische Verhältnis zur Technik allerdings weitgehend durch ein rein affirmatives ersetzt. Der fortschreitenden Beherrschung der Natur durch Technik steht eine fortschreitende Beherrschung der Gesellschaft und der Menschen durch Sozialtechnik zur Seite, die die objektive Möglichkeit einer durch und durch rationalen, geplanten und durchorganisierten Gesellschaft begründet. Während Marx ja den Vorwurf, die Kommunisten würden die ganze Gesellschaft in eine Fabrik umwandeln wollen, noch dadurch zu kontern wußte, daß es sehr bezeichnend sei, daß dies ausgerechnet von den begeistertsten Apologeten des Fabriksystems eingewandt würde (vgl. Marx b, 377), scheint eine solche Vorgehensweise wirklich der Plan zu sein, mittels dem die Epigonen die Marxsche Utopie einer freien Gesellschaft zu verwirklichen trachteten. Es war eben das Programm einer »Befreiung der Arbeit« (wie es etwa das Gothaer Parteiprogramm von 1875 allen Ernstes forderte) und nicht des Menschen von der Arbeit bzw. der Aussöhnung des Menschen mit der Arbeit, also der Befreiung von der Lohnarbeit.

Otto Neuraths Gesellschaftstechnik

Im 1919, inmitten der Revolutionswirren erschienenen Aufsatz Die Utopie als gesellschaftstechnische Konstruktion vertritt Otto Neurath eine mechanistisch-technizistische Gesellschaftsauffassung. Gesellschaft gilt ihm als am Reißbrett plan- und konstruierbar; Utopien vergleicht er mit den »Konstruktionen der Ingenieure« und bezeichnet sie als »gesellschaftstechnische Konstruktionen«. (Neurath b, 235) Diese »Gesellschaftstechnik« sei mit der »Maschinentechnik« vergleichbar, beide hätten ähnlich phantastische Anfänge (ebd.); ja zu einer Zeit, als der klassische Mechanismus als Leitbild für die Naturwissenschaft schon nicht mehr in Frage kommt, wird er von Neurath, dem diese jüngeren Entwicklungen durchaus bekannt waren, für die (als Ingenieurstechniken gedachten) Sozialwissenschaften explizit zur Grundlage erhoben:

»Gerade auf gesellschaftlichem Gebiet haben wir es mit sehr bekannten Elementarkräften zu tun, Erscheinungen wie die Radioaktivität treten wohl kaum neu auf. Es ist dies Gebiet der reinen Mechanik verwandt, die auch immer neue Konstruktionen zuläßt, aber keine neuen Kräfte kennt.« (Neurath b, 240)

In einer denkwürdigen Stelle vergleicht Neurath die menschlichen Eigenarten mit den Eigenschaften des fabrikmäßig zu bearbeitenden toten Materials:

»Eine gesellschaftstechnische Konstruktion behandelt unsere ganze Gesellschaft, vor allem unsere Wirtschaft, ähnlich wie einen riesigen Betrieb. Der Gesellschaftstechniker, welcher sich auf seine Arbeit versteht und eine Konstruktion liefern will, die für praktische Zwecke als erste Anleitung verwendbar sein soll, muß die seelischen Eigenschaften des Menschen, seine Lust am Neuen, seinen Ehrgeiz, sein Hängen an der Überlieferung, seinen Eigensinn, seine Dummheit, kurz, alles, was ihm eignet und sein gesellschaftliches Handeln im Rahmen der Wirtschaft bestimmt, genauso berücksichtigen wie etwa der Ingenieur die Elastizität des Eisens, die Bruchfestigkeit des Kupfers, die Farbe des Glases und ähnliches mehr. Die Hebel und Schrauben der Lebensordnung sind gar sonderlicher und feiner Art. Aber die Schwierigkeit der Aufgabe hat noch nie einen mutigen Denker und Tatmann geschreckt.« (Neurath b, 236)

Rohstoff seiner Gesellschaftsmaschine sind freilich die lebendigen Menschen, die, dem Vorbild der Kriegswirtschaft entsprechend, von der Maschinerie verschluckt und hin und her geschoben werden, Familienbanden erschütternd – um des hehren Zieles willen.

»Die gewaltigen Umgestaltungen des Krieges haben der Utopie neues Leben eingehaucht. Die Generale und Politiker der letzten Jahre haben unter Verachtung der überlieferten Gesellschaftsordnung alles dem militärischen Erfolge dienstbar zu machen gesucht. Kein Eingriff war ihnen zu groß, wenn er den Sieg zu verheißen schien. Die Bande der Familie wurden erschüttert, Menschenmengen hin und her geschoben, Industrien von Grund auf umgewandelt – alles in der kürzesten Zeit. Um der Vernichtung willen wurde gezeigt, was Menschenkraft zu leisten vermag. Ist es so unverständlich, wenn immer mehr Menschen die Frage aufwerfen, ob man nicht in ähnlicher Weise Friedensziele erstreben könne, wie man so lange Kriegsziele erstrebt habe.« (Neurath b, 238)

Aufgrund seiner Teilnahme an der Münchner Räterepublik erhielt der Österreicher Neurath ein siebenjähriges Einreiseverbot ins Deutsche Reich, weshalb er nach Wien zurückkehrte. Dort nahm er Teil am Wiener Kreis und entwickelte den Logischen Empirismus mit, der sich bemühte, eine konsistente »Wissenschaftliche Weltauffassung« zu errichten, die in der ausschließlichen Verwendung von Methoden der mathematischen Logik fundiert sein sollte. Mit anderen Worten: die ganze Welt sollte in Mathematik formuliert werden können und somit – das Ziel aller Wissenschaft – beherrschbar gemacht werden. Diese technizistischen, herrschaftszentrierten Auffassungen vertrat Neurath freilich nicht mehr Mitte der 1930er Jahre. Spätestens mit Gödels innermathematischem Nachweis des menschlichen Ursprungs auch der Mathematik war die Vorstellung von objektiv gültiger, weil mathematisch-exakter, Planung nicht mehr haltbar. Die von zentraler Stelle vollständig durchorganisierte Welt war als logisch unmöglich entlarvt und damit, zumindest für einen aufrichtigen Sozialisten wie Neurath, undenkbar geworden.

Bevor ich jedoch diesen Gedankengang weiterverfolge und mich schließlich der technischen Utopie der Freien Software zuwende, möchte ich zunächst kurz die Bedeutung der Computerisierung für die Produktivkraftentwicklung skizzieren, freilich nur in der Dimension des innertechnologischen Aspekts. Mir geht es also darum, kursorisch das Verhältnis von Software zur allgemeinen Entwicklung der Produktionsverhältnisse zu umreißen.

Die Entwicklung der Maschine

Industrieller Kapitalismus war ja immer schon Wissensökonomie. Es war das Wissen um den Akt der Produktion, das sukzessive dem Arbeiter entrissen wurde und ihm gegenüber in der Maschine vergegenständlicht wurde. Die Trennung von Kopf- und Handarbeit markiert auch den Beginn der Klassenherrschaft. Doch war bis vor kurzem das im Kapital konzentrierte formale Wissen noch auf seine Realisierung durch die lebendige Arbeit angewiesen. Dies stellt denn auch das für die Epoche der industriellen Produktion typische Herrschaftsverhältnis dar: Die eine Seite besitzt ein monopolmäßiges Wissen um den Produktionsprozeß, ist jedoch zu seiner Realisierung auf die lebendige Arbeit angewiesen. Marx vergleicht das Kapital daher mit einem Vampir: »Das Kapital ist verstorbne Arbeit, die sich nur vampyrmäßig belebt durch Einsaugung lebendiger Arbeit und um so mehr lebt, je mehr sie davon einsaugt.« (Marx b, 247) Es ist aber eben nicht so, daß das Kapital seine Angewiesenheit auf fremdes Blut, auf die Lebendigkeit nicht als tiefgreifendes Manko empfunden hat. Sein Traum war seit jeher die vollständige Verdrängung des menschlichen Moments aus der Produktion, die vollautomatisierte Fabrik.

Lebendige Arbeit und totes, formales Wissen bildeten so den eigentümlichen Antagonismus der industriellen Epoche. Beide sind ja bei aller Feindschaft zugleich notwendig aufeinander angewiesen – das Kapital vermag sein Wissen erst durch lebendige Arbeit produktiv zu realisieren, und die lebendige Arbeit ist durch die Eigentumsverhältnisse von den Produktionsmitteln und damit vom formalen Wissen getrennt. Daß es letztlich jedoch die lebendige Arbeit war, die die Welt produzierte, zeigte die Möglichkeit von Emanzipation in dieser Herr–Knecht-Dialektik auf: Die Arbeiter schienen zumindest potenziell fähig, sich das formale Wissen anzueignen und als lebendiges Produktionswissen zu integrieren.

Die kapitaleigene Utopie von der vollautomatischen Produktion würde das Ende dieser Dialektik bedeuten. Sie wäre nicht aufgehoben, sondern schlicht außer Kraft gesetzt – ersetzt durch Barbarei. In einer »post-industriellen« Gesellschaft wäre der Knecht vom vollautomatisierten Produktionsprozeß ausgeschlossen. Er verfügte nicht mehr um produktionsrelevantes – und das heißt weltrelevantes – lebendiges Wissen. Relevant wäre einzig und allein das formale Steuerungswissen des Herrn. Der Knecht wäre zum bloßen Dienstleister degradiert, dem vom Herrn die notwendigen Lebensmittel gönnerhaft zugeteilt würden, mit deren Produktion er jedoch nichts mehr zu tun hätte. Mit der Außerkraftsetzung der Herr–Knecht-Dialektik wäre die Utopie von der Erschaffung des künstlichen Menschen wahr geworden und ein seelenloser Golem, ein Zombie, geschaffen. Tatsächlich wird kräftig an der Verwirklung dieser Dystopie von der Ersetzung des Menschen durch die Maschine gearbeitet.

Eine Maschine ist, technisch betrachtet, die praktische Umsetzung einer exakten, formalen Beschreibung des Arbeitsvorgangs. Sie ist somit die Realisierung eines effektiven Verfahrens. Der Begriff des »effektiven Verfahrens« oder »Algorithmus«, wie er auch genannt wird, ist nun aber einer der wichtigsten in der modernen Mathematik, was auf die Nähe der Wissenschaft zur kapitalistischen Gesellschaftsordnung verweist. Ein Algorithmus ist ein Regelsystem, in dem für jeden möglichen Zustand, den das System einnehmen kann, eine spezifische Handlung festgelegt ist. Der Algorithmus verbindet die Logik mit Kontrolle; er läßt sich durch die simple Formel Algorithmus = Logik + Kontrolle begreifen. (Vgl. Kowalski) Der Begriff des »effektiven Verfahrens« ist deshalb einer der wichtigsten in der modernen Mathematik, da sich mit ihm sich Rechenwege angeben lassen. Die Frage etwa: »Was ist Division?« erschöpft sich so in der Erklärung, wie man dividiert. Trotz seiner zentralen Relevanz ist der Begriff doch recht jung; er datiert mit Charles Babbages Entwurf der Analytical Engine von 1833, dem ersten, freilich nie realisierten, künstlichen Universalrechner. Der Begriff des effektiven Verfahrens ist historisch untrennbar mit der Entwicklung der Rechenmaschine verbunden, denkbar wurde er erst im Kontext der fabrikmäßigen Organisation der Arbeit. Bezeichnenderweise vermag die Mathematik diesen für sie zentralen Begriff bis heute nicht so recht einzuordnen. Dazu gleich mehr.

Antinomien und die Grundlagenkrise der Mathematik

Der Kreter Epimenides behauptet: »Alle Kreter sind Lügner.« Diese Aussage ist ein Paradoxon: Wenn sie wahr ist, dann ist auch Epimenidis ein Lügner, die Aussage mithin gelogen und damit falsch.

In seiner kürzesten Fassung hat das Paradoxon die Form: »Diese Aussage ist falsch.« Der Satz behauptet von sich selbst, unwahr zu sein. Er negiert sich selbst, über seine Wahrheit ist nicht zu entscheiden.

Dieses Epimenides-Paradoxon erlangte mehr als zweieinhalbtausend Jahre nach seiner Formulierung eine zentrale Bedeutung. Um 1900 herum befand sich die Mathematik in einer Grundlagenkrise. Die Entwicklung der Mengenlehre hatte zu einigen ernsten Paradoxa geführt, deren bekanntestes die sogenannte Russellsche Antinomie ist. Eine umgangssprachliche Version dieses Paradoxons stellt die Geschichte vom Barbier von Sevilla dar; wem sie unbekannt ist, der kann ja mal kurz drüber nachdenken: Der Barbier rasiert alle Männer im Ort, nur nicht die, die sich selbst rasieren. Die Frage, ob der Barbier sich selbst rasiert oder nicht, führt zu einem Widerspruch.** Auch auf dem Gebiet der Grammatik lassen sich verwandte Paradoxa formulieren. Am berühmtesten ist Grellings und Nelsons Paradoxon eine semantische Antinomie. Gewissen Ausdrücken der deutschen Sprache kommt die Eigenschaft, die sie ausdrücken, selbst zu (z. B. den Ausdrücken »deutscher Ausdruck«, »dreisilbig«, »exquisit«), anderen hingegen nicht (etwa »englischer Ausdruck«, »zweisilbig«, »eßbar«). Ausdrücke lassen sich also teilen in eine Gruppe, die selbstbeschreibende (»autologische«) enthält und in eine, die nicht-selbstbeschreibende (»heterologische«) enthält. In welche der beiden Gruppen fällt nun der Ausdruck nicht-selbstbeschreibend (heterologisch)?

1920, also ein Jahr nach Neuraths oben zitiertem Aufsatz, formulierte David Hilbert ein Forschungsprogramm, das sich zum Ziel gesetzt hatte, die Mathematik von allen Antinomien zu reinigen und gemeinsam mit der Logik auf eine nachweisbar konsistente Basis zu stellen. Wichtige Punkte hierbei nahmen unter anderem der Nachweis der Widerspruchsfreiheit und der Vollständigkeit eines solchen formalen Systems ein. Das Hilbert-Programm, dessen Vorgeschichte bis zu einem Vortrag Hilberts auf dem Mathematikerkongreß in Paris im Jahr 1900 zurückreicht, diente in der Folge Generationen von Mathematikern als Leitlinie ihrer Forschung. Bereits 1910–13 hatten Bertrand Russell und Alfred North Whitehead die Principia Mathematica veröffentlicht, ein Monumentalwerk, das sich zum erklärten Ziel gesetzt hat, einerseits aus einem logischen Axiomensystem die komplette Arithmetik und Analysis abzuleiten und andererseits die logischen Antinomien mittels einer strikten hierarchischen Typisierung auszuschließen. Der Mathematik schien ein sicheres Fundament in der Logik gegeben, wie Rudolf Carnap, eng mit Otto Neurath befreundet und ebenfalls Teil des Wiener Kreises, noch 1929 versicherte. (Vgl. Carnap, 92) Die neutrale, mathematische Beschreibung der Beobachtung schien das überkommene Kausalgesetz elegant ersetzen zu können, das zu seiner Begründung eine letztlich außerempirische Fundierung benötigt. Mit anderen Worten: die Welt schien vollständig in Mathematik darstellbar zu sein.

Der Traum platzte freilich mit einem Paukenschlag. 1931 veröffentlichte Kurt Gödel, der 1926 als zwanzigjähriger Student zum »inneren Zirkel« des Wiener Kreises gestoßen war, seinen Aufsatz Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme I (Gödel) In gewisser Weise zerstörte Gödels Arbeit Hilberts Programm völlig, da sie bewies, daß es nicht zu reparierende Löcher nicht nur in der Principia Mathematica, sondern in allen einigermaßen komplexen und in sich widerspruchsfreien formalen Systemen geben muß. Die Mathematik, so die Aussage Gödels, war notwendigerweise unvollständig.

Gödel gelang es, innerhalb eines Unterbereichs der Principia Mathematica, der Zahlentheorie, über diese selbst zu sprechen und dabei eine Aussage zu formulieren, die von sich behauptet, selbst kein Satz der Principia zu sein. Diese Aussage, nennen wir sie $G$, ist eine abgeschwächte Form des Epimenides-Paradoxons. Denn angenommen $G$ sei ein Satz, dann muß $G$ eine Wahrheit aussprechen. $G$ behauptet aber von sich, selbst kein Satz zu sein. $G$ kann also kein Satz sein. Das ist aber genau das, was $G$ aussagt, $G$ behauptet also eine Wahrheit. Und da $G$ kein Satz ist, existiert zumindest eine Wahrheit, die kein Satz der Principia Mathematica ist. Gödel bewies nicht nur die Unvollständigkeit der Principia Mathematica, sondern wies nach, daß diese Unvollständigkeit allen in sich widerspruchsfreien, axiomatischen Systemen, die die Arithmetik enthalten, notwendig zukommt. Es gibt also in der Mathematik notwendig intuitives, nicht formuliertes Wissen. Auch die Mathematik ist menschlichen Ursprungs. Wir können ihre Herkunft aus der Herrschaft nicht verleugnen.

Universalmaschinen

Einen zweiten Schlag versetzt bekam das Hilbert-Programm 1936 mit der Veröffentlichung von Alan Turings Aufsatz »On Computable Numbers with an Application to the Entscheidungsproblem«. (Turing a) In dieser Arbeit, in der Turing das Konzept der universalen Maschine entwickelt und damit den modernen Computer theoretisch begründet, zeigt er zugleich die Grenzen möglicher Berechenbarkeit auf.

Vereinfacht gesagt besteht die von Turing nachgewiesene Universalität im Nachweis einerseits einer Maschine, die vermittels einer Beschreibung eine dritte Maschine nachzuahmen vermag und andrerseits, daß es möglich ist, daß diese dritte Maschine ebenfalls über die gleichen Eigenschaften verfügt wie die erste, also selbst wiederum eine Beschreibung anderer Maschinen anzunehmen vermag bis hin zu einer Beschreibung ihrer selbst. Die dahinterstehende Idee ist es, die Tätigkeit eines Mathematikers in einer Maschine nachzubauen. Allgemein bekannt ist, daß mathematische Gedankengänge, nachdem sie formalisiert wurden, durch bloße typographische Operationen ausgedrückt werden können. Das ist augenscheinlich beim Rechnen auf Papier der Fall. Der Rechnende folgt hier nur noch exakten Anweisungen, wie zu verfahren ist, um zum gewünschten Ergebnis zu kommen, also einem Algorithmus. Der die universale Maschine entwerfende Turing verwandelt zunächst den menschlichen Rechnenden in eine »Papiermaschine« – damit ist ein Mensch gemeint, der eine Reihe von Instruktionen exakt und unbekümmert um deren Sinngehalt befolgt –, um dann diese nachbauen zu können. (Vgl. Turing c, 91) Eine reduktionistische Sichtweise des Menschen steht also am Beginn der universellen Maschine. Die Turingmaschine formalisiert und automatisiert einen bestimmten Tätigkeitsbereich des menschlichen Denkens, den Bereich nämlich, der sich in logischen und mathematischen Formeln ausdrücken läßt.

Zugleich wies Turing auch die Grenzen solcher Maschinen nach: Es ist nicht möglich, für jede bestimmte Maschine festzustellen, ob sie zu irgendeinem Zeitpunkt zu einem Ende ihrer Berechnungen kommt und stehenbleibt oder ob sie ad infinitum, in unendlichem Regreß weiterläuft. Oder, was dasselbe ist: Es gibt keinen Algorithmus, mit dem sich für jeden beliebigen Algorithmus feststellen läßt, ob dieser zu einer Lösung führt oder nicht. Man muß den Algorithmus ausführen bzw. die Maschine laufen lassen. Wenn sie irgendwann hält, weiß man, daß der Algorithmus zu einer Lösung führt. Falls nicht, läßt sich keine Aussage treffen: Vielleicht wird sie morgen halten, vielleicht in einem Jahr, vielleicht in 2000 Jahren – vielleicht niemals. Das ist das sogenannte »Entscheidungs-« bzw. »Halteproblem«. Mit Turings Arbeit war der Nachweis gegeben, daß die von Hilbert aufgeworfene Frage: Kann für einen beliebigen Ausdruck in der Prädikatenlogik bestimmt werden, ob es sich um eine allgemeingültige Aussage handelt oder nicht?, – daß dieses Entscheidungsproblem keine Lösung haben kann. (Vgl. Turing b, 52 ff.)

Was kann nun aber eine solche universale Turingmaschine leisten? Turing (und kurz vor ihm Alonzo Church)* »Es ist möglich, eine einzige Maschine zu erfinden, die dazu verwendet werden kann, jede berechenbare Folge zu berechnen.« (Turing b, 31) wies nach, daß sie jedes vorstellbare mathematische Problem zu lösen vermag, sofern dieses auch durch einen Algorithmus gelöst werden kann.* Umgekehrt ist damit zugleich der Algorithmus begrifflich definiert: Als Algorithmus kann jedes Verfahren bezeichnet werden, das umstandslos mittels einer Turingmaschine realisiert werden kann.* Wir befinden uns hier in einem logischen Zirkel:* »Nach meiner Definition ist eine Zahl berechenbar, wenn ihr Dezimalausdruck von einer Maschine niedergeschrieben werden kann.« (Turing b, 19) ein Algorithmus ist etwas, das in den Begriffen einer Turingmaschine beschrieben werden kann und umgekehrt. (Vgl. Weizenbaum, 94) Der Begriff läßt sich nicht mathematisch fassen, da er das Wort »umstandslos« enthält, sondern bloß historisch erklären: Er entstammt der menschlichen Praxis der Industrialisierung und Maschinisierung, mithin der fortschreitenden Enteignung des lebendigen Produktionswissens der Produzenten; in ihm kristallisiert sich Herrschaft.

Diese enge Verflechtung zwischen Maschine und industrieller Vergesellschaftung ermöglicht umgekehrt die Beschreibung der kapitalistischen Gesellschaftsordnung als kybernetische Maschine, wie sie etwa von Stefan Meretz gegeben wird. (Vgl. Meretz, 25 ff.; auch Gorz, 96) Mit der fortschreitenden Kalkülisierung der gesellschaftlichen Beziehungen und der Produktion vollzieht sich die fortschreitende Kalkülisierung des wissenschaftlichen Denkens.

Die schwarze Utopie des Kapitals scheint heute in greifbare Nähe gerückt. Der Computer stellt eine universelle Maschine dar, die prinzipiell in der Lage ist, jede andere Maschine in Software nachzubilden. Software stellt somit die vollständige Virtualisierung des Produktionsprozesses in Aussicht. Wie es Alan Turing, der Entdecker dieser Universalität formuliert hat: »Das technische Problem der Herstellung verschiedener Maschinen für verschiedene Zwecke ist ersetzt durch die Schreibarbeit, die Universalmaschine für diese Aufgabe zu »programmieren«.« (Turing c, 88) Alles, was Wissenschaft und Technik mathematisch-eindeutig zu formulieren wissen, ist in Software darstell- und berechenbar. »Die Programmierung ist reine Schreibarbeit.« (Turing c, 90)

Dem Einwand, die wirkliche Maschine, der Computer sei ja immerhin noch in Hardware vorhanden und somit materiell, ist zu entgegnen, daß die Trennung in dieser Eindeutigkeit wohl nicht mehr haltbar ist. Es ist ja das wesentliche Prinzip einer universalen Maschine, daß sie jede andere, also auch jede andere universale Maschine, emulieren kann. Das heißt aber auch: Jeder Computer kann prinzipiell jeden anderen Computer nachbilden. In modernen Computersystemen wird davon auch reichlich Gebrauch gemacht. Kaum etwas wird noch in der eigentlichen Maschinensprache (jenem Wechsel von Zuständen, der gewöhnlich als unverständliche Folge von Nullen und Einsen dargestellt wird) programmiert, stattdessen werden sogenannte Hochsprachen benutzt, die allgemeinere Konstruktionen ermöglichen und prinzipiell unabhängig von der unterliegenden Hardware sind. Ein sogenannter Compiler erzeugt dann den maschinenverständlichen Binärcode, manchmal wird der Code auch zur Laufzeit des Programms interpretiert und in Maschinensprache übersetzt. Auch diese Hochsprachen sind in der Regel selbst universal, d. h. in ihnen könnte etwa wieder eine Simulation eben dieser Maschine implementiert werden, in der eine in der nämlichen Hochsprache implementierte Simulation der Maschine läuft usw.

Ein Beispiel für die enorme Komplexität gegenwärtiger Softwareentwicklung stellt der in jüngster Zeit starke Trend zu einem Mix aus Compiler- und Interpretertechniken dar (etwa bei Suns »Java«, Microsofts ».Net« oder der Freien Software »Perl 6«): Der Quelltext der Programme wird in einer ersten Stufe in einen speziellen Maschinencode für eine »virtuelle Maschine« kompiliert, der so entstandene »Byte-Code« dann von der virtuellen Maschine (die ja auch nur ein Programm darstellt) gewissermaßen interpretiert.

Die Universalität drückt sich auch darin aus, daß die Grenze zwischen Soft- und Hardware nicht nur von der virtuellen Maschine aufgehoben wird, sondern bereits im Prozeß moderner Prozessorentwicklung verschwimmt. Heute gängige Mikroprozessoren sind hochintegriert und in ihren Strukturen derart klein, daß sie nicht mehr von Hand entworfen werden können. In speziellen Sprachen wird der logische Entwurf einer CPU programmiert, und ein Hochleistungsrechner erzeugt das »Routing« der Leiterbahnen, das heißt er sucht eine optimale Anordnung mit möglichst wenig Transistoren sowie minimaler Verlustleistung zu ermitteln. So kompiliert ist der neue Prozessor sowohl als testfähige virtuelle Maschine wie als »Bauanleitung« verfügbar. Das Layout der Leiterbahnen der CPU fällt folgerichtig auch unter das Urheberrecht, während der geistige Eigentumsschutz von Hardware ja üblicherweise vom Patentrecht abgedeckt wird.

Die Grenze zwischen Soft- und Hardware ist also nicht mehr wirklich trennscharf.

Künstliche Intelligenz

Nach Gödels und Turings Arbeiten mußte der programmatische Versuch der Darstellung der ganzen Welt in einem formalen System also als gescheitert gelten, und mit ihm der totalitäre Anspruch, die Welt durch Technik umfassend beherrschbar zu machen. Wahrheit geht nicht in Beweisbarkeit auf. Der Wiener Kreis gab denn auch konsequenterweise den Anspruch einer umfassenden Systematik auf und setzte an deren Stelle die Enzyklopädie, das heißt ein als Suchbewegung, als unabschließbaren offenen Forschungsprozeß begriffenes Wissen. Dieser Wandel fiel freilich in die Phase seiner erzwungenen Auflösung durch Emigration. Sicherlich ist die Kritische Theorie nicht ganz unschuldig daran, daß der vom Wiener Kreis formulierte Positivismus in den Geruch einer bloß affirmativen Theorie geraten ist, die einschlägigen Stellen insbesondere von Max Horkheimer sind ja hinlänglich bekannt. Neurath hingegen warf etwa Karl Popper einen Pseudorationalismus der Falsifikation vor, da dieser »sich für das System als Paradigma entschieden (hat) (...), das aus sauberen Sätzen aufgebaut ist« (Neurath a, 140), »gewissermaßen in Anlehnung an den Laplaceschen Geist, nach einem einzigen ausgezeichneten System von Sätzen, als dem Paradigma aller Realwissenschaften.« (Neurath a, 132)

Nebenbei sei erwähnt, daß nicht nur die den Modell-Enzyklopädien zugrundeliegenden Sätze und Annahmen zur Disposition standen. Verschiedene Wissenschaftler, unter anderem Hans Reichenbach, Hilary Putnam und Willard Van Ornam Quine, erwägten gar die in die Theorie eingebauten Grundprinzipien der Logik und Mathematik selbst einer Revision zu unterziehen. (Vgl. Hempel)

Doch obwohl Turing selbst nicht unwesentlich zum Zusammenbruch des Hilbert-Programms beigetragen hatte mit seinem Nachweis der Grenzen möglicher Berechenbarkeit, war er vollkommen in der reduktionistischen Betrachtungsweise des Menschen gefangen. Nachdem die große Maschinerie und das Industriesystem die letzten Reste des eigenständigen Denkens endgültig von der Handarbeit geschieden und den Intellekt in die Logik des Systems und somit in die Maschine gebannt hatte, schien diese Entwicklung nun mit der Mechanisierung noch der Kopfarbeit vollendet. Der Mensch hatte sich durch Maschinen fungibel gemacht, die ihn früher oder später ersetzen würden. 1947, in einem Vortrag über die Automatic Computing Engine (ACE), einen neuen Digitalrechner, skizzierte Turing die von ihm erwarteten Auswirkungen auf menschliche Rechner und Mathematiker:

»Grob gesagte werden jene, die in Verbindung mit der ACE arbeiten, eingeteilt in ihre Herren und ihre Knechte. Ihre Herren werden Befehlslisten für sie ausarbeiten, immer weitere Möglichkeiten ihres Gebrauchs ersinnen. Ihre Knechte werden sie mit Lochkarten füttern, wie sie danach verlangt. Sie werden alle Teile richten, die falsch laufen. Sie werden die Daten zusammentragen, die sie wünscht. Tatsächlich werden die Knechte den Platz der Gliedmaßen einnehmen. Mit der Zeit wird der Rechner selbst die Funktionen sowohl der Herren als auch der Knechte übernehmen. Die Knechte werden ersetzt durch mechanische und elektrische Glieder und Sinnesorgane. (...) Für die Herren steht die Ersetzung an, weil man, sobald eine Technik stereotypisiert ist, ein System von Befehlslisten entwickeln kann, die den Elektronenrechner in die Lage versetzen, sie selbst auszuführen. Es mag jedoch geschehen, daß sich die Herren dem widersetzen werden. Sie mögen nicht willens sein, ihrer Jobs auf diese Weise durch sie beraubt zu werden. In diesem Fall würden sie ihre ganze Arbeit mit Mysterien umkleiden und in erwähltem Quatsch formulierte Ausreden erfinden, wann immer irgendein gefährlicher Vorschlag gemacht würde. Ich glaube, daß eine Reaktion dieser Art eine sehr reale Gefahr ist. Dieser Punkt führt natürlich auf die Frage, inwieweit es einer Rechenmaschine im Prinzip möglich ist, menschliche Tätigkeiten zu simulieren.« (Turing e, 204)

Bereits zu Beginn der Entwicklung des modernen Digitalrechners stellt sich seinen Erfindern die Frage nach der Maschinenintelligenz aus der Logik der Sache heraus, und diese Logik ist eben die aus der der industriellen Entwicklung zugrundeliegende kapitalistische Verwertungslogik, die, obgleich die lebendige Arbeit doch ihren einzigen Wertmaßstab bildet, diese doch durch tote zu ersetzen und jede menschliche Tätigkeit in die Maschine zu bannen trachtet. So ist Turing ein Apologet der Künstlichen Intelligenz, und der von ihm 1950 in einem Aufsatz mit dem programmatischen Titel Computing Machinery and Intelligence (Deutsch: Turing d) entwickelte und nach ihm benannte Turingtest gilt heute, mehr als 50 Jahre nach seiner Formulierung, immer noch als Prüfstein, ob einer Maschine Intelligenz zugeschrieben werden kann oder nicht. Turing selbst erwartete, daß bis zum Jahr 2000 ein Programm existieren werde, daß 30 % aller Fragesteller in einem auf fünf Minuten beschränkten Test erfolgreich menschliche Intelligenz vorspielen könne. Trotz aller Fragwürdigkeit der diesem Test zugrundeliegenden Annahmen: Bis heute hat noch kein Programm diesen Test bestanden.

Die Artifizielle Intelligenz hat sich dazu verstiegen, ein vollständiges Modell der Welt implementieren zu wollen. So möchte etwa John McCarthy, der 1962 das Stanforder Institut für Künstliche Intelligenz gegründet hat, die gesamte Realität in einem logischen System formalisieren: »Der einzige Grund dafür, daß es uns bisher nicht gelungen ist, jeden Aspekt der realen Welt zu simulieren, ist der, daß wir noch nicht über ein genügend leistungsfähiges Rechenprogramm verfügen. Ich arbeite zur Zeit an diesem Problem.« (BBC-Sendung, Zweites Programm vom 30. August 1973, zit. nach Weizenbaum, 266)

Das Ziel freilich ist nicht weniger als die Abschaffung des Menschen und seine Ersetzung durch die Maschine. Der auch in der öffentlichen Debatte sehr engagiert für die Artifizielle Intelligenz eintretende Marvin Minsky vom MIT etwa sieht wie Hans Moravec in der Entwicklung der Maschinenintelligenzen ein Fortschreiten der Evolution. Wir selbst werden uns sukzessive von den Beschränkungen der Körperlichkeit befreien können: »Am Ende wird es möglich sein, jedes Teil unseres Körpers und unseres Gehirns auszutauschen und damit alle Defekte und Beschädigungen zu reparieren, die unser Leben so kurz machen. Es versteht sich, daß wir uns dadurch in Maschinen verwandeln.« (Minsky, 83) Damit stellen sich natürlich auch neue ethische Probleme; wenn die Menschen weiterhin so ungehemmt rumrammeln wie bisher, ist die Erde bald hoffnungslos überfüllt: »Wie viele Menschen sollten die Erde bewohnen? Welche Menschen sollten das sein? Wie sollten wir den zur Verfügung stehenden Raum aufteilen? Ganz offensichtlich müssen wir unsere Vorstellungen über die Erzeugung weiterer Nachkommen revidieren. Eine Persönlichkeit entsteht heute durch ein zufälliges Zusammentreffen zweier Erbanlangen. Eines Tages könnte sie hingegen nach sorgfältig bedachten Wünschen planvoll zusammengesetzt werden.« (Minsky, 86) In diesen wilden Phantasien der Artifiziellen Intelligenz zeigt sich die Affinität von Wissenschaft und kapitalistischer Produktionsordnung. Die natürliche Faktizität des Lebens soll durch Maschinenmenschen und Menschmaschinen ersetzt werden. (Vgl. Gorz, 99 ff.) Diese Gedanken finden ihre Ergänzung in den Äußerungen des 1991 verstorbenen Bioethikers und Harvard-Professors Joseph Fletcher: »Wir stellen fest, daß der Uterus ein dunkler und gefährlicher Ort ist, eine Region voller Gefahren. Es muß unser Wunsch sein, daß unsere potentiellen Kinder sich an einem Ort befinden, wo sie sich so gut wie möglich überwachen und beschützen lassen können.« (Zit. nach Gorz, 99)

Freie Software

Es entbehrt nicht einer gewissen Ironie, daß ausgerechnet in den Labors für Künstliche Intelligenz der Herren Minsky und McCarthy am Massachusetts Institute of Technology in Cambridge bzw. an der Stanforder Universität mit der Hackerkultur jene »Dissidenten des digitalen Kapitalismus« (Gorz) entstanden sind (vgl. Levy), deren Praxis kollektiver Produktion gesellschaftliche Verhältnisse einführt, die eine praktische Negation der Kapitalverhältnisse bedeuten. Aus der Hackerkultur heraus entstand die Freie Software, aber auch die Architektur des Internet wurde wesentlich durch sie bestimmt. Diese Bewegung hat André Gorz im Auge, wenn er schreibt:

»Der Wissenskapitalismus erzeugt in sich und aus sich heraus die Perspektive seiner möglichen Aufhebung. In seinem Innersten keimt ein kommunistischer Kern, eine »real existierende anarcho-kommunistische Ökonomie des Gebens«, wie sie Richard Barbrook nannte, die dem Kapital die strategisch sensiblen Bereiche der Ausrichtung und Zugänglichkeit von Wissen streitig macht. Es handelt sich nicht um reine Vision. Es handelt sich um eine Praxis, die auf höchstem Niveau von Menschen entwickelt wurde, ohne deren kreativen Kommunismus der Kapitalismus nicht mehr auskommen könnte.« (Gorz, 76 f.)

Die Industrialisierung nahm ihren Ausgangspunkt in der Entwicklung der Leichtindustrie und verlagerte ihren Schwerpunkt in Richtung der Schwerindustrie. Die sogenannte »Dritte Industrielle Revolution«, die durch die Erfindung des Mikrochips eingeleitet wurde, kann in ihrer vollen Tragweite nun gewissermaßen als »Virtualisierung der Schwerindustrie« begriffen werden. Selbstverständlich müssen weiterhin materielle Güter produziert werden. Die Zweite Industrielle Revolution übertrug das Produktionswissen auf die Arbeitsmaschine, die Dritte auf die universale Maschine. Als digitale Information ist das Wissen praktisch jedes stofflichen Trägers entledigt und als Code zudem sofort realisierbar. Doch das virtuelle Wissen ist prinzipiell nicht mehr dem Wertgesetz unterworfen. Denn die Knappheit eines Guts ist Voraussetzung seiner Werthaltigkeit – allseitig frei verfügbare Güter lassen sich nicht verkaufen. Denn Wissen ist grundsätzlich nicht dazu geeignet, als Ware behandelt zu werden. Nicht nur, daß seine Vervielfältigungskosten gegen den Herstellungspreis seines Trägers tendieren, und damit im Falle digitaler Informationen gegen Null. Auch sind seine Gestehungskosten oftmals unbestimmbar. Neues Wissen läßt sich nicht auf einfache Arbeit zurückführen, der Prozeß seiner Neuschöpfung ist eben nicht algorithmisierbar. Aus gutem Grund bildet seit dem Mittelalter auch der mit der Herausbildung der Universitäten entstandene »Wissenskommunismus der Wissenschaften« (Robert K. Merton) eine Grundbedingung des Funktionierens des Kapitalismus. (Vgl. Gorz, 77) Er stellt einen jener positiven externen Effekte dar, die als Produktivkräfte wirken und die die Wertmaschine zu ihrem Funktionieren benötigt, die jedoch selbst nicht der unmittelbaren Logik der Verwertbarkeit unterliegen dürfen. Diese positiven Externalitäten sind gemeinnützige Ergebnisse des Zusammenlebens und des allgemeinen Verkehrs; zu ihnen zählen Alltagswissen und -kultur, aber auch Kommunikationsweisen und -regeln. Sie bilden für das Kapital eine unerschöpfliche Ressource, die ihm unentgeltlich zur Verfügung steht.

Auch das sogenannte »Wissenskapital« gehört also zu diesen Externalitäten. Das gewissermaßen Tragische daran ist jedoch, das es per defininionem gar kein Kapital sein kann. Nur dadurch, daß es für alle leicht zugänglich gemacht und geteilt wird, wird es zur Quelle weiteren Wissens und damit zu gesellschaftlichem Reichtum. (Vgl. Gorz, 60)

Die »zweite« Ökonomie der positiven Externalitäten ist eben eine nicht formalisierbare Ökonomie. Bezeichnenderweise gelten der bürgerlichen ökonomischen Theorie externe Effekte als Ausdruck von Marktversagen. Einzel- und volkswirtschaftliche Kostenrechnungen ökonomischer Aktivitäten stimmten nicht überein, es komme zu einer Fehlallokation der Ressourcen. Die dem Kapital eigene Tendenz, sich jeden Bereich unterwerfen zu wollen und die lebendige Arbeit vollkommen zu verdrängen, führt zur größten Krise der kapitalistischen Wertmaschine, zu ihrer Wesenskrise. Der Wissenskapitalismus ist die Krise der kapitalistischen Gesellschaft selbst, (vgl. Gorz, 66) denn wenn diese zweite, nicht quantisierbare Ökonomie zur Grundlage der ersten wird, dann kann der in einem Produkt kristalliserte Wert nicht mehr bemessen werden – und damit steht das Wesen des Wertes selbst in Frage. (Vgl. Gorz, 32 ff.)** »Es ist unmöglich, formalisierte Kenntnisse auf eine gemeinsame meßbare gesellschaftliche Wertsubstanz zu reduzieren, die allein eine Bestimmung ihres Äquivalenzverhältnisses erlauben könnte. Ein Markt von formalen Kenntnissen, auf dem diese nach Tauschwert gehandelt würden, ist unvorstellbar. Da sie sich nicht in Werteinheiten messen lassen, ist ihre Bewertung ebenso problematisch wie die Bewertung von Kunstwerken.« (Gorz, 33 f.)

Genau diesen Antagonismus meinte Marx, als er in den Grundrissen das Kapital selbst als den prozessierenden Widerspruch bezeichnete:

»Nach der einen Seite hin ruft es [das Kapital] also alle Mächte der Wissenschaft und der Natur wie der gesellschaftlichen Kombination und des gesellschaftlichen Verkehrs ins Leben, um die Schöpfung des Reichtums unabhängig (relativ) zu machen von der auf sie angewandten Arbeitszeit. Nach der andren Seite will es diese so geschaffnen riesigen Gesellschaftskräfte messen an der Arbeitszeit und sie einbannen in die Grenzen, die erheischt sind, um den schon geschaffnen Wert als Wert zu erhalten. Die Produktivkräfte und gesellschaftlichen Beziehungen – beides verschiedene Seiten der Entwicklung des gesellschaftlichen Individuums – erscheinen dem Kapital nur als Mittel und sind für es nur Mittel, um von seiner bornierten Grundlage aus zu produzieren. In fact aber sind sie die materiellen Bedingungen, um sie in die Luft zu sprengen.« (Marx c, 602)

Die fortschreitende Maschinisierung und Automatisierung – oder, was dasselbe ist – Informatisierung des Produktionsprozesses führt zur Verwandlung materieller Produktionsarbeit in eine »Verwaltung ununterbrochener Informationsflüsse«. (Gorz, 18) Wenn die formalisier- und quantifizierbare Arbeitsleistung jedoch nicht mehr die zentrale Rolle spielt, muß sich notwendigerweise die Form der Arbeit wandeln. Es sind die sogenannten sekundären Qualitäten, die nunmehr an der Arbeit geschätzt werden, die Eloquenz, Innovativität, Teamfähigkeit des Arbeiters, sein Vermögen, sich neuen Situationen anzupassen und angemessen zu reagieren, etc. Der ganze Mensch gerät so in die Mühle der Wertmaschine, Arbeit wird so tendenziell wieder zu einem Dienst, »einem servicium, obsequium, welcher der Person des Lehnsherren in der vormodernen Gesellschaft geschuldet war.« (Gorz, 19)

Der Arbeiter ist angehalten, sich stetig selbst als Humankapital zu produzieren. Alle seine Lebenstätigkeit ist, dieser Logik zufolge, dem Zweck der Selbstproduktion als verwertbarem Wert unterworfen. Jeder Theaterbesuch, jedes Musizieren, jedes gelesene Buch, jede soziale Aktivität soll der Erhöhung der eigenen Werthaltigkeit dienen. Es liegt im Geist dieser Logik, wenn, wie Otto Meyer in einer der jüngsten Ausgaben des Ossietzky berichtet, einem Hartz-IV-Empfänger vom ARGE-Berater die Kürzung der Unterstützungsleistungen angedroht wird, da das politische Engagement für die WASG ein für seine Bewerbungsbemühungen abträgliches Unterfangen sei. (Meyer)

Doch gerade während und weil die Unternehmen den ganzen Menschen mitsamt seiner Kreativität und Spontaneität verlangen und als Humankapital zu integrieren suchen und die klassische Arbeitskraft immer mehr den Hintergrund gedrängt wird, verweigern sich die Menschen und suchen sich in Nischen dem Verwertungszwang zu entziehen bei Aktivitäten, in denen ihr Sich-Selbst-Produzieren wieder Selbstzweck ist. (Vgl. Gorz, 24)

Und in einer Zeit, in der die andere, zweite, unsichtbare Ökonomie immer mehr zum Lebensquell der ersten wird, kann eine solche schöpferische Selbsttätigkeit eine zuvor ungeahnte Wirkmächtigkeit entfalten. Denn die ökonomischen Entwicklungen, die die formale Arbeit immer mehr entwerten, schaffen auch die Bedingungen, die eine andere Form der Produktion ermöglichen, wie sich exemplarisch in der Bewegung der Freien Software zeigt.

Das zentrale Produktionsinstrument bilden der Computer und die durch ihn vermittelte weltweite Vernetzung. Der Computer ist ein universales und universal zugängliches Werkzeug, ein »tool for conviviality«, wie Ivan Illich sagte. (Vgl. Illich) Die Produzenten sind nicht mehr von den Produktionsmitteln getrennt. Im Internet, in virtuellen Gemeinschaften finden sie sich zusammen, um an ihren Softwareprodukten zu arbeiten, die – das sei versichert – die Qualität der proprietären, geschlossenen Pendants oftmals übertreffen. Auch wird die Trennung zwischen Konsument und Produzent aufgehoben: Der User ist aufgefordert, selbst aktiv zu werden: es ist sein Programm, er darf es verändern, er soll es verändern. Dies ist freilich eine gänzlich andere Herangehensweise, als das entmündigende Verstecken der Komplexität der Universalmaschine Computer, wie sie von der Softwareindustrie betrieben wird. Die allgegenwärtige Regression durch grafische Benutzeroberflächen, das dahingestammelte »Da Da Da«, mit der der auf den Bewußtseinsstand des Säuglings regredierte moderne Mensch, die Maus als Zeigefingerersatz, sich seiner eigenen Kreation, der universellen Maschine, nur noch mit dem Bewußtsein des Unmittelbaren zu nähern vermag, sind auch Zeichen der Entmündigung des Menschen. Das Versprechen, das, kaum war die Angst vorm allmächtigen »Big Brother« überwunden, sich in der 1984 von Steven Levy formulierten Hackerethik fand: »Computer können dein Leben zum besseren verändern«, droht vergessen zu werden, und der allmächtige Big Brother in Gestalt des neuen Monopols, ob es nun Microsoft oder Sun oder Apple oder anders heiße, Herr über das gestiftete Chaos zu werden.

Die Produkte der freien Software indes beeindrucken bereits allein durch ihren Umfang: Die freie grafische Benutzeroberfläche KDE besteht aus ca. 4.000.000 Codezeilen, etwas mehr als der Linux-Kernel. Sie sind aufgrund ihrer Offenheit extrem portabel, die freie Linux-Distribution Debian unterstützt gegenwärtig offiziell 11 Prozessorarchitekturen (inoffiziell noch mehr), Linux selbst 17. Zum Vergleich: Microsoft hat für sein Windows-Betriebssystem die ursprüngliche Unterstützung der Alpha-Prozessoren für DECs Alpha-Prozessoren aufgegeben, zeitweilig wurde nur Intels x86-Architektur unterstützt. Mittlerweile gibt es Versionen für die 64 Bit-Prozessoren von Intel und AMD.

Die freie Enzyklopädie Wikipedia, 2001 gestartet, enthält in ihrer englischen Version bereits über 600.000 Artikel. Die deutsche Fassung, die zweitgrößte in der Wikipedia-Community, konnte gerade gestern den 300.000. Artikel feiern. Jeder Benutzer ist eingeladen, an der Enzyklopädie mitzuarbeiten; wenn ein Leser einen Fehler in einem Artikel findet oder diesen zu ergänzen weiß, kann er dies auf der Stelle tun, seine Verbesserung steht danach sofort allen anderen Benutzern zur Verfügung. Moderatoren wachen über diese Veränderungen, so soll Online-Vandalismus vorgebeugt werden. Genauso leicht, wie eine Veränderung vorzunehmen ist, ist sie auch wieder rückgängig zu machen.

Doch brauche ich an dieser Stelle nicht auf die Vielfältigkeit und Qualität freier Software eingehen, das hat Stefan Meretz ja bereits getan.

Ich möchte nur noch einem Einwand begegnen, der häufig gegen den »hobbyistischen Charakter« der Freien Software gemacht wird: Programmierer von Freier Software seien häufig junge Leute, in Ausbildung befindlich, Studenten zumeist. Entsprechend sei die Qualität ihrer Produkte: Schnell zusammengepfuscht, ein wilder Hack, der im Moment funktioniere, doch ohne jede theoretische Fundierung und damit Substanz. Daß dies auf viele Programme zutrifft, sei unbestritten. Jeder Programmierer braucht Fingerübungen, also auch jeder Programmierer Freier Software – aber auch jeder, der proprietär programmiert. Und die Offenheit des Codes hilft schnell, die Spreu vom Weizen zu trennen.

Und auch wenn Untersuchungen die relative Jugend der Programmierer Freier Software feststellen: Die Geschichte Freier Software zeigt, daß diese mit ihrem Programm wachsen und mitgehen. Projekte, die im Zentrum der öffentlichen Aufmerksamkeit stehen wie etwa Linux oder das KDE-System sind vergleichsweise jung und damit auch ihre Programmierer. Wenn man andere Projekte betrachtet, wird man andere Altersstrukturen finden. Das Apache-Projekt, XFree, die freien BSD-Systeme werden von Entwicklern betreut, die mit beiden Beinen fest im Berufsleben stehen, wie man so schön sagt. Und manche von ihnen stehen nur nicht im Berufsleben, weil sie bereits pensioniert sind. Im Falle des von Mitte der 70er bis Mitte der 80er Jahre des letzten Jahrhunderts von Donald Knuth von der Stanforder Universität entwickelten Textsatzsystems TeX dürfte der Alterdurchschnitt der sehr aktiven internationalen Entwicklergemeinde bei über 40 Jahren liegen.

Schließen möchte ich mit einem Zitat aus der Deutschen Ideologie:

»Alle früheren revolutionären Aneignungen waren borniert; Individuen, deren Selbstbetätigung durch ein beschränktes Produktionsinstrument und einen beschränkten Verkehr borniert war, eigneten sich dies beschränkte Produktionsinstrument an und brachten es daher nur zu einer neuen Beschränktheit. Ihr Produktionsinstrument wurde ihr Eigentum, aber sie selbst blieben unter der Teilung der Arbeit und unter ihr eignes Produktionsinstrument subsumiert. Bei allen bisherigen Aneignungen blieb eine Masse von Individuen unter ein einziges Produktionsinstrument subsumiert; bei der Aneignung der Proletarier müssen eine Masse von Produktionsinstrumenten unter jedes Individuum und das Eigentum unter alle subsumiert werden. Der moderne universelle Verkehr kann nicht anders unter die Individuen subsumiert werden als dadurch, daß er unter alle subsumiert wird.« (Marx a, 479)

Literatur

(Carnap): Carnap, Rudolf; Hahn, Hans und Neurath, Otto: Wissenschaftliche Weltauffassung – der Wiener Kreis (1929). In: Otto Neurath, Wissenschaftliche Weltauffassung, Sozialismus und Logischer Empirismus. Hrsg. v. Rainer Hegselmann. Frankfurt am Main: Suhrkamp, 1979, S. 81–101.

(Gödel): Gödel, Kurt: Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme I. In: Monatsheft für Mathematik und Physik, 38 1931, S. 173–198.

(Gorz): Gorz, André: Wissen, Wert und Kapital. Zur Kritik der Wissensökonomie. Zürich: Rotpunkt, 2004.

(Hempel): Hempel, Carl Gustav: Der Wiener Kreis und die Metamorphosen seines Empirismus. In: Das geistige Leben Wiens in der Zwischenkriegszeit. Hrsg. v. Norbert Leser. Wien: Österreichischer Bundesverlag, 1981, S. 205–215.

(Illich): Illich, Ivan: Selbstbegrenzung. Eine politische Kritik der Technik. Reinbek bei Hamburg: Rowohlt, 1980.

(Kowalski): Kowalski, Robert: Algorithm = Logic + Control. In: Communications of the ACM, 22 1979, Nr. 7, S. 424–436.

(Levy): Levy, Steven: Hackers. Heroes of the Computer Revolution. London u. ö.: Penguin Books, 1994.

(Marx a): Marx, Karl, Engels, Friedrich und Heß, Moses: Die deutsche Ideologie. Erster Band: Kritik der neuesten deutschen Philosophie in ihren Repräsentanten Feuerbach, B. Bauer und Stirner. In: Die Frühschriften. Hrsg. v. Siegfried Landshut. 7. Aufl., neu eingerichtet von Oliver Heins und Richard Sperl. Stuttgart: Kröner, 2004, S. 405–554.

(Marx b): Marx, Karl: Das Kapital. Kritik der politischen Ökonomie. Erster Band. Buch I: Der Produktionsprozeß des Kapitals. Berlin (Ost): Dietz-Verlag, 1962, MEW Bd. 23.

(Marx c): Marx, Karl: Grundrisse der Kritik der politischen Ökonomie. Berlin (Ost): Dietz-Verlag, 1983, MEW Bd. 42.

(Meretz): Meretz, Stefan: Linux & Co. Freie Software – Ideen für eine andere Gesellschaft. Neu-Ulm: AG SPAK, 2000.

(Meyer): Meyer, Otto: Die Freiheit eines Hartz-IV-Empfängers. In: Ossietzky. Zweiwochenschrift für Politik, Kultur, Wirtschaft, 3. September 2005, Nr. 18, S. 643–644 (online)

(Minsky): Minsky, Marvin: Werden Roboter die Erde beherrschen? In: Spektrum der Wissenschaft, 1994, Spezial Nr. 3: Leben und Kosmos, S. 80–86.

(Neurath a): Neurath, Otto: Pseudorationalismus der Falsifikation (1935). In: Otto Neurath, Wissenschaftliche Weltauffassung, Sozialismus und Logischer Empirismus. Hrsg. v. Hegselmann, Rainer. Frankfurt am Main: Suhrkamp, 1979, S. 132–144.

(Neurath b): Neurath, Otto: Die Utopie als gesellschaftstechnische Konstruktion (1938). In: Otto Neurath, Wissenschaftliche Weltauffassung, Sozialismus und Logischer Empirismus. Hrsg. v. Rainer Hegselmann. Frankfurt am Main: Suhrkamp, 1979, S. 235–241.

(Turing a): Turing, Alan M.: On Computable Numbers with an Application to the Entscheidungsproblem. In: Proceedings of the London Mathematical Society, Second Series, 42 1936, S. 230–265.

(Turing b): Turing, Alan M.: Über berechenbare Zahlen mit einer Anwendung auf das Entscheidungsproblem. In: Alan M. Turing, Intelligence Service. Hrsg. v. Dotzler, Bernard und Kittler, Friedrich. Berlin: Brinkmann & Bose, 1987, S. 17–60.

(Turing c): Turing, Alan M.: Intelligente Maschinen. In: Intelligence Service, S. 81–113.

(Turing d): Turing, Alan M.: Rechenmaschinen und Intelligenz. Intelligence Service, S. 147–182.

(Turing e): Turing, Alan M.: The State of the Art. Vortrag vor der London Mathematical Society am 20. Februar 1947. In: Intelligence Service, S. 183–233.

(Weizenbaum): Weizenbaum, Joseph: Die Macht der Computer und die Ohnmacht der Vernunft. Frankfurt am Main: Suhrkamp, 1977.


Der Vortrag ist in überarbeiteter Fassung erschienen in: Marcus Hawel und Gregor Kritidis (Hrsg.), Aufschrei der Utopie. Möglichkeiten einer anderen Welt. Hannover: Offizin, 2006.


www.cacert.org
© 2008 Oliver Heins <olli@sopos.org>
GnuPG-Key: https://sopos.org/pgp/olli.asc
GnuPG-Fingerprint: F27A BA8C 1CFB B905 65A8 2544 0F07 B675 9A00 D827
Letzte Änderung dieser Seite: Mittwoch, 6. August 2008, 23:10.