Volker Friedrich (Editor) - Technik Denken - Philosophische Annäherungen. Festschrift Für Klaus Kornwachs-Franz Steiner Verlag (2018)
Volker Friedrich (Editor) - Technik Denken - Philosophische Annäherungen. Festschrift Für Klaus Kornwachs-Franz Steiner Verlag (2018)
Technik
denken
Philosophische
Annäherungen
Festschrift für
Klaus Kornwachs
Philosophie
Technik denken
Philosophische Annäherungen
Klaus Wiegerling
Zur Anthropologie des körperlich aufgerüsteten Menschen.
Auswirkungen der technischen Aufrüstung des menschlichen Körpers
auf unser Selbst- und Weltverständnis............................................................. 115
Heinz–Ulrich Nennen
Das Prometheus-Projekt und die Mitgift der Pandora ..................................... 127
Volker Friedrich
I. PHILOSOPHIE DER TECHNIK:
KÖNNEN WIR BEGREIFEN, WAS WIR TUN?
TECHNOLOGY ≠ APPLIED SCIENCE,
AND INDUSTRY ≠ TECHNOLOGY
Mario Bunge
The popular press keeps the confusion of science with technology introduced by
Francis Bacon when he demanded a “philosophy of works” to replace the “philoso-
phy of words” of the schoolmen. That confusion was updated by Auguste Comte,
the founder of classical positivism, who coined the formula “Savoir pour pouvoir”.
It was also shared by the young Karl Marx in his famous Thesis XI, as well as by
his coworker and best friend Friedrich Engels, who mistook the utility criterion,
“The proof of the pudding is in the eating,” for the truth criterion used by scien-
tists, namely predictive power joined with compatibility with the bulk of antecedent
knowledge.
In recent years some philosophers have tried to disentangle technology from sci-
ence. In particular, we have learned that applied science must be interpolated bet-
ween basic science and technology. For example, pharmacology is the link between
biochemistry, a basic science, and the discipline in charge of drug design and drug
production. In fact, pharmacologists select a tiny fraction of the millions of possi-
ble molecules, namely those that may be turned into drugs through the so-called
translation process in charge of the pharmacologists working in the so-called la-
boratories attached to drug companies. These people, or the automated machines
they control, perform the myriad tests required to find out how those promising
molecules act on the receptors sitting on cellular membranes.
Schematically, this whole process looks like this:
Technologists proper start only at the last two phases: the pharmatechnologists de-
sign artifacts expected to produce drugs, and the chemical engineers working at
pharma industrial plants (popularly called “laboratories”) design, perfect, repair or
maintain the machinery that delivers the merchandise sold at pharmacies.
Let us review two stories that, though apparently unrelated, are relevant to our
problem: gravitational waves, and the cradle of the Industrial Revolution.
16 Mario Bunge
The detection of gravitational waves November of 2015, should have unfused sci-
ence from technology. Indeed, that sensational finding was a triumph of Einstein’s
basic or disinterested scientific research exactly one century earlier. True, the ex-
perimenters were helped by the civil engineers who participated in the realization
of the original design of the LIGO1 experimental installation, which involved two
huge interferometers and two 4,000 meters long vacuum tunnels.
What interests us is that what motivated this recent successful search was not
utility but sheer scientific curiosity – just as Aristotle had written. Indeed, the finding
in question has no foreseeable practical applications, if only because the energy of
the said waves is minute. Only the intervention of a few far-sighted bureaucrats
made it possible to round up and organize a body of nearly 1,000 specialists who
spent 1,100 million US dollars working on a project that culminated a search that
had yielded no results for nearly half a century.
What sustained the faith of the members of the LIGO team was that Einstein’s
prediction was part of his complex if beautiful theory of gravitation, other pre-
dictions of which had been empirically confirmed since 1919. That was the year
when the bending of star light by the Earth’s gravitational field was confirmed by
a team led by the astrophysicist Arthur Eddington. Since then, about 30 additional
“effects” predicted by the same theory have been corroborated.
In other words, the gravitational waves hypothesis, far from being isolated,
was firmly entrenched in one of the most important physical theories. In short, the
LIGO finding was sought and accepted largely because it had been predicted by a
successful theory. It killed two birds with one stone: the empiricist dogma that all
scientific inquiries originate in observation, and the pragmatist confusion of science
with technology.
If technology sufficed to beget modern industry, and if the latter were just applied
science, the Industrial Revolution (ca. 1760–1820) would have started in Paris, the
city of light, rather than in dark Manchester. In 1750 Paris, the second most popula-
ted European city, had 556,000 inhabitants, and was the seat of the largest and most
progressive scientific and humanistic communities in the world. It was the Mecca
of all the best scientists and the most popular writers. By contrast, Manchester had
hardly 20,000 inhabitants, though this number was multiplied by 10 in the course of
one century, while the Paris population only doubled in the same period.
Recall this small sample of French scientists active during the Industrial Revo-
lution: d’Alembert, Buffon, Condorcet, Lagrange, Laplace, and Lavoisier, to which
we should add a bevy of foreign visitors, such as Leonhard Euler, Alexander von
Humboldt, and Ben Franklin. The British scientific community of the same period
was no less brilliant: suffice it to recall Babbbage, Black, Cavendish, Davy, William
Herschel, Jenner, and Priestley. Foreign scientists visited Paris, not London, let
alone Oxford or Cambridge – which specialized in training parsons, and rejected
the entrance applications of John Dalton because he was a Quaker – the only Man-
cunian to leave a deep track on science: he was no less than the founder of atomic
chemistry.
More to the point, none of these eminent scientists was interested in machines,
so they made no significant contributions to the Industrial Revolution. The inven-
tors of the steam engine, the spinning jenny, the steam regulator, and the power
loom, were self-taught engineers like Cartwright, Hargreaves, Newman, and Watt.
The most ingenious artifacts were Vaucanson’s duck automaton and Jacquard’s pro-
grammable loom. Both inventions were fully exploited only two centuries later,
by the computer industry. And except for Vaucanson, none of these inventors was
interested in basic science, and none expected riches from their inventions.
Great riches came not from technology but from the manufacturing plants using the
new machines and financed by some venture capitalists, in particular some of the
merchants who had made huge fortunes in the slave trade. Thus, contrary to Marx’s
“law” of historical stages – slavery, serfdom, capitalism, and socialism – the slave
trade was flourishing during the period we are examining, and it contributed signifi-
cantly to the birth of industrial capitalism. The old was feeding the new.
Far from being generated only by technology, the industrial capitalism born
in Manchester and similar English towns had at least three inputs, as shown in the
following diagram:
Let us comment briefly on both the inputs and the outputs of this system. The new
technology made only a very small use of the new science born three centuries
earlier, as can be seen from the biographies of the inventors of the new machines.
Indeed, none of them had gotten the higher education required to understand the
new science: they were craftsmen rather than engineers. By contrast, labor was
superabundant and very cheap at the time. In fact, the salaries paid to the workers
in the English cotton mills for 14 hours a day just sufficed to keep them from star-
ving – about 20 pennies, or 10 kilograms of bread per day in 1740. (At the present
time, in the US, labor counts for less than 10 percent of the cost of an ordinary
merchandise.)
Capital too was plenty and cheap in Britain at the time of the Industrial Revo-
lution, for the slave trade was both intensive and extremely profitable. (The main
18 Mario Bunge
CONCLUSIONS
We have defended the theses that technologists and basic scientists pursue very dif-
ferent goals: whereas the former seek utility, the latter try to find new truths, and the
applied scientists focus on truths of possible practical utility. Still, the individuals in
all three camps are primarily motivated by curiosity. Further, advanced experimen-
tal observation in Big Science makes intensive use of high-tech, as in large-scale
automatic drug trial, neutrino detection, and black hole research. To indulge in Bi-
ble talk, let both Myriam and Martha do their jobs on the Lord’s vineyard. In other
words, we need both brain and hand. So, let us neither confuse them, nor regard one
of them as being higher than the other. They need one another, and Homo sapiens
needs them both to avoid becoming homo stultus.
However, we should try to keep making progress without exploiting anyone.
We no longer live in 1845, when the great Heinrich Heine empathized with the
suffering and struggling Silesian weavers, and prophesized
Altdeutschland, wir weben dein Leichentuch
(Old Germany, we weave your shroud.)
We have made much social progress since installing the welfare state in much of
the so-called West. But it is high time to complete the task started two centuries
ago by the social reformers who sought social justice – the balancing of duties with
Technology ≠ Applied Science, and Industry ≠ Technology 19
rights, and the control of technological progress to avoid its evil effects – massive
labor “redundancy”, ever more destructive wars, environmental degradation, and
dumbing entertainment. We should be able to paraphrase Heine, saying
Neuzeit, wir weben deine Windel.
(Modern times, we weave your nappies.)
TECHNOLOGISIERUNG UND PLURALISIERUNG –
EIN JANUSKOPF
Aus mehr oder minder einsichtigem aktuellem Anlass wird „Pluralismus“ in letzter
Zeit wieder häufiger diskutiert, und nach Auffassung von Klaus Kornwachs ist es
sogar evident, „dass der Begriff des Pluralismus an seine Grenzen stößt bei der
mittlerweile alltäglichen Bedrohung durch den Terrorismus als einer Form der po-
litischen, religiösen und zweifelsohne auch wirtschaftlichen Auseinandersetzung“1.
Dieser Ansicht soll, allerdings in Gestalt einer reflektierten Weiterführung, im Fol-
genden widersprochen werden.
Wenn Philosophie, wie Kornwachs meint, „die Aufgabe“ hat, „solche Grenzen
auszuloten“, dann mag es nämlich zunächst einmal umgekehrt auch zulässig sein,
die Verbindung zwischen diesem Grenzbegriff und demjenigen herzustellen, um
den das Denken von Kornwachs ebenso wie die ihm hier zugeeignete akademi-
sche Festgabe kreist: dem Begriff der Technik, den es immer wieder neu zu denken
gilt. Ohne zunächst explizit auf den von Kornwachs genannten konkreten Anlass
einzugehen, will ich als Post- (oder gar Anti-)Platoniker allerdings, um nicht der
in der abendländischen Philosophie hinter jeder Ecke lauernden Gefahr einer Sub-
stantialisierung zu erliegen, nicht über das Verhältnis von Pluralismus und Technik,
sondern über dasjenige von Pluralisierung und Technologisierung nachdenken, auf
diese Weise Whiteheads Ermahnung folgend, nie den Prozesscharakter der Realität
aus dem Blick zu verlieren.
Um das umzusetzen, soll in einem ersten Schritt mein ursprüngliches The-
orem des antiplatonischen Experiments bezüglich des Pluralismus sowie seine
Revision in Erinnerung gerufen werden (I), dem dann das Standardmodell der
philosophischen Reaktion darauf gegenübergestellt und um eine Analyse des
Prozesses der Digitalisierung erweitert werden soll (II). Der abschließende dritte
Schritt schließlich entwickelt – in Absetzung von Popper – ein erweitertes Kon-
zept einer „Drei-Welten“-Lehre, das ein neues Feld philosophischer Erforschung
virtueller Realität und zudem eine neue ontologische Dimension von Pluralismus
erschließt (III).
1 Kornwachs, Klaus: Kann man mit Terroristen reden? In: Wolf, Stefan; Marquering, Paul (Hg.):
Unkritische Masse? Offene Gesellschaft und öffentliche Vernunft. Berlin, Münster, London
2016. S. 145.
22 Walther Ch. Zimmerli
henden Evidenzen zum Trotz“, denn diese erzählen eine andere Geschichte: Es
gibt keinen Siegeszug der (natur)wissenschaftlichen Rationalität, und dass sich
das so verhält, haben nahezu alle bedeutenden Denker seit der Antike nicht nur
gewusst, sondern auch öffentlich gesagt. Was es vielmehr gibt, ist ein Siegeszug
der technischen Umgestaltung der Welt, die desto erfolgreicher war, je enger sie
sich mit der (Natur)Wissenschaft verbündete, anders gesagt: je techno-logischer
sie wurde. Dass das auf einer gegenseitigen Wechselwirkung beruhte, weiß zwar
jeder, aber es ist, um es paradox zu formulieren, niemandem wirklich bewusst.
Zwar ist es bis in die höhere Unterhaltungsliteratur hinein sedimentiertes Allge-
meinbildungsgut, dass etwa die thermodynamischen Grundprinzipien der moder-
nen Physik in der Konstruktion von Dampfmaschinen ihren technischen Ursprung
haben (cf. Spoerls „Feuerzangenbowle“), aber ihre platonisierende Formulierung
(„Energieerhaltungs-“ bzw. „Entropiesatz“) stellt für diese Einsicht ein nahezu un-
überwindliches Hindernis dar.
Und auch dort, wo der Sachverhalt als solcher erkannt wird, legt sich die im
engeren Sinne epistemologische Interpretation wieder so nah, dass sie die eigent-
liche Einsicht verdrängt bzw. in die traditionellen konzeptionellen Bahnen zwingt:
„Die Technisierung der Wissenschaft durch die experimentelle Methode und die
Verwissenschaftlichung der Technik hat zusammen mit dem Verwertungsdruck
wissenschaftlicher Ergebnisse für die Technik (…) den Erklärungsdruck technisch
machbarer Vorgänge so erhöht, dass de facto zwischen angewandter Forschung und
Grundlagenforschung nicht mehr unterschieden werden kann.“4 Die durchaus zu-
treffende Beobachtung, dass im Kontext des Technologisierungsprozesses die im
epistemologischen Grundmodell vorausgesetzten Grenzen zwischen Grundlagen-
forschung und angewandter Forschung verschwimmen, stellt eine zwar notwen-
dige, aber eben nicht hinreichende Bedingung für die erforderliche neue Sicht der
Dinge dar. Statt Wissenschaft als Abstraktionsprodukt technischen Herstellens zu
verstehen und so zu analysieren, drängt sich immer wieder die epistemologische
Engführung auf: Technologie wird nach Maßgabe wissenschaftstheoretischer Ka-
tegorien interpretiert.
Wenn wir jedoch einmal so weit sind, die platonisierend-epistemologische
Weltsicht „vom Kopf auf die Füße zu stellen“, werden wir vielleicht eines Besse-
ren, ganz sicher aber eines Anderen belehrt werden, und zwar nicht nur, was die
Erkenntnis- und Wissenschaftstheorie, sondern auch was die Ontologie betrifft:
Neben und über die platonisierende Reduktion der Phänomenvielfalt durch die
begriffliche Einheit der Ideen hat sich nämlich aufgrund der sukzessiven Hybridi-
sierung von begrifflichen Konstrukten und Artefakten eine Vereinheitlichung der
Phänomene gelegt, die eine Vervielfachung der auf dieser Basis möglichen virtu-
ellen Welten erst ermöglicht. Was wir also derzeit durch Begriffe wie „Technologi-
sierung“ und – eher irreführend – „Digitalisierung“ markieren, ist, ideengeschicht-
lich gesehen, ein groß angelegtes „antiplatonisches Experiment“5, dessen Resultat
4 Kornwachs, Klaus: Technik – System – Verantwortung. Eine Einleitung. In: ders. (Hg.), Tech-
nik – System – Verantwortung. Münster 2004. S. 26.
5 vgl. Zimmerli, Walther Ch.: Das antiplatonische Experiment. In: ders. (Hg.): Technologisches
Zeitalter oder Postmoderne. München 1991(2). S. 13–35.
24 Walther Ch. Zimmerli
übrigens, wie das eben bei „richtigen“ Experimenten der Fall zu sein pflegt, noch
durchaus offen und ungewiss6 ist.
Während ich früher angenommen hatte, dieses Experiment beziehe sich nur auf
die damals modische Postmoderne, bin ich zwischenzeitlich zu der Einsicht gekom-
men, dass die Postmoderne ihrerseits nur ein kulturelles Epiphänomen der technolo-
gieinduzierten Pluralisierung auf dem Wege zu einem Pluralismus zweiter Ordnung
war7. Reichte für einen Pluralismus erster Ordnung noch eine Begründung nach dem
Muster einer Autostereotypbildung durch Abgrenzung von einem Heterostereotyp
des weltanschaulich-ideologischen Monismus aus, so ist nun unter Bedingungen der
Globalisierung und des damit verbundenen Feindbildverlustes eine doppelt affirma-
tive Bestätigung der Vielheit erforderlich: d. h. nicht bloß Pluralität, sondern Plura-
lismus erster Ordnung wird seinerseits zu einem Wert. Dass dies direkte Auswirkun-
gen auf die aktuellen Debatten z. B. über Flüchtlinge bzw. Immigranten hat, liegt auf
der Hand, kann aber hier im Einzelnen nicht ausgeführt werden.
Eine vollständige zeitdiagnostische Erklärung für den epochalen Einschnitt, der
sich – erneut „hinter dem Rücken“ der meisten der beteiligten Akteure – hiermit auftut,
ist damit zwar noch nicht gegeben, es ist aber zumindest ein erster Schritt auf dem dazu
zu beschreitenden Wege getan. Wir halten fest: Der durch die weltweite Technologisie-
rung induzierten Vereinheitlichung der Welt auf der Ebene der Phänomene korrespon-
diert eine ebenfalls weltweite Pluralisierung auf der Ebene der begrifflichen Repräsen-
tationen, seien diese nun kognitiv, kulturell, normativ oder im engeren Sinne politisch.
Nun kann die skizzierte und ansatzweise analysierte epochale Wendung, die un-
ter den Begriff des „antiplatonischen Experiments“ gefasst wurde, schlechterdings
niemandem verborgen geblieben sein. Und in der Tat sind dazu ganze Bibliotheken
mehr oder minder gelehrter Literatur verfasst worden, die sich, in der Regel aus
gesellschaftstheoretischer Perspektive, mit der „post-industriellen“ Gesellschaft,
der „Informationsgesellschaft“, der „Netzwerkgesellschaft“ oder neuerdings der
„digital society“ befassen. Zwar geht es dabei immer um neuartige Phänomenbe-
stände dieser anderen, „post-“ oder „antiplatonischen“ Art, aber sie werden in der
Regel eben gerade nicht als solche thematisiert und erfasst. Vielmehr gibt es eine
Art von sozialphilosophischem Standardmodell, das nach dem von dem Soziolo-
gen Ulrich Beck geprägten Muster der (Welt-)Risikogesellschaft konzipiert ist8 und
Um mindestens eine Ahnung der Dimension dessen, was damit gemeint ist,
zu erhalten, mag es hilfreich sein, sich des Mechanismus zu erinnern, auf dem die
Transformation beruht, die wir – wie gesagt: eher irreführend und erneut platoni-
sierend – als „Digitalisierung“ bezeichnen. Schon der Versuch, die Ideengeschichte
mit dem Fluchtpunkt der künstlichen Intelligenz zu reformulieren, zeigt, dass es
dreier Voraussetzungen bedurfte: der Formalisierung, der Kalkülisierung und der
Mechanisierung12. Bei noch genauerer Betrachtung zeigt sich allerdings, dass es
dabei semiotisch vordringlich um die Reduktion der Semantik auf eine in binärer
Logik darstellbare Syntax ging, die dann in Maschinen mit diskreten Zuständen
algorithmisch abgearbeitet werden konnte. Anders: Was wir „Digitalisierung“ nen-
nen, beruht auf „Binarisierung“; nicht der ganze kalkülisierbare Zahlenraum ist
dazu erforderlich, sondern dessen Reduktion auf seine logisch und semantisch ele-
mentaren Zustände ist es, was den informationstheoretischen und -technologischen
Durchbruch erlaubt.
Allein: erst die iterierte Vernetzung in diesem Sinne digitalisierter KI-Systeme
(Computer) und deren Verwendung in anderen Maschinensystemen (Robotisie-
rung) führt uns schrittweise in das Umfeld dessen, was wir heute unter „Digitalisie-
rung“ verstehen. Bezogen auf das Konzept eines „antiplatonischen Experiments“
ist damit nicht mehr nur die vereinheitlichende semantische Repräsentation der
Vielfalt der Phänomene in einer als „theoretisch“ charakterisierten zweiten, und
zwar begrifflichen Wirklichkeit (oder „Welt“) gemeint, sondern die Erschaffung
einer dritten Wirklichkeit13 oder „Welt“. Anders: wir schreiben Programme, und
diese laufen auf Maschinen, genauer: auf Netzwerken von Maschinen, die ihrerseits
eine dritte Wirklichkeit erschaffen – eben das Internet der Dinge vom aus dem Ke-
ramikblock herausgefrästen Zahnersatz über das Cochlea-Implantat bis zum Pro-
dukt der 3-D-Drucker.
Nicht dass wir erst am Anfang dieser neuen Zeit stehen, die wie eine Sturz-
flut über uns hereinbricht, ist das Faszinierende, sondern dass wir uns damit der
Einlösung eines neuzeitlichen Versprechens nähern, nämlich dem des sogenannten
„Vico-Axioms“: dass wir etwas erst dann wirklich wissen, wenn wir es selbst ma-
chen können – „Wissen ist Machen“14.
Was aber bedeutet dies nun im Kontext der Reformulierung des antiplatonischen
Experiments? Erneut einschränkend muss wiederholt werden, dass sich erst nur
die Umrisse dieses epochalen Wandels abzeichnen, so dass noch kein konsisten-
12 vgl. Zimmerli, Walther Ch.; Wolf, Stefan: Einleitung. In: dies. (Hg.): Künstliche Intelligenz.
Philosophische Probleme. Stuttgart 2002(2). S. 5–37, bes. 8 ff.
13 vgl. Kroker, Eduard J. M.; Deschamps, Bruno (Hg.): Information – eine dritte Art von Wirk-
lichkeit neben Materie und Geist. Frankfurt am Main 1995.
14 Zimmerli, Walther Ch.: To Know is to Make. Knowledge, Ignorance and Belief in a Technolo-
gical Society. In: Meisinger, Hubert; Drees, Willem B.; Zbigniew, Liana (Hg.): Wisdom or
Knowledge? Science, Theology, and Cultural Dynamics. London 2006. S. 145–152.
Technologisierung und Pluralisierung – ein Januskopf 27
tes Bild davon gegeben werden kann, welche Veränderungen zu erwarten sind.
Eines kann aber jetzt schon als gesichert gelten: Da philosophische Reflexion
per definitionem insofern platonisierend bleiben muss, als sie darin besteht, das
Besondere auf allgemeine Begriffe zu bringen, bleibt sie selbst zunächst einmal
von dem Experiment unberührt. Anders formuliert: Die philosophische Reflexion
ändert sich zwar in Bezug auf ihre Gegenstände, nicht aber per se durch die ex-
perimentelle antiplatonische Wendung. Nach wie vor muss es uns Philosophen
darum gehen, die allgemeinen Begriffe zu der Mannigfaltigkeit der Erscheinun-
gen zu finden – auch und gerade wenn wir realisieren, dass es sich dabei um eine
andere Mannigfaltigkeit, nämlich diejenige im Kontext der vereinheitlichenden
Technologie handelt.
Diese letztere muss nun allerdings anders gesehen werden: In der Welt der
„zweiten Wirklichkeit“ ist sie weltweit identisch. Zwar gibt es Unterschiede der
Gestaltung und des Marketing, aber diese sind – bis auf wenige Ausnahmen – alle-
samt kompatibel. Und so entsteht denn quasi-kompensatorisch eine Art Krieg zwi-
schen denen, die auf Microsoft „schwören“, und den Apple-Gefolgsleuten. An dem
Prinzip, dass es sich hierbei „nur“ um verschiedene Gestaltungsvarianten der Nut-
zeroberfläche jener elementar vereinheitlichenden binären Reduktion von Semantik
auf Syntax handelt, ändert das jedoch nichts.
Schon mit der Entstehung der dann als Paradigma auftretenden iterierten
Grundstruktur von Information als Unterschied15, technisch zwischen „Schalter of-
fen“ – „Schalter geschlossen“ bzw. „Strom fließt“ – „fließt nicht“, ist eine antipla-
tonische, vollständige Reduzierbarkeit von Welt 1 (realistisch interpretierte Seman-
tik) auf Welt 2 (Syntax als zweiwertige Logik) gegeben. Hand in Hand damit geht
die fortschreitende Algorithmisierung, die nun, vom Navigationssystem über die
Welt der Spiele bis hin zu derjenigen der auch dafür erforderlichen technologischen
Theoriebildung nach dem Muster des Designs nicht nur alles durchdringt, sondern
auch erlaubt, eine vollständige Welt 3 (virtuelle Realität) zu erschaffen. Zwar gilt
nach wie vor, dass Welt 1 und Welt 3 im Prinzip unterscheidbar sind, aber das gilt
eben nur „im Prinzip“. Theoretisch, d. h. im platonischen Muster der (auch philo-
sophischen) Reflexion, spielt diese Unterscheidbarkeit eine große, vielleicht die
zentrale Rolle. Lebenspraktisch, genauer: im Zusammenhang der unterschiedlichen
pragmatischen User-Kontexte jedoch kommt es auf diese Unterscheidbarkeit nicht
nur nicht an, sondern alles ist ganz im Gegenteil darauf angelegt, ununterscheidbar
zu erscheinen.
Und das führt uns zurück zu den Anfängen dessen, was seither – irreführen-
derweise, aber symptomatisch – „künstliche Intelligenz“ heißt. Von allem (Tu-
ringschen) Anfang an geht es dabei nämlich um ein „Imitation Game“16. Nicht die
Frage, ob Maschinen bzw. die auf diesen laufenden Programme intelligent sind oder
15 vgl. Zimmerli, Walther Ch.: Macht Information Sinn? Reflexionen zur Iteration von Unter-
schied und Nichtwissen. In: Roelcke, Thorsten; Ballod, Matthias; Pelikan, Kristina (Hg.): In-
formation und Wissen – Beiträge zum transdisziplinären Diskurs. Frankurt am Main, Bern u. a.
2018 (im Druck).
16 Es ist durchaus kein Zufall, dass Alan Turing seinen als „locus classicus“ zu bezeichnendem
Aufsatz „Computing Machinery and Intelligence“ nicht mit einem Satz, sondern gleich mit
28 Walther Ch. Zimmerli
denken können, steht zur Diskussion. Sondern es handelt sich um eine Frage nach
dem, was wir systemtheoretisch als „funktionale Äquivalenz“ bezeichnen können,
die eine Weiterführung des „principium identitatis indiscernibilium“ darstellt. In
dieser Welt 3 ist es gleichgültig, ob die auf den Endgeräten laufenden Programme
intelligent sind. Das wird zu einer letztlich platonisierend metaphysischen Frage,
die – pragmatisch gesehen – obsolet ist. Wichtig ist allein, ob sie sich so verhalten,
dass der Nutzer das nicht mehr unterscheiden kann und – wenn er nicht ein Philo-
soph ist – auch nicht mehr unterscheiden will und muss. Anders: es geht um nicht
mehr, aber auch um nicht weniger als um eine Rehabilitierung der Täuschung17,
und zwar in Nietzsches Formulierung: „im außermoralischen Sinne“.
So betrachtet, gilt in dieser Welt 3 im Rahmen des begonnenen antiplatonischen
Experiments, dass auch einige der das platonische Denkmodell konstituierenden
Bestimmungsstücke entfallen, und zwar jeweils immer nur auf der Ebene ihrer Ge-
genstände. Mit den Begriffspaaren „Sein“ und „Schein“, „Virtualität“ und „Reali-
tät“, „Wesen“ und „Erscheinung“ seien nur einige exemplarisch genannt.
Allerdings läuft, wer nach Popper von „Welt 1“, „Welt 2“ und „Welt 3“
spricht, Gefahr, einer – nun erneut wieder platonisierenden – Fehldeutung Vor-
schub zu leisten, die es daher hier von vornherein auszuschließen gilt. In seinem
Buch „Objective Knowledge“ hatte Popper seine (für seine Verhältnisse erstaun-
lich metaphysische) Drei-Welten-Lehre entwickelt, und zwar in Abgrenzung von
Platon und Hegel ausgerechnet als Erläuterung seines Verständnisses von Plura-
lismus: „In dieser pluralistischen Philosophie besteht die Welt aus mindestens drei
ontologisch verschiedenen Teilwelten, was ich so ausdrücken werde, dass es drei
Welten gibt: als erste die physikalische Welt oder die Welt der physikalischen Zu-
stände; als zweite die Bewusstseinswelt oder die Welt der Bewusstseinszustände;
als dritte die Welt der intelligibilia oder der Ideen im objektiven Sinne; es ist die
Welt der möglichen Gegenstände des Denkens: die Welt der Theorien an sich und
ihrer logischen Beziehungen; die Welt der Argumente an sich; die Welt der Pro-
blemsituationen an sich.“18
Es dürfte sich wohl von selber verstehen, dass sich Popper, all seinen Befrei-
ungsschlägen zum Trotz, noch mitten im platonischen Denkmodell befindet, das –
jedenfalls an dieser Stelle – offenbar gar nicht mit Artefakten rechnet und schon gar
nicht mit solchen, die wir als logische Artefakte zweiter Stufe bezeichnen können,
die also auf dem Wege einer vollständigen Reduktion von Semantik auf Syntax
eine „virtuell“ genannte andere Realität erschaffen. Das hier von mir vorgeschla-
gene Konzept einer Welt 3 der virtuellen Realität, die es nach der erfolgreichen
Durchführung einer Reduktion, die sich als „digitalisierte Epoche“ bezeichnen
ließe und die sich ausschließlich der Erfassung der Wirklichkeitskonstitution durch
einem ersten Zwischentitel beginnen lässt: „The Imitation Game“. Turing, Alan: Kann eine
Maschine denken? (1950). Dt. in: Zimmerli; Wolf (Hg.): Künstliche Intelligenz, a. a. O., S. 39.
17 Anders – und stärker platonisierend – dagegen: Müller, Olaf L.: Wirklichkeit ohne Illusionen.
2 Bde. Paderborn 2003; bes. Bd. 1: Hilary Putnam und der Abschied vom Skeptizismus oder
Warum die Welt keine Computersimulation ist. a. a. O., S. 1 ff.
18 Popper, Karl R.: Objektive Erkenntnis. Ein evolutionärer Entwurf. Hamburg 1974(6). S. 174.
Technologisierung und Pluralisierung – ein Januskopf 29
Täuschung widmet, stellt eine veritable Befreiung von der jahrtausendelangen Eng-
führung allen philosophischen Denkens auf allgemeine Begriffe dar.
Auf diese Weise eröffnet sich nun – so ähnlich wie damals nach Husserls
Entdeckung der Welt der intentionalen Gegenstände und damit letztlich der Nou-
mena nach einer zunächst phänomenologischen und dann transzendentalen Re-
duktion – ein ganzes Panorama zu bearbeitender Probleme, die die Beziehungen
und die Differenzen allgemein zwischen Welt 1, 2 und 3, insbesondere aber zwi-
schen Welt 1 und 3, also der „aktuellen“ und der „virtuellen Realität“ betreffen.
Diese gilt es nun systematisch zu analysieren, um sie wenigstens für die philoso-
phische Reflexion zu retten. Denn es ist abzusehen, dass sich die Unterschiede für
die Pragmatik der Lebensführung ähnlich schnell und nachhaltig verschleifen wie
z. B. im Falle des Umgangs mit sogenannten „intelligenten“ oder „smarten“ Fah-
rerassistenzsystemen, deren Mitwirkung beim Autofahren unterhalb der Wahr-
nehmbarkeitsschwelle der Fahrerinnen oder Fahrer liegt und daher für diese auch
nicht mehr „existiert“.
Der hier skizzenhaft beleuchtete Abschied von der lebenspragmatischen Be-
deutung einer Unterscheidbarkeit zwischen Erkenntnis und Täuschung mag zwar
eine hinreichende Motivation dafür darstellen, es für nicht sinnvoll zu halten, wei-
terhin danach zu fragen, ob die auf unseren als „smart“ bezeichneten Endgeräten
laufenden Programme uns „täuschen“; auf der Ebene der philosophischen Refle-
xion aber ist es nicht nur erlaubt, sondern absolut erforderlich, Fragen dieser Art
zu diskutieren. Denn vergessen wir nicht: die philosophische Einsicht, dass die
Grundlage dieses neuen Denkens in der systematischen Rehabilitierung der Täu-
schung zu suchen ist, ist entweder (wie Nietzsches Versuch einen Rehabilitierung
des Scheins19) zum Scheitern verurteilt, oder sie wird umgekehrt die Erforschung
dieser Welt als Abschied von der Täuschung inszenieren. Dieser aber birgt immer
auch die Gefahr einer potenziellen Ent-Täuschung in sich.
So betrachtet, gewinnt der Januskopf von Technologisierung und Pluralisie-
rung, ontologisch gesehen, eine weitere Dimension: Die zunehmende Techno-
logisierung unserer Welt, durch Digitalisierung noch verstärkt, sorgt nicht nur
dafür, dass das antiplatonische Experiment sich in der Vereinheitlichung der
Welt durch digitale Technologie bei gleichzeitiger Pluralisierung der Welt der
Ideen und gedanklichen Konstrukte verschärft fortsetzt, sondern auch noch dafür,
dass die Ununterscheidbarkeit von aktueller und virtueller Realität letztlich zum
Ausgangspunkt einer neuen philosophischen Analyse der Pluralität der Welten
wird. Und insofern musste der eingangs erwähnten skeptischen Einschätzung
von Klaus Kornwachs, dass der Begriff des Pluralismus angesichts terroristischer
Bedrohung an seine Grenzen stoße, im Sinne einer reflektierten Weiterführung
widersprochen werden.
19 vgl. Zimmerli, Walther Ch.: „Alles ist Schein“ – Bemerkungen zur Rehabilitierung einer Äs-
thetik post Nietzsche und Derrida. In: Oelmüller, Willi (Hg.): Ästhetischer Schein. Kolloquium
Kunst und Philosophie 2. Paderborn, München, Wien, Zürich 1982. S. 147–167.
30 Walther Ch. Zimmerli
LITERATUR
Beck, Ulrich: Risikogesellschaft. Auf dem Weg in eine andere Moderne. Frankfurt am Main 1986.
Bullinger, Hans-Jörg; ten Hompel, Michael (Hg.): Internet der Dinge. Berlin 2007.
Gadamer, Hans-Georg: Rhetorik, Hermeneutik und Ideologiekritik. Metakritische Erörterungen zu
„Wahrheit und Methode“ (1967). Wieder abgedruckt in: Apel, Karl-Otto u. a.: Hermeneutik und
Ideologiekritik. Frankfurt am Main 1971. S. 57–82.
Jonas, Hans: Das Prinzip Verantwortung. Versuch einer Ethik für die technologische Zivilisation.
Frankfurt am Main 1979; jetzt mit zahlreichen zusätzlichen Materialien kritisch ediert in: Böh-
ler, Dietrich; Bongardt, Michael; Burckhart, Holger; Zimmerli, Walther Ch. (Hg.): Kritische
Gesamtausgabe der Werke von Hans Jonas. Abteilung I, Bd. I.2,1. Freiburg im Breisgau, Ber-
lin, Wien 2017.
Kornwachs, Klaus (Hg.): Technik – System – Verantwortung. Münster 2004.
ders.: Kann man mit Terroristen reden? In: Wolf, Stefan; Marquering, Paul (Hg.): Unkritische
Masse? Offene Gesellschaft und öffentliche Vernunft. Berlin, Münster, London 2016. S. 145–
164.
Kroker, Eduard J. M.; Deschamps, Bruno (Hg.): Information – eine dritte Art von Wirklichkeit ne-
ben Materie und Geist. Frankfurt am Main 1995.
Mittelstraß, Jürgen: Die Rettung der Phänomene. Ursprung und Geschichte eines antiken For-
schungsprinzips. Berlin 1962.
Popper, Karl R.: Objektive Erkenntnis. Ein evolutionärer Entwurf. Hamburg 1974(6).
Turing, Alan: Kann eine Maschine denken? (1950). Dt. in: Zimmerli, Walther Ch.; Wolf, Stefan:
Künstliche Intelligenz. Philosophische Probleme. Stuttgart 2002(2).
Zimmerli, Walther Ch.: „Alles ist Schein“ – Bemerkungen zur Rehabilitierung einer Ästhetik post
Nietzsche und Derrida. In: Oelmüller, Willi (Hg.): Ästhetischer Schein. Kolloquium Kunst und
Philosophie 2. Paderborn, München, Wien, Zürich 1982. S. 147–167.
ders.: Das antiplatonische Experiment. In: ders. (Hg.): Technologisches Zeitalter oder Postmoderne.
München 1991(2). S. 13–35.
ders.: Macht Information Sinn? Reflexionen zur Iteration von Unterschied und Nichtwissen. In:
Roelcke, Thorsten; Ballod, Matthias; Pelikan, Kristina (Hg.): Information und Wissen – Bei-
träge zum transdisziplinären Diskurs. Frankurt am Main, Bern u. a. 2018 (im Druck).
ders.: Second Order Pluralism. In: Hertzog, Dirk; Britz, Etienne; Henderson, Alastair (Hg.): Gesprek
sonder grense. Festschrift für Johan Degenaar zum 80. Geburtstag. Stellenbosch 2006. S. 324–
341.
ders.: To Know is to Make. Knowledge, Ignorance and Belief in a Technological Society. In: Mei-
singer, Hubert; Drees, Willem B.; Zbigniew, Liana (Hg.): Wisdom or Knowledge? Science,
Theology, and Cultural Dynamics. London 2006. S. 145–152.
Zimmerli, Walther Ch.; Wolf, Stefan (Hg.): Künstliche Intelligenz. Philosophische Probleme. Stutt-
gart 2002(2).
SPEEDING THINGS DOWN1
Carl Mitcham
As someone who has been acquainted with Klaus Kornwachs since the early 1990s,
I find it unfortunate how little of his work is available in English. His contributions
to technical systems theory, the philosophy of science, and philosophy of technol-
ogy are mostly unknown outside a German orbit. But it is from the perspective of
science, technology, and society (STS) studies that I venture a glancing engagement
with his thought. This informal reflection aims to complement his critical analyses
of relationships between technology and culture by calling attention to a concern that
has slowly emerged over the last quarter century – but is coming increasingly to the
fore among scholars venturing critical reflections on the technoscientific lifeworld.
One of the most widely shared values in our world is the idea of speeding
things up. From the earliest phases of the Industrial Revolution, efforts to accelerate
the production of goods and services have been presented as of multi-dimensional
human benefit. Increasing speed increases productivity, which in turn increases
worker pay and the availability of goods. From the 19th through the 20th century
those responsible for scientific and technological policies have promoted acceler-
ations in transport and communications as public goods that further facilitate the
satisfaction of private consumer interests. In the 21st century increasing the speed
of knowledge production and technological innovation are largely unquestioned
ideals that are imagined as the most effective means to deal with social problems
such as poverty and disease as well as environmental challenges such as pollution,
biodiversity loss, and climate change.
Of course, there have been occasional complaints. For instance, rapid-fire sci-
entific or technological changes are readily admitted to disrupt social ecologies.
During the early decades of the 20th century economist Thorsten Veblen and so-
ciologist William Fielding Ogburn developed the concept of a socio-cultural lag,
noting how changes in technology often outstrip their contexts and demand com-
panion changes in society or culture. Insofar as the functioning of a society depends
on harmony among its various institutions, socio-cultural lag can be the cause of
disorder or mal-functioning. An example given by Ogburn concerned the effects
of industrialization on worker safety and health. Factory system technology lim-
ited worker abilities to protect themselves, but appropriate safety regulations and
worker compensation laws were slow to redress the balance, in part because such
laws were contrary to the interests of captains of industry. Two other examples from
later work are automobiles and nuclear weapons. The mass consumption of cars
1 Acknowledgment: A much earlier version of this reflection grew out of and benefitted from
conversations with Daniel Sarewitz as well as Ned Woodhouse.
32 Carl Mitcham
VARIATIONS ON A THEME
Neither Ogburn nor Toffler venture to develop much in the way of quantitative
metrics for technological change. But there are two common approaches. One fo-
cuses on technological outputs and counts numbers of patents over time. Another
looks at increases in some dimension of productivity (GDP, per capita income, per-
sonal consumption index), together with the assumption that technological change
is a major driver of the economy. Techno-optimists such as Julian Simon4 and Ray
Kurzweil5 have developed a host of related versions: Exponential growths in com-
2 Einstein, Albert: Atomic Education Urged by Einstein: Scientists in Plea for $ 200,000 to Pro-
mote New Type of Essential Thinking. New York Times, 25 May 1946, p. 13.
3 Toffler, Alvin: Future Shock. New York 1970. p. 331
4 Moore, Stephen; Simon, Julian L.: It’s Getting Better All the Time: 100 Greatest Trends of the
Last 100 years. Washington, DC, 2000.
5 Kurzweil, Ray: The Singularity Is Near: When Humans Transcend Biology. New York 2006.
Speeding things down 33
puter power and speed, internet users, or internet traffic. (One might note in pass-
ing a parallel growth in instruments for analyzing speed: from the calculus to stop
watches, stop-motion photography, and virtual reality simulations.)
Social or cultural change is much more difficult to assess. Social and quali-
ty-of-life indicators such as those associated with employment, education, public
health and longevity, mental health, family stability, crime, environmental quality,
museum attendance and arts productions, subjective happiness, et al. provide little
direct measurement for any lag tracking technological change. Although it may
well be that when these indicators go negative it reflects a disequilibrium between
new technology and old social or cultural patterns, the correlation rests more on
qualitative than quantitative assessment.
Qualitatively and intuitively it nevertheless remains a reasonable hypothesis
that insofar as social stability is a common good dependent on an appropriate fit
between its different material and non-material elements, disharmonies between
some of them may well be reflected in declines in quality of life. Moreover, whereas
the non-material dimensions of culture such as social habits and traditions exhibit
natural inertias, material dimensions such as science-based technologies exhibit in-
herent change momentums. The social rituals of religion and politics reproduce
more of the same; those of science and technology even more than modern art con-
stitute the culture of the new. More than capitalism, to adapt Joseph Schumpeter’s
famous descriptor, science and technology manifest creative destruction. Historians
of technology have documented how material changes in premodern cultures such
as the stirrup or the draft chimney were experienced in their times as highly disori-
enting. But the accumulation and increasing dominance of these kinds of material
technologies makes socio-cultural lag a more pervasive feature of the present than
of the past.
In terms coined by anthropologist Margaret Mead, traditional cultures with
their relatively stable technologies are pre-figurative. The knowledge of older
members, who have mastered those technologies central to a society, pre-figures
what younger generations need to learn. By contrast, when the central technologies
change, young and old learn together in co-co-figurative culture or have to learn on
their own while elders loose status in a post-figurative social order. As material cul-
ture accumulates and technologically thickens alterations in social power begin to
affect intra-generational relations – and call forth ever more disjunctions and efforts
at responsive structural adjustment. Thus arises what social theorist Daniel Bell has
described as “the cultural contradictions of capitalism”: the difficulty of maintain-
ing either cultural conservatism or political equities in the face of turbo-charged
techno-economic growth. One reason for the increasing replacement in the schools
of lectures by active and collaborative learning exercises may be the simple decline
in relevance of what teachers themselves have previously learned.
By the late 1990s speed began to appear as an ever more explicit theme of social
criticism. Classics professor Stephen Bertman’s “Hyperculture: The Human Cost
of Speed”6 took off from Toffler hyperbolically to blame the accelerating pace of
6 Bertman, Stephen: Hyperculture: The Human Cost of Speed. New York 1998.
34 Carl Mitcham
DE-INNOVATION ECONOMICS
Some of the strongest beliefs in the virtues of technological change are economic.
A minority questioning of unfettered technological innovation nevertheless de-
serves brief mention. There are two minority economic criticisms, one much more
radical than the other.
The most radical criticism flys under banners of entropy economics, ecological
economics, and degrowth. The theoretical application of the concept of entropy to
economics was pioneered by Nicholas Georgescu-Roegen11. A version emphasiz-
ing environmental sustainability was independently developed by, among others,
Herman Daly12. But it is the degrowth theory of Serge Latouche that has the strong-
est implications not just for re-directing economic activity but reducing it – and
thereby speeding things down. At the same time, as Latouche admits, “‘De-growth’
is a political slogan with theoretical implications … that is designed to silence the
chatter of those who are addicted to productivism”13. It presents an aspirational
ideal that might be encapsulated in a slogan, “Slow is better.” Slow is better because
it enhances conviviality over production and consumption. Don’t just innovate in
new ways, he might say, de-innovate. Despite efforts to give political muscle to a
political vision, Latouche’s argument remains an impotent imagination.
A less radical but perhaps equally impotent argument has been voiced in re-
sponse to the question “How fast should we innovate?” by a chemist obviously
7 Rosa, Hartmut: Alienation and Acceleration: Towards a Critical Theory of Late-modern Tem-
porality. Aarhus 2010.
8 Rosa, Hartmut; Scheuerman, William E. (Hg.): High-Speed Society: Social Acceleration,
Power, and Modernity. University Park, PA, 2010.
9 Rosa, Hartmut: Social Acceleration: A New Theory of Modernity. New York 2015.
10 Wajcman, Judy: Pressed for Time: The Acceleration of Life in Digital Capitalism. Chicago 2014.
11 Georgescu-Roegen, Nicholas: The Entropy Law and the Economic Process. Cambridge, MA,
1971.
12 Daly, Herman: Economics, Ecology, Ethics: Essays Toward a Steady-State Economy. San
Francisco 1980.
13 Latouche, Serge: Petit traité de la décroissance sereine. Paris 2007. English trans.: Farewell to
Growth. Cambridge, UK, 2009. p. 7.
Speeding things down 35
sensitive to the emerging notions of responsible research and innovation. In the face
of the commonplace belief in the promiscuous promotion of innovation, Thomas
Vogt asks: “[W]hat speed should a particular innovation have? Are there reasons
for us to accelerate or slow down an innovation? … Is fast innovation always bet-
ter?”14 His particular response begins by noting that innovations can make once
abundant resources scare. Prior to certain high-tech electronic developments, the
so-called rare earth minerals were only physically not economically rare. Now that
they physics has become economics, it would seem better to slow down innovation
in some aspects of product development (such as miniaturization) in order to allow
others (such as materials substitution) time to catch up. In many instances, “slower
innovation can be a more efficient process as it allows the exploration of a wider
parameter space and allows sustainable materials compositions to be developed”15.
There are two basic reasons why social lag theorists argue for the promotion of so-
cial adaptation to technological change, never mind its speed. One is an assessment
of technological change as mostly good. Another is belief in the inevitability of
such change. Although logically independent, the two beliefs reinforce each other.
Yet insofar as we want to argue that technologies themselves are not independent
variables – that is, against technological determinism and for social construction-
ism – it is worthwhile to consider arguments to the contrary. On occasion it may be
reasonable to pause and at least review criticisms of technological change without
jumping immediately to proposals for social accommodation or economic balance,
and should such criticisms prove even marginally persuasive, to propose ways in
which change might be globally modulated.
Begin with the normative assessment: Is technological change always or on bal-
ance good? There are at least four overlapping arguments against any simple affirm-
ative response: counter productivity, injustice, unhappiness, and reduced intelligence.
After a certain point, increasing technological change readily turns counter-
productive. Consider the example of computer software. The introduction of a new
version of some computer program costs the user money and learning time (and
attention) that must be subtracted from whatever increased utility the new program
is alleged to provide. The immediate widespread adoption of a new program further
requires that a much larger number of persons dedicate time to learning and suffer-
ing the inevitable bugs. Consumer Reports regularly recommends against purchas-
ing the new model of a car its first year on the market precisely for this reason: it
takes a few years to identify and work out the bugs. As the marginal utility of rapid
change decreases, the personal investment required remains much the same. Who
really finds the shrinking life cycle of computers truly worthwhile – or that of smart
phones anything more than a fashion competition?
14 Vogt, Thomas: How Fast Should We Innovate? Journal of Responsible Innovation, 2016,
vol. 3, no. 3, p. 255.
15 ibid, p. 258.
36 Carl Mitcham
16 Sloterdijk, Peter: Im Weltinnenraum des Kapitals. Für eine philosophische Theorie der Glo-
balisierung. Frankfurt 2005.
17 Layard, Richard: Happiness: Lessons from a New Science. New York 2005.
18 Haidt, Jonathan: The Happiness Hypothesis: Finding Modern Truth in Ancient Wisdom. New
York 2006.
Speeding things down 37
tiplies choices, thus requiring increased decision making. Although initially people
tend to feel better when given options to choose among, after a certain point the
positive benefits quickly disappear. Counter productivity becomes compounded by
irrationality. Faced with the need to choose between large numbers of options, peo-
ple often opt out. At the supermarket, a shopper faced with multiple product choices
has a strong tendency simply to go buy something else. When choice becomes
necessary, as when some cereal has to be purchased, shoppers resort to simple and
even irrational rules (which is why advertising works).
In one analogous empirical study, researchers offered students either thirty or
six options for an extra credit essay on an exam; Those presented with thirty options
were less likely to choose to do the extra credit essay, and when they did so the
essays produced were of inferior quality. It has also been established that beyond
a certain point increases in information about patients reduces the ability of physi-
cians to make accurate diagnoses.
More generally, speed can slow down both personal and social learning. The
simple fact is that one needs time to discover and reflect. A rush to judgment is
often a rush to mis-judgment. Here the “dromology” of French social critic Paul Vi-
rilio (if one digs beneath his oracular prose) has important things to say.19 Virilio’s
analysis of speed in politics points toward tendencies of speed in communications
(the news cycle via the electronic media) to create a real-time politics that inhibits
reflection and reduces social intelligence.
Imagine then (if only for a moment) that speeding things up might not always be
beneficial. Is it even possible to speed things down? The most popular argument
against attempting to delimit the speed of scientific research or technological in-
vention and innovation is that if we do not innovate someone else will – and that
the only way to maintain any competitive advantage and dominance in the global
economic system is to maintain and even increase an existing rate of technological
change. The technological system has a dynamism all its own, and if we decline to
serve as its carrier then someone else will – to our detriment.
But what if second (or even third or fourth) best is really best? Who wants to
be on the front lines of a military attack? Even in races, it is often the second or
third person for most of the course who is able to be the first to sprint over a finish
line. We establish procedural boundaries such as those of free and informed consent
for human subjects in scientific research and set speed limits on roads in order to
promote the common good. The slow food and slow cities movements are actually
carving out their own competitive advantages. Why not look for ways to modulate
the rates of technological change?
Among science and technology policy analysts, political scientist Edward
Woodhouse has for more than thirty years argued for and considered practical pol-
icies for moving in this direction. In a critical commentary on Vogt’s much more
restricted argument for modulating speed in the innovative use of scarce resources,
Woodhouse seeks expand the reflective possibility space with two interrelated
re-framing moves: shift from personal experiences to what goes on in social-politi-
cal institutions and away from “we-talk”. It is not “we” who innovate but corpora-
tions. “Given that a majority of the world’s population has little to say over how fast
the technology revolutionaries move, it is misleading to deploy careless collective
nouns and pronouns that obscure lack of agency”.20
Carelessness becomes especially salient when consider democratic political in-
telligence. Intelligence democratic decision making depends on social trial-and-er-
ror learning, which is turn requires a slow enough pace to actually become aware
of outcomes and greater diversity of stakeholder engagements. Rapidly of tech-
nological change cannot help but hide defects in the haze. Fast driving blurs the
countryside. As Woodhouse summarizes, “rapid pace is the enemy of intelligent
trial-and-error learning both for specific technoscientific endeavors and for the
overall pace of change”21. Although in the context of techno-capitalist momentum
it is difficult to imagine what might actually be done to moderate our headlong rush
into the (questionable) future, Woodhouse ventures three modest proposals: limit
the government funding of innovation, reduce automatic tax write offs for innova-
tion investments, and broaden peer review criteria for what government innovation
funding continues. Any mechanisms for the social consideration of invention and
innovation prior to market introductions, the auctioning of technological licenses,
and the strengthening of corporate legal liabilities for negative outcomes would be
positive actions that could potentially speed things down.
Beyond such modest ideas, one might further propose revamping a global trade
system that promotes international technological competition by formulating pol-
icies to redistribute income and wealth, and question socio-religious assumptions
about technological progress. “If no manufacturer, government regulator, or con-
sumer would find acceptable an automobile without brakes, should a member of
technological civilization endorse an innovation system that lacks institutions for
slowing the pace of change when it becomes excessive?”22
The bottom line is that politicians and the public are not wholly impotent with
regard to the modulation of technological change. But we have to be convinced
that such modulation is on occasion more rational than simply accepting the social
dislocations of such change or promoting cultural lag catch up. At the very least,
the promotion of research and education on such questions is a worthy policy goal –
one that can only enhance interdisciplinary knowledge about the circumstances un-
der which we live, even among those who wind up concluding more of the same is
as good as it gets.
20 Woodhouse, Edward J.: Slowing the Pace of Technological Change? Journal of Responsible
Innovation, 2016, vol. 3, no. 3, p. 267.
21 ibid, p. 269.
22 Ibid, p. 271.
Speeding things down 39
LITERATURE
Reflecting its character as an informal essay rather than a scholarly research paper,
references are selective.
Bell, Daniel: The Cultural Contradictions of Capitalism. New York 1976.
Bertman, Stephen: Hyperculture: The Human Cost of Speed. New York 1998.
Daly, Herman: Economics, Ecology, Ethics: Essays Toward a Steady-State Economy. San Francisco
1980.
Dupuy, Jean-Pierre; Robert, Jean: La trahison de l’opulence. Paris 1976.
Einstein, Albert: Atomic Education Urged by Einstein: Scientists in Plea for $ 200,000 to Promote
New Type of Essential Thinking. New York Times, 25 May 1946, p. 13.
Georgescu-Roegen, Nicholas: The Entropy Law and the Economic Process. Cambridge, MA, 1971.
Haidt, Jonathan: The Happiness Hypothesis: Finding Modern Truth in Ancient Wisdom. New York
2006.
Illich, Ivan: Energy and Equity. New York 1976.
Kurzweil, Ray: The Singularity Is Near: When Humans Transcend Biology. New York 2006.
Latouche, Serge: Petit traité de la décroissance sereine. Paris 2007. English trans.: Farewell to
Growth. Cambridge, UK, 2009.
Layard, Richard: Happiness: Lessons from a New Science. New York 2005.
Mead, Margaret: Culture and Commitment: A Study of the Generation Gap. New York 1970.
Moore, Stephen; Simon, Julian L.: It’s Getting Better All the Time: 100 Greatest Trends of the Last
100 years. Washington, DC, 2000.
Ogburn, William Fielding: Social Change with Respect to Culture and Original Nature. New York
1922.
Rosa, Hartmut: Alienation and Acceleration: Towards a Critical Theory of Late-modern Temporal-
ity. Aarhus 2010.
Rosa, Hartmut: Social Acceleration: A New Theory of Modernity. New York 2015.
Rosa, Hartmut; Scheuerman, William E. (Hg.): High-Speed Society: Social Acceleration, Power,
and Modernity. University Park, PA, 2010.
Sloterdijk, Peter: Im Weltinnenraum des Kapitals. Für eine philosophische Theorie der Globalisi-
erung. Frankfurt 2005.
Toffler, Alvin: Future Shock. New York 1970.
Virilio, Paul: Vitesse et Politique. Paris 1977.
Vogt, Thomas: How Fast Should We Innovate? Journal of Responsible Innovation, 2016, vol. 3, no.
3, pp. 255–259.
Wajcman, Judy: Pressed for Time: The Acceleration of Life in Digital Capitalism. Chicago 2014.
Woodhouse, Edward J.: Slowing the Pace of Technological Change? Journal of Responsible Innova-
tion, 2016, vol. 3, no. 3, pp. 266–273.
DIE BERECHENBARKEIT VON TECHNIK
UND WISSENSCHAFT
Von komplexen Systemen zur Digitalisierung und künstlichen Intelligenz
Klaus Mainzer
Klaus Kornwachs traf ich zum ersten Mal 1997 in der Villa Vigoni am Comer See
anlässlich einer Konferenz über „Interdisciplinary Approaches to a New Under-
standing of Cognition and Consciousness“, die von Valentino Braitenberg und
Franz Josef Radermacher organisiert war.1 Damals waren wir beide 50 Jahre alt.
Wir hatten damals schon Ideen zur interdisziplinären Grundlagenforschung und
Technikphilosophie, die heute genau 20 Jahre später angesichts exponentiell wach-
sender Computer- und Informationstechnologie dramatische Aktualität erhalten.
Als Carl Friedrich von Weizsäcker (1912–2007) im 20. Jahrhundert über die Grund-
lagen von Physik und Philosophie nachdachte, stand die Welt unter dem Eindruck
von Kernwaffen und Kernenergietechnik. Die Verantwortung des Naturwissen-
schaftlers und Ingenieurs in der globalisierten Welt wurde erstmals zu einem zen-
tralen Thema. Weizsäcker erkannte aber, dass man zu kurz springt, wenn man sich
nur auf die Tagespolitik einlässt. Tatsächlich hing damals die Veränderung der Welt
mit grundsätzlichen Umwälzungen des physikalischen Weltbilds zusammen, deren
physikalischen und philosophischen Grundlagen aufgearbeitet werden mussten.
Im 21. Jahrhundert ist die Digitalisierung eine globale Herausforderung der
Menschheit. Spätestens seit Data Mining und Big Data ist der Öffentlichkeit klar,
wie sehr unsere Welt von Daten und Algorithmen beherrscht wird. Umgekehrt
ist aber auch klar, dass ohne Digitalisierungstechnik die Komplexität moderner
Gesellschaften nicht mehr zu bewältigen wäre. Wie berechenbar ist aber diese
komplexe Welt? Manche glauben, dass es nur noch auf schnelle Algorithmen an-
kommt, um Lösungen von Problemen in Technik und Wirtschaft zu finden. Selbst
in der Ausbildung geht es häufig nur noch um „Business-Modelle“ und den schnel-
len wirtschaftlichen Profit. Bereits die Finanz- und Weltwirtschaftskrise von 2008
(die jederzeit wieder eintreten könnte) hing wesentlich mit falsch verstandenen
Grundlagen und Voraussetzungen von mathematischen Modellen und Algorith-
men zusammen.
Gefährlich wird es besonders dann, wenn wir uns blind auf Algorithmen wie
Kochrezepte verlassen, ohne ihre theoretischen Grundlagen und Anwendungs- und
Randbedingungen zu kennen. Nur wer die Theorie kennt, kann allgemeingültige
Sätze und Theoreme über die Leistungsfähigkeit und Grenzen dieser Algorithmen
und Computertechnik beweisen. Erst solche „Metatheoreme“ garantieren Verläss-
lichkeit und Korrektheit. Im „theoriefreien“ Raum des Probierens befinden wir uns
im Blind-, bestenfalls Sichtflug. Von Heidegger2 (Heidegger 1954) stammt die sar-
kastische Äußerung: „Die Wissenschaft denkt nicht.“ Erst recht gilt für ihn dieses
Diktum in der Technik. Wie immer man seine verkürzten Zuspitzungen bewerten
mag: Statt Heideggers „Seinsvergessenheit“ in Wissenschaft und Technik wäre in
diesem Fall ihre „Theorievergessenheit“ zu beklagen. Wenn auch noch das „post-
faktische“ Zeitalter ausgerufen wird, in dem Fakten und Beweise durch Stimmun-
gen und Gefühle ersetzt werden, ist Wissenschaft vollends im Niedergang.
Chancen und Risiken der Digitalisierungstechnik werden in der Öffentlich-
keit häufig deshalb falsch eingeschätzt, weil die Grundlagen der Algorithmen
nicht berücksichtigt werden. Sie sind in der modernen Logik, Mathematik, In-
formatik und Philosophie tief verwurzelt.3 Historisch entstand die Theorie der
Algorithmen und Berechenbarkeit (und damit die Informatik) aus der Grundla-
gendiskussion von Logik, Mathematik und Philosophie seit Anfang des letzten
Jahrhunderts. Seit der Antike wird die Wahrheit mathematischer Sätze durch lo-
gische Beweise in Axiomensystemen begründet. Logisch-axiomatische Beweise
wurden zum Vorbild in Wissenschaft und Philosophie. Im 20. Jahrhundert stellte
sich die Frage, ob die Wahrheiten einer Theorie durch Formalisierung vollstän-
dig, korrekt und widerspruchsfrei erfasst werden können. Große Logiker, Ma-
thematiker und Philosophen des 20. Jahrhunderts (z. B. Hilbert, Gödel, Turing)
zeigten erste Möglichkeiten und Grenzen der Formalisierung auf. Aus forma-
len Beweisen lassen sich unter bestimmten Voraussetzungen Algorithmen bzw.
Computerprogramme gewinnen, die von Rechenmaschinen ausgeführt werden
können. So lässt sich maschinell überprüfen, ob ein Beweis korrekt und wider-
spruchsfrei ausführbar ist.
Diese Einsichten der mathematischen Beweistheorie haben in der Informa-
tik praktische Folgen. Informatik ist nämlich, wie Friedrich L. Bauer, einer der
Münchner Begründer der Informatik in Deutschland, bemerkte, eine „Geistes-
Ingenieurwissenschaft“4: Statt formaler Theorien und Beweise in der Mathematik
werden dort formale Modelle von Prozessabläufen z. B. in der Industrie untersucht.
Um Unfälle und erhebliche Mehrkosten bei Fehlern zu vermeiden, sollte vorher
überprüft und bewiesen werden, ob die Prozessabläufe korrekt und zuverlässig aus-
führbar sind. Wegen der steigenden Datenmassen und Komplexität der Prozessab-
läufe werden solche Untersuchungen immer dringender, damit uns am Ende die
Algorithmenwelt nicht aus dem Ruder läuft.
Die Grundlagen der mathematischen Beweistheorie, Algorithmen, Computer-
programme und ihre philosophischen Wurzeln sind daher ein dringendes Desiderat
5 vgl. Haken, Hermann: Synergetics. An Introduction. Berlin 1983(3) sowie Mainzer, Klaus:
Thinking in Complexity. The Computational Dynamics of Matter, Mind, and Mankind. New
York 2007(5).
44 Klaus Mainzer
6 Turing, Alan M.: The chemical basis of morphogenesis. In: Philosophical Transactions of the
Royal Society. London, Series B, 237, 1952, S. 37–72.
7 Mainzer, Klaus; Chua, Leon: Local Activity Principle. London 2013.
Die Berechenbarkeit von Technik und Wissenschaft 45
Allgemein heißt eine Zelle lokal aktiv, wenn an einem zellulären Gleichge-
wichtspunkt ein kleiner lokaler Input existiert, der mit einer externen Energiequelle
zu einem großen Output verstärkt werden kann. Die Existenz eines solchen Inputs,
der lokale Aktivität auslöst, kann mathematisch durch bestimmte Testkriterien sys-
tematisch geprüft werden. Eine Zelle heißt lokal passiv, wenn es keinen Gleichge-
wichtspunkt mit lokaler Aktivität gibt. Das fundamental Neue an diesem Ansatz ist
der Beweis, dass Systeme ohne lokal aktive Elemente prinzipiell keine komplexen
Strukturen und Muster erzeugen können.
Neu ist auch der mathematische Beweis, dass nicht nur lokal aktive und in-
stabile Zustände Veränderungen auslösen. Es ist zunächst aus dem Alltag intuitiv
einleuchtend, dass z. B. eine instabile politische Situation einer Revolution und
Gesellschaftsveränderung vorausgehen muss. Bereits Turing hatte aber wenigstens
für einfache Fälle gezeigt, dass auch stabile Systeme, wenn sie dissipativ gekop-
pelt werden, neue Strukturbildungen auslösen können. In diesem Fall sind stabile
Zustände quasi wie „tote“ chemische Substanzen, die durch geeignete dissipative
Wechselwirkung „zum Leben erweckt“ werden. Wir sprechen dann von lokal ak-
tiven, aber asymptotisch stabilen Zuständen, die „am Rand des Chaos“ (edge of
chaos) ruhen. Sie wurden z. B. von Prigogine nicht berücksichtigt.8
Strukturbildung in der Natur lässt sich mathematisch systematisch klassifizie-
ren, indem Anwendungsgebiete durch Reaktions-Diffusionsgleichungen nach den
eben beschriebenen Kriterien modelliert werden. So haben wir z. B. die entspre-
chenden Differentialgleichungen für Musterbildung in der Chemie (z. B. Muster-
bildung in homogenen chemischen Medien), in der Morphogenese (z. B. Muster-
bildung von Muschelschalen, Fellen und Gefieder in der Zoologie), in der Gehirn-
forschung (Verschaltungsmuster im Gehirn) und elektronischen Netztechnik (z. B.
Verschaltungsmuster in Computern) untersucht.
Strukturbildungen entsprechen mathematisch nicht-homogenen Lösungen der
betrachteten Differentialgleichungen, die von unterschiedlichen Kontrollparame-
tern (z. B. chemischen Stoffkonzentrationen, ATP-Energie in Zellen, neurochemi-
schen Botenstoffen von Neuronen) abhängen. Für die betrachteten Beispiele von
Differentialgleichungen konnten wir systematisch die Parameterräume definieren,
deren Punkte alle möglichen Kontrollparameterwerte des jeweiligen Systems re-
präsentieren. In diesen Parameterräumen lassen sich dann mit den erwähnten Test-
kriterien die Regionen lokaler Aktivität und lokaler Passivität genau bestimmen,
die entweder Strukturbildung ermöglichen oder prinzipiell davon ausgeschlossen
sind. Mit Computersimulationen lassen sich für jeden Punkt im Parameterraum die
möglichen Struktur- und Musterbildungen erzeugen. In diesem mathematischen
Modellrahmen lässt sich also Struktur- und Musterbildung vollständig bestimmen
und voraussagen.
Manche Systemeigenschaften sind der jeweiligen Systemumgebung ange-
passt und setzen sich durch, andere zerfallen wieder und werden ausgesondert.
Dieses Zusammenspiel von Zufall und Selektion bei der Entstehung von neuen
Strukturen wurde erstmals von Charles Darwin am Beispiel der biologischen
9 Mayinger, Franz (Hg.): Mobility and Traffic in the 21st Century. Berlin 2001.
Die Berechenbarkeit von Technik und Wissenschaft 47
Wie lassen sich komplexe Systeme berechnen? Dazu müssen wir uns über die
Grundlagen des Berechenbarkeitsbegriffs klar werden. Mit der Turing-Maschine
wurde 1936 ein theoretischer Prototyp für Berechenbarkeit und Entscheidbarkeit
von Problemen definiert.10 Turing veranschaulichte seine Definition durch ein Re-
chenband, das in Arbeitsfelder eingeteilt ist, die mit Symbolen eines endlichen Al-
phabets (z. B. 0 und 1 als Bits) bedruckt werden können. Das Rechenband soll nach
beiden Seiten nach Bedarf verlängerbar sein, was der Annahme eines im Prinzip
unbegrenzten Speichers entspricht. Das Band kann von einem Lese- und Schreib-
kopf ein Feld nach links und nach rechts verschoben werden. Zudem gibt es einen
Stoppbefehl, wenn das Programm beendet ist. Das Erstaunliche ist, dass bis heute
jeder Laptop, jeder Supercomputer und jedes Smartphone durch Turing-Maschinen
simuliert werden kann. Nach einer These von Alonzo Church ist daher jeder Algo-
rithmus bzw. jedes Computerprogramm durch eine Turing-Maschine simulierbar.
Diese sogenannte Churchsche These ist das einzige Axiom, das die Informatik zu-
sätzlich zu den übrigen Axiomen der Mathematik benötigt. Darauf baut theoretisch
die gesamte Digitalisierung auf.
Ein Problem heißt Turing-entscheidbar, wenn seine Lösung durch eine Tu-
ring-Maschine (bzw. nach der Churchsche These durch einen äquivalenten tech-
nischen Computer) berechnet werden kann. Um aber Prozesse dynamischer Sys-
teme zu erfassen, müssen Komplexitätsgrade der Turing-Berechenbarkeit unter-
sucht werden. Komplexitätsgrade berücksichtigen z. B. die zeitliche Länge, den
benötigten Speicherplatz und in der Technik auch den Energieaufwand. Es ist
offensichtlich, dass die Komplexitätstheorie eine erhebliche technisch-ökonomi-
sche Bedeutung hat. Auf den Grundlagen von Algorithmen und komplexen dyna-
mischen Systemen bauen, wie im Folgenden deutlich wird, Robotik und künstli-
che Intelligenz auf.
Künstliche Intelligenz (KI) beherrscht längst unser Leben, ohne dass es vielen
bewusst ist. Smartphones, die mit uns sprechen, Armbanduhren, die unsere Ge-
sundheitsdaten aufzeichnen, Arbeitsabläufe, die sich automatisch organisieren, Au-
tos, Flugzeuge und Drohnen, die sich selbst steuern, Verkehrs- und Energiesysteme
mit autonomer Logistik oder Roboter, die ferne Planeten erkunden, sind technische
Beispiele einer vernetzten Welt intelligenter Systeme. Sie zeigen uns, wie unser
Alltag von KI-Funktionen bestimmt ist.
Turing definierte 1950 in dem nach ihm benannten Test ein System dann als in-
telligent, wenn es in seinen Antworten und Reaktionen nicht von einem Menschen
zu unterscheiden ist.11 Der Nachteil dieser Definition ist, dass der Mensch zum
Maßstab gemacht wird.
sich um verstärkendes Lernen (reinforcement learning), das aus der Robotik und
den Ingenieurwissenschaften wohlbekannt ist13: Das System erhält beim Problem-
lösen in festen Zeitintervallen Rückmeldungen (rewards), wie gut oder wie schlecht
es dabei ist, ein Problem zu lösen. Das System versucht dann seine Strategie zu opti-
mieren. Im Fall von Go wurden nur die einfachen Grundregeln programmiert. Nach
ersten verlorenen Spielen, trainierte das System quasi über Nacht mit Tausenden
von Spielen, die es blitzschnell gegen sich selber spielte. Damit hatte es schließlich
eine Spielerfahrung angesammelt, von der selbst die „Google“-Programmierer von
„AlphaGo“ überrascht waren.
Noch einen Schritt weiter geht 2017 ein Superrechner der Carnegie-Mellon
University mit der Software „Poker-Libratus“. Poker wurde immer als uneinnehm-
bare Festung menschlicher Raffinesse angesehen, da hier doch – so das Argument –
„Intuition“ und „Emotion“, eben das „Pokerface“, zum Einsatz kommen. Zudem ist
Poker im Unterschied zu Schach und Go ein Spiel mit unvollständiger Information.
„Libratus“ wendet wieder das verstärkende Lernen an, diesmal aber unter
Ausnutzung hochentwickelter mathematischer Spiel- und Wahrscheinlichkeits-
theorie.14 So werden in den Spielbäumen der Entscheidungen solche Entwick-
lungsäste zeitweilig „ausgeschnitten“ (pruning) bzw. ausgeschlossenen, die Akti-
onen mit schlechter Performance beinhalten. Das kann sich natürlich in späteren
Spielverläufen für die jeweiligen Spieläste ändern. Jedenfalls führt „Pruning“ zu
einer erheblich Zeitersparnis und Beschleunigung der Algorithmen, wenn das
Programm nicht mehr alle möglichen Spielzüge blind durchforsten muss. Nur
Aktionen, die Teil einer besten Antwort auf ein Nash-Gleichgewicht sind, werden
akzeptiert.15
„Libratus“ ist dem Menschen nicht nur in der blitzschnellen statistischen Aus-
wertung ungeheuer vieler Daten überlegen. Nachdem das System zunächst wie
ein Anfänger das Spiel verloren hatte, spielte es quasi über Nacht Millionen von
„Hands“ gegen sich selber, es lernte und übte und hatte schließlich einen Erfah-
rungsstand, der in einem Menschenleben nicht erreicht werden kann. Hinter der
von einigen Psychologen so vielgerühmten menschlichen Intuition verbergen sich
ebenfalls frühere Lernerfahrungen – nur im Umfang deutlich ärmlicher als in dieser
höchst effizienten Software mit Datenmassen von Spielen und menschlichem Ver-
halten, die im Gehirn eines menschlichen Spielers nicht verarbeitet werden können.
Man mag einwenden, dass es „nur“ raffinierte Mathematik plus gigantische
Computertechnologie ist, die den Menschen schlagen. Wenn aber solche Software
in absehbarer Zeit auch z. B. in allen möglichen Entscheidungssituationen der Tech-
nik, Wirtschaft und Politik mit unvollständiger Information zum Einsatz kommt,
dann werden wir mit unserer menschlichen Intuition alt aussehen: Die Entschei-
dungen werden – wie heute bereits im „Flashtrade“ an der Börse – in Intervallen
von Millisekunden getroffen werden können, ohne dass unser Gehirn in der Lage
13 Bishop, Christopher M.: Pattern Recognition and Machine Learning. Singapore 2006.
14 Sandholm, Tuomas: The state of solving large incomplete-information games, and application
to poker. In: AI Magazine 2010, S. 13–32.
15 Nash, John: Equilibrium points in n-person games. In: Proceedings of the National Academy of
Sciences 36, 1950, S. 48–49.
50 Klaus Mainzer
wäre, sie mit zu vollziehen. Daher sollten wir uns die Grundlagen diese Algorith-
men genau ansehen, um ihre Möglichkeiten und Grenzen zu bestimmen. Genau
diese mathematischen „Metatheoreme“, wie es im 1. Abschnitt hieß, bleiben die
intellektuelle Stärke von uns Menschen. Zudem ist menschliche Intuition von ty-
pisch menschlichen Erfahrungen und Empfindungen abhängig, die wir für wertvoll
halten und bewahrt wissen wollen. Das führt zu einer ethischen Perspektive von
Technikphilosophie, die über die erkenntnistheoretischen Fragen und den techni-
schen Einsatz von KI hinausführt.
Am Ende wird es nicht nur auf unsere intelligenten Fähigkeiten ankommen, in der
uns die Maschinen überlegen sind. Dann geht es auch um die Ziele und Werte, die
wir diesen Systemen vorgeben. Seit ihrer Entstehung ist die KI-Forschung mit gro-
ßen Visionen über die Zukunft der Menschheit verbunden. Löst die „künstliche In-
telligenz“ den Menschen ab? Einige sprechen bereits von einer kommenden „Super-
intelligenz“, die Ängste und Hoffnungen auslöst. Dieser Beitrag ist ein Plädoyer für
Technikgestaltung16: KI muss sich als Dienstleistung in der Gesellschaft bewähren.
Die Algorithmisierung und der Einbruch der Big-Data-Welt eröffnen ein neues
Wissenschaftsparadigma, wonach Wissenschaft ohne Digitalisierungstechnik weit-
gehend nicht mehr möglich ist. Naturwissenschaftler kommen heute bereits ohne
den Einsatz intelligenter Software und großer Rechenkapazität nicht mehr aus. Das
Higgsteilchen beispielsweise wurde nicht wie weiland ein Planet am Himmel von
einem Wissenschaftler beobachtet, sondern durch Software und Superrechner aus
Milliarden von Messdaten als höchstwahrscheinliches Datenmuster herausgefiltert.
In den Life Sciences ist es mittlerweile eine Software des Machine Learning, die
Korrelationen in den Daten von z. B. Proteinnetzen entdeckt, um eine neue For-
schungshypothese vorzuschlagen.
Diese Art von „Technomathematik“ und „Technowissenschaft“ darf allerdings
nicht von ihren theoretischen Grundlagen abgekoppelt werden. In kritischer Ausei-
nandersetzung mit Steven Wolfram („A New Kind of Science“) und Chris Ander-
son („Big Data – End of Theory“) erkennen wir die Gefahren, die in einer nur noch
datengetriebenen (data-driven) Wissenschaft lauern, wenn blind auf Algorithmen
vertraut wird. In der Medizin könnten Big-Data-Algorithmen z. B. statistische Kor-
relationen einer chemischen Substanz zur Tumorbekämpfung bestimmen. In einer
datengläubigen Welt könnten dann sowohl der Profitwunsch eines Pharmakonzerns
als auch der Wunsch betroffener Patienten den Druck erhöhen, daraus ein ent-
sprechendes Medikament zu entwickeln. Eine nachhaltige Therapie wird aber nur
möglich sein, wenn molekularbiologische Grundlagenforschung die Kausalität zel-
lulären Tumorwachstums erklären kann. Statistische Korrelationen ersetzen keine
Kausalitätsanalyse. Auch hier ist wieder ein Plädoyer für Grundlagenforschung an-
gebracht, um die Leistungsfähigkeit und Grenzen von Algorithmen und Big Data
abschätzen zu können. Erst wenn wir die Leistungsfähigkeit und Grenzen unserer
Instrumente kennen, können wir sie uns dienstbar machen.
Damit sind Herausforderungen von Risiko und Ethik verbundenen. Wachsende
Automatisierung ist die Antwort der Technik auf die wachsende Komplexität der
Zivilisation. Menschen scheinen mit ihren natürlichen Fähigkeiten der Kontrolle
und Analyse zunehmend überfordert. Schnelle und effiziente Algorithmen ver-
sprechen bessere Kontrolle und Problemlösung in einer unübersehbaren Daten-
flut. Zu welchen Risiken führen komplexe soziotechnische Systeme, Finanz- und
Wirtschaftssysteme, aber auch Automatisierung durch Roboter und autonome Ent-
scheidungssysteme in Technik und Gesellschaft?17 Sind die Konstrukte traditionel-
ler Ethik obsolet, die von einer Autonomie des Menschen ausgehen? Hier sollten
wir die menschliche Urteilskraft stärken – im Gegensatz zu den Verheißungen des
Transhumanismus im Silicon Valley.18 Technik unterliegt keiner naturwüchsigen
Evolution, sondern muss für uns gestaltbar bleiben – trotz wachsender Effizienz
und Automatisierung.19
LITERATUR
acatech (Hg.): Cyber-Physical Systems. Innovationsmotor für Mobilität, Gesundheit, Energie und
Produktion. Berlin 2011.
acatech (Hg.): Technikzukünfte. Vorausdenken – Erstellen – Bewerten. Berlin 2012.
Bauer, Friedrich L.: Was heißt und was ist Informatik? In: IBM 223, 1974, S. 334.
Bishop, Christopher M.: Pattern Recognition and Machine Learning. Singapore 2006.
Braitenberg, Valentino; Radermacher, Franz Josef (Hg.): Interdisciplinary Approaches to a New
Understanding of Cognition and Consciousness. Ergebnisband Villa Vigoni Konferenz, Italy
1997. Ulm 2007.
Haken, Hermann: Synergetics. An Introduction. Berlin 1983(3).
Heidegger, Martin: Was heißt Denken? Tübingen 1954.
Hölger, Stefan: Wider den Transhumanismus. Rezension des Buchs „Künstliche Intelligenz“ von
Klaus Mainzer. In: Spektrum der Wissenschaft 14.3.2017.
Kornwachs, Klaus: Technikphilosophie – eine Einführung. München 2013.
ders.: Philosophie für Ingenieure. München 2014.
Mainzer, Klaus: Die Berechenbarkeit der Welt. Von der Weltformel zu Big Data. München 2014.
ders.: Information. Algorithmus – Wahrscheinlichkeit – Komplexität – Quantenwelt – Leben – Ge-
hirn – Gesellschaft. Berlin 2016.
ders.: Künstliche Intelligenz – wann übernehmen die Maschinen? Berlin 2016.
ders.: Thinking in Complexity. The Computational Dynamics of Matter, Mind, and Mankind. New
York 2007(5).
Mainzer, Klaus; Chua, Leon: Local Activity Principle. London 2013.
Mayinger, Franz (Hg.): Mobility and Traffic in the 21st Century. Berlin 2001.
Nash, John: Equilibrium points in n-person games. In: Proceedings of the National Academy of
Sciences 36, 1950, S. 48–49.
Prigogine, Ilya: From Being to Becoming. San Francisco 1980.
Sandholm, Tuomas: The state of solving large incomplete-information games, and application to
poker. In: AI Magazine 2010, S. 13–32.
Schrödinger, Erwin: What is Life? The Physical Aspect of the Living Cell, Mind and Matter. Cam-
bridge 1948.
Turing, Alan M.: Computing Machinery and Intelligence. In: Mind. Bd. LIX, Nr. 236, 1950, S. 433–460.
ders.: On computable numbers, with an application to the Entscheidungsproblem. In: Proceedings of
the London Mathematical Society. 2 42, 1937, S. 230–265, Korrektur dazu 43, 1937, S. 544–
546.
ders.: The chemical basis of morphogenesis. In: Philosophical Transactions of the Royal Society.
London, Series B, 237, 1952, S. 37–72.
GIBT ES MAKROSKOPISCHE VERSCHRÄNKUNGEN
ZWISCHEN MENSCH UND MASCHINE?
ZUSAMMENFASSUNG
Die alte philosophische Frage nach Körper und Geist – res extensa und res cogi-
tans – tritt beim Problem der „künstlichen Intelligenz“ (KI) in ganz neuer Weise in
Erscheinung. Das „Imitation Game“ war ein Gedankenexperiment, das sich Alan
M. Turing (1912–1954) ausgedacht hatte, um die Frage zu klären, ob man einem
Computer unter bestimmten Umständen „Bewusstsein“ zubilligen müsse. Mit
dem Begriff der „Verschränkung“ lässt sich diese Fragestellung weiter präzisieren
und experimentell überprüfen. Es werden Experimente vorgestellt, bei denen Ver-
schränkungs-Korrelationen zwischen quantenphysikalischen Zufallsprozessen und
verschiedenen psychologischen Variablen menschlicher Beobachter nachgewiesen
werden konnten. Ob man damit der Realisierung von Computern mit Bewusstsein
einen Schritt näher gekommen ist, bleibt abzuwarten.
EINFÜHRUNG
1 vgl. Jordan, Pascual: Verdrängung und Komplementarität. Hamburg 1947 sowie Primas, Hans:
Time-asymmetric phenomena in biology complementary exophysical descriptions arising from
deterministic quantum endophysics. In: Open Systems & Information Dynamics 1(1), 1992,
pp. 3–34.
54 Walter von Lucadou
Alan Turing hat gezeigt, dass jeder Computer, ganz gleich ob es sich um ein Smart-
phone oder das Rechenzentrum einer Universität handelt, durch eine ganz einfache
Anordnung dargestellt werden kann, eine einfache Maschine, die nur aus drei Tei-
len besteht, nämlich einem unendlich langen Band mit unendlich vielen sequentiell
angeordneten Feldern und einem Programm, welches den Lese- und Schreibkopf,
der sich auf diesen Bändern hin- und her bewegen kann, steuert. Bei dem Programm
handelt es sich im Prinzip um eine geschriebene Anweisung, welche festlegt, in
welche Richtung sich das Band bewegen und ob gelesen oder geschrieben werden
soll. Das Programm schreibt vor, wie sich der Lese- und Schreibkopf bewegt (einen
Schritt vorwärts oder rückwärts oder ob er auf der Stelle stehen bleibt) und ob er
einen Inhalt des Bandes lesen oder einen neuen Inhalt auf das Band schreiben soll
(in der Regel genügen die beiden Zeichen „0“ und „1“). Ferner wird bei jedem
Programmschritt festgelegt, welcher Programmschritt aufgrund der jeweiligen Si-
tuation (gelesenes oder geschriebenes Zeichen) als nächstes erfolgt. Erhält die Ma-
schine am Ende keine neue Anweisung mehr, so bleibt die Turingmaschine stehen.
Die Frage, welche Probleme von Turingmaschinen berechnet werden können,
wird durch die Churchsche These (benannt nach Alonzo Church und Alan Turing,
1936), beleuchtet. Sie besagt, dass die Gruppe aller intuitiv berechenbaren Pro-
bleme (womit Probleme gemeint sind, von denen der Mensch vernünftigerweise
annehmen kann, sie formal darstellen zu können) genau mit der Klasse der Turing-
berechenbaren Funktionen übereinstimmt. Das hieße, dass der Computer alle ver-
nünftig darstellbaren Probleme auch berechnen kann. Diese These wurde übrigens
bereits im 13. Jahrhundert von Raimundus Lullus als „ars magna“ vorhergesehen,
als Imagination einer Maschine, die in der Lage wäre, alle Probleme der Mensch-
heit, nicht nur die mathematischen, zu lösen. Die Churchsche These, die sich al-
lerdings nicht beweisen lässt, weil der Begriff „intuitiv berechenbare Funktion“
nicht exakt formalisiert werden kann, geht natürlich sehr weit, und die gesamte
Forschung zur künstlichen Intelligenz basiert auf ihr.
7 Atmanspacher, Harald; Römer, Hartmann; Walach, Harald: Weak quantum theory. Comple-
mentarity and entanglement in physics and beyond. In: Foundations of Physics, 32, 2002,
pp. 379–406 sowie Lucadou, Walter von; Römer, Hartmann; Walach, Harald: Synchronistic
Phenomena as Entanglement Correlations in Generalized Quantum Theory. In: Journal of Con-
sciousness Studies, 14, 4, 2007, pp. 50–74.
56 Walter von Lucadou
Die bisherigen Modelle der Neuro- und Kognitionswissenschaften sind in erster Li-
nie von klassischen, also lokalen Modellen bestimmt. Obwohl es sich in der Physik,
Chemie und ansatzweise sogar in der Biologie und Psychologie gezeigt hat, dass
sich klassische Modelle als obsolet erwiesen haben, wird von den meisten Neuro-
wissenschaftlern das menschliche Gehirn als zwar komplexer, aber doch determi-
nistischer Biocomputer verstanden. Neurowissenschaftliche Laien bestehen dage-
gen zumeist hartnäckig auf der realen Existenz des handelnden Ichs und zwar in
einem tendenziell dualistischen Sinne.8 Man sagt nämlich nicht: „Ich bin ein Gehirn
oder ein Körper“, sondern „Ich habe ein Gehirn und einen Körper“. Typischerweise
existiert das Wort „Ich“ in allen Kulturen und allen Sprachen zur Kennzeichnung
der eigenen handelnden oder erlebenden Person, und es gibt mittlerweile auch bei
einigen Primaten oder einigen Meeressäugern Hinweise dafür, dass sie sich als han-
delndes Subjekt erkennen können.
Mit der Formulierung der verallgemeinerten Quantentheorie9 als systemtheo-
retischem Ansatz ergibt sich nun allerdings eine überraschende Möglichkeit zur
Lösung der vermeintlichen Diskrepanz zwischen dem intuitiven und dem natu-
ralistischen Modell des „freien Willens“ und zwar dadurch, dass angenommen
wird, dass die Grundstruktur der Quantentheorie ein sehr allgemeines Schema
darstellt, das der Natur in allen Bereichen (z. B. auch in der Psychologie) zu-
grunde liegt, während es sich beim klassischen kausalreduktionistischen Modell
um einen Spezialfall handelt, der in ausgewählten Bereichen der (klassischen)
Physik gilt, für den aber nicht von vorneherein feststeht, ob er tatsächlich für
allgemeine Systeme zutrifft. Bei der verallgemeinerten Quantentheorie handelt
es sich also um eine theoretische Struktur, die die naturalistische Auffassung als
Spezialfall enthält.
Ein Unterschied zu klassischen Strukturen tritt erst in dem Moment auf, wenn
zwei Beschreibungsgrößen (Observablen) A und B nicht kommutieren. Das heißt,
dass die Messergebnisse von A und B von der Reihenfolge ihrer Messung abhängen
und zu unterschiedlichen Messresultaten führen. A und B werden dann als „kom-
plementäre“ Observablen bezeichnet, andernfalls als „kompatibel“. In der Psycho-
logie und Soziologie sind komplementäre Verhältnisse allerdings eher die Regel als
die Ausnahme. So wird man z. B. nicht erwarten, dass das Ergebnis eines anstren-
genden Intelligenztests und das eines Stimmungsfragebogens nicht von der Reihen-
folge der „Messung“ abhängen, wohingegen dies bei der Länge und dem Gewicht
eines Tisches sehr wohl der Fall ist.
So kann man annehmen, dass es sich bei der neurologischen Beschreibung
des Gehirns und der Beschreibung des Bewusstseins (aus der „Ich-Perspektive“)
um komplementäre Observablen handelt; Zeichenerkennung und Gestaltwahr-
nehmung, Kontrolle und Vertrauen, wären weitere mögliche Beispiele. Es muss
8 Reuter, Bernhard M.: Zur Psychophysiologie der Ich-Identität. Zeitschrift für Parapsychologie
und Grenzgebiete der Psychologie, 38, 1996, S. 115–135.
9 Atmanspacher et al., a. a. O.
Gibt es makroskopische Verschränkungen zwischen Mensch und Maschine? 57
10 Wenn man z. B. die „Freiheit“ einer bewussten Entscheidung als eine globale Beschreibungsgröße
für einen bestimmten Zustand des Gehirns auffasst, wird man also nicht erwarten können, diese aus
den lokalen neurophysiologischen Zuständen des Gehirns eindeutig herleiten zu können. Dies
schließt natürlich nicht aus, dass zwischen beiden Beschreibungsgrößen korrelative Zusammen-
hänge bestehen (vgl. Römer, Hartmann; Walach, Harald: Complementarity of phenomenal and
physiological observables. A primer on generalised quantum theory and its scope for neuroscience
and consciousness studies. In: Walach, Harald; Schmidt, Stefan; Jonas, Wayne B. (Eds.): Neurosci-
ence, consciousness and spirituality. Dordrecht, Heidelberg, London, New York 2011. pp. 97–107.).
11 Lucadou, Walter von: Makroskopische Nichtlokalität. In: Kratky, Karl W. (Hg.): Systemische
Perspektiven: Interdisziplinäre Beiträge zu Theorie und Praxis. Heidelberg 1991. S. 45–63.
12 vgl. Römer, Hartmann: Verschränkung. In: Knaup, Marcus; Müller, Tobias; Spät, Patrick (Hg.):
Post-Physikalismus. Bamberg 2013. S. 87–121; Lucadou, Walter von; Römer, Hartmann; Wa-
lach, Harald: Synchronistic Phenomena as Entanglement Correlations in Generalized Quantum
Theory. In: Journal of Consciousness Studies, 14, 4, 2007, pp. 50–74.; Walach, Harald; Lucadou,
Walter von; Römer, Hartmann: Parapsychological Phenomena as Examples of Generalised Non-
local Correlations. A Theoretical Framework. In: Journal of Scientific Exploration, Vol. 28, No. 4,
2014, pp. 605–631.; Walach, Harald; Römer, Hartmann: Complementarity is a useful concept for
consciousness studies. A Reminder. In: Neuroendocrinology Letters, 21, 2000, pp. 221–232.
13 Dieser Sachverhalt kann als das stärkste Argument gegen die naturalistische Position angese-
hen werden: In einem klassischen kausalreduktionistischen Modell kann es keine nicht-kausa-
len Zusammenhänge geben. Allerdings eröffnen gerade die Verschränkungskorrelationen in-
nerhalb organisatorisch geschlossener Systeme (z. B. einer Gesellschaft) eine neue Sicht auf die
Frage, was Verbindlichkeit (eines Wertesystems) bedeutet, und wie sie hergestellt werden kann
58 Walter von Lucadou
Kant hat in seiner Kritik der reinen Vernunft dargelegt, dass Raum, Zeit und Kausa-
lität gewissermaßen vor (a priori) der Vernunft existieren und erst die Bedingungen
für dieselbe schaffen. Diese Einsicht findet heute eine grandiose Bestätigung in
der Psychologie durch das sogenannte Repräsentationsmodell17, welches besagt,
(Lucadou, Walter von; Römer, Hartmann: Schuld, Person und Gesellschaft. Systemische Pers-
pektiven. In: Kick, Hermes Andreas; Schmitt, Wolfram (Hg.): Schuld – Bearbeitung, Bewälti-
gung, Lösung. Strukturelle und prozessdynamischer Aspekte. Berlin 2011. S. 79–97.).
14 In der Physik kann dies bei den sogenannten „delayed-choice-Experimenten“ oder dem „nega-
tive result measurement“ (Renninger, Mauritius: Messungen ohne Störungen des Messobjekts.
Zeitschrift für Physik, 158, 1960, S. 417–421.) demonstriert werden: Das bloße Vorhandensein
eines Teilchen-Detektors bei einem Doppelspalt-Experiment, der Aufschluss über den Weg ei-
nes Teilchens liefern könnte, zerstört das Interferenzmuster, selbst dann, wenn das Teilchen gar
nicht entdeckt wird. Für die hier diskutierten Fragestellungen hat dieser Sachverhalt nicht un-
erhebliche Konsequenzen; So wirkt sich z. B. die Etablierung von gesellschaftlichen Kontroll-
systemen auf individuelles Handeln selbst dann aus, wenn gar keine Kontrollen durchgeführt
werden und die Betroffenen gar nichts davon wissen.
15 Beutler, J. J.; Attevelt, J. T. M.; Geijskes, G. G.; Schouten, S. A.; Faber, J. A. J.; Mees, E. J. D.: The Effect
of Paranormal Healing on Hypertension. In: Journal of Hypertension, 5 (suppl. 5), 1987, pp. 551–552.
16 vgl. Lucadou, Walter von: Locating Psi-Bursts. Correlations Between Psychological Characte-
ristics of Observers and Observed Quantum Physical Fluctuations. In: Cook, E. W.; Delanoy,
Deborah L. (Eds.): Research in Parapsychology 1991. Metuchen, NJ, 1994. pp. 39–43. Eine
ähnliche Einstellungs-verändernde Erfahrung findet sich bei religiösen Konversions-Erlebnis-
sen. Häufig wurden solche Flow-ähnlichen Erfahrungen (Csikszentmihalyi, 2000) der seeli-
schen Kohärenz auch von Menschen berichtet, die unter Bedrohung ihres eigenen Lebens an-
deren Menschen vor Verfolgung geholfen haben. Aus der Sichtweise des hier vorgeschlagenen
Modells spiegeln solche Erfahrungen nicht-kausale Korrelationen in organisatorisch geschlos-
senen sozio-psychologischen Systemen wieder. Um es eher poetisch auszudrücken: Globale
Observablen in der Psychologie und Soziologie haben etwas „Magisches“; Albert Einstein (et.
al., a. a. O.) hatte sie als „ghostly interactions“ bezeichnet.
17 Tholey, P.: Erkenntnistheoretische und systemtheoretische Grundlagen der Sensumotorik aus
Gibt es makroskopische Verschränkungen zwischen Mensch und Maschine? 59
dass die subjektive Vorstellung von Realität nicht die Realität selbst, sondern ein
Abbild derselben darstellt, die als mentale Repräsentation vermittels der afferenten
Nervenreizungen aus den Sinnesorganen im Zentralnervensystem entstehen. Um
es einfach auszudrücken, besteht unsere subjektive Realität aus einer Art „Kino im
Kopf“. In der Aufklärung, deren wichtigster Vertreter Kant war, wird jedoch die
menschliche Kognition ausschließlich unter dem Aspekt der Vernunft bzw. Ratio
gesehen. Subjektive oder vermeintlich irrationale Aktionen unserer mentalen Akti-
vität wurden dagegen als minderwertig betrachtet. Es ist daher nicht verwunderlich,
dass in der behavioristischen Psychologie und auch in der künstlichen Intelligenz
mentale Vorgänge hauptsächlich unter Paradigmen, die dem klassischen Weltbild
zugrunde liegen, beschrieben werden.
Ein weiteres wichtiges Charakteristikum der VQT ist die Unterscheidung der
Exo- und Endo-Perspektive.18 In der Endo-Exophysik wird systematisch berück-
sichtigt, dass der „Beobachter“ ein Teil der beobachteten Welt ist, dass aber die
Welt auch ohne (menschlichen) „Beobachter“ existieren kann. Durch die Unter-
scheidung der Exo- und Endoperspektive wird verständlich, weshalb die Cartesi-
anische Trennung der „res cogitans“ von der „res extensa“ unter bestimmten Um-
ständen tatsächlich aufgehoben sein könnte.
Die „Ort- und Zeitlosigkeit“ von Verschränkungskorrelationen lässt sofort an die
Exo-Endo-Unterscheidung in der algebraischen Quantenphysik19 denken. Abbildung
1 zeigt die Aufteilung des „universe of discourse“ (das, worüber man reden kann)
in vier Bereiche, die durch den Cartesischen und den Heisenberg-Schnitt beschrie-
ben werden. Der Cartesische Schnitt bildet die Grenze zwischen den mentalen und
den physikalischen Beschreibungsgrößen der Welt. Der Heisenberg-Schnitt dagegen
drückt die Trennung zwischen dem epistemischen (gemessenen) und dem ontischen
Bereich aus. Die psycho-physikalische Welt kann also in den Bereich „Vernunft und
Technik“ auf der epistemischen Seite und „Seele und Natur“ auf der „ontischen“ Seite
aufgeteilt werden, in der es jedoch keinen Cartesischen Schnitt geben kann.
Fügt man den klassischen Kategorien der Erkenntnis, diese „neue“ nicht-klassi-
sche „Kategorie der Verschränkung“ hinzu, dann sind (wegen 4. im letzten Kapitel)
diese Kategorien nicht bloß „Filter“ der Erkenntnis, sondern Konstrukte, die sich
gewissermaßen „aktiv“ auf den „Universe of Discourse“ auswirken. Wie bei der
Erfahrung von Raum, Zeit und Kausalität können auch bei der Verschränkung Irr-
tümer und Wahrnehmungstäuschungen auftreten, ohne dass es gerechtfertigt wäre,
Verschränkungserfahrungen generell als Illusionen zu betrachten. Verschränkungs-
wahrnehmungen sind somit wichtiger Bestandteil von allen Bereichen menschli-
chen Lebens und spielen – so wird hier vermutet – auch bei der Mensch-Maschine-
Interaktion eine wichtige Rolle.20 Hierzu gibt es jede Menge anekdotische Erfah-
rungsberichte, die meist mit einem „Augenzwinkern“ vorgetragen werden.21
Der Biologe Francisco Varela hat den wichtigen Begriff der organisierten Geschlos-
senheit geprägt22, der einen symbiotischen Zustand von Teilsystemen bezeichnet (z. B.
Verliebtheit, Mutter-Kind-Beziehung aber auch ein Ameisenhaufen), dessen einzelne
Konstituenten eben nur in ihrer Gesamtheit dargestellt werden können. Durch die
VQT wird verständlich, dass es sich dabei um ein verschränktes System handeln muss.
Bewusstsein wird vom Gegenüber im direkten Kontakt gespürt und zugebilligt. Ob
mein Gegenüber über ein Bewusstsein verfügt, ist somit keine kognitive, rationale
Entscheidung, sondern eine unmittelbare Erfahrung von Verschränkung.
Voraussetzung für organisierte Geschlossenheit ist Selbstorganisation. Sie ist
dadurch charakterisiert, dass mindestens zwei Beschreibungsebenen, die Exo-,
Endo-Perspektive zur Beschreibung notwendig sind, sich das System in einem
Fließgleichgewicht von äußeren Ressourcen befindet und somit quasi-intelligentes
Verhalten, d. h. Muster mit niedriger Entropie erzeugen kann, die sich selbstverstär-
kend ausbreiten und für Adaptivität, Autonomie und Plastizität sorgen.
Ist eine solche Erfahrung der organisierten Geschlossenheit auch im Kontakt
mit einem Computer möglich und nachweisbar? 2012 hat eine amerikanische For-
schergruppe23 einen selbstorganisierenden Roboter gebaut, der über Sinne verfügt,
so dass er in einer fremden Umgebung Kontakt aufnehmen und Sinneseindrücke
sammeln muss, um dann eigenständig Rückschlüsse auf ein adäquates Verhalten
zu ziehen. Das Experiment zeigte, dass die Maschine auf fast schon gespenstische
Weise in der Lage war, in einer realen Umgebung aus ihren Wahrnehmungen zu
lernen. Obwohl der Roboter nicht „wusste“, dass er sich bewegen kann, „lernte“ er
sich fortzubewegen. Die Maschine konnte allerdings nur im Kontakt mit einer rea-
len Umgebung, also durch ihr „Embodiment“, lernen. Genau genommen sind sol-
che Maschinen keine Turingmaschinen mehr, weil sie Elemente der „realen Welt“
(z. B. Sensoren) enthalten. Sie sind somit eher „psychophysikalische“ Systeme.
Aus dem bisherigen folgt, dass der Nachweis einer Verschränkung zwischen
Mensch und Maschine den Turing-Test (Imitation Game) in einem vollkommen
neuen Licht erscheinen lassen würde. Darauf hatte übrigens Turing 1950 bereits
selbst hingewiesen: „These disturbing phenomena seem to deny all our usual sci-
entific ideas. How we should like to discredit them! Unfortunately the statistical
evidence, at least for telepathy, is overwhelming.“
Um eine solche Verschränkung nachweisen zu können, müssen allerdings alle
kausalen Zusammenhänge zwischen einem Probanden und einer Maschine, mit der
er sich verschränken soll, ausgeschlossen werden. Dies ist eine höchst artifizielle
Situation, die in der Natur so gut wie niemals vorkommt, weil sich kausale und
Verschränkungsprozesse in organisatorisch geschlossenen Systemen immer gegen-
seitig bedingen und „unterstützen“. Es war auch in der Physik experimentell und
messtechnisch sehr schwierig, reine Verschränkungskorrelationen (vgl. Fußnote 14)
zu isolieren. Das ist auch der Grund, weshalb bisher noch keine gebrauchsfertigen
„Quantencomputer“ existieren, die übrigens ebenfalls keine Turingmaschinen sind.
Trotz dieser Schwierigkeiten ist es in den letzten 30 Jahren gelungen, solche
Verschränkungskorrelationen bei Mensch-Maschine-Experimenten nachzuweisen.24
23 Prof. Dr. Hod Lipson, Cornell University, 19. Januar 2012, swissnex, San Francisco, CA, FORA.tv.
24 Lucadou, Walter von: Experimentelle Untersuchungen zur Beeinflussbarkeit von stochasti-
schen quantenphysikalischen Systemen durch den Beobachter. Frankfurt 1986; ders.: Keine
Spur von Psi. Zusammenfassende Darstellung eines umfangreichen Psychokineseexperiments.
In: Zeitschrift für Parapsychologie und Grenzgebiete der Psychologie, 28, 1986, S. 169–197;
ders.: A multivariate PK experiment. Part III. Is PK a real force? The results and their interpre-
tation. In: European Journal of Parapsychology, 6, 4, 1987, pp. 369–428; ders.: A Multivariate
PK Experiment with unidirectional correlated RNGs. In: Morris, R. L. (Ed.): The Parapsycho-
logical Association 30th Annual Convention. Proceedings of Presented Papers. 1987. Parapsy-
chological Association. pp. 255–261; ders: Locating psi-bursts. Correlations between psycho-
logical characteristics of observers and observed quantum physical fluctuations. In: Delanoy,
62 Walter von Lucadou
Das Ergebnis bestätigte frühere Studien: Die Art und Weise, wie die Ver-
suchspersonen die Tasten drückten, korreliert signifikant mit dem unabhängigen
Zufallsprozess. Dies zeigt sich daran, dass in einer Korrelationsmatrix, wo alle
psychologischen Variablen den physikalischen Variablen gegenübergestellt wer-
den, signifikante Korrelationen zwischen den jeweiligen Variablenpaaren (psycho-
logisch – physikalisch) auftauchen, die in der Kontroll-Korrelationsmatrix fehlen.
Die Kontroll-Korrelationsmatrix wird mit dem Kontrolldatensatz (ohne Display)
und den gleichen psychologischen Variablen erzeugt.26
Die Struktur der Daten erlaubt die Schlussfolgerung, dass die beobachteten Kor-
relationen (in der experimentellen Matrix) als Verschränkungskorrelationen betrachtet
werden können. Es konnte außerdem gezeigt werden, dass die Struktur der Verschrän-
kungskorrelationsmatrix zeitlich nicht stabil ist (wie vom NT-Axiom gefordert27) und
sich verändert, wenn das Experiment wiederholt wird. Die Ergebnisse sind in Über-
einstimmung mit den Voraussagen der „Verallgemeinerten Quantentheorie (VQT)“.
In der Zwischenzeit wurden ähnliche Studien von verschiedenen Autoren an
mehreren unabhängigen Forschungseinrichtungen mit ganz ähnlichen Resultaten
vorgelegt (Tabelle 1), so dass man als Fazit – mit einer gewissen Vorsicht – schlie-
ßen kann, dass sich (genügend motivierte) Versuchspersonen mit kausal unabhän-
gigen physikalischen Zufallsprozessen verschränken können.
Psych Phys N N
Publikation Subjects # Corr D
Var Var sig cont
Lucadou 1986 Markov 299 24 23 552 34 11 4,95
Lucadou 1986 Schmidt 299 24 22 528 11 4 2,48
Lucadou 1991 307 16 8 128 28 13 3,10
Radin 1993 1 16 23 368 32 17 2,63
Lucadou 2006 motivated 386 27 20 540 93 42 5,79
Lucadou 2006 non-motivated 386 27 20 540 53 42 1,25
Lucadou 2006 Innovatives 220 27 20 540 60 42 2,05
Faul, Braeunig 2010 22 24 9 216 17 10 1,60
Walach et al 2014 503 45 45 2025 278 198 4,23
Grote 2016 20 6 5 30 6 1 3,60
Jolij 2016 105 10 60 600 82 52 3,08
Flores 2016 213 45 45 2025 362 173 10,62
Tabelle 1: Ergebnis aller bisherigen Korrelationsstudien: Nsig zählt die Anzahl von signifikanten
Korrelationen in der Korrelationsmatrix zwischen den psychologischen Variablen (Psych Var)
und den physikalischen Variablen (Phys Var), Ncont diejenigen in der Kontrollmatrix.
(#corr = Psych Var x Phys Var), Nsubj = Anzahl der Versuchspersonen,
Standardisierte Differenz D = (Nsig – Ncont)/√(2* Ncont*(1- Ncont/#corr)).
26 vgl. ders.: The Model of Pragmatic Information (MPI). In: May, Edwin C.; Marwaha, Sonali
Bhatt (Eds.): Extrasensory Perception: Support, Skepticism, and Science. Vol. 1: History, Con-
troversy, and Research; Vol. 2: Theories and the Future of the Field. Santa Barbara, CA, 2015.
27 Lucadou, Walter von; Römer, Hartmann; Walach, Harald: Synchronistic Phenomena as Entan-
glement Correlations in Generalized Quantum Theory. In: Journal of Consciousness Studies,
14, 4, 2007, pp. 50–74.
64 Walter von Lucadou
MÖGLICHE KONSEQUENZEN
28 Lucadou, Walter von: Die Magie der Pseudomaschine. In: Belschner, Wilfried; Galuska, Joa-
chim; Walach, Harald; Zundel, Edith (Hg.): Transpersonale Forschung im Kontext. Oldenburg
2002: Transpersonale Studien 5, Bibliotheks- und Informationssystem der Universität Oldenburg.
Gibt es makroskopische Verschränkungen zwischen Mensch und Maschine? 65
LITERATUR
Atmanspacher, Harald; Römer, Hartmann; Walach, Harald: Weak quantum theory. Complementarity
and entanglement in physics and beyond. In: Foundations of Physics, 32, 2002, pp. 379–406.
http://arxiv.org/abs/quant-ph/0104109.
Beutler, J. J.; Attevelt, J. T. M.; Geijskes, G. G.; Schouten, S. A.; Faber, J. A. J.; Mees, E. J. D.: The
Effect of Paranormal Healing on Hypertension. In: Journal of Hypertension, 5 (suppl. 5), 1987,
pp. 551–552.
Bloch, Arthur: Murphy’s Law and other reasons why things go wrong. Los Angeles, CA, 1977.
Borges Flores, A.: Unpublished results. Personal communication. 2016.
Braeunig, Matthias; Faul, Tillmann: Die von Lucadousche Korrelationsmatrix am Beispiel des
T.REG Zufallsgenerators – Probleme und Resultate. Abstract 2010. XXVI. Workshop der wis-
senschaftlichen Gesellschaft zur Förderung der Parapsychologie e. V. (WGFP), 22. bis 24. Ok-
tober 2010 in Offenburg. The Meaning-Switch. Investigation of Precognition in an Operatio-
nally Closed System. Final Report for BIAL Project No. 98/06 (completed February 2009).
Csikszentmihalyi, Mihaly: Das Flow-Erlebnis. Jenseits von Angst und Langeweile im Tun aufge-
hen. 2000(8). (Übers.: Beyond Boredom and Anxiety. The Experience of Play in Work and
Games. Stuttgart 1975.)
Einstein, Albert; Podolsky, Boris; Rosen, Nathan: Can quantum mechanical description of physical
reality be considered complete? In: Physical Review, 47, 1935, pp. 777–780.
Grote, Hartmut: Multiple-analysis correlation study between human psychological variables and
binary random events. Submitted to Journal for Scientific Exploration, 2016.
Jolij, Jake: Conceptual replications of the correlation matrix method in main stream experiments.
International Symposium: Testing Generalised Entanglement: The Matrix Experiment –
Towards a Consortium Replication, Capri, October 27–29, 2016.
Jordan, Pascual: Verdrängung und Komplementarität. Hamburg 1947.
Kornhuber, Hans Helmut; Deecke, Lüder: Hirnpotentialänderungen bei Willkürbewegungen und
passiven Bewegungen des Menschen. Bereitschaftspotential und reafferente Potentiale.
In: Pflüger’s Archiv für die gesamte Physiologie des Menschen und der Tiere. Bd. 284, 1965,
pp. 1–17. doi:10.1007/BF00412364 PDF
Libet, Benjamin; Gleason, Curtis A.; Wright, Elwood W.; Pearl, Dennis K.: Time of conscious inten-
tion to act in relation to onset of cerebral activities (readiness potential).The unconscious initi-
ation of a freely voluntary act. In: Brain, 106, 1983, pp. 623–642.
Lucadou, Walter von: Experimentelle Untersuchungen zur Beeinflussbarkeit von stochastischen
quantenphysikalischen Systemen durch den Beobachter. Frankfurt 1986.
ders.: Keine Spur von Psi. Zusammenfassende Darstellung eines umfangreichen Psychokineseexpe-
riments. In: Zeitschrift für Parapsychologie und Grenzgebiete der Psychologie, 28, 1986,
S. 169–197.
ders.: A multivariate PK experiment. Part III. Is PK a real force? The results and their interpretation.
In: European Journal of Parapsychology, 6, 4, 1987, pp. 369–428.
ders.: A Multivariate PK Experiment with unidirectional correlated RNGs. In: Morris, R. L. (Ed.):
The Parapsychological Association 30th Annual Convention. Proceedings of Presented Papers.
1987. Parapsychological Association. pp. 255–261.
ders.: Locating psi-bursts. Correlations between psychological characteristics of observers and ob-
served quantum physical fluctuations. In: Delanoy, Deborah L. (Ed.): The Parapsychological
Association 34th Annunal Conventio. Proceedings of Presented Papers. Heidelberg 1991. Pa-
rapsychological Association. pp. 265–281.
ders.: Makroskopische Nichtlokalität. In: Kratky, Karl W. (Hg.): Systemische Perspektiven: Inter-
disziplinäre Beiträge zu Theorie und Praxis. Heidelberg 1991. S. 45–63.
ders.: Lassen sich „PK-Impulse“ lokalisieren? Korrelationen zwischen Persönlichkeitsmerkmalen
von Beobachtern und quantenphysikalischen Fluktuationen. In: Zeitschrift für Parapsychologie
und Grenzgebiete der Psychologie, 35, 1993, S. 41–70.
66 Walter von Lucadou
ders.: A new experiment suggesting non-local correlations in macroscopic complex systems. In:
Dalenoort, Gerhard J. (Ed.): The Paradigm of Self-Organization II. Studies in Cybernetics).
New York, London, Paris 1994. pp. 52–77.
ders.: Locating Psi-Bursts. Correlations Between Psychological Characteristics of Observers and
Observed Quantum Physical Fluctuations. In: Cook, E. W.; Delanoy, Deborah L. (Eds.): Re-
search in Parapsychology 1991. Metuchen, NJ, 1994. pp. 39–43.
ders.: The Exo-Endo-Perspective of Non-locality in Psycho-Physical Systems. In: International
Journal of Computing Anticipatory Systems, 2, 1989, pp. 169–185.
ders.: Backward Causation and the Hausdorff-Dimension of Singular Events. In: Steinkamp, Fiona
(Ed.): Proceedings of Presented Papers. The Parapsychological Association 43rd Annual Con-
vention August 17–20. Freiburg i. Br. 2000. pp. 138–147.
ders.: Die Magie der Pseudomaschine. In: Belschner, Wilfried; Galuska, Joachim; Walach, Harald;
Zundel, Edith (Hg.): Transpersonale Forschung im Kontext. Oldenburg 2002: Transpersonale
Studien 5, Bibliotheks- und Informationssystem der Universität Oldenburg.
ders.: Self-organization of temporal structures–a possible solution for the intervention problem.
In: Sheehan, Daniel P. (Ed.): Frontiers of Time. Retrocausation–Experiment and Theory. AIP
Conference Proceedings, Volume 863. Melville, New York 2006. pp. 293–315.
ders.: Complex Environmental Reactions as a New Concept to Describe Spontaneous ‘‘Paranormal’’
Experiences. In: Axiomathes, 21(2), 2010, pp. 263–285.
ders.: Selbstorganisation zeitlicher Strukturen. Eine mögliche Lösung für das Interventionsproblem.
In: Zeitschrift für Parapsychologie und Grenzgebiete der Psychologie, 47/48/49, 2005/2006/
2007, 2011, S. 63–88.
ders.: The Model of Pragmatic Information (MPI). In: May, Edwin C.; Marwaha, Sonali Bhatt
(Eds.): Extrasensory Perception: Support, Skepticism, and Science. Vol. 1: History, Contro-
versy, and Research; Vol. 2: Theories and the Future of the Field. Santa Barbara, CA, 2015.
ders.: Verschränkungswahrnehmung und Lebenskunst. In: Engelhardt, Dietrich von; Kick, Hermes
Andreas (Hg.): Lebenslinien – Lebensziele – Lebenskunst. Festschrift zum 75. Geburtstag von
Wolfram Schmitt. Reihe: Medizingeschichte. Bd. 6. Berlin 2014. S. 37–55.
ders.: The Correlation-Matrix Method (CMM). A New Light Upon the Repeatability Problem of
Parapsychology. In: Journal of Parapsychology, Vol. 79, Nr. 2, 2015, pp. 145–146.
Lucadou, Walter von; Römer, Hartmann; Walach, Harald: Synchronistic Phenomena as Entangle-
ment Correlations in Generalized Quantum Theory. In: Journal of Consciousness Studies, 14,
4, 2007, pp. 50–74.
Lucadou, Walter von; Römer, Hartmann: Schuld, Person und Gesellschaft. Systemische Perspekti-
ven. In: Kick, Hermes Andreas; Schmitt, Wolfram (Hg.): Schuld – Bearbeitung, Bewältigung,
Lösung. Strukturelle und prozessdynamischer Aspekte. Berlin 2011. S. 79–97.
Primas, Hans: Time-asymmetric phenomena in biology complementary exophysical descriptions
arising from deterministic quantum endophysics. In: Open Systems & Information Dynamics
1(1), 1992, pp. 3–34.
Radin, Dean: Enviromental modulation and statistical equilibrium in mind-matter interaction. In:
Subtle Energies and Energy Medicine 4, 1993, pp. 1–29.
Renninger, Mauritius: Messungen ohne Störungen des Messobjekts. Zeitschrift für Physik, 158,
1960, S. 417–421.
Reuter, Bernhard M.: Zur Psychophysiologie der Ich-Identität. Zeitschrift für Parapsychologie und
Grenzgebiete der Psychologie, 38, 1996, S. 115–135.
Römer, Hartmann: Verschränkung. In: Knaup, Marcus; Müller, Tobias; Spät, Patrick (Hg.): Post-
Physikalismus. Bamberg 2013. S. 87–121.
Römer, Hartmann; Walach, Harald: Complementarity of phenomenal and physiological observab-
les. A primer on generalised quantum theory and its scope for neuroscience and consciousness
studies. In: Walach, Harald; Schmidt, Stefan; Jonas, Wayne B. (Eds.): Neuroscience, con-
sciousness and spirituality. Dordrecht, Heidelberg, London, New York 2011. pp. 97–107.
Tholey, P.: Erkenntnistheoretische und systemtheoretische Grundlagen der Sensumotorik aus ge-
stalttheoretischer Sicht. In: Sportwissenschaft, 10, 1980, S. 7–35.
Gibt es makroskopische Verschränkungen zwischen Mensch und Maschine? 67
Turing, Alan M.: On Computable Numbers, with an Application to the Entscheidungsproblem. In:
Proceedings of the London Mathematical Society. Series 2. Nr. 42, 1936, pp. 230–265.
ders.: Computing machinery and intelligence. Mind, 59, 1950, pp. 433–460.
Uzan, Pierre: On the Nature of Psychophysical Correlations. In: Mind and Matter, Vol 12 (1), 2014,
pp. 7–36.
Varela, Francisco J.: Autonomy and autopoesis. In: Roth, Gerhard; Schwengler, Helmut (Eds.): Self-
Organizing Systems. Frankfurt, New York: Campus 1981. pp. 14–23.
Walach, Harald: Mind-Matter Interactions. On the Rollercoaster from Data to Theory and Back
Again. In: Aquém e Alén do Cérebro. Behind and Beyond the Brain 100 Simpósio da Fundação
Bial. 2014. pp. 85–114.
Walach, Harald; Lucadou, Walter von; Römer, Hartmann: Parapsychological Phenomena as Examp-
les of Generalised Nonlocal Correlations. A Theoretical Framework. In: Journal of Scientific
Exploration, Vol. 28, No. 4, 2014, pp. 605–631.
Walach, Harald; Horan, Majella: Capturing PSI. Replicating von Lucadou’s Correlation Matrix Ex-
periment using a REG Mikro-PK. Presentation at the BIAL-Conference, Porto, March 2014.
Walach, Harald; Horan, Majella; Hinterberger, Thilo; Lucadou, Walter von: Evidence for a Genera-
lised Type of Nonlocal Correlations Between Systems Using Human Intention and Random
Event Generators. Submitted for publication in PLOS 1. 2016.
Walach, Harald; Römer, Hartmann: Complementarity is a useful concept for consciousness studies.
A Reminder. In: Neuroendocrinology Letters, 21, 2000, pp. 221–232.
VOM ERKENNEN UND GESTALTEN
TECHNISCHER MÖGLICHKEITEN
Überlegungen zur Wissenschaftstheorie der Technikwissenschaften
Klaus Erlach
1 s. Platon: Politikos. In: ders.: Sämtliche Werke, Bd. 5. Reinbek bei Hamburg 1987. 285 d.
2 Aristoteles: Die Nikomachische Ethik (EN). München 1986. 1094a1, 55.
3 a. a. O., 1139b1–3, 183.
4 a. a. O., 1140a3–6, 185.
70 Klaus Erlach
Abb. 1: Die fundamentale Dreiteilung der Wissenschaften in Theorie, Praxis und Poiësis
(in Anlehnung an Aristoteles)
5 Bien, Günther: Praxis, praktisch. I. Antike. In: Ritter, Joachim; Gründer, Karlfried (Hg.): His-
torisches Wörterbuch der Philosophie. Bd. 7. Basel 1989. Sp. 1281.
Vom Erkennen und Gestalten technischer Möglichkeiten 71
Etwas pointiert und auch nur in lockerer Anlehnung an Aristoteles lassen sich also die
drei Sphären wie folgt charakterisieren und in ihrer jeweiligen Zielsetzung verorten:
1. In der Sphäre der Theorie geht es um die Erkenntnis der physikalischen, che-
mischen, biologischen und menschlichen Natur dank des Vermögens der reinen
Vernunft. Dazu formulieren die Naturwissenschaften mit Kausalgesetzen – den
sogenannten Naturgesetzen – und Naturprinzipien deskriptive Aussagen über
die (objektive) Realität, die sich an ihrer Wahrheit messen lassen müssen.
2. In der Sphäre der Praxis geht es um die Legitimation der sozialen und sittlichen
Verhältnisse in der Gesellschaft dank des Vermögens der praktischen Vernunft.
Dazu formulieren die Sozialwissenschaften mit moralischen Normen und Ge-
setzen des positiven Rechts präskriptive Aussagen über die (soziale) Welt, die
sich an der damit erreichten Gerechtigkeit messen lassen müssen.
3. In der Sphäre der Poiësis geht es um die Gestaltung technischer Gebilde dank
des Vermögens der poiëtischen Vernunft. Dazu entwickeln die Technikwissen-
schaften mit technologischen Regeln und Gestaltungsrichtlinien handlungs-
leitende Aussagen über die (zu konstruierende) Wirklichkeit, die sich an ihrer
Effektivität – sowie der funktionalen Schönheit der konstruierten Produkte –
messen lassen müssen. Die konstruierte Wirklichkeit kann man in extensio-
naler Definition als „Technosphäre“ bezeichnen.6 Mit einer Kritik der poiëti-
schen Vernunft wären dann Möglichkeiten und Grenzen der Gestaltbarkeit der
Technosphäre aufzuzeigen.7
Die im abendländischen Denken vorherrschenden philosophischen Disziplinen
konzentrieren sich hauptsächlich auf die beiden Sphären von Theorie und Praxis,
während die Sphäre der Poiësis nur selten mit eigenständigen Werken gewürdigt
worden ist. Bei Aristoteles sind dies nur die „Poetik“ und im eingeschränkten Sinne
auch die „Rhetorik“. Die besondere Stellung der aristotelischen „Poetik“ liegt im
technikphilosophischen Zusammenhang darin, dass sie Gestaltungsrichtlinien für
die gelungene Tragödie angibt, also präskriptiv vorschreibt, wie eine gute Tragödie
zu „konstruieren“ ist.8 Als moderne philosophische Disziplin gehört zur Sphäre der
Poiësis die historisch sehr spät auftretende Ästhetik, die mit dem Schönen nach der
Scheidung des Wahren vom Guten nur einen kleinen Teil des poiëtischen Schaffens
umfasst, nämlich nur die „zweckfreien“ Künste, nicht aber die „nützliche“ Tech-
nik. Zudem ist sie in der Regel als Rezeptionsästhetik lediglich auf die Frage des
ästhetischen Urteils eingeschränkt, ohne Vorschriften für die richtige Gestaltung
von Kunstwerken zu entwickeln. Genau dies aber muss eine allgemeine Theorie
6 grob skizziert in: ders.: Eine Kritik der poiëtischen Vernunft. Anmerkungen zur Wissenschafts-
theorie vom technischen Gestalten. In: Zeitschrift für allgemeine Wissenschaftstheorie. 32,
2001, 1, S. 1–25.
7 Erlach, Klaus: Das Technotop. Die technologische Konstruktion der Wirklichkeit. Münster
2000. S. 35.
8 Mit dem unlängst aufgefundenen zweiten Buch der „Poetik“ über die Komödie konnte eine bedeu-
tende Lücke im überlieferten Werk des Aristoteles geschlossen werden (vgl. ders.: Der unauslöschli-
che Weltenbrand des Lächerlichen. Die Wiederentdeckung der verschollenen Theorie der Komödie
von Aristoteles. In: Der blaue Reiter. 40, 2017, S. 50–55.). Wenn man bedenkt, wie gering die bishe-
rige Quellenlage zum Bereich der poiëtischen Vernunft gewesen ist, ist dies kein kleiner Gewinn.
72 Klaus Erlach
der Technik im Rahmen der Technikphilosophie leisten – vor allem wenn es um die
Konstruktion und Herstellung nützlicher Artefakte geht.
Mit wachsender Bedeutung der technischen Lebenswelt – dem „Technotop“9 –
stellt sich den historisch „verspäteten“ Wissenschaftlern an Technischen Universi-
täten10 immer dringlicher die Frage, was den spezifisch technikwissenschaftlichen
Gehalt ihrer Forschung ausmachen kann und soll. Mit den nun folgenden Über-
legungen zu einer Wissenschaftstheorie der Technik soll umrissen werden, was
Technikwissenschaften sind und wie sie arbeiten sollen. Dies erfordert zunächst ein
definitorisches Unterfangen.
Unter dem sehr treffenden Titel „Erkennen – Gestalten – Verantworten“ hat die
„Deutsche Akademie der Technikwissenschaften“ die wissenschaftliche Eigen-
ständigkeit der Technikwissenschaften hervorgehoben: „Technikwissenschaften
schaffen kognitive Voraussetzungen für Innovation in der Technik und Anwendung
technischen Wissens und legen die Grundlagen für die Reflexion ihrer Implika-
tionen und Folgen.“11 Leider geht in dieser Definition die doppelte Aufgabe des
Erkennens und Gestaltens verloren. Die Überlegungen von „acatech“ aufgreifend
sei daher folgende Definition vorgeschlagen, die mit einer begrifflichen Trennung
von Technik- und Ingenieurwissenschaften den Doppelaspekt betont: „Die Tech-
nik- und Ingenieurwissenschaften dienen der Gesellschaft durch Erkennen und Ge-
stalten technischer Möglichkeiten mit Hilfe von spezifischen Methoden. Sie sind
institutionalisiert in sich beständig wandelnden, eigenständigen Disziplinen.“12
1. Das „Dienen“ verweist darauf, dass die Technik- und Ingenieurwissenschaften
zweckmäßig sind in dem allgemeinen Sinne, dass sie die Möglichkeitsräume
des technischen Handelns vergrößern. Dadurch erschließen sie neue Möglich-
keiten zur Erfüllung gesellschaftlicher Bedürfnisse und stehen in entsprechen-
der Verantwortung.
2. Im „Erkennen“ sind die Technikwissenschaften den Naturwissenschaften am
ähnlichsten. Typische Methoden sind hier empirische Versuchsreihen zur sys-
tematischen Analyse präparierter technischer Artefakte. Typische Ergebnisse
sind technologische Gesetze und Regeln, die zum Teil auch normativ kodifi-
ziert werden (Abschnitt 3).
9 ders.: Das Technotop. Die technologische Konstruktion der Wirklichkeit. Münster 2000. 37 ff.
10 Erst 1899 verlieh Wilhelm II. anlässlich des 100-jährigen Jubiläums der TH Berlin das Promo-
tionsrecht (s. König, Wolfgang: Die Technikerbewegung und das Promotionsrecht der Techni-
schen Hochschulen. In: Schwarz, Karl (Hg.).: 1799–1999. Von der Bauakademie zur Techni-
schen Universität Berlin. Berlin 2000, S. 127.).
11 acatech (Hg.): Technikwissenschaften: Erkennen – Gestalten – Verantworten. acatech Impuls.
Berlin 2013. S. 18.
12 Diese Definition wurde Auftrag der „Expertenkommission Ingenieurwissenschaften@BW2025“
erarbeitet und nahezu wortgleich als Definition von „Ingenieurwissenschaften“ publiziert (Exper-
tenkommission Ingenieurwissenschaften@BW2025: Abschlussbericht. Stuttgart 2015. S. 5).
Vom Erkennen und Gestalten technischer Möglichkeiten 73
Das Erkennen in den Technikwissenschaften hat Klaus Kornwachs mit einer auf Re-
geln aufbauenden technischen Handlungslogik rekonstruiert. Eine Regel definiert
Kornwachs dabei als eine „Anweisung, eine endliche Anzahl von Handlungen in ei-
ner bestimmten Reihenfolge hinsichtlich eines gegebenen Ziels an einem ‚Sachsys-
tem‘ durchzuführen“13. Die so bestimmten technischen Regeln ermöglichen eine
qualifizierte Anwendung von technischen Artefakten beim technischen Handeln.
Mario Bunge hat nun darauf hingewiesen, dass derartige Regeln nicht als einfa-
che Aussage über nomologische Zusammenhänge in Form der Implikation A → B
aufzufassen sind, sondern als Handlungsanleitung einen Aufforderungscharakter
haben.14 Das technische Regelwissen verbindet in Zweck-Mittel-Relationen zwei
kategorial unterschiedliche Dinge – nämlich ein anzustrebendes Resultat B (Ziel-
zustand) mit der dazu als erforderlich angesehenen Handlung A (Durchführung).
Die Regel „Wenn B sein soll, muss man A tun“ kann formal ausgedrückt werden
durch „try B per A“. Bunge führt zusätzlich den pragmatischen Syllogismus ein,
der die Gültigkeit der Regel auf die Gültigkeit eines Kausalgesetzes zurückführt:
„wenn (A → B), versuche B durch A.“15 Damit werden technische Regeln sehr eng
an gesetzesartige Aussagen wie z. B. Naturgesetze angebunden.
Im Unterschied zur logischen Implikation behauptet Bunge nun, dass die Ef-
fektivität technischer Regeln unbestimmt bzw. hinsichtlich des Resultats nicht
entscheidbar bleibt, wenn man die Handlung A nicht ausführt, sondern unterlässt.
13 Kornwachs, Klaus: Vom Naturgesetz zur technologischen Regel – ein Beitrag zu einer Theorie
der Technik. In: Banse, Gerhard; Friedrich, Käthe (Hg.): Technik zwischen Erkenntnis und
Gestaltung. Berlin 1996, S. 33.
14 a. a. O., S. 35.
15 Kornwachs, Klaus: Theoretisch-deduktive Methoden. In: Banse, Gerhard; Grundwald, Armin;
König, Wolfgang; Ropohl, Günter (Hg.): Erkennen und Gestalten. Eine Theorie der Technik-
wissenschaften. Berlin 2006. S. 248.
74 Klaus Erlach
▲ Spannung ơ =
Kraft F
Fläche A Einschnürungsbeginn
Zugfestigkeit Rm
(maximale Kraft)
nicht-lineare Zerreißgrenze
Streckgrenze Re
plastische Verformung
linear-elastische Dehnung
nach Hookschem Gesetz:
Spannung ơ =
Elastizitätsmodul E x Dehnung ε Längenänderung Δ /
Dehnung ε =
Ausgangslänge /0
▲
Abb. 2: Die Spannungs-Dehnungs-Kurve beschreibt das Verhalten
einer Materialprobe unter Zugspannung
O F A
Omax
O*
On
AK
F Zugkraft
A Querschnittsfläche
AK Querschnittsfläche im Kerbgrund
O durchschnittliche Spannung in der Kerbe
Omax maximale Spannung im Kerbgrund
F O * Spannungsverlauf in der Kerbe
Den Technikwissenschaftler interessiert nun aber das Verhalten des gekerbten Rund-
stabs als Basis für Festigkeitsberechnungen zur Bauteilauslegung (Abb. 3). Im Kerb-
grund ist die Querschnittsfläche A des Rundstabes durch die Kerbe auf AK verkleinert.
Nun kann man aber nicht einfach mit der durchschnittlichen Spannung im Kerbgrund
σN rechnen, denn die Kerbe bedingt eine lokale Spannungsüberhöhung im Kerbgrund
auf σmax. Da sich dieser Wert nicht direkt messen lässt, muss man implizit vorgehen.
Dazu definiert man als Formzahl αK das Spannungsverhältnis σmax / σN, so dass eine
höhere Formzahl auf eine höhere Bauteilbelastung hinweist. Diese Formzahl lässt
sich nun experimentell ermitteln, indem man einen Zugversuch mit der gekerbten
76 Klaus Erlach
Probe durchführt und dann die Kräfte, die jeweils beim Beginn der plastischen Ver-
formung aufgewendet werden müssen, in Beziehung zueinander setzt.
Der Spannungsverlauf σ* in der Probe und somit der Wert von σmax hängen von
der Geometrieform der Kerbe und des Bauteiles ab. Für jede Kerbform müsste man
nun sehr aufwendig eigene Versuchsreihen durchführen. Heinz Neuber hat 1937
Berechnungsverfahren für den Spannungsverlauf σ* entwickelt, die auf Lösungen
nichtlinearer Differentialgleichungen basieren. Da die manuelle Berechnung auf-
wendig ist, werden die Formzahlwerte in Abhängigkeit von geometrischen Para-
metern auch in Diagrammen dargestellt. Mit Finiten Elemente Methoden kann man
heute für beliebige Kerbformen Näherungslösungen berechnen. In beiden Fällen
kann man von einem „technologischen Gesetz“ sprechen, das mathematisch als
Differentialgleichung formuliert ist, auf theoretischen Grundannahmen über den
Spannungsverlauf beruht und auch experimentell überprüft werden kann.18
Die mit einigem experimentellen und theoretischen Aufwand ermittelten Er-
gebnisse werden zur Berechnung der Festigkeit von neu konstruierten Bauteilen
benötigt. Für die Vorgehensweise gilt nun folgende „technologische Regel“: Ers-
tens ist die Formzahl in Abhängigkeit von der Belastungsform und der Bauteilgeo-
metrie mit ihrer jeweiligen Kerbwirkung zu ermitteln. Zweitens hat die Festlegung
eines Sicherheitsfaktors, der die Effektivität der Regel gegen nicht berücksichtigte
Abweichungen und Störgrößen (Materialfehler, Toleranzen) absichern soll, zu er-
folgen. Und schließlich erfolgt drittens die Berechnung der maximal zulässigen
Belastung über die zulässige Spannung nach folgender Dimensionierungsregel:
18 Auch „acatech“ unterscheidet Gesetze von Regeln: „Das Ziel der Technikwissenschaften be-
steht in der Erzeugung von Gesetzes-, Struktur- und Regelwissen über Technik – in der Ab-
sicht, dieses in technischen Anwendungen zu nutzen.“ (acatech, a. a. O., S. 19.)
Vom Erkennen und Gestalten technischer Möglichkeiten 77
Das Ziel der Ingenieurwissenschaften besteht nun nicht darin, durch Anwendung
der in den Technikwissenschaften entwickelten technologischen Regeln ein be-
stimmtes Artefakt zu gestalten, denn dies ist Aufgabe des technischen Konstrukti-
onshandelns der Ingenieure. Ziel ist vielmehr die grundsätzliche Erweiterung der
Gestaltungsmöglichkeiten im Bereich technischer Lösungen durch die systemati-
sche Entwicklung von spezifischem Gestaltungswissen, nämlich geeigneten Gestal-
tungsmethoden, Gestaltungsprinzipien und Prinziplösungen. Das ingenieurwissen-
schaftlich erzeugte Wissen hat dabei drei Aufgaben – gestaltende, heuristische und
bewertende. Es genügt dem Ingenieur nicht, bloß zu ermitteln, erstens mit welchem
Entwurf ein Artefakt und seine Funktionen herstellbar sind durch Verwendung be-
reits bekannter Lösungselemente (also verwirklichbar sind), sondern er benötigt
zusätzlich präskriptive Handlungsleitfäden für den Entwurfsprozess. Diese müssen
78 Klaus Erlach
▲
Störung des Kraftflusses links
durch zu kleine Entlastungskerbe
Abb. 4: Gestaltungsvarianten einer Welle mit Einstich, mit Kraftfluss (aus: Steinhilper, Waldemar;
Sauer, Bernd (Hg.): Konstruktionselemente des Maschinenbaus 1. Grundlagen der Berechnung
und Gestaltung von Maschinenelementen. Berlin, Heidelberg 2012(8). S. 181.)
LITERATUR
Armin Grunwald
wunden werden, die sich darauf verlässt, dass im Wesentlichen positive Folgen zu
erwarten sind und bei unerwarteten negativen Technikfolgen der Schaden im Nach-
hinein leicht repariert werden könnte. Zu den Basisüberzeugungen der TA gehört,
dass für Entwicklung und Einsatz vieler moderner Technologien diese Strategie
weder politisch oder ökonomisch praktikabel noch ethisch verantwortbar ist.56
Technikfolgenabschätzung ist entstanden, um speziell den Umgang mit dem
wissenschaftlich-technischen Fortschritt, seinen Resultaten und seinen Folgen unter
den Anspruch praktischer Gestaltung zu stellen und diesen Anspruch durch Folgen-
forschung einzulösen. Belastbares Zukunftswissen, vor allem also Folgenwissen,
stellt dafür eine zentrale Vorbedingung dar. Hauptsächlicher Gegenstand der Ana-
lyse ist die Erforschung von Folgen, die es noch gar nicht gibt und vielleicht auch
nie geben wird. Das Wissen über diese Folgen soll Orientierung für Gesellschaft
und Politik geben, z. B. für Entscheidungsprozesse über Forschungsförderung oder
Regulierung oder in der deliberativen Austragung von Technikkonflikten (Abb. 1).
Gleichwohl ist es nicht trivial zu verstehen, wie durch Zukunftswissen Orientie-
rung geschaffen werden kann, da Zukunftswissen erkenntnistheoretisch prekär ist.
Weil also der Prognose-Optimismus der frühen TA (Kap. 2) nicht funktioniert hat, wur-
den in der Technikfolgenabschätzung Mittel und Wege entwickelt, mit dieser prekären
Natur – anders ausgedrückt, der Offenheit der Zukunft – verantwortlich und reflektiert
umzugehen. Szenarienbasierte Ansätze (Kap. 3) sind zum Standard geworden. Für die
Situation, dass auch diese nicht mehr im Sinne eines konsequentialistischen Paradig-
mas funktionieren, wurden hermeneutische Ansätze vorgeschlagen (Teil 4). Auf diese
Weise hat Technikfolgenabschätzung erhebliche Metamorphosen und Weiterentwick-
lungen durchgemacht, die als historischer Lernprozess zu verstehen sind.
5 Jonas, Hans: Das Prinzip Verantwortung. Versuch einer Ethik für die technologische Zivilisa-
tion. Frankfurt 1979.
6 Grunwald, Armin: Modes of orientation provided by futures studies: making sense of diversity
and divergence. European Journal of Futures Studies, 2013. doi 10.1007/s40309-013-0030-5.
Von Technikfolgenprognosen zur hermeneutischen Perspektive 85
2 TECHNIKFOLGENABSCHÄTZUNG IM PROGNOSE-OPTIMISMUS
11 Ropohl, Günter: Kritik des technologischen Determinismus. In: Rapp, Friedrich; Durbin, Paul
T. (Hg.): Technikphilosophie in der Diskussion. Braunschweig 1982. S. 3–18.
12 Leutzbach, Wilhelm: Das Problem mit der Zukunft: wie sicher sind Voraussagen? Düsseldorf 2000.
13 Schwemmer, Oswald: Theorie der rationalen Erklärung. München 1976.
14 ebd.
15 Nordmann, Alfred: Responsible Innovation, the Art and Craft of Future Anticipation. Journal
of Responsible Innovation 1 (1), 2014, pp. 87–98.
16 Bechmann, Gotthard: Frühwarnung – die Achillesferse der TA? In: Grunwald, Armin; Sax,
Hartmut (Hg.): Technikbeurteilung in der Raumfahrt. Anforderungen, Methoden, Wirkungen.
Berlin 1994. S. 88–100.
Von Technikfolgenprognosen zur hermeneutischen Perspektive 87
4 HERMENEUTISCHE TECHNIKFOLGENABSCHÄTZUNG
23 Zülsdorf, Torben; Coenen, Christopher; Ferrari, Arianna; Fiedeler, Ulrich; Milburn, Colin;
Wienroth, Matthias (Hg.): Quantum Engagements: Social Reflections of Nanoscience and
Emerging Technologies. Heidelberg 2011.
24 Grunwald, Armin: Nanotechnologie als Chiffre der Zukunft. In: Nordmann, Alfred; Schummer,
Joachim; Schwarz, Astrid (Hg.): Nanotechnologien im Kontext. St. Augustin 2006. S. 49–80.
25 Grunwald, Armin: The Hermeneutic Side of Responsible Research and Innovation. London 2016.
26 Grunwald, Nanotechnologie, a. a. O.
27 Nordmann, Alfred: If and Then: A Critique of Speculative NanoEthics. Nanoethics 1, 2007,
pp. 31–46.
28 z. B. Torgersen, Helge: TA als hermeneutische Unternehmung. Technikfolgenabschätzung –
Theorie und Praxis 22 (2), 2013, S. 75–80.
29 Grunwald, The Hermeneutic, a. a. O.
30 ebd.
31 nach Grunwald, Armin: Modes of orientation provided by futures studies: making sense of diver-
sity and divergence. European Journal of Futures Studies, 2013. doi 10.1007/s40309-013-0030-5.
90 Armin Grunwald
cken und nach ihrer „Bedeutung“ zu fragen. Diese Technikzukünfte sind sozi-
ale Konstrukte, erzeugt und „hergestellt“ durch Menschen, Gruppen und Orga-
nisationen zu je bestimmten Zeitpunkten.32 Zukunftsbilder entstehen aus einer
Komposition von Zutaten in bestimmten Verfahren (z. B. den Methoden der
Zukunftsforschung). Dabei gehen die je gegenwärtigen Wissensbestände, aber
auch Zeitdiagnosen, Werte und andere Formen der Weltwahrnehmung in diese
Zukunftsbilder ein. Zukünfte erzählen, wenn prognostische oder szenarische Ori-
entierungen nicht gelingen, ausschließlich etwas über uns heute. Technikzukünfte
als ein Medium gesellschaftlicher Debatten33 bergen Wissen und Einschätzungen,
die es zu explizieren lohnt, um eine transparentere demokratische Debatte und
entsprechende Entscheidungsfindung zu erlauben. Die Erwartung an hermeneu-
tische Orientierungsleistung besteht darin, aus Technikzukünften in ihrer Diver-
sität etwas über uns, unsere gesellschaftlichen Praktiken, unterschwelligen Sor-
gen, impliziten Hoffnungen und Befürchtungen lernen zu können. Diese Form
der Orientierung ist freilich weitaus bescheidener als die konsequentialistische
Erwartung, mit Prognosen oder Szenarien „richtiges Handeln“ mehr oder weniger
direkt orientieren oder gar, wie es in manchen Verlautbarungen heißt, „optimie-
ren“ zu können. Sie besteht letztlich in nicht mehr als darin, die Bedingungen
dafür zu verbessern, dass demokratische Debatten und Zukunftsentscheidungen
aufgeklärter, transparenter und offener ablaufen können.
Im Vergleich zum konsequentialistischen Paradigma mit seiner zentralen Ausrich-
tung auf Fragen der Art, welche Folgen neue Technologien haben können, wie wir diese
beurteilen und ob und unter welchen Bedingungen wir diese Folgen willkommen heißen
oder ablehnen, geraten in dieser Perspektive weitere Fragestellungen in den Blick34:
• wie wird wissenschaftlich-technischen Entwicklungen, die ja zunächst im La-
bor nichts weiter als eben wissenschaftlich-technische Entwicklungen sind,
eine gesellschaftliche, ethische, soziale, ökonomische, kulturelle etc. Bedeu-
tung zugeschrieben? Welche Rollen spielen dabei z. B. (visionäre) Technikzu-
künfte? Wer schreibt diese Bedeutungen zu und warum?
• wie werden diese Bedeutungszuweisungen kommuniziert und diskutiert?
Welche Rollen spielen sie in den großen Technikdebatten unserer Zeit? Wel-
che kommunikativen Formate und sprachlichen Mittel werden verwendet und
warum? Welche außersprachlichen Mittel (z. B. Filme, Kunstwerke) spielen
hier eine Rolle, und was sagt ihre Nutzung aus?
• warum thematisieren wir wissenschaftlich-technische Entwicklungen in der
jeweiligen Weise, mit den jeweils verwendeten Technikzukünften und mit den
jeweiligen Bedeutungszuweisungen und nicht anders? Welche alternativen
Bedeutungszuschreibungen wären denkbar und warum werden diese nicht
aufgegriffen?
Klaus Kornwachs habe ich, jedenfalls meiner Erinnerung folgend, auf einer Tagung
zur Philosophie der Technik kennengelernt, die etwa 1993 an der Brandenburgi-
schen Technischen Universität in Cottbus stattgefunden hat. Dort hatte ich Grund-
gedanken einer Philosophie der Technik vorgetragen, wie ich sie in Anwendung
und Fortführung des Programms des Methodischen Kulturalismus sah und später
zu einem Programm entwickelte.37 Die Diskussion mit Klaus Kornwachs, der
technikphilosophische Ideen von Mario Bunge mitbrachte und weiterführte, war
durchaus kontrovers, aber oder gerade deswegen auch lehrreich.
Danach haben sich unsere Bahnen immer wieder gekreuzt. Besondere Ereig-
nisse waren, wieder aus meiner subjektiven Sicht, die Einladung zur Mitwirkung
am von Klaus Kornwachs initiierten und herausgegebenen, ambitionierten Band
35 acatech (Hg.), a. a. O.
36 Grunwald, The Hermeneutic Side, a. a. O.
37 Grunwald, Armin: Technisches Handeln und seine Resultate. Prolegomena zu einer kulturalis-
tischen Technikphilosophie. In: Hartmann, Dirk; Janich, Peter (Hg.): Methodischer Kulturalis-
mus. Zwischen Naturalismus und Postmoderne. Frankfurt 1998. S. 178–224.
92 Armin Grunwald
38 Kornwachs, Klaus (Hg.): Technik – System – Verantwortung. 2. Cottbuser Konferenz zur Tech-
nikphilosophie. Münster, London 2004.
39 z. B. Kornwachs, Klaus: Glanz und Elend der Technikfolgenabschätzung. In: ders. (Hg.):
Reichweite und Potential der Technikfolgenabschätzung. Stuttgart 1991. S. 1–22; ders.: Kom-
munikation und Information. Zur menschengerechten Gestaltung von Technik. Berlin 1993.
40 acatech (Hg.), a. a. O.
41 Dieckhoff et al., a. a. O.
Von Technikfolgenprognosen zur hermeneutischen Perspektive 93
LITERATUR
Ortwin Renn
EINLEITUNG
Technikfolgen vorherzusagen und zu bewerten – dies ist Aufgabe und Auftrag der
Technikfolgenabschätzung (TA). Mit dem Begriff der Technikfolgenabschätzung
verbindet sich der Anspruch auf eine systematische, wissenschaftlich abgesicherte
und umfassende Identifizierung und Bewertung von technischen, umweltbezoge-
nen, ökonomischen, sozialen, kulturellen und psychischen Wirkungen, die mit der
Entwicklung, Produktion, Nutzung und Verwertung von Techniken zu erwarten
sind.1 Mit dieser Aufgabenbeschreibung ist letztlich alles angesprochen, was durch
Technik beeinflusst werden kann. Wenn Wissenschaftler und Techniker TA betrei-
ben, dann tun sie dieses mit dem erklärten Ziel, für die Gesellschaft verlässliche
und unparteiische Informationen bereitzustellen, die Auskunft über die zu erwar-
tenden Konsequenzen von technischem Handeln geben.2 Besonderes Schwerge-
wicht liegt dabei auf der Erfassung von unbeabsichtigten Folgen, seien sie Chancen
oder Risiken. Je besser die Gesellschaft im Voraus die Folgen technischer Handlun-
gen antizipieren kann, desto weniger braucht sie im Nachhinein durch Versuch und
Irrtum schmerzlich zu lernen. Ausschalten kann man den dornenreichen Weg des
Lernens über Irrtum jedoch nicht.
So sehr Technikfolgenabschätzung auf die Antizipation von möglichen Fol-
gen des Technikeinsatzes festgelegt ist, so sehr sind die Grenzen dieser Voraus-
sicht zu betonen. Diese Grenzen beziehen sich auf drei Aspekte: die Komplexi-
tät der miteinander vernetzten Ursache-Wirkungsketten, der Ungewissheit über
Chancen und Risiken einer Entwicklung und die Ambivalenz technischer Ent-
wicklungen.3 Zu diesen drei Problemen sind im Folgenden einige Überlegungen
zusammengetragen.
Erstes Stichwort: Ambivalenz. Die Hoffnung auf Vermeidung von negativen Tech-
nikfolgen ist trügerisch, weil es keine Technik gibt, nicht einmal geben kann, bei
der nur positive Auswirkungen zu erwarten wären. Dies klingt trivial. Ist es nicht
offensichtlich, dass jede Technik ihre guten und schlechten Seiten hat? Die Aner-
kennung der Ambivalenz besagt aber mehr, als dass sich die Menschen mit Technik
weder das Paradies noch die Hölle erkaufen können. Es ist eine Absage an alle kate-
gorischen Imperative und Handlungsvorschriften, die darauf abzielen, Techniken in
moralisch gerechtfertigte und moralisch ungerechtfertigte aufzuteilen.4 Auch die
Solarenergie hat ihre Umweltrisiken, wie auch die Kernenergie ihre unbestreitbaren
Vorteile aufweist. Ambivalenz ist das Wesensmerkmal jeder Technik.5
Gefragt ist also eine Kultur der Abwägung. Zur Abwägung gehören immer zwei
Elemente: Wissen und Bewertung. Wissen sammelt man durch die systematische,
methodisch gesicherte Erfassung der zu erwartenden Folgen eines Technikeinsatzes
(Technikfolgenforschung). Bewertung erfolgt durch eine umfassende Abwägung al-
ternativer Handlungsoptionen aufgrund der Wünschbarkeit der mit jeder Option ver-
bundenen Folgen, einschließlich der Folgen des Nichtstuns, der sogenannten Nullop-
tion (Technikfolgenbewertung). Für das erste Element, die Technikfolgenforschung,
braucht die TA ein wissenschaftliches Instrumentarium, das es erlaubt, so vollständig,
exakt und objektiv wie möglich Prognosen über die zu erwartenden Auswirkungen
zu erstellen. Für das zweite Element benötigt man allgemein gültige Kriterien, nach
denen man diese Folgen intersubjektiv verbindlich bewerten und abwägen kann. Sol-
che Kriterien sind nicht aus der Wissenschaft abzuleiten: sie müssen in einem politi-
schen Prozess durch die Gesellschaft identifiziert und entwickelt werden.6
Beide Aufgaben wären weniger problematisch, gäbe es nicht die beiden wei-
teren Probleme: Komplexität und Unsicherheit.7 Mit Komplexität ist hier der
Umstand gemeint, dass mehrere Ursache-Wirkungsketten parallel auf die Folgen
von Technikeinsatz einwirken, sich synergistisch oder antagonistisch beeinflussen
sowie durch Rücklaufsschleifen miteinander vernetzt sind. Selbst wenn die Tech-
nikforscher jede einzelne Wirkungskette kennen würden, verbleibt das Problem
der mangelnden Kenntnis der jeweils wirksamen interaktiven Effekte. Diese im
Einzelnen analytisch aufzuspüren, ist nicht nur eine kaum zu bewältigende Sisy-
15 vgl. Renn, Ortwin; Kastenholz, Hans: Diskursive Technikfolgenabschätzung. In: Stein, Ger-
hard (Hg.): Umwelt und Technik im Gleichklang. Technikfolgenforschung und Systemanalyse
in Deutschland. Heidelberg 2002. S. 33–48; sowie: Schweizer, Pia-Johanna; Renn, Ortwin:
Partizipation in Technikkontroversen: Panakeia für die Energiewende? In: Technikfolgenab-
schätzung. Theorie und Praxis, 22 (2), 2013, S. 42–47.
16 Grunwald, Armin: Technikfolgenabschätzung – eine Einführung. Berlin 2010(2). S. 145 ff.;
sowie: Rip, Ari; Misa, Thomas; Schot, Johan: Managing Technology in Society. London 1995.
17 Habermas, Jürgen: Vorbereitende Bemerkungen zu einer Theorie der kommunikativen Kompe-
tenz. In: Habermas, Jürgen; Luhmann, Niklas (Hg.): Theorie der Gesellschaft oder Sozialtech-
nologie. Was leistet die Systemforschung? Frankfurt am Main 1990(10). S. 104 ff.
18 Hubig, Christoph: Pragmatische Entscheidungslegitimation angesichts von Expertendilem-
mata. In: Grunwald, Armin; Saupe, Stephan (Hg.): Ethik in der Technikgestaltung. Praktische
Relevanz und Legitimation. Heidelberg 1999, S. 201.
19 vgl. Bergmann, Matthias; Jahn,Thomas: Methoden transdisziplinärer Forschung. Ein Über-
blick mit Anwendungsbeispielen. Frankfurt am Main 2010.
20 vgl. Wissenschaftsrat: Zum wissenschaftspolitischen Diskurs über Große gesellschaftliche He-
rausforderungen. Ein Positionspapier. Köln 2015.
100 Ortwin Renn
21 vgl. Nowotny, Helga; Scott, Peter; Gibbons, Michael: Re-thinking Science: Knowledge and the
Public in an Age of Uncertainty. Cambridge, UK, 2001.
22 vgl. Webler, Thomas: “Right” Discourse in Citizen Participation. An Evaluative Yardstick. In:
Renn, Ortwin; Webler, Thomas; Wiedemann, Peter (Hg.): Fairness and Competence in Citizen
Participation. Dordrecht, Boston 1995. S. 35–86.
23 vgl. Mittelstrass, Jürgen: Methodische Transdisziplinarität. In: Technologiefolgenabschät-
zung – Theorie und Praxis, 2 (14), 2005, S. 18–23.
24 Grunwald 2010, S. 128 f.
25 Überblick und Erläuterung in: Renn, Ortwin; Oppermann, Bettina: Mediation und kooperative
Verfahren im Bereich Planung und Umweltschutz. In: Institut für Städtebau (Hg.): Kooperative
Planung und Mediation im Konfliktfall. Heft 82. Berlin 2001. S. 13–36.
Technikfolgenabschätzung: Ein Konzept zur Gestaltung der Zukunft 101
AUSBLICK
Die Ausführungen in diesem Beitrag begannen mit einer Übersicht über die Aufga-
ben der Technikfolgenabschätzung, erläuterten die wesentlichen Herausforderun-
gen, die sich aus der Komplexität, Unsicherheit und Ambivalenz der Technikfol-
gen ergeben, und schlossen dann mit einer Betrachtung der transdisziplinären und
diskursiven Ausrichtung der TA. Dabei wurden folgende Erkenntnisse gewonnen:
Erstens, Technikfolgenabschätzung muss sich immer an der Komplexität,
Ambivalenz und Folgenunsicherheit der Technik orientieren. Dabei muss sie
zweitens zwischen der wissenschaftlichen Identifizierung der möglichen Folgen
und ihrer Bewertung funktional trennen, dabei jedoch beide Schritte diskursiv
miteinander verzahnen. Drittens sollte sie ein schrittweises, rückkopplungsrei-
ches und reflexives Vorgehen bei der Abwägung von positiven und negativen
Folgen durch Experten, Anwender und betroffene Bürger vorsehen. Viertens ist
sie auf eine transdisziplinäre und diskursive Form der Folgenforschung vor allem
aber der Folgenbewertung angewiesen. Eine so verstandene Technikfolgenab-
schätzung setzt eine enge Anbindung der Folgenforschung an die Folgenbewer-
tung voraus, ohne jedoch die funktionale und methodische Differenzierung zwi-
schen diesen beiden Aufgaben (Erkenntnis und Beurteilung) aufzugeben. Eine
solche Verkoppelung ist notwendig, um im Schritt der Bewertung die Probleme
der Komplexität, Ambivalenz und der Ungewissheit bei der Folgenforschung
und Folgenbewertung angemessen zu berücksichtigen. Umgekehrt müssen auch
Technikfolgenabschätzung: Ein Konzept zur Gestaltung der Zukunft 103
schon bei der Identifikation und Messung der Folgepotentiale die letztendlichen
Bewertungskriterien als Leitlinien der Selektion zugrunde gelegt werden. So
wichtig es ist, die Methoden der Erkenntnisgewinnung und der Folgenbewertung
nicht zu vermischen, so wichtig ist aber auch, die enge Verzahnung zwischen
diesen beiden Bereichen anzuerkennen, weil Technikfolgenforschung ansonsten
in einer unsicheren Welt nicht mehr leistungsfähig und wirklichkeitsnahe wäre.
Diese Notwendigkeit der Verzahnung spricht ebenfalls für eine diskursive Form
der Technikfolgenabschätzung.
Die hier beschriebene diskursive Auffassung von TA fußt auf der Vorausset-
zung, dass die Wissenschaften bei der systematischen Erforschung von Folgepo-
tentiale durchaus Fortschritte machen und viele der Probleme der Komplexität
und Ungewissheit zumindest ansatzweise in den Griff bekommen. Dies sollte
aber nicht zur Hybris verführen anzunehmen, TA-Studien seien in der Lage, mit
Hilfe einer nach bestem Wissen ausgeführten Folgeanalyse Ungewissheit so-
weit reduzieren zu können, dass eindeutige Antworten über Gestalt und Verlauf
möglicher Zukünfte vorliegen. Diese Warnung hat Kornwachs immer wieder
den TA-Forschern ins Pflichtenbuch geschrieben.29 Weder der Willenseinfluss
menschlicher Handlungen noch die Unschärfe naturgegebener Reaktionen auf
gesellschaftliche Interventionen in die natürlichen Regelkreise erlauben eine ein-
deutige Vorhersage der Folgen. Gerade weil Folgen von Handlungen weitgehend
von Entscheidungen der Handelnden ausgehen, hat sich Klaus Kornwachs für die
diskursive Ausrichtung der TA eingesetzt. Es wäre eine Illusion, so Klaus Korn-
wachs, wenn man glaubt, dass TA-Studien die Zukunft vorhersehen könnten. Sie
können allenfalls die Chancen der wirtschaftlichen, politischen und sozialen Ak-
teure für eine bewusste und wissensgestützte Gestaltung im Rahmen ihres Ent-
scheidungsraumes erweitern.30
Die wissenschaftliche Behandlung und Abschätzung von Technikfolgen
ist auch für ein diskursives Konzept von TA unerlässlich. Adäquates Folgewis-
sen ist notwendig, um die systemischen Zusammenhänge zwischen Nutzungs-
formen, Reaktionen von ökologischen und sozialen Systeme auf menschliche
Interventionen und sozio-kulturellen Bedingungsfaktoren aufzudecken. Das
Zusammentragen der Ergebnisse interdisziplinärer Forschung, die politikrele-
vante Auswahl der Wissensbestände und die ausgewogene Interpretation in ei-
nem Umfeld von Unsicherheit, Komplexität und Ambivalenz sind schwierige
Aufgaben, die in erster Linie vom Wissenschaftssystem selbst geleistet werden
müssen. Dabei werden auch innerhalb des Wissenschaftssystems neue Formen
der interdisziplinären, vor allem aber der transdisziplinären Zusammenarbeit,
der diskursiven Integration von unterschiedlichen Wissensbeständen zu einem
Gesamtbild und der akteursbezogenen Bewertung der einbezogenen Wissens-
bestände benötigt.
LITERATUR
Akademie der Wissenschaften zu Berlin: Umweltstandards. Berlin 1991.
Bauman, Zygmunt: Moderne und Ambivalenz: Das Ende der Eindeutigkeit. Hamburg 2012(2).
Bullinger, Hans-Jörg: Was ist Technikfolgenabschätzung. In: ders. (Hg.): Technikfolgenabschät-
zung. Stuttgart 1994. S. 3–32.
Bergmann, Matthias; Jahn,Thomas: Methoden transdisziplinärer Forschung. Ein Überblick mit An-
wendungsbeispielen. Frankfurt am Main 2010.
Dörner, Dietrich; Schaub, Harald; Strohschneider, Stefan: Komplexes Problemlösen – Königsweg
der Theoretischen Psychologie? In: Psychologische Rundschau, 50 (4), 1999, S. 198–205.
Dusseldorp, Marc: Technikfolgenabschätzung. In: Grunwald, Armin (Hg.): Handbuch Technikethik.
Stuttgart 2013. S. 394–399.
Eisenführ, Franz; Weber, Martin: Rationales Entscheiden. Berlin 2003(4).
Funtowicz, Silvio; Ravetz, Jerome: Post-Normal Science. Science and Governance under Condi-
tions of Complexity. In: Decker; Michael (Hg.): Interdisciplinarity in Technology Assessment.
Implementation and its Chances and Limits. Heidelberg 2001. S. 15–24.
Gigerenzer, Gert: Rationality without Optimization: Bounded Rationality. In: Macchi, Laura; Ba-
gassi, Maria; Viale, Riccardo (Hg.): Cognitive Unconscious and Human Rationality. Cam-
bridge, MA 2016. S. 3–22.
Grunwald, Armin: Technikfolgenabschätzung – eine Einführung. Berlin 2010(2).
ders.: Auf der Suche nach Orientierung: Technikzukünfte als interdisziplinärer Forschungs- und
Reflexionsgegenstand. In: Hilgendorf, Eric; Hötitzsch, Sven (Hg.): Das Recht vor den Heraus-
forderungen der modernen Technik. Baden-Baden 2015. S. 41–62.
Habermas, Jürgen: Vorbereitende Bemerkungen zu einer Theorie der kommunikativen Kompetenz.
In: Habermas, Jürgen; Luhmann, Niklas (Hg.): Theorie der Gesellschaft oder Sozialtechnolo-
gie. Was leistet die Systemforschung? Frankfurt am Main 1990(10). S. 101–141.
Hubig, Christoph: Pragmatische Entscheidungslegitimation angesichts von Expertendilemmata. In:
Grunwald, Armin; Saupe, Stephan (Hg.): Ethik in der Technikgestaltung. Praktische Relevanz
und Legitimation. Heidelberg 1999, S. 197–209.
Kähler, Jürgen; Weber, Christoph: Theorien der Entscheidung unter Unsicherheit. In: WiSt-Wirt-
schaftswissenschaftliches Studium, 44 (10), 2015, S. 572–578.
Kahneman, Daniel: Schnelles Denken, langsames Denken. München 2012.
Kornwachs, Klaus: Strukturen technologischen Wissens. Analytische Studien zu einer Wissen-
schaftstheorie der Technik. Berlin 2012.
Kornwachs, Klaus; König, Wolfgang; Verein Deutscher Ingenieure: Technikbewertung –Begriffe
und Grundlagen. In: Hubig, Christoph; Huning, Alois; Ropohl, Günter (Hg.): Nachdenken über
Technik. Baden-Baden 2013(3). S. 518–522.
Kornwachs, Klaus: Information und Kommunikation: Zur menschengerechten Technikgestaltung.
Heidelberg 2013.
Mittelstrass, Jürgen: Methodische Transdisziplinarität. In: Technologiefolgenabschätzung – Theorie
und Praxis, 2 (14), 2005, S. 18–23.
Nowotny, Helga; Scott, Peter; Gibbons, Michael: Re-thinking Science: Knowledge and the Public in
an Age of Uncertainty. Cambridge, UK, 2001.
Nowotny, Helga; Scott, Peter; Gibbons, Michael: Introduction. “Mode 2” Revisited: The New Pro-
duction of Knowledge. In: Minerva, 41, 2003, S. 179–194.
Pfister, Hans-Rüdiger; Jungermann, Helmut; Fischer, Katrin: Die Psychologie der Entscheidung.
Eine Einführung. Heidelberg 2017(5).
Renn, Ortwin: Technik und gesellschaftliche Akzeptanz: Herausforderungen der Technikfolgenab-
schätzung. In: GAIA Ecological Perspectives in Science, Humanities, and Economics, 2 (2),
1993, S. 69–83.
ders.: Technikfolgenabschätzung. In: Naturwissenschaftliche Rundschau, 4 (56), 2003, S. 233–234.
ders.: Neue Technologien, neue Technikfolgen: Ambivalenz, Komplexität und Unsicherheit als He-
rausforderungen der Technikfolgenabschätzung. In: Kehrt, Christian; Schüßler, Peter; Weitze,
Technikfolgenabschätzung: Ein Konzept zur Gestaltung der Zukunft 105
Welf Schröter
Der Diskurs über den Wandel der Arbeitswelten durch die digitale Transformation
hat seit dem Jahr 2011 mehrere Täler und Höhen durchschritten. Von schlichten
Marketingkampagnen mit buntglänzenden Drucksachen bis hin zu Forschungs-
projekten mit dem sinnigen Namen „Käse 4.0“ erschien plötzlich alles möglich.
Mit der gedanklich unterkomplexen Formel „alles hänge mit allem zusammen“
wurde versucht, „Industrie 4.0“ und „Arbeit 4.0“ zu erklären. Doch hinter dem
vordergründigen Messe-Verkäufer-Vokabular waren ernsthafte Herausforderun-
gen zu erkennen, die einer tiefergehenden Analyse und komplexen Gestaltung
bedürfen. Schiebt man die technikzentrierte Vertrieblersprache beiseite, wird der
Blick frei auf tatsächliche, gravierende Veränderungen des Begriffes „Arbeit“
und des Begriffes „Betrieb“. Es ist Zeit, von einer Kontinentalverschiebung der
Arbeitswelt zu sprechen. Der Entgrenzung der Arbeit folgt nun die Entgrenzung
der Betriebe.
Im Beteiligungsdiskurs des aus mehr als 3700 Frauen und Männern von Be-
triebs- und Personalräten bestehenden gewerkschaftsnahen Personennetzwerks
„Forum Soziale Technikgestaltung“ (FST), das 2016 sein 25-jähriges Gründungsju-
biläum feierte, werden die laufenden Debatten in zwei große Handlungsfelder auf-
geteilt: Zum einen werden die derzeitigen, zumeist technikzentrierten und zugleich
betriebszentrierten digitalen Implementierungen als „Prozess der nachholenden Di-
gitalisierung“ bezeichnet. Rund 90 Prozent aller Einführungen von elektronischen
Werkzeugen und Endgeräten basieren auf Schlüsselanwendungen, die seit zehn und
mehr Jahren vorhanden sind, aber in den Betrieben aus Kostengründen nicht ge-
nutzt wurden. Das erste Smartphone war 1996 auf dem Markt verfügbar. Mobiles
Arbeiten wurde bereits 1996 in einem innovativen Tarifvertrag geformt. Das „Inter-
net der Dinge“ existiert seit mindestens einer Dekade. Die „Smart Glasses“ wurden
schon lange als Endgeräte der „angereicherten Virtualität“ pilotiert. Die Liste ließe
sich bruchlos lange fortführen. Neu an dieser „nachholenden Digitalisierung“, bei
dem bereits vorhandene Technik den Nutzern als geradezu frische Kost vorgeführt
wird, ist der ambitionierte Versuch, diesen großen digitalen Baukasten von isolier-
ten Einzelteilen in ein prozesshaft Ganzes zu verknüpfen.
Der zweite große Bereich, den das FST intensiv berät, lässt sich als Nutzung
„autonomer Software-Systeme“ benennen. Die Anwendung dieser „selbstlernen-
den“, „selbstbewertenden“ und „selbstentscheidenden“ Systeme – sowohl in ver-
tikalen wie auch in horizontalen Wertschöpfungsketten – steckt in den Anfängen.
108 Welf Schröter
These 4: Privatheit muss geschützt werden, sie ist ein wesentlicher Baustein der
Demokratie.
Die Anwendungen neuer digitaler und virtueller Werkzeuge in Beruf, Arbeit und Le-
benswelten beeinflussen das Verhältnis von Öffentlichkeit und Privatheit. Um die Vor-
teile der Digitalisierung für die Gesellschaft absichern zu können, benötigen Bürgerin-
nen und Bürger eine Stärkung ihres Rechtes auf informationelle Selbstbestimmung, ei-
nen intensiveren Schutz der Privatheit, einen umfassenden Daten- und Identitätsschutz.
Der Schutz der Privatheit ist ein wesentlicher Baustein des Fundaments der Demokratie.
These 5: Zugänge der Bürgerinnen und Bürger zu Bildung, Beruf und sozialer In-
frastruktur sind zu bewahren.
Der Prozess der digitalen Transformation der Arbeits- und Lebenswelten verändert die
Zugänge und die Zugänglichkeit der Bürgerinnen und Bürger zu Wissen und Bildung,
Beruf und Einkommen, sozialen Dienstleistungen und Infrastrukturen. Der Wandel ver-
mindert einerseits Barrieren, lässt aber andererseits neue entstehen. Die wachsende Un-
übersichtlichkeit und Abstraktion, die zunehmende Geschwindigkeit und Komplexität
sowie die abnehmende Nachvollziehbarkeit wirken sich für viele Menschen wie neue
Zugangsbarrieren aus. Bürgerinnen und Bürger sowie die zivilgesellschaftlichen Akteure
sollen in die Findung sozialer Innovationen, in die Entwicklung und Einführung neuer
Technologien beteiligungsorientiert einbezogen werden, um Gefahren der Ausgrenzung,
der Geschlechterungerechtigkeit und der möglichen digitalen Spaltung zu vermeiden.
Frühzeitige Beteiligung können sozialen Zusammenhalt, Integration, Selbstbestimmung,
Identität in der Virtualität, persönliche Autonomie, Solidarität und Inklusion erleichtern.
Der zunehmenden Vernetzung als Ent-Ortung stehen Impulse aus dem Forum Sozi-
ale Technikgestaltung gegenüber, die einen Bedeutungswandel des Ortes „Betrieb“
erkennen lassen:
Der Sozialpsychologe Heiner Keupp schrieb schon 2003: „Wenn wir uns der Frage
zuwenden, welche gesellschaftlichen Entwicklungstendenzen die alltäglichen Le-
bensformen der Menschen heute prägen, dann kann man an dem Gedanken des
,disembedding‘ oder der Enttraditionalisierung anknüpfen. Dieser Prozess lässt
sich einerseits als tiefgreifende Individualisierung und als explosive Pluralisierung
andererseits beschreiben.“
112 Welf Schröter
Die normierende Kraft des Wortes „Betrieb“ wird für die Sozialisierung der Men-
schen im Beruf abnehmen. Entortung, Entzeitlichung, Individualisierung und Ver-
einzelung, Virtualisierung und Entbetrieblichung stellen die Frage, wo dann noch
Menschen zu einem sozialen und einem demokratischen Miteinander sozialisiert
werden können. Die „Community Betrieb“ bröckelt. Die Zahl der Ein-Personen-
Selbstständigen und Freelancer steigt. Doch was, wo und wer tritt strategisch in der
Gesellschaft an die Stelle des Sozialisationsortes „Betrieb“?
Wenn die strukturelle Bedeutung des Ortes „Betrieb“ in seiner normierenden
gesellschaftlichen Funktion nachlässt, wird dies auch zu einer Pluralisierung der
Sozialisationsverortung führen. Dies kann entweder eine kulturelle Bereicherung
für alle ermöglichen oder eine verstärkte Fragmentierung und Parzellierung gesell-
schaftlicher Gruppen einläuten.
Das arbeitende Individuum wird von den kulturellen Prägungen und Regula-
tionen der Sozialpartner immer weniger erreicht. Die Kollegialkultur und deren
sozialisierende Kraft aus Betrieben, Belegschaften, Teams, Verbänden und Sozi-
alpartnern verlieren ihre Interpretationshoheit in den aufkommenden virtuellen
Einkommenswelten. Die strukturelle Ent-Integration des arbeitenden Individuums
aus den postanalogen Strukturen der Arbeitswelten zieht eine latente Tendenz zur
Ent-Sozialisation nach sich. Die Rollen der Sozialpartner als gesellschaftliche
Binde-Mittel werden geschwächt. Sie büßen Kohäsionskraft ein. Parallel zur rea-
len und virtuellen Atomisierung des Individuums vollzieht sich eine Rückbildung
des zentralen Kohäsionszentrums „Betrieb“ als formierender Ort der Vergesell-
schaftung des Individuums.
Angesichts dieses beginnenden Ent-Kohäsionsprozesses der Gesellschaft
muss die Frage nach neuen Anlässen, Orten und Kulturen formuliert werden, wie
und wo kompensatorische Kohäsionsorte und ebensolche Kohäsionskräfte wach-
sen können.
Vor diesem Hintergrund gilt es, eine These zu prüfen: Nicht die realen und virtu-
ellen Orte des lebenslangen Broterwerbs strukturieren die postanalogen Einkom-
mens-Patchwork-Biografien, sondern es sind die realen und virtuellen Orte des
emotional-intelligenten Lernens als lebenslange Lernkultur. Die neuen emotional-
intelligenten Lernwege bzw. Lerninfrastrukturen mit ihren Social-Media-Einspie-
gelungen benötigen nicht den Ort „Betrieb“ als Konditionierungstreffpunkt. Erfor-
derlich ist der Ausbau der Orte des Wissens- und Erfahrungsaustausches, der Orte
des Lernens und innovativen Experimentierens zu strategischen Kohäsions-Naht-
stellen mit hoher emotionaler Identifizierungs- und Bindekraft.
Die gewachsenen Orte der Informations- und Wissensvermittlung müssen dem-
nach die zusätzliche Rolle der aktiven Kohäsionsstabilisierung proaktiv annehmen.
Mehr Ent-Ortung erfordert mehr Ver-Ortung 113
Die Entortung und Entzeitlichung von Arbeit sowie der Rückgang des „Prinzips
Betrieb“ eröffnen die Suche nach neuen gesellschaftlich-öffentlichen, synchronen
Orten des Face-to-Face-Austausches. Bibliotheken und insbesondere Stadtteilbib-
liotheken könnten als Bildungstreffpunkte zu neuen Drehpunkten der vernetzten
Wissensgesellschaft (kollegiale Sozialisationsorte als Ersatz für den Ort „Betrieb“)
werden: „Blended Living“.
Klaus Wiegerling
1 vgl. Kornwachs, Klaus: Strukturen technischen Wissens. Analytische Studien zu einer Wissen-
schaftstheorie der Technik. Berlin 2012. S. 52 ff. Vgl. auch: ders.: Die Entortung der Wissen-
schaft und Universität 4.0. In: Kittowski, Frank; Kriesel, Werner (Hg.): Informatik und Gesell-
schaft. Festschrift zum 80. Geburtstag von Klaus Fuchs-Kittowski. Frankfurt am Main 2016.
2 vgl. Husserl, Edmund: Die Krisis der europäischen Wissenschaften und die transzendentale
Phänomenologie. Den Haag 1976 (1938).
116 Klaus Wiegerling
lichkeit, ein Organ digital zu verdoppeln. Die Grenze, die hier von Interesse ist,
liegt da, wo ein Begriff auf etwas qualitativ Verschiedenes referiert. Schon mit der
Verschiebung der Bedeutung der Begriffe „Leib“ und „Leben“ geht ein Wandel
unseres Selbstverständnisses einher. Wir verstehen uns anders, wenn unser Leib als
kultiviertes Naturstück auf Körperlichkeit reduziert wird. Leib und Leben galten
lange als unerreichbar, weil sie sich der menschlichen Herstellungsfähigkeit entzie-
hen. Der Leib wäre „erreichbar“, wenn er völlig in einen Körper transformiert, das
Leben, wenn es vollkommen rekonstruierbar wäre – kurz, wenn sie berechenbar,
disponibel, herstellbar und steuerbar sind.
Es muss ein Grenzdiskurs geführt werden, der nicht Grenzverschiebungen,
sondern die Auflösung von Grenzen fokussiert. Es ist der Anspruch eines positi-
vistisch reduzierten Wissenschaftsverständnisses, das aufzuheben, was für Kant
Wissenschaftlichkeit auszeichnet, nämlich die Markierung des Feldes, in dem wis-
senschaftliche Aussagen Geltung beanspruchen können. Wir müssten die Rede von
einem menschlichen Wesen, das nicht nur über einen Körper, sondern auch über
einen Leib verfügt, aufgeben, wenn sich die Bedingungen seiner organischen Exis-
tenz so verändern, dass sich die Spezifika der leiblichen Existenz nicht mehr fassen
lassen. Das Überschreiten der Grenze macht den Menschen zu etwas anderem, die
Überschreitung verändert den Überschreitenden.
Disziplinär gesehen spielt der in der Alltagssprache nur vage bestimmte Be-
griff des Lebens sowohl in den Natur- als auch in den Geisteswissenschaften eine
Rolle. In seinem Gebrauch spiegelt sich die Ambivalenz, die auch den Begriff des
Leibes auszeichnet, nämlich eine Zwitterstellung, in der sich sowohl eine Relation
auf ein in der Dritten-Person-Perspektive gegebenes Naturphänomen artikuliert als
auch ein historisch-kulturelles Phänomen, das in der Ersten-Person-Perspektive zu-
gänglich ist – jedoch als etwas, das die subjektive Zugänglichkeit transzendiert und
als überindividuelles Geschehen nur in Auslegungsprozessen erfasst werden kann.
Der Begriff des Lebens weist alle Merkmale auf, die Blumenberg für eine absolute
Metapher fordert, die sich einer Übertragbarkeit in explizites Wissen entzieht, auf
Totalität verweist und eine Orientierungsfunktion hat. Eine frühe begriffliche Fas-
sung liegt in der altgriechischen Unterscheidung von βιόϛ (m.) und ζωή (f.) vor.
Während ζωή das reine Existieren eines Lebewesens bezeichnet, kommt βιόϛ nur
vernünftigen Wesen zu. Ersteres benennt die Tatsache der biologischen Existenz,
letzteres die Lebensart. Βιόϛ ist ein qualitativer Ausdruck, während ζωή nur eine
Tatsache bestimmt bzw. eine Unterscheidung zur unbeseelten Entität vornimmt.
Die neuzeitliche Benennung der Wissenschaft vom Lebendigen als Biologie ist
eigentlich ein Fehlgebrauch des Begriffs βιόϛ. Der deutsche Begriff des Lebens
kann sowohl qualitativ-werthafte Momente hervorheben als auch eine Tatsachen-
feststellung sein. Weder in der frühen Biologie noch in der Lebensphilosophie wird
er nur im Sinne einer Tatsachenfeststellung gebraucht. In der Lebensphilosophie
wird er einerseits als kultur- und wissenschaftskritische Kategorie ausgebildet, an-
dererseits, wie bei Dilthey, als Klammer zwischen Geistes- und Naturwissenschaf-
ten gesehen. Selbstbezug, Selbsterhaltungs- und Transzendierungswille des Lebens
werden hervorgehoben.
118 Klaus Wiegerling
Der Lebensdiskurs der modernen Biologie wird wesentlich vom Gegensatz zum
Vitalismus, der von der Autonomie der Lebensvorgänge und ihrer Zweckmäßigkeit
ausgeht, geprägt. Vitalisten unterscheiden Lebewesen von anderen Körpern durch
Form, Stoffwechsel und Bewegung. Leben ist ein irreduzibles Phänomen, das als
Tätigkeit aufgefasst werden muss. Es lässt sich nicht als geschlossenes System fassen
und artikuliert sich in einem permanenten Austauschprozess. Der Vitalismus verlor
an Bedeutung als es Wöhler 1824 gelang, organische Substanzen synthetisch her-
zustellen und auf physikalisch-chemische Kausalzusammenhänge zurückzuführen –
und gilt endgültig als überholt, als Miller und Urey 1959 das spontane Entstehen
von Aminosäuren nachwiesen. Insbesondere in der Molekularbiologie wird versucht,
teleologische Momente ganz aus der Sphäre des Lebens als metaphysische Dreingabe
zu bannen. Merkwürdigerweise wird die Teleologie aber im pragmatischen Anspruch
der synthetischen Biologie auf einer höheren Stufe wieder eingeführt. Die Hervor-
bringung des Lebens unterliegt ja selbst den Zwecken der „Macher“. Diese artiku-
lieren bestimmte Eigenschaften im jeweiligen Biofakt. Dabei spielen auch kulturelle
oder ästhetische Präferenzen eine Rolle. Dem deterministischen Anspruch reduktio-
nistisch-naturalistischer Konzepte entsprechend müsste aber auch diese Teleologie
aus dem wissenschaftlichen Handeln gebannt werden.3
In der Biologie hat der Begriff des Lebens, wie Toepfer feststellt, einen in-
tegrativen Charakter, der so unterschiedliche Felder wie Ethologie, Morphologie
und Genetik zusammenhält.4 Er vereinigt s. E. drei Intentionen, nämlich Leben als
Zustand, als Tätigkeit oder als Dauer zu fassen. Biologiegeschichtlich könnte man
von zwei Epochen sprechen, einer antikmittelalterlichen aristotelischen und einer
mechanistischen cartesianischen. In der mechanistischen Haltung bleiben aber viele
mit dem Begriff des Lebens verknüpfte Probleme ungelöst: Wie sollen Lebewesen,
die nach mechanistischen Prinzipien entstehen, sich reproduzieren und evolutionäre
Veränderungen aufweisen können, wie die Selbstbewegung von lebendigen Orga-
nismen verstanden werden, wie der Zusammenhang von Körper und Geist oder die
Wechselwirkung von Umwelt und Organismus gedacht werden? Toepfer bietet eine
Kriteriologie an, auf deren unterster Stufe die Organisation steht, die ein wechsel-
seitiges Verhältnisses von Ursache und Wirkung in einem geschlossenen System
formuliert. Darauf aufstufend stehen die Selbsterhaltung implizierende Regulation
und schließlich die den Rahmen der organischen Identität sprengende Evolution,
die auf Wandel und Komplexitätssteigerung verweist.5 Der lebendige Organismus
aber ist ein individueller, selbst wenn, wie bei eineiigen Zwillingen, die genetische
Anlage identisch ist. Die Erfahrung des eigenen Leibes ist nicht übertragbar. Leib-
erfahrung heißt auch Differenzerfahrung. Lässt sich aber technisch aufgerüstetes
Leben noch unter den genannten Kriterien fassen? Dass sich intrakorporal in Form
eines Implantats etwas Nichtindividuelles etabliert, das Regulierungsfunktionen
übernimmt und als realisiertes Funktionsmodell die Aufgabe eines ausgefallenen
3 vgl. Janich, Peter: Kultur und Methode – Philosophie in einer wissenschaftlich geprägten Welt.
Frankfurt am Main 2006. S. 158.
4 vgl. Toepfer, Georg: Der Begriff des Lebens. In: Krohs, Ulrich; Toepfer, Georg: Philosophie
der Biologie. Frankfurt am Main 2005. S. 157 f.
5 a. a. O., S. 166 ff.
Zur Anthropologie des körperlich aufgerüsteten Menschen 119
oder geschädigten Organs übernimmt, ist ein Problem. Eine vollständige Ersetzung
eines Organs findet nicht statt, da in einem Funktionsmodell nicht alle Momente des
Organs erfasst werden können.
Der deutsche Begriff des Leibes ist aufs Engste mit dem des Lebens verknüpft.
Etymologisch ist das althochdeutsche Wort „lip“ mit den beiden Verben leben („le-
ben“) und bleiben („pilipan“) verbunden. In seiner ursprünglichen Bedeutung stand
der Begriff im Gegensatz zu „wal“, mit dem die auf dem Schlachtfeld Gefallenen
bezeichnet wurden, die für den Heldenhimmel bestimmt waren. „Lip“ und „wal“
waren wertbesetzte Begriffe, die nicht nur einen Zustand bezeichnen, sondern zu-
gleich eine kriegerische Leistung würdigen.
Der Begriff „Körper“ drang als vom Lateinischen „corpus“ abgeleitetes Fremd-
wort über das Latein der Ärzteschaft und der Geistlichkeit ins Deutsche. In der All-
tagssprache hat sich der Begriff erst ab dem 18. Jahrhundert durchgesetzt. Körper
stand für etwas, das auch im medizinischen Sinne objektivierbar ist. Er kann zum
Gegenstand einer äußeren Betrachtung gemacht werden wie jedes andere Naturstück
auch. Der Körper wandelte sich zu einer physikalischen Kategorie, die für alle volu-
minösen Körper steht. Er wurde in einen Gegensatz zur Seele gebracht, der Leib in
einen Gegensatz zum Geist, was darauf hinweist, dass er als etwas Individuelles dem
allgemeinen Anspruch des Geistes entgegengesetzt wurde. Der Begriff des Körpers
hat schnell eine erweiterte Verwendung erfahren, wurde als etwas verstanden, das
einen Sachverhalt konkretisiert, ihm Gestalt verleiht. Zuletzt wurden Übertragungen
auf Sozialphänomene wie Lehrkörper vorgenommen. Er konnte so für alles stehen,
das sich räumlich artikuliert oder die körperlich getragene Personalität des Men-
schen übersteigt und in einen allgemeinen gesellschaftlichen Rahmen stellt.
Während sich der Körper als Gegenstand einer naturalistischen Betrachtung
fokussieren lässt, kann der Leib intuitiv erschlossen und als der eigene gespürt wer-
den. Darüber hinaus ist er auch kulturhistorisch disponiert, enthält in seiner subjek-
tiven Erfahrung allgemeine Bestände. Der ältere Begriff des Leibes ist umfassen-
der als der naturalistisch reduzierte Körper. Mit dem Leib wird Individuelles, mit
dem Körper Überindividuelles verknüpft, was sich in Komposita wie Leibgericht
einerseits oder Körperschaft andererseits artikuliert. Er ist eine Limesgestalt, ein
naturalisiertes Kulturstück bzw. kultiviertes Naturstück, also weder natural noch
kulturell zu fassen. Als historisch-kulturelle Entität ist er ein Vermittlungsprodukt
und immer wieder aufs Neue auszulegen. Er weist auch individualgeschichtliche
Komponenten auf, ist Ausdruck von Leistungen, die für unser Selbst- und Weltver-
ständnis wesentlich sind. In der Verleiblichung findet die Individualisierung eines
allgemeinen geistigen Ausdrucks statt. Erst durch das Empfinden bzw. Selbstgefühl
wird aus einer Verkörperung eine Verleiblichung. Hegel benennt die besonderen
Vermittlungseigenschaften, die dem Leib zukommen: Allgemeines und Partikula-
res, Naturales und Geistiges werden in ihm vermittelt.
Gegenstand einer Aufrüstung kann nur der Körper, nicht der Leib sein. Wenn wir
von einem neuen Typus des Menschen reden, der eine Verbesserung seiner körper-
lichen Vermögen durch eine technische Aufrüstung erfährt, dann ist es angemessen
von sekundärer Leiblichkeit zu sprechen, denn es wird neue Formen der Selbst- und
Welterfahrung geben, wenn Schmerzen und Belastungen nicht mehr spürbar, sinnli-
120 Klaus Wiegerling
Wie nun könnte die Kontinuität eines transformierten Körpers gedacht werden?
Engramme, Einschreibungen in die organische Materie durch die Lebenserfahrung
werden in Implantaten nicht stattfinden. Trotz unterschiedlicher Organbelastungen
altert der Organismus als ganzer. Wird dies auch beim transformierten Menschen
der Fall sein? Implantate unterliegen anderen Alterungszyklen als organische Mate-
rie. Der zur Apparatur transformierte Körper wird eine permanente Wartung erfah-
ren, in der es zu einem Austausch von Teilen und Neuprogrammierungen kommt.
Es wird selbstgesteuerte organische Entwicklungen ohne graduelle Sprünge als
auch additive Hinzufügungen bei Implantaten und Prothesen geben, die eine Steu-
erung von außen erfahren können.6
Wie könnte nun Historizität als bleibende, aber selektive Prägung des Individu-
ums bei transformierten Wesen aussehen? Natürlich könnte ein Implantat Belastun-
gen protokollieren, um seinen Verschleiß anzuzeigen und Austauschmaßnahmen zu
initiieren. Aber nach welchen Kriterien sollen Erfahrungen aufgezeichnet werden?
Das leiblich-implizite Wissen wäre im Falle transformierter Menschen reduziert,
das explizite dagegen müsste anwachsen. Ein transformierter Körper müsste histo-
rische Vermittlungen anders leisten, wenn Erfahrungen kaum physiologische Spu-
ren hinterlassen und defekte Teile einfach ersetzt werden. Zwischenleiblichkeit als
besondere leibliche Prägungen, etwa kulturell bedingte Rhythmisierungen, würde
keine Rolle spielen. Es ginge nur um die optimale Anpassung an soziale oder öko-
nomische Erfordernisse, was in unterschiedlichen Sphären unterschiedlich justiert
bzw. programmiert werden könnte. Ein leibliches Gedächtnis im Sinne eines im-
pliziten Wissens, über das ein Handwerker oder Musiker verfügt, ist beim transfor-
mierten Menschen wohl nur noch eine Marginalie. Wie sollte sich dieses Wissen in
intelligenten Implantaten sedimentieren? Technische Funktionalität besteht wesent-
lich in der Wiederholbarkeit gleicher Abläufe. Genau dies wäre aber im Falle eines
Pianisten oder Handwerkers kontraproduktiv. Der Pianist wäre ein Spielautomat,
der Handwerker ein Roboter, der die Feinmodellierung, auf die es bei gelungenen
Werkstücken ankommt, nur insofern vorzunehmen vermag, als ihm dafür Erfas-
sungs- und Ausführungsschemata zur Verfügung stehen. Implizites Wissen zeichnet
sich durch ein gewisses Spiel aus, das in der Verleiblichung seinen Ausdruck findet.
Um ein solches Wissen beim transformierten Menschen wirksam werden zu lassen,
müsste es explizit gemacht werden, also zu etwas werden, was es seinem Wesen
nach gerade nicht ist. Die diachrone Vermittlung wird also zugunsten der synchro-
nen zurückgefahren werden. Der transformierte Mensch wird ein posthistorischer
Wesen sein – ein Jetztgenosse im Sinne von Anders, kein Zeitgenosse.
Es stellt sich die Frage, ob sich aus der Diskussion der technischen Zweck-
Mittel-Relation Probleme für den ethischen Diskurs ergeben, wenn der Mensch in
Zeiten seiner Transformation eine Entindividualisierung erfährt. Ein Herzschritt-
macher ist etwas anderes als ein mit dem gesamten Organismus verbundenes Or-
gan. Bei der Schaffung eines Implantats, das eine organische Funktion ersetzen
oder regulieren soll, wird, wie bei jeder Nachbildung, etwas artikuliert und etwas
desartikuliert. Es gibt kein digitales Double des Organs, sondern nur die Ersetzung
sondern bestehende auch verbessert werden. Die Grenze zwischen der Wiederher-
stellung von verlorenen oder eingeschränkten Vermögen und deren Verbesserung
ist fließend. Unser Körper wird eine Sache des Designs. Der Zusammenhang von
Alterung und Krankheit wird eine weitgehende Entkoppelung erfahren. Dies wird
Auswirkungen auf gesellschaftliche Erwartungen haben. Krankheit wird stärker mit
Schuld konnotiert werden. Man wird in einem Gesundheitswesen, das sich in ein
Präventionssystem transformiert, damit zu rechnen haben, dass nur noch dem unein-
geschränkt Hilfe gewährt wird, der seinen Präventionsverpflichtungen nachkommt.
Es wird in hoch technisierten Gesellschaften wohl zwei Menschentypen ge-
ben, die durch eine Kluft getrennt sind, die durch keine sozialen Maßnahmen zu
überbrücken ist. Auf der einen Seite steht ein bio- und informationstechnologisch
verbesserter Typus, der, was seine körperlichen Disposition anbetrifft, im heutigen
Sinne wohl nicht mehr als Mensch bezeichnet werden kann. Er wird nicht generell
den „alten“ Menschen ersetzen. Vielmehr wird, was bisher durch Schichtenzuge-
hörigkeit, Tradition und individuelle Leistung zur Differenzierung der Gesellschaft
beigetragen wurde, vermehrt durch körperliche Selektion geschehen. Das „transhu-
mane“ Wesens der Zukunft wird ein Hybride sein, in den jederzeit technisch ein-
gegriffen werden kann. Die Unmittelbarkeit der eigenen Leiberfahrung wird eine
Brechung erfahren. Es wird einen Wandel des individuellen Leibverständnisses
geben. Allerdings wird auch der neue Mensch seinen aufgerüsteten Leib als etwas
erfahren, das sich nicht abstreifen und vollständig objektivieren lässt. Auch er wird
noch verletzlich und sterblich sein, aber er wird anders seine Sterblichkeit erleben,
wenn auch später und in vitaleren Zustand. Seine Leiberfahrung wird noch immer
eine unmittelbare sein, die aber in einer spontanen Koordinations- und Integrations-
leistung erfahren wird und weniger in leiblichem Spüren.
Bereits heute haben sich die rechtlichen Verhältnisse in Bezug auf den eigenen
Leib durch die Tatsache, dass der menschliche Körper zur biologischen Ressource
geworden ist, geändert. Umso mehr ist mit einem beschleunigten Wandel dieser
Verhältnisse zu rechnen, wenn es um austauschbare nichtorganische Implantate und
Prothesen geht. Die Unverletzlichkeit des Körpers und damit der Eingriff in ihn
wird anders bewertet werden, wenn er auf informatischer Basis erfolgt und keine
Spuren im organischen Teil des Körpers hinterlässt.
Die Exterritorialisierung von Körperfunktionen, die Überprüfung von Vitalda-
ten und die informatische Verknüpfung mit Apparaturen inner- und außerhalb des
Körpers sind bereits möglich. Die permanente Überwachung von Vitalfunktionen
und die damit verbundene Fixierung unserer Existenz auf Gesundheit werden nicht
nur Auswirkungen auf ein transformiertes Gesundheitswesen, sondern auch auf die
menschliche Psyche haben. Unweigerlich führt die Aufrüstung des Körpers zu ei-
ner Anmessung der Gesundheit an technische und ökonomische Kategorien wie
Effizienz und Funktionalität.
Welche Auswirkungen wird die Verschaltung von Körper und Umwelt auf
das Verhältnis von Leib und Lebenswelt haben? Nur der historisch disponierte,
gespürte und sich positionierende Leib steht in einem Vermittlungsverhältnis zur
Lebenswelt, nicht der Körper, der nur eine Umwelt hat. Der Organismus muss sich
auf neue Weisen der Interaktion mit der Umwelt einstellen, wenn diese intelligent
124 Klaus Wiegerling
geworden ist und die Komplexität von Umwelt und Gesellschaft eine unsere Auf-
merksamkeit übersteigende Interaktion erfordert. Das Anwachsen automatisierter
Interaktionsprozesse erscheint wahrscheinlich, aber auch mit Entmündigungsten-
denzen verbunden. Es wird wohl ein neuartiger gesellschaftlicher Normierungs-
druck bezüglich der Funktionalität des Körpers geben. Die von Husserl gestellte
Frage nach der Lebenswelt als intersubjektive Normalwelt ist unter dem Aspekt
technischer Normierungen neu zu diskutieren. Normalität wird verstärkt an techni-
schen und ökonomischen Abläufen gemessen werden.
Technisch erschließen kann man nur einen der Dritten-Person-Perspektive zu-
gänglichen skalierbaren Körper, nicht einen spürbaren und historisch disponierten
Leib, der immer wieder aufs Neue ausgelegt werden muss. Die allmähliche Ankün-
digung von Krankheit, die Einstellung des Körpers auf die Möglichkeit einer Selbst-
heilung wird nur noch „ein“ Erfahrungstyp von Erkrankung sein. Wahrscheinlich
werden wir von Systemen, die unsere Körperfunktionen überwachen, Hinweise auf
Störungen bekommen. Wir werden den Leib als etwas Äußerliches erfahren. Die Me-
dizin wird sich als „Body-Engineering“ verstehen. Gesundheit ist dann in erhebli-
chem Maße eine Sache der Verschaltung intelligenter Implantate und Prothesen.
Mit der fortschreitenden Substitution des Leibes geht auch dessen technisch
bedingte Reduzierung einher. Ein herstellbarer Körper kann in seiner Funktionalität
auf Kultur- und Umweltbedingungen eingestellt werden. Körperliche Widerstands-
erfahrungen im Sinne der Anzeige körperlicher Belastungen werden zugunsten
der Ausschöpfung körperlicher Potentiale eingeschränkt. Auch wenn durch solche
„Ausblendungstechniken“ Schäden entstehen können, werden wir Steigerungen
unserer körperlichen Leistungsfähigkeit erreichen, ohne dass Training und Ge-
wöhnung die zentrale Rolle spielen. Und gewiss ist auch mit der Definition neuer
Krankheiten zu rechnen, die sich aus dem Verlust apparativ hergestellter Vermögen
ergeben. Krankheiten werden sich vermehrt als technische Probleme darstellen, für
die technische Lösungen gefunden werden müssen.
Basis der gegenwärtigen Transformationsbestrebungen ist ein positivistisches
Wissenschaftsverständnis, das dazu neigt, Modelle mit der Wirklichkeit zu ver-
wechseln. Das zugrunde liegende Menschenbild ist das eines utilitaristisch und
pragmatisch agierenden Wesens, das bereit ist, für eine erhöhte Leistungsfähigkeit
viel zu tun. Wir gesunden quasi spontan durch das Umlegen eines Schalters und
steigern unsere Leistungsfähigkeit durch technische Manipulation. Gesundheit,
Wohlbefinden und Leistungsfähigkeit sollen lebensunabhängig und ohne Umweg
erreicht werden.
Die technische Durchdringung und Aufrüstung der biologischen Disposition
des Menschen lässt sich in einen Zusammenhang stellen, den der späte Heidegger
erörterte, als er die moderne Technik als Endgestalt des thetischen, also stellenden
metaphysischen Denkens bestimmte, das versucht alles verfügbar zu machen. Alles
soll berechenbar und das Ereignishafte als das nicht Voraussehbare zum Verschwin-
den gebracht werden. Der menschliche Körper soll jederzeit gestaltet, verbessert
und repariert werden können. Allerdings erfährt die menschliche Verfügungsgewalt
eine Art Unterwanderung durch seine Hervorbringungen. Informatische System-
konfigurationen können bereits heute nur noch bedingt kontrolliert und gesteuert
Zur Anthropologie des körperlich aufgerüsteten Menschen 125
werden. Es ist eine Konsequenz des stellenden Denkens, dass es sich selbst un-
terwandert, wenn es uns einem Kalkül zu unterwerfen versucht. Als das Denken
totaler Berechenbarkeit arbeitet es an seiner eigenen technischen Substitution. Ge-
rade weil es keine Grenzen des Berechenbaren kennt, begrenzt es das prinzipiell
transzendierende Denken selbst.
Das eigene Leben wird als etwas Konstruierbares bzw. Nachkonstruierbares
verstanden. Als solches hat es aber seine Einzigartigkeit und prinzipielle Schutz-
würdigkeit verloren. Was veränderbar ist, kann nicht den Anspruch erheben, als
solches bewahrt zu werden. Die Versachlichung des eigenen Leibes äußert sich in
dessen Transformation in eine skalierbare und unter Laborbedingungen isolierbare
Entität. Die Welt mitsamt menschlichem Körper wird zum Gestaltungsmaterial.
Der künftige Mensch steht in einer Entwicklungslinie, zu der auch die zweckgelei-
tete Technik gehört. Technische Zwecke sind aber keine Selbstzwecke. Die Selbst-
zweckhaftigkeit der leiblichen Existenz ist aber die conditio sine qua non unseres
heutigen Selbstverständnisses, nicht zuletzt unserer Würdevorstellung.
126 Klaus Wiegerling
LITERATUR
Heinz–Ulrich Nennen
PROLOG
Es ist nicht nur unangebracht sondern gefährlich, noch immer zu glauben, Technik
sei nichts weiter als ein Werkzeug, dessen man sich nach Lust und Laune bedienen
kann. Technik dient nicht, sie herrscht: Wir sind es, die sich anpassen müssen, wenn
wir uns, unser Leben, unsere Lebens- und Arbeitswelten, unsere Personalität und
Intimität immer weiter adaptieren lassen.– Das Entscheidende an der Technik ist
nichts Technisches. Darauf hat Klaus Kornwachs vielfach hingewiesen: Jede Tech-
nik braucht eine Hülle, ohne die sie gar nicht arbeiten kann.
„Die organisatorische Hülle einer Technik (…) enthält die Anteile an Organisation und
deren Regeln (…), die erforderlich sind, um die Geräte adäquat interagieren zu las-
sen. Dabei kann ein Gerät immer mehr Funktionen realisieren, als in ihm angelegt sind.“2
„Die organisatorische Hülle einer Technik umfasst alle Organisationsformen, die notwendig
sind, um die Funktionalität eines technischen Artefakts überhaupt ins Werk setzen zu können.“3
Aber so sehen, erfahren und erleben wir es nicht. Wir glauben vielmehr, uns im
Alltag der Technik nur zu bedienen und meinen allen Ernstes, ihre Dienstbarkeit
sei etwas, das wie ein Flaschengeist hinzukommt. Wir rufen sie nur, um ihr zu
befehlen, uns zu Diensten zu sein, tatsächlich aber verhält es sich anders: „Wir
erleben Technik meist unbewusst, sie ist oft unsichtbar, sie funktioniert fast selbst-
verständlich. Wir halten sie für eine Errungenschaft der Naturwissenschaft und der
Zivilisation und beginnen unsere Fragen erst zu stellen, wenn sie eben nicht oder
nicht mehr funktioniert. Dabei stellen wir fest, dass wir meist gar nicht wissen, wie
und warum Technik funktioniert, wer sie in die Welt gestellt hat, wer damit etwas
vorhat und wer damit welche Interessen verfolgt. Und wir stellen auch fest, dass
Technik, so gut sie gemeint sein mag, zuweilen gar nicht funktioniert, weil das, was
sie zum Funktionieren braucht, gar nicht gegeben ist. Dieses Etwas ist (…) nichts
Technisches, sondern eher etwas Organisatorisches (…)“4
1 Goethe, Johann Wolfgang von: Gedichte. Nachlese. Berliner Ausgabe. Berlin 1960 ff. Bd. 2. S. 74.
2 Kornwachs, Klaus: Strukturen technologischen Wissens. Analytische Studien zu einer Wissen-
schaftstheorie der Technik. Berlin 2012. S. 118.
3 ders.: Philosophie der Technik. Eine Einführung; München 2013. S. 22 f.
4 a. a. O., S. 10.
128 Heinz–Ulrich Nennen
Sobald eine neue, revolutionäre Technik aufkommt, verändert sich die Kul-
tur, die Weltanschauung, das Reden und auch das Empfinden. Mit jeder tech-
nischen Revolution kommen neue Götter und neue Menschenbilder auf, weil
sich die Lebensumstände sehr schnell fundamental wandeln: neue Zeiten, neue
Götter.
Mit der Götterdämmerung ist zuletzt die Reihe an den Menschen gekommen.
Aber anders als diese beherrschen wir die göttliche Scheidekunst nicht, das Gute
vom Übel abzutrennen, um dann alles Unerwünschte einfach auf Flaschen zu zie-
hen. Wir beherrschen weder die Fähigkeit, allein durch Sehen bereits zu wissen,
noch können wir uns nonverbal einfach durch Blicke verständigen. Wir müssen
Worte machen und sind dabei auf langwierige Diskurse verwiesen, in denen es erst
allmählich gelingen kann, komplexe Konstellationen aus den unterschiedlichsten
Perspektiven nach und nach in den Blick zu bekommen. Schon gar nicht ist es uns
als Menschen gestattet, nach Art der Götter in unseren Ratschlüssen unergründlich
zu sein, ohne mit dem Gesetz in Konflikt zu kommen.
Zudem müssen wir immer dann, wenn es wirklich wichtig wird, eine selbst fast
göttliche Vernunft bemühen, die es uns erst ermöglicht, alle erdenklichen Perspekti-
ven der Reihe nach zu würdigen, nicht nur den Verstand reiner Rationalität, sondern
auch Gefühle, Sehnsüchte, Hoffnungen, die Wonnen von Kunst und Erotik und vor
allem auch die Erfordernisse einer Psyche, die selbst immer komplexer wird. Also
müsste sich eine umfassende Vernunft mit dem Anspruch, den Pantheon aller Göt-
ter tatsächlich zu verkörpern, dann auch auf wirklich alles verstehen, was diese nun
einmal repräsentieren. Das wahrhaft Göttliche am Menschen dürfte allerdings darin
liegen, gar nicht erst Gott zu spielen, weil wir es nicht wirklich könnten. Was bleibt,
ist der Trost, dass die Götter ohnehin unsere Erfindungen sind, aus guten Gründen,
denn wir müssen immer wieder Maß nehmen, an und mit ihnen. „Der Mensch ist
das Maß aller Dinge, der seienden, dass (wie) sie sind, der nicht seienden, dass
(wie) sie nicht sind.“5
ARBEIT AM MYTHOS6
Mythen betreiben selbst bereits Aufklärung, daher ist die Arbeit an ihnen so inspi-
rierend. Jeder Zeitgeist erwartet schließlich ureigenste Antworten auf drängende
Fragen von epochaler Bedeutung. Und solange es einem dieser Plots gelingt, immer
wieder neue Orientierungsmuster zu liefern, wird er weiterhin von überzeitlicher
Bedeutung bleiben.
5 „Er [Protagoras] sagt nämlich, der Mensch sei das Maß aller Dinge, der seienden, wie sie sind,
der nichtseienden, wie sie nicht sind.“ (Platon: Theaitetos 152 a. In: Werke in acht Bänden.
Darmstadt 1990. S. 31.)
6 Siehe hierzu: Nennen, Heinz-Ulrich: Der Mensch als Maß. Über Protagoras, Prometheus und
Pandora. Hamburg 2018; ders.: Die Urbanisierung der Seele. Über Zivilisation und Wildnis.
Hamburg 2018; ders.: Pandora: Das schöne Übel. Über die dunklen Seiten der Vernunft. Ham-
burg 2017; ders.: Die Masken der Götter. Anthropologie der modernen Welt. Hamburg 2018;
ders.: Das erschöpfte Selbst. Erläuterungen zur Psychogenese. Hamburg 2018.
Das Prometheus-Projekt und die Mitgift der Pandora 129
Zwischen Mythos und Logos herrscht eine Dialektik, die sich kreativ in Dienst
nehmen lässt, so wie auch Metaphern nicht selten das Verstehen erst möglich ma-
chen. Aber die Spekulation, es gebe so etwas wie eine Höherentwicklung vom
Mythos zum Logos, entbehrt jeder Grundlage. Beide Weisen der Welterklärung
kommen einander gar nicht in die Quere, sie operieren auf völlig anderen Ebenen.
Sie können einander aber wechselseitig aufhelfen, wenn sie nur geschickt genug
arrangiert werden.
Gängige Theorien sind in der Regel ein mixtum compositum aus Mythos und
Logos. Irgendwoher muss schließlich die Zuversicht kommen, einer Modellvor-
stellung und der darauf gegründeten Theorie zuzutrauen, tatsächlich auch leisten
zu können, was man sich von ihr verspricht. Genesis und Geltung lassen sich daher
zurückführen auf Narrative von überzeitlicher Bedeutung.
Die Fundamente aller dieser Meistererzählungen gründen tief im kollektiven
Unbewussten. Sie stehen im Bunde mit mächtigen Motiven aus der Welt der Arche-
typen, Mythen, Metaphern, Symbole und Allegorien. So gelingt es, auf höchstem
Niveau immer wieder neue Modellvorstellungen, aber auch Heils- und Unheilssze-
narien zu generieren, in denen die entscheidenden Momente, Kräfte und Prinzipien,
die im Spiel sind oder sein könnten, mustergültig „personalisiert“ werden.– Wir
sind in Geschichten verstrickt und darauf angewiesen, die Welt einzuspinnen in
Begebenheiten, die oft phantastische Motive bemühen, was nicht bedeuten muss,
dass alles das Phantasterei ist.
Götter, Helden, Halbgötter und mythische Figuren sind zwar Projektionen, was
aber keineswegs bedeutet, dass sie nichts sind, denn sie stehen als Allegorien im-
merhin für ganz entscheidende Perspektiven. Als solche lassen sie sich in Dienst
nehmen. Sobald solche Plots generiert worden sind, lassen sich ganze Szenarien
darstellen, deuten und bewerten. Ob wir damit tatsächlich die Wirklichkeit tref-
fen und nicht vielmehr einfach nur beliebige Vor-Stellungen generieren, das ist die
Frage.
Nicht von ungefähr betreiben manche Mythen selbst bereits Aufklärung, etwa
so wie der Zentralmythos des Abendlandes: In der Frage, ob die Idealzeit in der
Vergangenheit oder aber in der Zukunft liegt, kann es der Mythos von Prometheus
mit dem Utopischen ohne weiteres aufnehmen.– Das Unheil, dem vormalige My-
then noch entgegen traten, ist längst eingetreten, wenn der Halbgott als Allegorie
für den Fortschritt die Bühne betritt, um nach dem Feuerraub in der Frage nach den
Folgen und dem Schicksal der Menschheit ganz neue Erklärungsmodelle zu liefern.
Als dieser Mythos aufkam, war der Prozess der Zivilisation initialisiert, der
„Point of no return“ bereits überschritten und der ungeheure Paradigmenwechsel
vom Mythos zur Utopie längst vollzogen. Seither ist jede noch so große Vergan-
genheit auch nur von gestern und jede verheißungsvolle Zukunft einfach nur un-
gewiss.– Was Schamanen und Priester über Epochen hinweg noch kompensieren
konnten, ist inzwischen zur Gewissheit geworden, die transzendentale Obdachlo-
sigkeit wird zur Grundbefindlichkeit. Und sogar die anonymen Mächte, denen sich
die Menschen in vormythischen Zeiten ausgesetzt sahen, kehren inzwischen wieder
und feiern fröhliche Urständ als alles umfassende, anonyme System-Gottheiten.
130 Heinz–Ulrich Nennen
Mythen schreiben Geschichte auf ihre Weise, und mit etwas Phantasie lassen
sich die Begebenheiten „dahinter“ noch ahnen: Innerhalb weniger Generationen
haben sich seinerzeit die Verhältnisse ebenso radikal wie fundamental geändert.
Hesiod fabuliert noch vom ehedem einvernehmlichen Verhältnis zwischen Men-
schen und Göttern, wenn er die vormalige Mühelosigkeit mit der neuerdings auf-
kommenden Mühseligkeit konfrontiert.– Für ihn ist der ganze Prozess eine einzige
Verfallsgeschichte.
Der Mythagoge gibt sich untröstlich, tatsächlich demonstriert er aber das noto-
rische Hadern utopischen Ungenügens, etwa wenn er das fünfte Geschlecht derer,
die sich vom Acker ernähren, als das von Zeus geschaffene identifiziert und ausruft:
„Wäre ich selbst doch nie zu den fünften Männern gekommen,
sondern zuvor schon gestorben oder danach erst geboren!
Jetzt das Geschlecht ist nämlich das eiserne. Niemals bei Tage
werden sie ausruhn von Not und von Arbeiten, nie auch zur Nachtzeit,
völlig erschöpft. Und die Götter bescheren drückende Sorgen.“7
Der eigentliche Auslöser für den Prozess der Zivilisation war die Metallurgie: Zu-
nächst Kupfer, dann Bronze und schließlich Eisen.– Nicht von ungefähr spielt der
hinkende Erfindergott Hephaistos eine so entscheidende Rolle. Daher auch ist das
von Prometheus geraubte Feuer ganz gewiss kein einfaches Herdfeuer. Es handelt
sich vielmehr um das Schmiedefeuer, „die“ Allegorie „der“ Technik.
Die neue Metallurgie kam um 3500 v. u. Z. auf. Und Hesiod weiß, worauf es
ankommt, wenn er hervorhebt, welches der Menschengeschlechter bereits über
„schwärzliches Eisen“ verfügt. Tatsächlich geht es dabei um Metall-Legierungen
mit neuen Eigenschaften, also um „Stahl“. Es ist eine technische Revolution sonder-
gleichen.– Prometheus steht bei alledem Pate, ursprünglich ein Töpfergott, erschuf
er die Menschen aus Ton und seine Freundin, die Stadtgöttin Athene haucht ihnen
die Seele ein. Aber der „Mensch“, den Prometheus erschafft, entspricht nicht dem
„alten Adam“, sondern einer gänzlich neue Menschentypologie: Die Geschöpfe des
Prometheus sind Zivilisationsmenschen in ihrer zuvor nie gesehenen Vielfalt als
Herrscher, Priester, Krieger, Beamte, Gutsbesitzer, Bürger, Städter, Händler, Ma-
tronen, Hetären, Handwerker, Untertanen und eben auch Bauern, Leibeigene und
Sklaven.
Zuvor gab es nur zwei „Menschentypen“, abhängig von ihrer stets nomadischen
Subsistenz- und Erscheinungsweise, einerseits Hirten und andererseits Sammler
und Jäger. Dann aber „schuf“ Prometheus die neuen Menschentypen aus vielen
verschiedenen Ethnien, Clans und Geschlechtern in den multikulturellen Schmelz-
tiegeln neuer urbaner Welten, die als naturenthobene, künstliche Lebensräume bis-
her ungeahnte Möglichkeiten der Arbeitsteilung aber eben auch der Entfremdung
boten. Und der sagenumwobene Gilgamensch, König von Uruk im Zweistromland
zwischen Euphrat und Tigris, errichtete etwa 3000 Jahre v. u. Z. die vielleicht erste
Stadt-Mauer der Welt.8
7 Hesiod: Werke und Tage. In: Werke in einem Band. Berlin, Weimar 1994. S. 52 f.
8 vgl. Maul, Stefan: Das Gilgamesch-Epos. München 2014(6); sowie: Schrott, Raoul; Rollinger,
Robert; Schretter, Manfred: Gilgamesh: Epos. Darmstadt 2001.
Das Prometheus-Projekt und die Mitgift der Pandora 131
Mit dem Metall kommt nicht nur ein neuer Werkstoff – es kommt das Geld in die
Welt: Metall ist universell konvertierbar, das ist, was zählt. Erstmals gibt es die
Möglichkeit, Vermögen zu horten, um damit zu spekulieren und allein durch Geld
zu Macht und Einfluss zu kommen. Das war vorher so nicht möglich, weil sich
nämlich mit verderblichen Gütern nur schwer spekulieren lässt und weil es per se
gar kein Eigentum gab.– Das Märchen von Hans im Glück führt vor Augen, was es
damit auf sich hat: Ein Goldklumpen so groß wie sein Kopf, den Hans von seinem
Meister für geleistete Dienste erhält, drückt ihm unangenehm auf die Schulter, au-
ßerdem kann er seinen Kopf nicht mehr grade halten. Süffisanter kann subtile Kritik
am Privateigentum kaum ausfallen.
Metall verdirbt nicht, es lässt sich im Verborgenen horten und beizeiten hervor-
holen. Allein das Gerücht, jemand verfüge über Metall, erzeugt noch immer Kre-
ditwürdigkeit erster Güte. Erstmals in der Geschichte der Menschheit stand damit
ein universell konvertierbares und zugleich waffenfähiges Material zur Verfügung:
Metall ist Geld und Geld ist Metall.– Die soziokulturellen Folgen dieser Tech-
nik sind einschneidend, umfassend und radikal. Das ist „die“ Wendestelle in der
Menschheitsgeschichte, denn von nun an wurde Macht verfügbar, disponibel und
gewissermaßen käuflich. So wurde der Prozess der Zivilisation in Gang gesetzt. Es
entstand eine historische Dynamik, die nie zuvor geherrscht hat.
Metall, das bedeutet Schmuck, aber auch Waffen, Geld und Macht. Man kann
sich gegebenenfalls die Freiheit damit erkaufen oder sich alle erdenklichen Freihei-
ten herausnehmen – in diesen frühen Zeiten allemal. Metall ist universell konver-
tierbar, damit lässt sich Handel betreiben und spekulieren. Waffen können erworben
werden für Raubzüge, mit denen Söldner bezahlt werden für Beutezüge, um Reich-
tümer an sich zu raffen, mit denen wiederum Waffen gekauft werden können …
Geld schafft Distanz, es erlaubt, sich die Umwelt tatsächlich vom Leibe zu
halten. Reichtum verschafft Möglichkeiten, sich weder der Natur noch der Gesell-
schaft anpassen zu müssen, sondern vielmehr Verhältnisse zu schaffen, die den
eigenen Wünschen, Bedürfnissen und Vorstellungen entsprechen.– Schon seit Ur-
zeiten verstehen es Menschen, sich souverän abzusetzen von der Natur. Es ist eine
im Übrigen recht erfolgreiche Anpassungsstrategie, sich nicht wirklich anpassen
zu müssen, sondern das Spiel nach eigenen Regeln zu spielen. Urbanisierung ist
die ultimative Steigerung menschlicher Kultur. Wildnis wird endgültig ausgegrenzt
und „Natur“ als solche wird nur noch möglichst „perfekt“ reinszeniert. Aber im In-
neren dieser hochzivilisierten Gesellschaften kommt eine neue Art von Wildnis auf.
Mit dem Aufkommen von Metall wird dieser Ablösungsprozess von der Natur
wirklich perfekt, denn das Geld macht den universellen Tausch möglich. Alles wird
von Stund an konvertierbar, disponibel und käuflich. Wer über Geld verfügt, kann
die eigene Binnenwelt gegen alle widrigen Umstände abschotten. Mit Geld lassen
sich Wünsche erfüllen, die man zuvor nicht nur nicht zu träumen gewagt hätte,
sondern die schlichtweg noch gar nicht geträumt werden konnten.– Städte kommen
auf, mit Luxus, Kunst und Schönheit und einer zuvor unvorstellbaren Lebensweise
nach Art der Götter, fernab jeglicher Notwendigkeit.
132 Heinz–Ulrich Nennen
Prometheus und Epimetheus verkörpern die beiden Seiten des Fortschritts. Das
Brüderpaar ist eine Allegorie für das Phänomen, dass es am Ende anders kommt als
gedacht. Erst wenn sich nach der Promethie allmählich die Epimethie abzuzeichnen
beginnt, mit allen Folgen und Nebenwirkungen, an die man immer erst hinterher
denkt, dann wird sich zeigen, dass der technische, der humane und der kulturelle
Fortschritt nur äußerst selten gemeinsame Sache machen.
Die Arbeit am Mythos hat sich im Verlauf der Zeiten an beiden Figuren zu schaf-
fen gemacht. Die vormalige Tadellosigkeit des angeblich so menschenfreundlichen
und gegen die Götter so rebellischen Feuerbringers wurde allmählich relativiert,
denn dahinter verbergen sich historisch einschlägige Erfahrungen von katastropha-
lem Ausmaß. Aber noch immer ist, neben dem schillernden Bruder, die Figur des
angeblich so unterbelichteten Epimetheus nicht entsprechend aufgewertet worden.
Wenn Pro-Metheus bereits seinem Namen nach alles im Voraus bedenkt und
der so minderbemittelte Bruder Epi-Metheus immer erst hinterher denkt, eben
wenn es zu spät ist, warum sieht der so weit vorausdenkende Feuereiferer dann
nicht besser in die Zukunft und begreift die Risiken der eigenen Hyperaktivität?
Der Mythos zeigt, was zu tun ist: Wir sollten auch die Perspektiven des Bruders
wahrnehmen. Mögen die Projektplanungen der Macher noch so hochtrabend sein,
es gilt die Vorhaben von ihrem Ende her zu beurteilen. Erst nachdem Epimetheus
die Abschlussbilanz aufgemacht hat, wird man Näheres wissen: Ob wieder nur
Hoffnungen, Illusionen und leere Versprechen ins Kraut geschossen sind.
Das Prometheus-Projekt und die Mitgift der Pandora 133
Ist Prometheus nicht einer, der immer wieder einen neuen Plan hat, stets aber
scheitert? Einer, der mit besten Absichten größtmögliche Katastrophen nicht nur für
sich, sondern auch für die von ihm so geliebten Menschenkinder heraufbeschwört?
Wäre es nicht besser, er wäre angekettet geblieben, auf dass ihn in der Tat kein
Mensch jemals wieder zu Gesicht bekommt?– Es scheint, als ginge es diesem Hel-
den des Fortschritts ganz im Sinne der zweiten Strophe aus der „Ballade von der
Unzulänglichkeit menschlichen Planens“ aus der „Dreigroschenoper“:
„Ja, mach nur einen Plan
Sei nur ein großes Licht!
Und mach dann noch ’nen zweiten Plan
Geh’n tun sie beide nicht.“9
Aus Sorge um die Menschheit warnt Prometheus den Bruder, niemals ein Geschenk
der Götter anzunehmen. Das lässt die Differenzen erahnen, die sich nunmehr zwi-
schen Menschen und Göttern auftun. Der Mythos schildert diese Götterdämme-
rung, wie es zur Demission der glücklichen Götter Athens kam: Aufgrund der Er-
findung immer neuer Technologien entstand unter Städtern der Eindruck, gar nicht
mehr so sehr auf Gedeih und Verderb vom Wohlwollen der Götter abhängig zu sein.
Es blieb daher nicht aus, dass man sehr viel selbständiger und auch selbstbewuss-
ter auftrat. Ein neuer Zeitgeist kam auf, Philosophen betraten die Bühne, weil die
Götter immer schlechter gedacht wurden. Nur zu oft wurden sie einfach nur noch
lächerlich gemacht, in dieser Phase der griechischen Antike, einer Sternstunde der
Menschheitsgeschichte.
Wenn wir den Mythos um die Entsendung der ebenso geheimnisvollen wie
schwermütigen Luxusgöttin Pandora ernst nehmen, dann waren himmlische Güter
zuvor samt und sonders den Göttern zu verdanken. Mit dem Prometheusfeuer der
Technik wird der Mensch aber nun selbst zum Produzenten. Fortan wurden mehr
und mehr dieser göttlichen Güter selbst produziert, allerdings viel zu oft mit Pfer-
defuß: Das von Menschen geschaffene Bonum ist stets mit einem Malum behaftet.
Sämtliche vom Menschen selbst produzierten himmlischen Güter sind nur zu oft
mit exorbitanten Übeln verknüpft.
Um diesen unheilvollen Nexus ins Bild zu setzen, wurde im Mythos die schil-
lernde, umfassend göttlich begabte Pandora ersonnen. Die Götter gaben ihr die
hochgefährliche Mitgift mit auf den Weg, ein hermetisch versiegeltes Gefäß als
böse Morgengabe an die junge, reichlich übermütige Zivilisation.
Das war keine Rache, denn zugleich zeigt sich, wie wohlwollend die Götter
eigentlich sind. Sie treten wie Mentoren auf, sind weder rachsüchtig noch neidisch,
sondern eher wohlwollend, ja sogar konziliant. Und schließlich, beim Aufkommen
der Zivilisation, leiten sie mit einer imposant honorigen Geste selbst die Götterdäm-
9 Brecht, Bertolt: Dreigroschenoper. In: Werke. 30 Bd. Frankfurt am Main 1988–2000. Bd. 11.
S. 145.
134 Heinz–Ulrich Nennen
merung ein und übergeben dem Menschen, was zuvor in ihrer Obhut lag. Bevor sie
aber endgültig abtreten, demonstrieren sie noch ein letztes Mal ihre ultimative Kunst,
das Gute vom Üblen zu trennen.– Genau diese Kunst hatte schließlich auch die Para-
diesschlange in Aussicht gestellt, das Gute vom Bösen unterscheiden zu können. Es
geht also eigentlich um die göttliche Scheidekunst, eine „Alchemie“, die sich darauf
versteht, das Üble gar nicht erst aufkommen zu lassen, es zu konzentrieren, auf jeden
Fall abzusondern, einzuschließen, um es ganz auszuschließen vom Sein.
Betrachten wir daher sämtliche dieser Errungenschaften aus der Perspektive
des Epimetheus, dann hat alles seinen Preis, alle vom Olymp auf die Erde herunter-
geholten Schätze: Reichtum, Luxus, Schönheit, nicht zuletzt Hochkultur, Wissen-
schaft und Technik, Kunst, Literatur, Musik und Theater. Alles Erdenkliche über-
brachte Pandora im Zuge der Zivilisation, aber zugleich hatte sie als Mitgift die
Büchse der Pandora mit im Gepäck und damit auch das, was bei allen himmlischen
Gütern offenbar einfach mit dazugehört, das mitproduzierte Übel.
Pandora steht allegorisch für den ungeheuren Reiz, der vom urbanen Luxus-
leben ausgeht. Sie ist eigentlich nicht von dieser Welt, ebenso wie das Glück der
Götter nicht wirklich von dieser Welt sein kann. Alles muss teuer erkauft werden,
denn das mitproduzierte Elend ist wie ein Fluch, mit dem die menschlich produ-
zieren Göttergaben belegt sind. Pandora setzt nun diesen unglückseligen Nexus ins
Bild: Als schönes Übel verkörpert sie den Teufelspakt, dass Technik nicht einfach
nur funktioniert, sondern auf nichttechnischen Voraussetzungen beruht, die selbst
wiederum problematisch sein können.
Die schillernde schöne Pandora repräsentiert den gediegenen Anspruch auf
exorbitanten Luxus. Die Quellen geben aber viel zu wenig über sie her, so dass
wir uns fragen, was wohl in ihr vorgehen mag, wo sie doch nun wirklich umfas-
send göttlich begabt ist.– Hier wäre eine weiterführende Arbeit an ihrem Mythos
vonnöten: Es kann nicht sein, dass sie so farblos ist bei diesen Talenten. Es kann
ebensowenig sein, dass die Welt nicht schon sehr viel weiter fortgeschrittener ist,
bei diesen göttlichen Gaben. Vermutlich soll uns diese Figur genau das vor Au-
gen führen, dass jeder Fortschritt auch mit Rückschritten einhergeht, dass mancher
„Fortschritt“ viel zu teuer erkauft wird.
Einstweilen sehen wir die göttliche Schöne als Allegorie für den Luxus und für
jene unerklärliche Melancholie inmitten perfekter künstlicher Paradiese, wie sie
nicht selten gerade Ausnahmekünstler befällt. Bei allen Talenten ist sie von einer
ungeheuerlichen Empfindsamkeit, eine labile Diva, die an ihrer eigenen Inspiration
leidet. Rein äußerlich ist sie begehrt aufgrund ihrer Kunst, ihrer Schönheit und ihrer
Prominenz, so dass sich erfolgreiche Jäger nur zu sehr gern mit ihr schmücken. Mit-
unter ist sie nicht ganz bei sich, das lässt sie passiv werden und macht sie zu einer
Trophäe, wie auch die Helena kaum mehr ist als ein Zeichen des Erfolgs. Wer die
Schönste aller Frauen in seinen Besitz brachte, war König unter den Königen und
damit der Mächtigste unter den Jägern.
Ihrer ganzen Erscheinung nach entspricht die Pandora einer erst mit Zivilisa-
tion und Eigentum aufkommenden, zuvor nie dagewesenen, völlig neuen sozialen
Rolle der Frau im Spektrum zwischen Heilige und Hure. Auf der einen Seite ist da
die im Hause eingeschlossene Matrone: eine Frau von hohem Stand, die gewisse
Das Prometheus-Projekt und die Mitgift der Pandora 135
Ansprüche hat, die als Ehefrau, Hausherrin und Mutter durch legitime Erben ihrem
Gatten die Nachkommenschaft sichert, auf dass dieser seinen Reichtum über die
männliche Linie weiter vererben kann. Und auf der anderen Seite ist da die öffent-
liche Person der hoch begehrten, begabten und gebildeten Hetäre, die sich nicht nur
auf Kunst und Erotik, sondern eben auch auf Philosophie versteht.
Eines der Übel, die sich in der Büchse der Pandora befunden haben müssen,
ist neben Herrschaft und Versklavung ganz gewiss auch das Eigentum. Das alles
sind Übel, weil sie die höchsten Kosten und das größte Elend verursachen, bei ei-
ner geringen Rate von Glück für nur einige Wenige. Eigentum zieht den Anspruch
auf Erbschaft nach sich, unterminiert aber das Prinzip der vormaligen Solidarität.
Anders als unter Jägern, wo der Bessere das höhere Ansehen hatte, untergräbt der
Nepotismus fortan die Prinzipien der angeblichen Leistungsgesellschaft. Es sind
eben keineswegs die Besten, denen die hohen Ämter zufallen, wollte man das an-
ders haben, dürfte man wie im mustergültigen Staat von Platon die Kinder nicht
mehr den Familien, sondern müsste sie dem Staat überantworten.
Gleichsam als Gegengewicht zur privatisierenden Matrone entsteht wie aus der
Retorte ein gänzlich neuer Frauentyp im Herzen der Städte, auf den öffentlichen
Plätzen, in den Metropolen der frühen Reiche. Dafür steht die Pandora Modell: Es
ist die Femme fatale, die sündhaft teure Kurtisane, die Lola aus dem Blauen Engel.–
Sie ist eine Person des öffentlichen Lebens, ein Luxusobjekt par excellence, ein
Status-Symbol, eine Kunst-Identität, eine Phantasmagorie. Hesiod ist kein Veräch-
ter der Frauen, er warnt aber vor diesen Verführungen: Pandora verkörpert die neue
urbane Lebensweise der Reichen und Schönen. Sie ist eben auch eine mitbedingte
Nebenfolge des neuen Reichtums, der mit dem Metall, dem Geld und dem Eigen-
tum in die Welt gekommen ist. Sie ist der Anfang vom Ende, eben nicht selten der
soziale, psychische und finanzielle Ruin ihrer Verehrer.
Dort also, in den neuen Städten, wo Öffentlichkeit erstmals entsteht, wo ein
zuvor ungeahnter Luxus und eine neue urbane Oberschicht aufkommt, dort konnte
man reich werden und es den Göttern an Lebensqualität, Wonnen des Glücks und
vor allem in der sozialen Wertschätzung gleichtun.– Das Leben ist ein Kampf um
Heu, so hat der geheimnisvolle niederländische Maler Hieronymus Bosch in sei-
nem Triptychon Der Heuwagen den Kampf ums Sozialprestige gespenstisch in
Szene gesetzt.10
Die Klage gegen die Götter, sie hätten die Pandora aus purer Rachsucht entsannt
und mit allen erdenklichen Übeln ausgestattet, lenkt davon ab, dass ein Zusammen-
hang besteht zwischen Luxus und Elend, Gütern und Übeln, Licht und Schatten –
Pandora ist die Allbeschenkte, als Allegorie verkörpert sie umfassend alles, was
mit der Zivilisation in die Welt gekommen ist: Nie dagewesene Möglichkeiten im
Guten wie im Schlechten, wovon man zuvor nicht einmal zu träumen gewagt hätte.
Wir deuten den Mythos von Prometheus immer nur von der prometheischen
Seite, sehen immer nur die Vorzüge der Zivilisation, die Schönheit, die Attraktivität
und das Verführerische an der Pandora und ihren Gaben. Wir ignorieren dagegen
oder sehen zu spät, was uns die epimetheische Sicht derselben Angelegenheit früh
bereits auch hätte vor Augen führen können, dass eben alles, wirklich alles seinen
Preis hat, alle erdenklichen Folgen und Nebenwirkungen. Daher sind die tatsächli-
chen Preise für neue Errungenschaften oft viel zu hoch, weil sich und ganz und gar
nicht rechtfertigen lässt, was dabei alles mit auf dem Spiel steht.
Die Fesselung des Prometheus am Felsen im Kaukasus und seine spätere Be-
freiung durch Herakles, könnte ein Hinweis sein darauf, dass der Gott des Fort-
schritts den Menschen längere Zeit verborgen gewesen sein muss. Sie bekamen ihn
offenbar geraume Zeit nicht wieder zu Gesicht – was als Anspielung auf eine län-
gere Phase der Agonie verstanden werden kann. Und tatsächlich dürften die frühen
Städte und Gesellschaften äußerst instabil gewesen sein.
Es genügt eben nicht, nur über die Technik des Städtebaus zu verfügen. Das
ist das Credo des Protagoras im gleichnamigen Dialog bei Platon, wo dieser seine
Variation des Mythos vom Prometheus vorbringt, um damit zu demonstrieren, dass
Technik allein nicht genügt. Man muss darüber hinaus auch die Staatskunst beherr-
schen, ein Gemeinwesen politisch zu stabilisieren, weil ansonsten alles bald schon
wieder im Chaos versinkt.– Die Gründe, warum die frühen Städte immer wieder in
sich zerfielen, liegen eigentlich auf der Hand, denn die Verhältnisse in diesen frühen
Stadtstaaten dürften abenteuerlich gewesen sein.
„So versuchten sie denn, sich zu vereinigen und zu erhalten, indem sie Städte gründeten. Aber
als sie zusammengetreten waren, da taten sie wieder einander Unrecht und Schaden an, weil
sie eben die Kunst, den Staat zu verwalten, noch nicht besaßen, so dass sie sich von neuem
zerstreuten und umkamen.“11
LITERATUR
Brecht, Bertolt: Werke. Große kommentierte Berliner und Frankfurter Ausgabe in 30 Bänden. Ber-
lin, Weimar, Frankfurt am Main 1988–2000.
Goethe, Johann Wolfgang von: Berliner Ausgabe. Berlin 1960 ff.
Hesiod: Werke in einem Band. Berlin, Weimar 1994.
Kornwachs, Klaus: Strukturen technologischen Wissens. Analytische Studien zu einer Wissen-
schaftstheorie der Technik. Berlin 2012.
ders.: Philosophie der Technik. Eine Einführung. München 2013.
Maul, Stefan: Das Gilgamesch-Epos. München 2014.
Nennen, Heinz-Ulrich: Der Mensch als Maß. Über Protagoras, Prometheus und Pandora. Hamburg
2018.
ders.: Die Urbanisierung der Seele. Über Zivilisation und Wildnis. Hamburg 2018.
ders.: Pandora: Das schöne Übel. Über die dunklen Seiten der Vernunft. Hamburg 2017.
ders.: Die Masken der Götter. Anthropologie der modernen Welt. Hamburg 2018.
ders.: Das erschöpfte Selbst. Erläuterungen zur Psychogenese. Hamburg 2018.
Platon: Werke in acht Bänden. Darmstadt 1990.
Schrott, Raoul; Rollinger, Robert; Schretter, Manfred: Gilgamesh: Epos. Darmstadt 2001.
III. ETHIK DER TECHNIK:
KÖNNEN WIR WOLLEN, WAS WIR TUN?
HINWEISE ZUR TECHNIK FÜR EINE WELT
MIT ZWÖLF MILLIARDEN MENSCHEN1
Ist für zwölf Milliarden Menschen eine balancierte, auskömmliche, friedliche und
reichhaltige Welt denkbar? Und was sind die Alternativen? Welche Rolle hat in
diesem Kontext die Technik? Und wie könnte eine Technik aussehen, die für eine
solche Welt geeignet ist?
Die Welt sieht sich vor der Herausforderung, eine nachhaltige Entwicklung zu er-
reichen. Es ist eine große Aufgabe, die dominierenden gesellschaftlichen Subsys-
teme der modernen Zeit und ein nachhaltigkeitskonformes Wachstum zu gestalten.
Dabei soll gleichzeitig ein (welt-)sozialer Ausgleich, ein Schutz der ökologischen
Systeme und die Lösung des Klimaproblems erfolgen. Dies ist allenfalls dann er-
reichbar, wenn sich die Wechselwirkung zwischen den Staaten in Richtung einer
Weltinnenpolitik bewegt, eine Forderung, die auf Carl Friedrich von Weizsäcker
zurückgeht. In diesem Rahmen könnten Forderungen eines Weltethos und des inter-
kulturellen Humanismus lebenspraktisch realisiert werden.2 Eine adäquate Regel-
setzung würde bewirken, dass es sich ökonomisch nicht lohnt, systematisch gegen
vereinbarte Regeln und legitime Interessen anderer zu operieren. Und unter solchen
Regeln könnte der Innovationsprozess diejenigen Technologien hervorbringen, die
zwölf Milliarden Menschen eine lebenswerte Zukunft eröffnen. Das Hervorbrin-
gen geeigneter Innovationen – und die Probleme in der Folge der Durchsetzung
weniger geeigneter Innovationen – hat Klaus Kornwachs in seiner Arbeit vielfach
beleuchtet.3 Jetzt erforderliche Innovationen müssen im Besonderen ein neues
1 Ich danke Frau Prof. Dr. E. Herlyn für die vielfältige Unterstützung bei der Erarbeitung dieses
Textes. Der Text basiert wesentlich auf einem Beitrag zur Publikation: Kreibich, Rolf; Lietsch,
Fritz (Hg.): „Zukunft gewinnen! Die sanfte (R)evolution für das 21. Jahrhundert – inspiriert
vom Visionär Robert Jungk. München 2015. S. 122–132.
2 vgl. Bummel, Andreas: Internationale Demokratie entwickeln. Für eine Parlamentarische Ver-
sammlung bei den Vereinten Nationen. Ein Strategiepapier des Komitees für eine demokrati-
sche UNO. Stuttgart 2005; Held, David: Soziale Demokratie im globalen Zeitalter. Berlin
2007; Köhler, Horst: Für eine neue Kultur der Zusammenarbeit mit Afrika. Rede von Bundes-
präsident a. D. Horst Köhler beim Afrika-Kongress der CDU/CSU-Fraktion. Berlin, Deutscher
Bundestag, 16. März 2016; Piketty, Thomas: Das Kapital im 21. Jahrhundert, München 2014.
3 vgl. Kornwachs, Klaus: Technikfolgenabschätzung – Reichweite und Potential. Ein Sympo-
sium im Amerika Haus Stuttgart 1988. Stuttgart 1991; ders.: Bedingungen und Triebkräfte
technologischer Innovationen. Beiträge aus Wissenschaft und Wirtschaft. Reihe „achtech dis-
142 Franz Josef Radermacher
Im Kontext der Globalisierung erweist sich der Zugriff auf Ressourcen und das
Recht auf Erzeugung von Umweltbelastungen als großes Thema. Ohne Ressour-
cenzugriff kein Wohlstand, doch bei übermäßigem Zugriff droht ein Kollaps. Wer
kann bzw. wer darf auf Ressourcen in welchem Umfang zugreifen? Das kann eine
Frage von Krieg und Frieden werden. Das rasche Wachstum der Weltbevölkerung
verschärft die Situation signifikant. Die Menschheit bewegt sich mit Blick auf 2050
in Richtung von zehn Milliarden Menschen und, wenn die Weltgemeinschaft nicht
aufpasst, für 2100 in Richtung von zwölf Milliarden Menschen, davon allein vier
Milliarden in Afrika. Hinzu kommt das Hineinwachsen von hunderten Millionen
weiterer Menschen in ressourcenintensive Lebensstile. Es könnte deshalb in den
nächsten Jahrzehnten trotz massiver Steigerung der Nahrungsmittelproduktion
hinsichtlich der Ernährung der Weltbevölkerung eng werden. Hier drohen massive
Probleme und Konflikte. Die anhaltenden Konflikte und damit zunehmende Migra-
tionsbewegungen aus Afrika und dem Nahen Osten geben einen Vorgeschmack auf
das, was passieren könnte.4
Ein Kollaps hängt mit den Möglichkeiten der Aushebelung der Demokratie über
Globalisierung zusammen, mit den absehbar gefährlichen Möglichkeiten techni-
scher Intelligenz und technischer Systeme zur Substituierung auch anspruchsvoller
Tätigkeit und der Gefahr einer über Technik verwirklichte Totalkontrolle über den
Menschen, vielleicht verbunden mit einem Programm vom Typ „Brot und Spiele“.
Andere Risiken resultieren aus einer eventuellen Klimakatastrophe, aber auch aus
kutiert“. München Berlin 2007; ders.: Strukturen technologischen Wissens. Analytische Stu-
dien zu einer Wissenschaftstheorie der Technik. Berlin 2012; ders.: Einführung in die Philoso-
phie der Technik. München 2013.
4 vgl. Radermacher, Franz Josef: Balance oder Zerstörung. Ökosoziale Marktwirtschaft als
Schlüssel zu einer weltweiten nachhaltigen Entwicklung. Wien 2002; sowie: Radermacher,
Franz Josef; Beyers, Bert: Welt mit Zukunft – Überleben im 21. Jahrhundert. Hamburg 2007;
überarbeitete Neuauflage: Welt mit Zukunft – die ökosoziale Perspektive. Hamburg 2011.
Hinweise zur Technik für eine Welt mit zwölf Milliarden Menschen 143
Markt bedeutet immer Wettbewerb unter Regeln, hier besteht eine Analogie zum
Sport. Der Wettbewerb bringt jeweils die Leistung, d. h. die Effizienz, hervor. Die
Folgen: ein gutes Input-Output-Verhältnis, niedrige Kosten, schnelle Prozessierung
und große Volumina. Die Regeln geben dem jeweiligen Markt mit seinen spezifi-
schen Merkmalen die Effektivität – genauso wie in einer Sportart.
5 vgl. Radermacher, Franz Josef: Das Trilemma der modernen Welt. FAW/n Report. Ulm 2013;
Rodrik, Dani: Globalization Paradox: Democracy and the Future of the World Economy. New
York 2012.
6 vgl. Schumpeter, Josef: Theorie der wirtschaftlichen Entwicklung. Berlin 1912; Neuauflage:
Berlin 2006.
7 vgl. Radermacher, Franz Josef; Spiegel, Peter; Obermüller, Marianne: Global Impact – der
neue Weg zur globalen Verantwortung. München 2009; Yunus, Muhammad: Building Social
Business. The New Kind of Capitalism that Serves Humanity’s Most Pressing Needs. New
York 2011.
144 Franz Josef Radermacher
Wachstum (sei es positiv, null oder negativ) bezeichnet die (jährliche) Veränderung
einer in Geld (bei Inflationsausgleich) ausgedrückten gemeinsamen Kennzahl für
die Gesamtwirtschaftsleistung. Aus der Theorie der Märkte folgt nicht – wie oft
behauptet wird –, dass positives Wachstum unbedingt erforderlich ist, damit der
Markt funktioniert. Es ist jedoch so, dass das „politische Geschäft“ bzw. die Kom-
promissfindung unter Menschen mit unterschiedlichen Zielvorstellungen unter po-
sitiven Wachstumsbedingungen wesentlich einfacher möglich ist als im gegentei-
ligen Fall. Hinzu kommt: Bei der heutigen Ausgestaltung der Märkte ist eine hohe
Beschäftigung wahrscheinlich eher mit positivem als ohne Wachstum zu erreichen,
obwohl es auch bzgl. dieser Aussage Fragezeichen gibt. Das in unheilvoller Form
um sich greifende Phänomen nicht-auskömmlicher Beschäftigungsverhältnisse
(sogenannte „Working Poor“) könnte sich bei der immer schnelleren Verbesserung
technischer Intelligenz im Umfeld von Big Data und dem Internet der Dinge sowie
weiterer technischer Durchbrüche noch dramatisch verschärfen.9 Verteilungsfragen
8 vgl. Kay, John: The truth about markets. Why some nations are rich but most remain poor.
London 2004.
9 vgl. Herlyn, Estelle; Kämpke, Thomas; Radermacher, Franz Josef; Solte, Dirk: Reflections on
the OECD-Project “The Role of Data in Promoting Growth and Well-Being”, BIG DATA and
Analytics – What are the perspectives? 2015; Radermacher, Franz Josef: Die Zukunft der digi-
talen Maschine: Was kommt auf uns zu? Lang- und Kurzvariante. FAW/n-Report. Ulm, Juli
2015; Radermacher, Franz Josef: Algorithmen, maschinelle Intelligenz, Big Data: Einige
Grundsatzüberlegungen. In: Schwerpunktheft „Big Data contra große Datensammlungen.
Hinweise zur Technik für eine Welt mit zwölf Milliarden Menschen 145
Chancen und Risiken für die Gesundheitsforschung“, Bundesgesundheitsblatt, Bd. 58. Heft 8.
Berlin Heidelberg 2015. S. 859–865.
10 ebd.
11 vgl. Herlyn, Estelle: Einkommensverteilungsbasierte Präferenz- und Koalitionsanalysen auf
der Basis selbstähnlicher Equity-Lorenzkurven. Ein Beitrag zu Quantifizierung sozialer Nach-
haltigkeit. Laufendes Dissertationsverfahren zur Erlangung des akademischen Grades Dr. rer.
pol. an der wirtschaftswissenschaftlichen Fakultät der RWTH Aachen, 2012.
12 vgl. Heitmeyer, Wilhelm: Die rohe Bürgerlichkeit. In: Die Zeit, Nr. 39, 2011. http:/www.zeit.
de/20111/39/Verteilungsdebatte-Klassenkampf.
13 vgl. Stiglitz, Joseph: Der Preis der Ungleichheit. Wie die Spaltung der Gesellschaft unsere
Zukunft bedroht. München 2012.
14 vgl. Radermacher, Franz Josef: Zukunft gestalten – Potentiale und Gegenkräfte. In: Kreibich,
Rolf; Lietsch, Fritz (Hg.): „Zukunft gewinnen! Die sanfte (R)evolution für das 21. Jahrhun-
dert – inspiriert vom Visionär Robert Jungk. München 2015. S. 122–132.
146 Franz Josef Radermacher
Ein erfolgversprechender Ansatz, mit dem eine Kombination beider Konzepte ge-
lingen kann, ist das etwa 35 Jahre alte Konzept einer ökosozialen Marktwirtschaft15,
die – um erfolgreich zu sein – eine weltweite Implementierung ohne Schlupflöcher
erfahren muss. Eine solche Marktwirtschaft etabliert erforderliche Leitplanken.
Dieses ist, wie ausgeführt, auch erforderlich, wenn eine lebenswerte Zukunft für
zwölf Milliarden Menschen das Ziel ist.
Eine ökosoziale Marktwirtschaft (genauer: eine ökologisch und sozial adäquat
regulierte Marktwirtschaft) ist per Definition eine Marktwirtschaft die neben einem
Restriktionssystem, durch das sie ihre spezifische ökonomische Ausprägung im Be-
reich der Hervorbringung von Gütern und Dienstleistungen erhält, unbedingt und
prioritär einem Restriktionssystem 2 der oben beschriebenen Art genügt, das Nach-
haltigkeit nicht nur sicherstellt, sondern erzwingt.16 Im angelsächsischen Raum
spricht man heute von „green and inclusive markets“ und „green and inclusive
growth“. Alle großen internationalen Organisationen, vor allem die OECD, treten
massiv dafür ein – die alte marktfundamentale Position ist endlich überwunden.
Die OECD, die Organisation der reichen Länder, argumentiert für balancierte Ein-
kommensverteilungen, Einhegung von Steuerparadiesen, Verhinderung aggressiver
Steuervermeidungsstrategien und Durchsetzung einer adäquaten Besteuerung ho-
her Einkommen. Dies alles ist eine Folge der internationalen Probleme wie neuen
Einsichten seit der großen Weltfinanzkrise 2007/2008.
Die bisherigen Erörterungen machen deutlich, dass „grünes“ und zusätzlich „in-
klusives“ Wachstum möglich ist, allerdings negativ sein kann. Dass die Wachs-
tumsraten auf Dauer selbst im positiven Fall kontinuierlich fallen werden, ist in
einer endlichen Welt anzunehmen, schließt aber konstanten absoluten Zuwachs und
bei irgendwann vielleicht sinkender Weltbevölkerung sogar eine weitere relative
Zunahme pro Jahr nicht aus. Die Vermeidung des Bumerang-Effekts ist dabei ein
zentrales Thema.17
15 vgl. Radermacher, Franz Josef; Beyers, Bert: Welt mit Zukunft – Überleben im 21. Jahrhun-
dert. Hamburg 2007; überarbeitete Neuauflage: Welt mit Zukunft – die ökosoziale Perspektive.
Hamburg 2011; 27. Radermacher, Franz Josef; Riegler, Josef; Weiger, Hubert: Ökosoziale
Marktwirtschaft – Historie, Programm und Perspektive eines zukunftsfähigen globalen Wirt-
schaftssystems. München 2011.
16 vgl. Herlyn, Estelle; Radermacher, Franz Josef: Ökosoziale Marktwirtschaft: Wirtschaften un-
ter Constraints der Nachhaltigkeit. In: Rogall, Holger (Hg.): Jahrbuch Nachhaltige Ökonomie.
Marburg 2012.
17 vgl. Neirynck, Jacques: Der göttliche Ingenieur. Renningen 1994.
Hinweise zur Technik für eine Welt mit zwölf Milliarden Menschen 147
18 Club of Rome, Senat der Wirtschaft (Koordination: Prof. Radermacher, FAW/n): Migration,
Nachhaltigkeit und ein Marshall Plan mit Afrika. Denkschrift für die Bundesregierung. http://
www.faw-neu-ulm.de/portfolio-item/denkschrift-bundesregierung (Zugriff am: 26. Januar 2017).
19 Bundesministerium für wirtschaftliche Zusammenarbeit und Entwicklung: Afrika und Eu-
ropa – neue Partnerschaft für Entwicklung, Frieden und Zukunft. Eckpunkte für einen Mar-
shallplan mit Afrika. http://www.bmz.de/marshallplan_pdf sowie unter http://www.
marshallplan-mit-afrika.de (Zugriff am: 26. Januar 2017).
20 vgl. Club of Rome, Senat der Wirtschaft, a. a. O.
148 Franz Josef Radermacher
duktion und in Zementwerken. Über den Einsatz erneuerbarer Energie für Elek-
trolyse zur Erzeugung von Wasserstoff kann das CO2 dazu genutzt werden, ein
methanolartiges Benzin zu produzieren, mit dem Autos, Heizungen, etc. bei uns
klimaneutral betrieben werden können.21 Dieser Ansatz hat ein großes Potential
für Nordafrika, aber sicherlich auch für Europa, und ist eine Alternative zu der um
sich greifenden „Klima-Planwirtschaft“, bei der alle Häuser zu unglaublich hohen
Kosten und mit nur geringen Klimabeiträgen verpackt werden, ebenso alle Autos
durch Elektroautos ersetzt, die bisherigen Heizungen abgeschafft werden etc.
Nähere Informationen zu diesem Aspekt des Themas liefert die Studie „Die
soziale Dimension des Klimaschutzes und der Energieeffizienz im Kontext von Bau-
und Wohnungswirtschaft“, die im Auftrag des GdW Bundesverband deutscher
Wohnungs- und Immobilienunternehmen vom Forschungsinstitut für anwendungs-
orientierte Wissensverarbeitung (FAW/n) erstellt wurde.22 Kernpunkt der Studie ist
die Frage der sozialen Balance, behandelt werden die Rahmenbedingungen und
deren mögliche Folgen auf z. B. Segregationsprozesse.
Das alles könnte man sich sparen, wenn eine vernünftige Methanol-Lösung,
wesentlich getrieben über erneuerbare Energien und die Nutzung von nicht ver-
meidbaren CO2-Emmissionen, in ein neues Energiesystem transformiert würden,
bei dem über große Aufforstflächen Klimaneutralität hergestellt wird. Entspre-
chende Aufforstungen sind im Übrigen auch im Umfeld der früheren Regenwälder
entscheidend dafür, deren Austrocknen zu verhindern (siehe hierzu auch den aktu-
ellen Bericht an den Club of Rome von Claude Martin „On the Edge“23).
All das lässt sich mit forcierter Humusbildung und mit neuen Methoden in der
Landwirtschaft koppeln. Afrika könnte die heutigen 30 Milliarden Dollar Nahrungs-
importe vermeiden und zum Nahrungsexporteur werden, selbst bei weiter wachsen-
der Bevölkerung. Das Export-Potential von Methanol, die vielfältigen Möglichkei-
ten von Holz deuten auf die Art von Ökonomie für Afrika hin, mit der die interna-
tional in 2016 verabschiedete Agenda 2030 vielleicht umgesetzt werden kann. Das
Ziel ist eine wohlhabende Welt für viel mehr Menschen als heute bei gleichzeitiger
Verbesserung der Lage im Bereich der Klima- und Umweltthematik.
DER BUMERANG-EFFEKT
Technische Entwicklung ist kein Selbstläufer. Sehr oft erlaubt sie zwar die Steige-
rung der Effizienz, d. h. sie leistet es, aus weniger Ressourcen mehr Output zu ma-
chen. Es kann aber ohne weiteres so sein, dass – als Folge zum Beispiel der dadurch
21 vgl. Offermanns, Heribert; Effenberger, Franz X.; Keim, Willi; Plass, Ludolf: Solarthermie und
CO2: Methanol aus der Wüste. Chem. Ing. Tech 89, No. 3, 2017, S. 1–5.
22 Forschungsinstitut für anwendungsorientierte Wissensverarbeitung: Die soziale Dimension des
Klimaschutzes und der Energieeffizienz im Kontext von Bau- und Wohnungswirtschaft. Studie
im Auftrag des GdW Bundesverband deutscher Wohnungs- und Immobilienunternehmen.
http://web.gdw.de/energie-und-klimaschutz/gutachten/489-studie-zur-sozialen-dimension-
des-klimaschutzes-und-der-energieffizienz (Zugriff am: 26. Januar 2017).
23 Martin, Claude: On the edge: The state and fate of the world’s tropical rainforests. Report to the
Club of Rome. Vancouver 2015.
Hinweise zur Technik für eine Welt mit zwölf Milliarden Menschen 149
häufig bewirkten Preissenkungen oder des durch den technischen Fortschritt erleich-
terten Zugriffs auf Ressourcen – es zum Schluss dazu kommt, dass unter den ver-
besserten Effizienzbedingungen mehr Ressourcen verbraucht werden als vorher. Das
ist insbesondere auch eine Folge der wachsenden Bevölkerung, die selber wiederum
eine Technik-Folge ist. Weil wir immer mehr Menschen ernähren können, weil wir
für immer mehr Menschen ein vernünftiges Leben organisieren können existieren
eben auch immer mehr Menschen und immer mehr Erwartungen, sodass in der
Summe immer mehr Ressourcen und nicht weniger Ressourcen verbraucht werden,
trotz einer ständig erhöhten Ökoeffizienz der technischen Prozesse. Klar ist in einer
Situation wie unserer heutigen, dass wir zehn oder zwölf Milliarden Menschen auf
einem hohen Wohlstandsniveau nur erreichen können, wenn sich die Technologien
wesentlich weiter verändern, wir also insbesondere mit sehr viel weniger kritischen
Ressourcen auskommen. Heute liegt der ökologische Fußabdruck der Menschheit
schon bei etwa 1,5 Globus, wobei allerdings 0,7 davon letztlich das Klimaproblem
sind. Der letzte Punkt bedeutet buchhalterisch, dass wir auf der Erde nicht die Flä-
chen haben, um das CO2 bei heutiger Nutzung fossiler Energieträger „einzufangen“
und so den Klimawandel zu vermeiden. Neue Technologie heißt also insbesondere
ein neues Energiesystem, und zwar dergestalt, dass wir die Erzeugung von Klimaga-
sen vermeiden. Dieses Ziel muss allerdings erst einmal erreicht werden, davon sind
wir noch weit entfernt. Sicher geht das nur mit adäquater Regulierung. Regulierung
und Governance werden, wie oben beschrieben, das entscheidende Instrument sein,
um Leitplanken ökologischer und sozialer Art zu verankern, die dann die Nachhal-
tigkeit der ökonomischen Prozesse durchsetzen und insbesondere auch die Innova-
tionsprozesse induzieren, die dafür Voraussetzung sind. Viele Informationen zu dem
Thema finden sich in dem Buch „Der göttliche Ingenieur“ von Jacques Neirynck.24
24 Neirynck, a. a. O.
25 Radermacher, Franz Josef: Algorithmen, maschinelle Intelligenz, Big Data: Einige Grundsatz-
überlegungen. In: Schwerpunktheft „Big Data contra große Datensammlungen. Chancen und
150 Franz Josef Radermacher
verlieren, dass wir gläsern werden, dass der Druck über soziale Netzwerke zunimmt,
von den politischen In-Group-Bildungen gar nicht zu reden. Wir sind außerdem mit
disruptiven Marktmodellen des sogenannten Plattformkapitalismus konfrontiert und
mit Unternehmen, die sehr viel Geld verdienen, aber kaum Steuern bezahlen und
generell sehr gerne zu Lasten von anderen operieren. Parallel dazu erleben wir poli-
tische Prozesse der Abschottung von In-Groups, die sich im Netz nur noch mit sich
selber beschäftigen. Wir sind insgesamt mit einer großen Gefahr für die Freiheit ei-
nerseits und für die politischen Prozesse andererseits (Entwicklungen wie Brexit und
Trumps Wahl) konfrontiert und wir wissen noch nicht, wie sich die Situation mit den
Arbeitsplätzen entwickeln wird. Es liegt ohne Zweifel in IT ein enormes Potential
für eine lebenswerte Welt mit zwölf Milliarden Menschen, aber leider kann es auch
genau auf das Gegenteil, nämlich die „Brasilianisierung“ der Welt, hinauslaufen.
ZUSAMMENFASSUNG
Nachhaltigkeit und Wohlstand für zwölf Mrd. Menschen sind zu erreichen durch
ein grünes und inklusives Wachstum im Sinne der Rio+20 Konferenz und des Post-
millenniumsprozesses auf UN-Ebene. Voraussetzung ist allerdings eine adäquate
Global Governance, damit Preise in Märkten die Wahrheit sagen und erforderliche
Querfinanzierungen und die Besteuerung der Nutzung von Weltgemeingütern durch-
gesetzt werden können. Dabei geht es letztlich um eine sogenannte „Moralisierung
der Märkte“26. Zugleich ist zu erwarten, dass unter diesen Bedingungen die richti-
gen Innovationen technischer Art hervorgebracht werden. Diese sind ein absolutes
Schlüsselthema. Dies betrifft u. a. ein neues Energiesystem und eine andere Art von
Ressourcenzugriff. In der Global Governance Frage liegen dabei aus Sicht des Au-
tors heute die eigentlichen Engpässe für die Erreichung von Nachhaltigkeit, also in
der unzureichenden internationalen politischen Koordination. Es fehlt der Wille und
die Fähigkeit zu supranational fairen Lösungen. Und mit den aktuell zu beobach-
tenden Prozessen in Richtung Re-Nationalisierung verschärft sich der Druck, dem
wir ausgesetzt sind, und nimmt die internationale Koordinierungsfähigkeit ab. Die
Weltgemeinschaft muss deshalb im Bereich Governance mehr leisten. Ist sie an dieser
Stelle nicht erfolgreich, werden „Brasilianisierung“ oder ein Ökokollaps unsere Zu-
kunft bestimmen.27 Auch das wäre nicht das Ende der Welt. Aber ein „Desaster“ und
ein extremer – zudem vermeidbarer – Verlust an zivilisatorischer Qualität. Potentiale
ringen hier mit starken Gegenkräften. Die Auseinandersetzung muss geführt werden.
Risiken für die Gesundheitsforschung“, Bundesgesundheitsblatt, Bd. 58. Heft 8. Berlin Heidel-
berg 2015. S. 859–865.
26 s. Stehr, Nico; Adolf, Marian: Sozio-ökonomischer Wandel: Der Konsum der Verbraucher. In:
Meffert, Heribert; Kenning, Peter; Kirchgeorg, Manfred: Sustainable Marketing Management.
Wiesbaden 2014.
27 Radermacher, Franz Josef; Riegler, Josef; Weiger, Hubert: Ökosoziale Marktwirtschaft – Histo-
rie, Programm und Perspektive eines zukunftsfähigen globalen Wirtschaftssystems. München
2011; Randers, Jorgen: 2052: A Global Forecast for the Next Forty Years. White River Junction,
USA, 2012; Rockström, Johan: Planetary Boundaries. In: Nature 461, 2009, S. 472–475.
Hinweise zur Technik für eine Welt mit zwölf Milliarden Menschen 151
LITERATUR
Bummel, Andreas: Internationale Demokratie entwickeln. Für eine Parlamentarische Versammlung
bei den Vereinten Nationen. Ein Strategiepapier des Komitees für eine demokratische UNO.
Stuttgart 2005.
Bundesministerium für wirtschaftliche Zusammenarbeit und Entwicklung: Afrika und Europa –
neue Partnerschaft für Entwicklung, Frieden und Zukunft: Eckpunkte für einen Marshallplan
mit Afrika. http://www.bmz.de/marshallplan_pdf sowie unter http://www.marshallplan-mit-
afrika.de (Zugriff am: 26. Januar 2017)
Club of Rome und Senat der Wirtschaft: Migration, Nachhaltigkeit und ein Marshall Plan mit Af-
rika. Denkschrift für die Bundesregierung (Koordination: Prof. Radermacher, FAW/n), 2016
http://www.faw-neu-ulm.de, http://www.senat-deutschland.de/, http://www.senatsinstitut.de/,
http://www.clubofrome.de/ und http://www.clubofrome.org/ (Zugriff am: 26. Januar 2017)
Forschungsinstitut für anwendungsorientierte Wissensverarbeitung: Die soziale Dimension des Kli-
maschutzes und der Energieeffizienz im Kontext von Bau- und Wohnungswirtschaft. Studie im
Auftrag des GdW Bundesverband deutscher Wohnungs- und Immobilienunternehmen. http://
web.gdw.de/energie-und-klimaschutz/gutachten/489-studie-zur-sozialen-dimension-des-
klimaschutzes-und-der-energieffizienz (Zugriff am: 26. Januar 2017)
Heitmeyer, Wilhelm: Die rohe Bürgerlichkeit. In: Die Zeit, Nr. 39, 2011. http:/www.zeit.de/20111/39/
Verteilungsdebatte-Klassenkampf
Held, David: Soziale Demokratie im globalen Zeitalter. Berlin 2007.
Herlyn, Estelle: Einkommensverteilungsbasierte Präferenz- und Koalitionsanalysen auf der Basis
selbstähnlicher Equity-Lorenzkurven. Ein Beitrag zu Quantifizierung sozialer Nachhaltigkeit.
Laufendes Dissertationsverfahren zur Erlangung des akademischen Grades Dr. rer. pol. an der
wirtschaftswissenschaftlichen Fakultät der RWTH Aachen, 2012.
Herlyn, Estelle; Kämpke, Thomas; Radermacher, Franz Josef; Solte, Dirk: Reflections on the
OECD-Project “The Role of Data in Promoting Growth and Well-Being”, BIG DATA and
Analytics – What are the perspectives? 2015.
Herlyn, Estelle; Radermacher, Franz Josef: Ökosoziale Marktwirtschaft: Wirtschaften unter Cons-
traints der Nachhaltigkeit. In: Rogall, Holger (Hg.): Jahrbuch Nachhaltige Ökonomie. Marburg
2012.
Kay, John: The truth about markets. Why some nations are rich but most remain poor. London 2004.
Köhler, Horst: Für eine neue Kultur der Zusammenarbeit mit Afrika. Rede von Bundespräsident
a. D. Horst Köhler beim Afrika-Kongress der CDU/CSU-Fraktion. Berlin, Deutscher Bundes-
tag, 16. März 2016.
Kornwachs, Klaus: Technikfolgenabschätzung – Reichweite und Potential. Ein Symposium im
Amerika Haus Stuttgart 1988. Stuttgart 1991.
ders.: Bedingungen und Triebkräfte technologischer Innovationen. Beiträge aus Wissenschaft und
Wirtschaft. Reihe „achtech diskutiert“. München Berlin 2007.
ders.: Strukturen technologischen Wissens. Analytische Studien zu einer Wissenschaftstheorie der
Technik. Berlin 2012.
ders.: Einführung in die Philosophie der Technik. München 2013.
Martin, Claude: On the edge: The state and fate of the world’s tropical rainforests. Report to the Club
of Rome. Vancouver 2015.
Neirynck, Jacques: Der göttliche Ingenieur. Renningen 1994.
Offermanns, Heribert; Effenberger, Franz X.; Keim, Willi; Plass, Ludolf: Solarthermie und CO2:
Methanol aus der Wüste. Chem. Ing. Tech 89, No. 3, 2017, S. 1–5.
Piketty, Thomas: Das Kapital im 21. Jahrhundert, München 2014.
Radermacher, Franz Josef: Balance oder Zerstörung. Ökosoziale Marktwirtschaft als Schlüssel zu
einer weltweiten nachhaltigen Entwicklung. Wien 2002.
ders.: Das Trilemma der modernen Welt. FAW/n Report. Ulm 2013.
ders.: Kann die 2 °C-Obergrenze noch eingehalten werden? Ansätze für einen neuen Klimavertrag.
FAW/n-Bericht. Ulm 2014.
152 Franz Josef Radermacher
ders.: Die Zukunft der digitalen Maschine: Was kommt auf uns zu? Lang- und Kurzvariante. FAW/n-
Report. Ulm, Juli 2015
ders.: Zukunft gestalten – Potentiale und Gegenkräfte. In: Kreibich, Rolf; Lietsch, Fritz (Hg.): „Zu-
kunft gewinnen! Die sanfte (R)evolution für das 21. Jahrhundert – inspiriert vom Visionär Ro-
bert Jungk. München 2015. S. 122–132.
ders.: Algorithmen, maschinelle Intelligenz, Big Data: Einige Grundsatzüberlegungen. In: Schwer-
punktheft „Big Data contra große Datensammlungen. Chancen und Risiken für die Gesund-
heitsforschung“, Bundesgesundheitsblatt, Bd. 58. Heft 8. Berlin Heidelberg 2015. S. 859–865.
Radermacher, Franz Josef; Beyers, Bert: Welt mit Zukunft – Überleben im 21. Jahrhundert. Ham-
burg 2007; überarbeitete Neuauflage: Welt mit Zukunft – die ökosoziale Perspektive. Hamburg
2011.
Radermacher, Franz Josef; Riegler, Josef; Weiger, Hubert: Ökosoziale Marktwirtschaft – Historie,
Programm und Perspektive eines zukunftsfähigen globalen Wirtschaftssystems. München
2011.
Radermacher, Franz Josef; Spiegel, Peter; Obermüller, Marianne: Global Impact – der neue Weg zur
globalen Verantwortung. München 2009.
Randers, Jorgen: 2052: A Global Forecast for the Next Forty Years. White River Junction, USA,
2012.
Rockström, Johan: Planetary Boundaries. In: Nature 461, 2009, S. 472–475
Rodrik, Dani: Globalization Paradox: Democracy and the Future of the World Economy. New York
2012.
Schumpeter, Josef: Theorie der wirtschaftlichen Entwicklung. Berlin 1912; Neuauflage: Berlin
2006.
Stehr, Nico; Adolf, Marian: Sozio-ökonomischer Wandel: Der Konsum der Verbraucher. In: Meffert,
Heribert; Kenning, Peter; Kirchgeorg, Manfred: Sustainable Marketing Management. Wiesba-
den 2014.
Stiglitz, Joseph: Der Preis der Ungleichheit. Wie die Spaltung der Gesellschaft unsere Zukunft be-
droht. München 2012.
Yunus, Muhammad: Building Social Business. The New Kind of Capitalism that Serves Humanity’s
Most Pressing Needs. New York 2011.
VERANTWORTUNG ANGESICHTS
DER UNVOLLKOMMENHEIT DER TECHNIK
Aus dem Wandel in der Technik ergibt sich zwangsläufig die Unvollkommen-
heit der Technik. Für die Technik der Zukunft gibt es keine gesicherten und voll-
ständigen Prognosen. Daher sind die in der Zukunft erforderlichen Eigenschaften
vollkommener technischer Objekte und Prozesse nicht bekannt. Weder die Voll-
ständigkeit der Attributmenge noch die Attributwerte, die in der Zukunft nicht ver-
bessert werden können, sind in der Gegenwart bekannt. Die Menge der möglichen
Verbesserungen ist nicht endlich.
Es besteht breites Einvernehmen darüber, dass technische Objekte und Pro-
zesse nicht nur zum Zeitpunkt ihres Entstehens, sondern über den vollen Zeitraum
ihres Bestehens vollkommen sein sollen. Wegen mangelnden Wissens ist es nicht
möglich, den heute geschaffenen Objekten und Prozessen alle für Vollkommenheit
in der Zukunft erforderlichen Attributwerte zu geben. Die Objekte und Prozesse der
Technik sind in Vergangenheit, Gegenwart und Zukunft unvollkommen.
Der Wandel in der Technik ist nicht die einzige Ursache für die Unvollkommen-
heit der Technik. Die Ereignisse in der Natur und ihre Zusammenhänge sind dem
Menschen nur zum Teil bekannt und verständlich. Deshalb wäre die Vollständigkeit
des Wissens über die Technik auch dann nicht nachweisbar, wenn die Technik sta-
tisch wäre. Mit unvollständigem Wissen können keine vollständigen Attributlisten
aufgestellt und Attributwerte zugeordnet werden.
Die Natur ist nicht deterministisch. Mehrfache Messungen desselben Attributs
unter anscheinend gleichen Bedingungen führen zu verschiedenen Werten. Daher
kann der Einfluss von Naturereignissen auf technische Objekte und Prozesse nur
stochastisch beschrieben werden. Werden die Werte der Attribute aber statistisch
festgelegt, so ist Vollkommenheit nicht mehr eindeutig definierbar.
Selbst wenn es möglich wäre, Attributmenge und Attributwerte vollkommener
Objekte und Prozesse deterministisch zu spezifizieren, so könnte man diese Ob-
jekte und Prozesse doch nicht realisieren. Technik wird von Menschen geschaffen.
Menschen machen Fehler. Diese Fehler sind in der technischen Praxis unvermeid-
bar, nur die Fehlerrate ist beeinflussbar. Fehlerbehaftete Objekte und Prozesse sind
nicht vollkommen.
Obwohl die Technik unvollkommen ist, wird sie in immer stärkerem Maße
eingesetzt, um den Menschen ein gutes und glückliches Leben zu ermöglichen.
Bei der Entwicklung und dem Einsatz von Technik ist zwischen vielen potentiellen
Handlungen und Unterlassungen zu wählen, die voneinander abhängen. Wie kann
diese unvermeidbare Wahl rational vorgenommen werden, wenn das Vollkommene
nicht bekannt ist? Was ist messbar, und wie kann es zur Bewertung von Alterna-
tiven eingesetzt werden? Auf welcher Grundlage werden Entscheidungen gefällt?
Obwohl das Vollkommene dem Menschen nicht bekannt ist, kann doch der
Prozess des Strebens nach Vollkommenheit untersucht werden. Der durch eine Ver-
besserung geänderte Zustand kann erkannt und gemessen sowie mit dem Zustand
vor der Verbesserung verglichen werden. Mit diesem inkrementellen Ansatz wird
Vollkommenes als Maßstab durch Bestmögliches ersetzt. Grundlagen des best-
möglichen Handelns zu einem gegebenen Zeitpunkt sind das Wissen und Können
der beteiligten Personen zu diesem Zeitpunkt. Das Bestmögliche ist eine relative
Größe, da Zwischenzustände auf dem Weg zum unbekannten Vollkommenen ver-
Verantwortung angesichts der Unvollkommenheit der Technik 155
glichen werden. Der vollkommene Zustand geht nicht in die Beurteilung ein. Das
Bestmögliche ist eine zeitgebundene Größe, da der dauerhafte Wandel der Technik
die jeweils vorhandene Näherung der Attributmengen und Attributwerte der ange-
strebten Vollkommenheit verändert.
Die Bestimmung des Bestmöglichen für gegebene Objekte und Prozesse ist
eine Optimierungsaufgabe. Die zu betrachtende Attributmenge der Objekte und
Prozesse sowie die Werte einer Teilmenge dieser Attribute werden vorab festgelegt.
Auch die Relationen der Attribute werden als bekannt vorausgesetzt. Die Optimie-
rung besteht darin, die Werte der freien Attribute so zu bestimmen, dass die Rela-
tionen wahr sind und vorab festgelegte Attribute vorab festgelegte Optimalitätskri-
terien erfüllen. Zur Durchführung der Optimierung kann auf ein breites Spektrum
an mathematischen und nicht-mathematischen Verfahren zurückgegriffen werden.
Das heute bestimmte Bestmögliche mag aber schon morgen nicht mehr das Best-
mögliche sein.
Wie kann in möglichst hohem Maße sichergestellt werden, dass zu jedem Zeit-
punkt die bestmögliche Technik verfügbar ist und nützlich eingesetzt wird? Dies
wird angestrebt, indem die Attributmenge und die Wertemenge der vollkommenen
Lösung fortlaufend besser angenähert werden und das zu jedem Zeitpunkt vorhan-
dene Wissen über Attributmengen, Relationen und Werte optimal eingesetzt wird.
Ein gutes Konzept für die Verfügbarkeit und Nutzung optimaler Technik ist sehr
wichtig, da Technik infolge ihrer Unvollkommenheit nicht nur Nutzen, sondern
auch Schaden verursachen kann, der vermieden werden soll.
Die Aufgabe, das Materielle im Lebensraum der Menschen zu optimieren, zeigt
große Ähnlichkeit mit der Aufgabe, das Geistige im Leben der Menschen zu op-
timieren. Auch im Geistigen gibt es dauerhaften Wandel ohne Vollkommenheit.
Dennoch strukturieren die Menschen das Geistige im Leben individuell und als Ge-
meinschaft. Es ist eine der großen Leistungen der Philosophen des Altertums, dass
sie nicht nur Gesetzgebung und Machtausübung der Gesellschaft oder ihrer Reprä-
sentanten als Mittel zur Optimierung im geistigen Bereich erkannt haben, sondern
auch die natürliche Veranlagung des Menschen als Individuum zur Selbstkontrolle.
Diese Einsicht wurde in der Ethik gewonnen, als Philosophen im Menschen die
Fähigkeit zur Verantwortung erkannten, die beispielsweise in folgendem Ansatz
zum Ausdruck kommt:
• Der Mensch besitzt den Drang zum Handeln und zum Unterlassen mit dem
Ziel, ein gutes Leben zu führen und Glück zu erwerben.
• Die Sinne und das Denken versetzen den Menschen in die Lage, sein eigenes
Handeln und Unterlassen zu beobachten und zu verstehen.
• Der Mensch bewertet die Ursachen, Inhalte und Ergebnisse seines Handels
und Unterlassens, um die Güte und den Nutzen seines Wirkens zu beurteilen.
• Der Mensch kennt das Vollkommene nicht und lässt als Ersatz eine Instanz
(beispielsweise Gott oder sein Gewissen) das Bestmögliche vorgeben. Er-
reicht er das vorgegebene Bestmögliche nicht, so fühlt er sich vor der Instanz
schuldig und sucht Verbesserung.
156 Peter Jan Pahl
1 vgl. Lenk, Hans: Zur Verantwortungsfrage in den Naturwissenschaften. In: Maring, Matthias
(Hg.): Fallstudien zur Ethik in Wissenschaft, Wirtschaft, Technik und Gesellschaft. Karlsruhe
2011. S. 62–70.
2 vgl. Gleitsmann, Rolf-Jürgen: Über die Verantwortbarkeit wissenschaftlicher Erkenntnis: das
Fallbeispiel Kernforschung und Atombombe 1938–1945. In: Maring, a. a. O., S. 36–45.
Verantwortung angesichts der Unvollkommenheit der Technik 157
bei Themen wie Energie, Mobilität und Umwelt3. Die Menschen haben gelernt, die
Technik nicht nur zu lieben, sondern auch zu fürchten.
Die Entwicklung, Erkenntnisse und offenen Fragen der Verantwortungstheorie
sind in dem Band „Technikwissenschaften. Erkennen – Gestalten – Verantworten“4
dargestellt, der unter dem Vorsitz von Klaus Kornwachs erarbeitet wurde. Kapi-
tel 6 der Schrift behandelt Verantwortung in Technikwissenschaft und Technik aus
heutiger Sicht. Verantwortung wird als eine Relation verstanden, deren Attribute
die Struktur der Verantwortung festlegen.5 Besitzt eine Belegung der Relation den
Wert „wahr“, so beschreiben die Attributwerte eine Form der Verantwortung. Es
gibt verschiedene Auffassungen über zutreffende und vollständige Strukturen der
Verantwortung sowie eine Vielfalt an Formen der Verantwortung.
Ein Beispiel für die Struktur von Verantwortung ist das Tupel: (Subjekt, Objekt,
Grund, Instanz, Norm, Zeitraum). Ein Beispiel für eine Form dieser Verantwortung
ist folgende Belegung des Tupels: (Ingenieur, Maschine, Sicherheit, Gericht, Ge-
setz, Alter). Der Ingenieur ist das Subjekt, das die Verantwortung wahrnimmt. Die
Maschine ist das Objekt, für das der Ingenieur die Verantwortung trägt. Die Sicher-
heit der Maschine ist der Grund, weshalb der Ingenieur Verantwortung trägt. Das
Gericht ist die Instanz, vor der sich der Ingenieur verantworten muss, wenn an der
oder durch die Maschine ein Schaden entsteht. Das Gericht entscheidet über die
Schuld des Ingenieurs und verhängt eine Strafe, wenn der Ingenieur schuldig ist.
Gesetze legen technische Regelwerke und Verfahren fest, die das Gericht als Nor-
men bei der Urteilsfindung verwendet. Das Alter ist der Zeitraum, der beim Betrieb
der Maschine verstreicht, bis die Verantwortung des Ingenieurs für die Maschine
erlischt.
Besonders nachteilige Auswirkungen der Unvollkommenheit der Technik sind
große Schwierigkeiten bei der Festlegung der Strukturen und Formen der Verant-
wortung für die Technik. Selbst wenn man voraussetzt, dass das im vorangehenden
Beispiel gewählte Tupel für einen bestimmten Aufgabenbereich geeignet ist und
keine weiteren Strukturen zu untersuchen sind, so erweist sich doch die bestmögli-
che Belegung des Tupels mit Attributwerten als äußerst komplexe Aufgabe.
Das Subjekt der Verantwortung ist nicht zwangsläufig ein Individuum. Ist das
Objekt der Verantwortung ein technisches Projekt mit mehreren Aufgaben, so muss
für jede dieser Aufgaben sowie für die Schnittstellen zwischen den Aufgaben das
Bestmögliche festgelegt und angestrebt werden. Wegen des Umfangs und der Viel-
artigkeit der Aufgaben und der für ihre Bearbeitung erforderlichen Fähigkeiten ist
selten ein Individuum fähig und vom Arbeitsaufwand her in der Lage, allein die
Verantwortung für alle Aufgaben und Schnittstellen des Projekts zu übernehmen.
Das Subjekt der Verantwortung wird dann zu einer Personengruppe erweitert, die in
der Regel hierarchisch strukturiert ist. Ist das Objekt der Verantwortung ein Produkt
oder eine Technologie, so tritt an die Stelle der Personengruppe eine juristische Per-
3 vgl. Grunwald, Armin: Der ingenieurtechnische Blick auf das Weltklima. In: Maring, a. a. O.,
S. 219–226.
4 acatech (Hg.): Technikwissenschaften: Erkennen – Gestalten – Verantworten. Heidelberg 2013.
5 Ropohl, Günter: Das Risiko im Prinzip Verantwortung. In: Ethik und Sozialwissenschaften, 5
(1994), S.109–120.
158 Peter Jan Pahl
son. Mit diesem Schritt entsteht eine große Distanz zum ursprünglichen Konzept
der moralischen Verantwortung des Individuums vor seinem Gewissen.
Eine hierarchisch strukturierte Personengruppe ist ein problematisches Verant-
wortungssubjekt.6 In der Gruppe besteht Weisungsrecht, sodass ein Teil der Perso-
nengruppe auf Anweisung handelt und in ihren Entscheidungen nicht frei ist.7 We-
gen der Unvollkommenheit der Technik können Meinungsverschiedenheiten in der
Gruppe bezüglich des Bestmöglichen bestehen. Einige Mitglieder handeln dann im
Gegensatz zu ihrer freien Entscheidung. Bleibt die Verantwortung der Betroffenen
gegenüber der Instanz in diesem Fall bestehen, wird sie eingeschränkt, oder wird sie
aufgehoben? Im juristischen Sinne mögen Konstrukte gefunden werden, welche die
Betroffenen von der Verantwortung gegenüber der Instanz entlasten. Es können je-
doch auch Handlungen zustande kommen, die gegen das Gewissen der Betroffenen
verstoßen, sodass eine Entlastung nicht möglich ist. Bei wesentlichen Themen darf
nicht verlangt werden, dass Personen gegen ihr Gewissen handeln oder an einem
Projekt mitwirken, in dem die Handlungen Anderer dagegen verstoßen. Es muss
also eine Umbesetzung des Subjektes ohne Nachteile für die Betroffenen möglich
sein. Die in diesem Zusammenhang auftretenden Schwierigkeiten sind absehbar.
Fehler weisungsgebundener Personen sind nicht immer von diesen allein zu
verantworten, sondern auch von den Weisungsberechtigten. In der Regel ist mit der
Weisungsberechtigung auch eine Aufsichtspflicht verbunden. Wegen der Fülle der
Handlungen und der Anzahl der ihm zugeordneten Personen kann der Weisungs-
berechtigte die Aufsichtspflicht aber nur stichprobenartig wahrnehmen. Stichpro-
ben führen unabhängig von der Sorgfalt, mit der sie durchgeführt werden, nicht zu
deterministischer Fehlerkontrolle. Aus dem Auftreten von Fehlern weisungsgebun-
dener Personen allein kann nicht auf Verletzung der Aufsichtspflicht geschlossen
werden. Dennoch wird bei gravierenden Fehlern weisungsgebundener Personen in
der Technik, wie in der Politik, häufig der Rücktritt des Weisungsbefugten von der
Verantwortung auch dann verlangt, wenn er seiner Aufsichtspflicht gerecht wurde
und ihn keine direkte Schuld trifft. Er hatte leider keine Fortune.
Die vorangehenden Beispiele zeigen, dass es notwendig sein kann, mit der Zeit
das Verantwortungssubjekt zu ändern. In dem betrachteten Beispiel ist die Ände-
rung des Subjekts nicht als Verantwortungsobjekt erfasst. Es besteht aber eine Ver-
antwortung, deren Objekt die Besetzung und Änderung des Subjekts einer anderen
Verantwortung ist. So gibt es in vielen Unternehmen einen Aufsichtsrat und einen
Vorstand. Auf den unteren Ebenen der Hierarchie fehlt häufig eine vergleichbare
Struktur.
Wegen der Unvollkommenheit der Technik mag das Objekt einer Verantwor-
tung nur schwer definierbar und von anderen Objekten oder Prozessen in der Welt
abgrenzbar sein. Die Attributmenge des Bestmöglichen und die Attributwerte am
Optimum mögen in solchen Fällen erst durch Handlungen (Untersuchungen und
6 Lenk, Hans: Einige Technik-Katastrophen im Lichte der Ingenieurethik. In: Maring, Matthias
(Hg.): Fallstudien zur Ethik in Wissenschaft, Wirtschaft, Technik und Gesellschaft. Karlsruhe
2011. S. 149–154.
7 Ropohl, Günter: Verantwortungskonflikte in der Ingenieurarbeit. In: Maring, a. a. O., S. 133–
148.
Verantwortung angesichts der Unvollkommenheit der Technik 159
da beim jeweiligen Stand der Technik mehrere Auffassungen über die Mindestan-
forderungen bestehen können. Die Instanz muss nicht nur die vorliegenden Gutach-
ten verstehen, sondern auch zwischen den Gutachten abwägen.
Die Instanz einer Verantwortung für ein bestimmtes Objekt kann aus mehreren
Elementen bestehen, beispielsweise einem Gericht und der öffentlichen Meinung.
Bei der juristischen Beurteilung der Verantwortung für das Objekt sind die gesetzli-
chen oder vertraglichen Mindestanforderungen maßgebend. Die Öffentlichkeit for-
dert das Bestmögliche, das mit wesentlich höheren Anforderungen verbunden sein
kann. Über die Medien ist die Öffentlichkeit in der Lage, ihrer Forderung Gewicht
zu verleihen. Individuen werden durch ihr Gewissen veranlasst, sich selbst zu Ins-
tanzen einer Verantwortung zu machen, auch wenn es bereits andere Instanzen gibt.
In technischen Normen wird technisches Wissen als eine strukturierte Menge
von Regeln formuliert. Normen enthalten Mindestanforderungen der Gemeinschaft
an die Handlungen der Verantwortungssubjekte, sind also keine Beschreibung des
Bestmöglichen in der Technik. Dennoch sind beispielsweise europäische Normen
ein wichtiger Beitrag zur Technik, da sie Maßstäbe setzen, die von allen Betroffe-
nen einzuhalten sind. Bei der Entwicklung von Normen muss das Bestmögliche
bekannt sein, damit die Regeln der Technik formuliert werden können.
Neben den Normen haben auch die digitalen Modelle die Technik standardi-
siert. Verbreitete Anwendungspakete wirken wie Normen, sind es aber nicht. Die
Softwareunternehmen sind weder beauftragt, Normen zu setzen, noch sind sie im-
mer dazu in der Lage. Trotzdem handeln Ingenieure oft so, wie es die Funktionalität
der Anwendungspakete erlaubt. Dies ist nicht immer die bestmögliche Handlung.
Die festgelegten Strukturen der Pakete, beispielsweise ihre Datenstruktur, schrän-
ken die fortlaufende Anpassung der Pakete an den Stand der Technik ein. Neuent-
wicklungen sind wegen des hohen finanziellen Aufwands selten.
Innere Abläufe in Anwendungspaketen werden häufig nicht offengelegt, um so
das Eigentum an der Software zu schützen. Gebrauchsanweisungen und allgemein
gehaltene Beschreibungen der Theorie können aber nicht die vollständige Kenntnis
der eingesetzten Verfahren ersetzen. Der Ingenieur trägt die Verantwortung für die
Verwendung der mit den Paketen erarbeiteten Ergebnisse, auch wenn er die Abläufe
und verwendeten Parameter nicht vollständig feststellen und bewerten kann. Der
Vergleich der Ergebnisse zweier unabhängiger Anwendungspakete löst das Pro-
blem nicht vollständig, da beide zwangsläufig nicht vollständig sind. Insbesondere
bei Innovationen mag ein wesentliches Phänomen in keinem der beiden Pakete
erfasst sein. Der Ingenieur kann seine Sorgfaltspflicht in der Praxis nicht vollstän-
dig erfüllen. Dieses Problem ist zur Zeit ungelöst, da der Einsatz der vorhandenen
suboptimalen Software notwendig ist.
Der Zeitraum einer Verantwortung wird durch die Unvollkommenheit der
Technik beeinflusst, weil der zeitliche Verlauf vieler Prozesse der Technik nicht
zuverlässig bekannt ist. Beispielsweise wird das Altern von Gebäuden und Städten
nicht beherrscht, weil dieser komplexe Prozess nicht mit vertretbarem Aufwand
messbar ist. Die lange Dauer der Prozesse erschwert ihre Erforschung.
Die Ingenieure von heute tragen gegenüber der Gesellschaft von Berufs wegen
die Verantwortung für die in der Vergangenheit geschaffene materielle Infrastruk-
Verantwortung angesichts der Unvollkommenheit der Technik 161
tur, obwohl sie an deren Entstehen nicht beteiligt waren. Berufsbezogene Verant-
wortung für Technik ist zeitlich nicht begrenzt. Schuld kann in diesem Zusammen-
hang aber nur bei Überwachungs- und Änderungsaufgaben entstehen.
Ingenieure tragen die Verantwortung für die Ausrichtung der Technik auf die
Zukunft, obwohl diese Verantwortung kaum beurteilt und sanktioniert werden
kann. Beispielsweise sollen Ingenieure die Entscheidungsträger der Gesellschaft
dabei unterstützen, den materiellen Zustand von Städten so zu beurteilen, dass
quantitative Aussagen zu den erforderlichen Ressourcen und zeitlichen Abläufen
von Betrieb, Instandhaltung, Renovierung und Modernisierung des Bestehenden
möglich sind und der Umfang von Neubauten den Ressourcen der Zukunft ange-
passt werden kann.
Die vorliegende Betrachtung der Verantwortung angesichts der Unvollkommen-
heit der Technik ist nicht vollkommen und nicht die bestmögliche. Viele der ange-
sprochenen Themen entstammen der Erfahrung beim Prüfen von Bauvorhaben. In
anderen Bereichen der Technik liegen vermutlich auch andere Erfahrungen vor. Ver-
treter aller Bereiche der Technik sollten gemeinsam mit Philosophen versuchen, der
Vollkommenheit der Verantwortung für die Technik näher zu kommen. Klaus Korn-
wachs hat diesen Prozess gefördert und wichtige eigene Beiträge dazu geleistet.8
8 s. acatech (Hg.), a. a. O.; sowie: Kornwachs, Klaus: Technik – System – Verantwortung. Eine
Einleitung. In: Kornwachs, Klaus (Hrsg.): Technik – System – Verantwortung. Reihe Technik-
philosophie, Bd.10. Münster, London 2004. S. 23–41.
162 Peter Jan Pahl
LITERATUR
Computer Integrated Manufacturing (CIM) als Utopie zu bezeichnen, ist keine Be-
leidigung, sondern eine Auszeichnung des weitsichtigen Blicks ihrer Protagonisten.
August Wilhelm Scheer, einer der Protagonisten des Computer Integrated Manu-
facturing selbst bezeichnete CIM bereits 1990 als eine Utopie, deren Verwirkli-
chung viel Zeit und Ausdauer erfordere. Genauso wenig sollte Industrie 4.0 als die
umfassende Realisierung der CIM-Idee verstanden werden.
Utopien stehen immer auch Argumente gegenüber, die diese als nicht machbar
deklassieren. Hierbei handelt es sich immer um ein Duell zwischen „zu visionär“
und „zu wenig visionär“. Die goldene Mitte sind „die Langweiler“, die im alltägli-
chen Arbeitsleben an der Umsetzung und Gestaltung der Zukunft beharrlich arbei-
ten und häufig nicht wissen, in welchem Applikationskontext ihre Arbeit bahnbre-
chende Innovationen ermöglicht.
Dabei steht Industrie 4.0 als wahrgewordene Utopie nicht alleine. Die In-
novationshistorie ist voll von entsprechenden Beispielen. Leonardo da Vinci
zeichnete und konstruierte Fluggeräte, die hunderte Jahre später alltäglich gewor-
den sind. Apple stellte bereits 1993 den ersten Tabletcomputer vor, der grandios
floppte. 16 Jahre später hielt das iPad mit Spitzengeschwindigkeit Einzug in das
Alltagsleben der Menschen.
„Verlogen“ war keine dieser Utopien – eher zu unrealistisch oder zu optimis-
tisch gedacht. Warum? Hier gilt es, auf die technischen Entwicklungen und das
Timing zu schauen, die diese Utopien Wirklichkeit werden ließen. Da Vinci fehlte
eine performante Antriebskomponente. Apple fehlten die erforderlichen Displays,
Batterien, Speichermedien, Contents und Konnektivität. Und CIM? 1987 war vom
Internet noch nicht viel zu sehen. Die Rechenleistung der damals eingesetzten Sys-
teme war, im Vergleich zu heute, minimal. Sensoren und Aktuatoren waren zu groß,
viel zu teuer oder noch nicht vorhanden. Produktionssoftware war nicht performant
genug und die notwendige Konnektivität nicht gegeben.
Utopien beschreiben nicht das aktuell technisch Machbare, sondern skizzie-
ren die Zukunft. Wie lange der Weg dorthin dauert, hängt damit zusammen wie
schnell die Technologieentwicklung in den einzelnen Disziplinen des erforderli-
chen Technologiesystems voran geht und wie weit die Möglichkeit zur technischen
Umsetzung von den latenten Bedürfnissen zur Lösung einer Problemstellung po-
tenzieller Kunden entfernt liegt. Dieses sogenannte „Chasm of Innovation“ wurde
164 Hans-Jörg Bullinger, Rainer Nägele
bereits 1991 von Geoffrey Moore aufgezeigt und beschreibt den Punkt innerhalb
einer Technologieadaptionskurve, an der jeweils kritische Mengen eines „Techno-
logy Push“ auf eine kritische Menge an „Market Pull“ stößt, um eine technische
Innovation in der Breite erfolgreich zu machen.
Der Wandel in unserer Arbeits- und Lebenswelt ist durch eine zunehmende Kom-
plexität geprägt. Globalität, Nachhaltigkeit, Flexibilität, Diversität, Dezentralität
und neue Lebensstile sind Schlagworte und Entwicklungen, die bestehende Märkte
und Systeme an ihre Grenzen bringen und hinter denen sich eine Vielzahl von He-
rausforderungen verbergen, die es im Sinne systemischer Lösungen optimal und
zum Wohle aller zu lösen gilt. Vor diesem Hintergrund gilt es, die Fragen zu stellen,
wie unser Forschungs- und Innovationssystem der Zukunft aussehen und wie sich
die Rollen von „Technology Push“ und „Market Pull“ als die bisher maßgeblichen
Grundmechanismen von Innovation verändern werden.
Innovationen beruhen in der Regel auf den beiden Grundmechanismen „Tech-
nology Push“ und „Market Pull“. Dabei sind technologiegetriebene Innovationen
das Ergebnis eines dynamischen wissenschaftlichen Fortschritts, der häufig auf
Erfolgen der Grundlagenforschung, die bewusst nicht auf die Entwicklung markt-
fähiger Anwendungen abzielt, beruht. Das Leitprinzip des „Technology Push“ ist
daher nicht die Nützlichkeit sondern die Möglichkeit. Das Risiko von „Technology-
Push“-Ansätzen besteht darin, dass Inventionen keine vorhandenen oder latent vor-
handenen Bedürfnisse erfüllen, während die Chancen, aus einer angebotsorientier-
ten Perspektive gesehen, in der Entwicklung radikaler Innovationen liegen, die die
Grundlage für völlig neue Märkte und neue gesellschaftliche Entwicklungen bilden.
Daher steht neben der eigentlichen Forschungs- und Entwicklungsarbeit die Iden-
tifikation von Funktionen und der dadurch möglichen Anwendungen innovativer
Technologien im Mittelpunkt eines „Technology-Push“-Ansatzes. Im Gegensatz
dazu bildet der „Market-Pull“-Ansatz die Perspektive der Nachfrageseite ab. Leit-
prinzip ist dabei die Suche nach innovativen Lösungen für ein gegebenes Problem,
wodurch Innovationen folglich als Reaktionen auf spezifische Marktbedürfnisse zu
verstehen sind.
Zukünftige Entwicklungen basieren immer auf dem Wunsch nach Verbesse-
rung bestehender Situationen in Kombination mit der Adaption übergeordneter
Entwicklungen, die Einfluss auf das Betrachtungssystem nehmen. Im hier betrach-
teten Fall ist somit die Frage zu stellen, wie die beschriebenen Risiken minimiert
und die skizzierten Chancen optimal genutzt werden können. Diese Betrachtung
führt aber lediglich zu inkrementellen Verbesserungen im Sinne der Optimierung
des bestehenden Forschungs- und Innovationssystems. Daneben gilt es, sich in Zu-
kunftsbetrachtungen die Frage zu stellen, welche disruptiven Elemente auf das Be-
trachtungssystem einwirken können. Derartige Elemente können in Form technolo-
gischer Entwicklungen, vielmehr aber in Form von grundlegenden Veränderungen
Zur Zukunft von „Technology Push“ und „Market Pull“ 165
„Augumented and programmed lives“. Darunter versteht er, dass wir zukünftig in
einer Welt des allgegenwärtigen Internets und der allgegenwärtigen Information
leben werden, die es uns ermöglichen wird, alle Aspekte unseres Lebens im Aus-
tausch und in Kommunikation mit Menschen und Dingen zu gestalten. Wenn nur
ein Bruchteil dieser Vision Realität werden wird, so erscheint es naheliegend, dass
die Ermittlung spezifischer Marktbedürfnisse, ja sogar individueller Kundennutzen
nicht nur machbar, sondern zum Standard wird. Big Data, immer leistungsfähigere
Data Analytics in Kombination mit Aspekten der virtuellen Kundenintegration und
der künstlichen Intelligenz sind dafür die Wegbereiter. Im Umkehrschluss bedeu-
tet dies aber auch, dass die Anforderungen an Innovationen immer individueller
werden und der oben erwähnten „Gesellschaft des Selbermachens“ damit der Weg
bereitet wird. Neben dem Menschen als Kunden werden sich zudem Maschinen
und/oder Systeme als weitere Kundengruppen etablieren, und die Vorstellung, dass
Maschinen für Maschinen entwickeln werden, erscheint nicht mehr abwegig.
Zusammenfassend lassen sich die beschriebenen Überlegungen daher in den
folgenden vier Hypothesen zusammenfassen:
1. „Forschung und Innovation“ sind wir alle, die in einer Wissensgesellschaft
leben.
2. Wissenschaft im engeren (klassischen) Sinne findet auf Grundlagenniveau statt
und ist der Treibstoff der Wissensgesellschaft.
3. „Technology Push“ und „Market Pull“ rücken immer näher zusammen und
werden eins.
4. Disruptive Inventionen und Innovationen sind weiterhin nur durch „Techno-
logy Push“ möglich.
Die Frage nach der Zukunft ist zutiefst menschlich und von dem Bedürfnis moti-
viert, sich auf das, was kommt, vorzubereiten. Der Versuch einer Antwort auf diese
Fragen ist jedoch gleich in doppelter Hinsicht trügerisch: Einerseits lassen sich die
Entwicklungen in einer sich schnell verändernden Welt nicht präzise vorhersagen.
Andererseits vermochte der Umstand, dass man den Wandel nicht konkret vorher-
sagen kann, das menschliche Fortschrittstreben bislang nicht zu lähmen. Seit jeher
bewältigte die Menschheit den Wandel, indem sie sich an veränderte Arbeits- und
Lebensbedingungen anpasste. Es scheint, dass die Gestaltungskraft der Menschen
groß genug ist, alle Herausforderungen anzunehmen und Lösungen zu deren Be-
wältigung umsetzen zu können. Dies scheint für die großen Themen wie das welt-
weite Bevölkerungswachstum und dem damit verbundenen Nahrungsbedarf oder
dem Klimawandel und dem Energiebedarf genauso zu gelten wie für die kleinen
Dinge der menschlichen Existenz.
Auf eine ungewisse Zukunft bereitet man sich idealerweise vor, indem man
diese versucht aktiv mitzugestalten – und zugleich dort anpassungsfähig zu blei-
ben, wo die eigenen Gestaltungsmöglichkeiten enden. Die Beherrschung von Un-
gewissheiten wird daher zu einer existenziellen Aufgabe von Institutionen und
Individuen.
Zur Zukunft von „Technology Push“ und „Market Pull“ 167
LITERATUR
Bundesministerium für Bildung und Forschung (2014): Gesellschaftliche Entwicklungen 2030, on-
line verfügbar unter http://www.vditz.de/meldung/bmbf-foresight-berichte-so-sieht-die-welt-
im-jahr- 2030-aus (Zugriff am: 2.2.2018).
Moore, Geoffrey A. (1991): Crossing the Chasm – Marketing and Selling High- Tech Products to
Mainstream Customers, HarperCollins Publishers.
National Institute of Science and Technology Policy (2010): Contribution of Science and Techno-
logy to Future Society, online verfügbar unter http://data.nistep.go.jp/dspace/bitstream/11035/
1183/1/NISTEP-NR145- FullE.pdf (Zugriff am: 2.2.2018).
Scheer, August-Wilhelm (1990): CIM im Mittelstand, Tagungsband zur Fachtagung CIM im Mittel-
stand 14. bis 15.2.1990, Springer-Verlag, Berlin, Heidelberg.
Tikka, Ville (2014): Future Lifestyles in EU and the US, online verfügbar unter http://espas.eu/orbis/
sites/default/files/generated/document/en/10%20EFFLA%20Study%20%20Tikka%20%20
Wevolve%20%20Life%20styles.pdf (Zugriff am: 2.2.2018).
NACHHALTIGKEIT – TOTGERITTEN
UND LEBENDIGE NOTWENDIGKEIT
Christian Berg
Für Sonntagsreden und Festschriften ist der Begriff Nachhaltigkeit geradezu präde-
stiniert. Denn einerseits ist er positiv besetzt, scheint einen für alle erstrebenswerten
Zustand zu beschreiben und ist als politisches Ziel festgeschrieben. Wer Nachhal-
tigkeit für sich reklamiert, kann kaum jemanden gegen sich haben. Andererseits –
und auch als Folge daraus – wird der Begriff in einer Weise ge- und zum Teil miss-
braucht, dass alles und nichts damit gesagt zu sein scheint. Nachhaltigkeit changiert
in seiner Verwendung zwischen Allquantor und Leerformel, in ihm schlägt quasi
das Sein in das Nichts um. So mag man sich dem Urteil Frank Uekötters anschlie-
ßen: „Zur Nachhaltigkeit ist, so scheint es, alles Sinnvolle gesagt und auch ein guter
Teil des Sinnlosen.“1 Warum ist das so? Warum ist der Begriff so schillernd, so
verbreitet und anscheinend so bedeutungs- oder zumindest folgenlos?
Im Folgenden soll gezeigt werden, warum „Nachhaltigkeit“ ein so ambiva-
lentes Schicksal erfährt – warum es ad nauseam strapaziert wird und trotz aller
Schwierigkeiten unverzichtbar ist.
Dass mir mit dem Titel dieses Beitrags die Aufgabe gegeben wurde, der Ambivalenz
des Begriffs bzw. des Konzepts Nachhaltigkeit nachzuspüren, ist insofern kurios,
als ich einer sehr ähnlichen Frage bereits vor 15 Jahren in einer anderen Festschrift,
für Michael F. Jischa, nachgegangen bin.2 Schon damals gab es hinreichend Anlass,
sich über diesen strapazierten Begriff Gedanken zu machen – und was ist seitdem
nicht alles über Nachhaltigkeit geschrieben und gesagt worden! Wie ich damals
argumentierte, hängt die Proliferation der Verwendung des Nachhaltigkeitsbegriffs
mit der nicht aufzulösenden Spannung zwischen Wortsemantik und Wortverwen-
dung zusammen bzw. zwischen Wortsemantik und dem normativen Konzept einer
nachhaltigen Entwicklung3. Dem Wortsinne nach ist „nachhaltig“ wertneutral und
1 Uekötter, Frank: Ein Haus auf schwankendem Boden: Überlegungen zur Begriffsgeschichte
der Nachhaltigkeit. In: Aus Politik und Zeitgeschichte, 31–32, 2014, S. 9–15.
2 Berg, Christian, Nachhaltigkeit oder Futerumanum? Zur Kritik eines Begriffs zehn Jahre nach
„Rio“. In: Berg, Christian; Charbonnier, Ralph; Tulbure, Ildiko (Hg.): Folgenabschätzungen.
Resonanzen zum 65. Geburtstag von Michael F. Jischa. Clausthal-Zellerfeld 2002. S. 69–80.
3 a. a. O., S. 72 ff.
170 Christian Berg
bedeutet lediglich, „sich auf längere Zeit stark auswirkend“4. Im Sinne der Wortse-
mantik könnte man sagen, dass die Menschheit derzeit dabei ist, ihre Lebensgrund-
lagen auf längere Zeit hin massiv zu beeinträchtigen, die Menschheit betreibt eine
sehr nachhaltige Schädigung ihrer natürlichen Lebensgrundlagen, also eine nach-
haltige Umweltzerstörung. Im Sinne des Konzepts „Nachhaltigkeit“ wäre dies aber
geradezu eine contradictio in adjecto, denn die Bedürfnisse künftiger Generationen
werden ohne natürliche Lebensgrundlagen nicht zu befriedigen sein.5
Zur Lösung dieser Spannung schlug ich damals vor, anstelle des semantisch nur
formal bestimmten, inhaltlich aber leeren Begriffs der Nachhaltigkeit einen neuen
Begriff zu schaffen, der nicht die (momentan messbare) Wirkung einer Maßnahme
oder Handlung als vielmehr das Ziel derselben formuliert. Das Ziel sollte sein, die
Zukunft der Erde und des Menschlichen zu erhalten: futurum terrae et humanorum,
Futerumanum. Da dieser Vorschlag nicht wirklich realistisch ist, werden wir wohl
mit der genannten Spannung leben müssen, die zu ambivalenten Verwendungen
geradezu einlädt. „Nachhaltig“ wird dann zu einer Bestärkungs-Leerformel, zu ei-
nem adjektivischen Ausrufungszeichen! Das ist der erste, semantische Grund für
die Sprachverwirrung.
stehen.7 Als regulative Idee bleibt Nachhaltigkeit notgedrungen eine abstrakte For-
derung. Was im Konkreten wirklich nachhaltig ist, lässt sich wegen der diachronen,
intergenerationellen Perspektive und der Berücksichtigung der natürlichen Umwelt
noch weniger bestimmen als im Falle des verwandten Begriffs der Gerechtigkeit.
Und schon bei der Frage, was gerecht ist, scheiden sich die Geister.
7 So schon in: Deutscher Bundestag (Hg.): Konzept Nachhaltigkeit. Vom Leitbild zur Umset-
zung. Abschlussbericht der Enquete-Kommission „Schutz des Menschen und der Umwelt –
Ziele und Rahmenbedingungen einer nachhaltig zukunftsverträglichen Entwicklung“ des 13.
Deutschen Bundestages. Bonn 1998. S. 28.
8 vgl. Gabler Wirtschaftslexikon: Stichwort „Verursacherprinzip“. http://wirtschaftslexikon.
gabler.de/Archiv/1852/verursacherprinzip-v7.html (Zugriff am: 20.3.2017).
9 International Energy Agency: World Energy Outlook 2014. Paris 2014, S. 313. http://www.iea.
org/publications/freepublications/publication/WEO2014.pdf (Zugriff am: 29.3.2017).
172 Christian Berg
die Folgewirkungen von Technik über Zeiträume beherrschbar bleiben, die tausend
Mal länger sind als die Existenz der dauerhaftesten menschlichen Zivilisationen?10
Es gibt noch eine Reihe weiterer Herausforderungen für die Operationalisie-
rung von Nachhaltigkeit, die wir hier nur kurz nennen können, wie etwa wie Re-
bound-Effekte, fehlerhafte Anreizsysteme oder die durch technischen Wandel und
globalen Wettbewerb beschleunigte Kurzfristorientierung in vielen Bereichen.
10 An dieser Stelle, bei der Technik, treffen sich unsere Überlegungen zum Thema Nachhaltig-
keit mit den Arbeiten von Klaus Kornwachs, dem es stets um eine „menschengerechte Tech-
nikgestaltung“ geht (so der Untertitel von: Kornwachs, Klaus: Information und Kommunika-
tion. Zur menschengerechten Technikgestaltung. Berlin, Heidelberg 1993.). Zwar nicht ex-
pressis verbis, de facto jedoch sehr wohl auf Nachhaltigkeit ausgerichtet, ist z. B. Kornwachs’
Prinzip der Bedingungserhaltung: „Handle so, dass die Bedingungen der Möglichkeit des
verantwortlichen Handelns für alle Beteiligten erhalten bleiben.“ (ders.: Das Prinzip der Be-
dingungserhaltung. Eine ethische Studie. Reihe „Technikphilosophie“. Bd. 1. Münster, Ham-
burg, London 2000. S. 60.)
11 Zur weltweiten Vernetzung vgl. Berg, Christian: Vernetzung als Syndrom. Risiken und Chan-
cen von Vernetzungsprozessen für eine nachhaltige Entwicklung. Frankfurt am Main 2005.
174 Christian Berg
lender natürlicher Feinde im neuen Habitat mittlerweile auf eine Population von ca.
200 Millionen Exemplare angewachsen ist, sich mit 25 % pro Jahr vermehrt und die
einheimischen Tiere und Pflanzen bedroht.12
Dass schon eine einzige gutgemeinte Aktion solch verheerenden Wirkungen zeiti-
gen kann, verdeutlicht die Komplexität ökologischer Zusammenhänge, die eine einmal
aus dem Ruder gelaufene Entwicklung schwer beherrschbar werden lässt. Wie sollen
angesichts dessen die langfristigen Folgen heutiger Maßnahmen eingeschätzt werden?
mitbedacht werden soll, wird das Handeln unmöglich. Obwohl die Forderung nach
mehr Nachhaltigkeit in der Sache begründeter ist denn je, könnte es daher sogar
kontraproduktiv sein, wenn sie zu alarmistisch vorgetragen wird. Zumindest wird
sie aber folgenlos bleiben, wenn nicht für konkretes Handeln erkennbar wird, wel-
che Implikationen diese Forderung mit sich bringt.
Was dem geltenden Recht und allgemein anerkannten Wertmaßstäben entspricht
und was moralisch angemessen, kurz: was gerecht ist, ist weitgehend kodifiziert durch
Sitte und Gesetz. Dass auch Sitte und Gesetz permanentem Wandel unterliegen und
immer nur Annäherungen an eine gerechte Ordnung darstellen können, ändert nichts
an ihrer komplexitätsreduzierenden, das Handeln erleichternden Funktion.
Für die Frage, was nachhaltig ist, lässt sich (noch?) nichts Entsprechendes an-
geben – und vermutlich ist das auch nicht in derselben Weise möglich wie bei der
Frage nach Gerechtigkeit. Solange eine solche Komplexitätsreduktion fehlt, bleibt
die Forderung nach Nachhaltigkeit abstrakt. Sie wird zur Leerformel für Sonntags-
reden und Festschriften.
Es gibt Dinge, die müsste man erfinden, wenn es sie nicht schon gäbe. Die Verein-
ten Nationen gehören dazu. Man kann Ineffizienz, Bürokratie, Vetternwirtschaft
und Korruption und vieles andere mehr beklagen, aber dass es einen Ort gibt, an
dem die Völker dieser Welt gemeinsam nach Lösungen für ihre geteilten Herausfor-
derungen suchen, ist für ein friedliches, solidarisches und kooperatives Miteinander
zwischen den Völkern unverzichtbar.
Ähnlich ist es mit dem Konzept „Nachhaltigkeit“. Auch wenn es schwer ope-
rationalisierbar ist, oft unkonkret bleibt, immer mit Zielkonflikten verbunden ist,
die Gefahr ständiger Überforderung mit sich bringt und auch die Begriffswahl des
deutschen Wortes „Nachhaltigkeit“ ihre Tücken hat – das Konzept der nachhaltigen
Entwicklung müsste man erfinden, wenn es es nicht schon gäbe. Als normatives Kon-
zept ist es buchstäblich notwendig – denn die Grundbedürfnisse der gegenwärtigen
Generation sind noch nicht befriedigt, wenn immer noch mehr als eine halbe Milli-
arde Menschen hungern und keinen Zugang zu sauberem Trinkwasser haben. Und
angesichts der globalen Umweltveränderungen, von denen der Klimawandel nur das
prominenteste Beispiel ist, steht auch zu befürchten, dass künftige Generationen es
immer schwerer haben werden, ihre Bedürfnisse zu befriedigen. In den Worten des
UN-Generalsekretärs Ban Ki-moon: „We are the first generation that can put an end
to poverty and we are the last generation that can put an end to climate change …“14
Nachhaltigkeit ist nicht nur eine normatives Konzept, eine moralische Forde-
rung, sondern auch Ausdruck aufgeklärten Eigeninteresses. Kein Land kann auf
Dauer seine Probleme alleine lösen – und kein Land wird es sich auf Dauer leisten
können, nicht solidarisch zu sein. Der Wohlstand der reichen Länder hängt auch am
Fortbestand der Regenwälder, die Entwicklungschancen der armen Länder werden
14 Ki-moon, Ban: Rede vor der Katholischen Universität Leuven am 28.5.2015. https://www.
un.org/press/en/2015/sgsm16800.doc.htm (Zugriff am: 24.3.2017).
176 Christian Berg
auch durch Subventionspolitik des Nordens erschwert, der daraus entstehende Mi-
grationsdruck gefährdet die gesellschaftliche Stabilität der Industrieländer.
Schon die vergleichsweise wenigen Flüchtlinge, die durch die Auseinander-
setzungen im Nahen Osten nach Europa und Deutschland drängen, führen zum
Erstarken des Rechtspopulismus – obwohl selbst in Deutschland im Mittel auf je
50 Einwohner nur ein Flüchtling kommt. Bangladesh, eines der am dichtesten be-
siedelten Länder weltweit, liegt zu weiten Teilen des Landes nur ein bis zwei Meter
über dem Meeresspiegel. Indien ist mit einem 3000 km langen Grenzzaun schon
gerüstet gegen den Migrationsdruck. Wo sollen die fast 160 Millionen Menschen
leben, wenn der Meeresspiegel steigt? Jeder, der Kinder hat, wird auch seinen Kin-
dern und Enkeln wünschen, dass auch sie Kinder und Enkel haben können. Damit
eröffnet sich ein Zeithorizont, der leicht bis ins Jahr 2200 reicht. Bis dahin könnte
der Meeresspiegel um 1,5 bis 3,5 Meter steigen. Dann werden dutzende Millionen
von Menschen eine neue Heimat suchen, mit sozialen Verwerfungen, die man sich
jetzt wohl noch nicht wirklich vorstellen kann.
Mit der Agenda 2030 und den 17 Nachhaltigkeitszielen mit ihren 169 Unterzie-
len ist die Operationalisierung insofern vorangekommen, als es konkrete Ziele gibt
und jeder Staat in der Pflicht ist, sie für sich zu konkretisieren und zu kontextuali-
sieren. Insofern ist zwischen der Erklärung von „Rio“ 1992 und der Agenda 2030
von 2015 ein wichtiger Fortschritt zu verzeichnen. Das Problem der Zielkonflikte
bleibt aber bestehen. Die 17 Nachhaltigkeitsziele beschreiben fast eine Utopie: kein
Hunger, keine Armut, gesunde Umwelt, Gleichberechtigung und Zusammenarbeit
zwischen den Völkern. Es bestehen allerdings ernste Zweifel, dass sich die 17 Ziele
gleichzeitig erreichen lassen. Es gibt erhebliche Zielkonflikte, zum Beispiel im Be-
reich der Biomasse. Eine Studie des Institute for Advanced Sustainability Studies
kommt zu dem Ergebnis bzgl. dieser 17 Ziele: „they cannot be met sustainably.“15
Gleichwohl, die Millenium Development Goals (MDGs) haben gezeigt, dass
globale Zielvorgaben viel bewirken können, weil sie für alle Akteure Orientierung
geben. Nicht alle MDGs wurden erreicht, aber der Fortschritt im Bereich Kinder-
sterblichkeit, Armutsbekämpfung und verbesserten Lebensbedingungen in den Ent-
wicklungsländern ist bemerkenswert.
Nachhaltigkeit ist letztlich eine hochkomplexe und multidimensionale Opti-
mierungsaufgabe. „People, Planet, Prosperity, Partnership, and Peace“ gehören
zusammen, wie es die Agenda 2030 ausdrückt – auf den Begriff gebracht ist es die
Forderung nach einer nachhaltigen Entwicklung. Dass die Reichen dieser Welt die
Ökosysteme für ihre Kinder und Enkel nicht schützen können, wenn vielen Armen
immer noch die Mittel fehlen, heute ihre Kinder zu ernähren – dieser Gedanke
entspricht sowohl aufgeklärtem Eigeninteresse als auch moralischem Imperativ.
Wenn Nachhaltigkeit tatsächlich ein Thema für Festschriften ist, dann werde ich
vielleicht in 15 Jahren wieder über dieses Thema nachdenken – und dann werden
wir hoffentlich feststellen, dass die Nachhaltigkeitsziele uns auf dem Weg zur Um-
setzung einer nachhaltigen Entwicklung trotz allem ein wenig nähergebracht haben.
15 Institute for Advanced Sustainability Studies (IASS): The Role of Biomass in the Sustainable
Development Goals: A Reality Check and Governance Implication. IASS Working Paper. Pots-
dam 2015. S. 4.
Nachhaltigkeit – totgeritten und lebendige Notwendigkeit 177
LITERATUR
Thomas Bschleipfer
Bei der Frage „Medizintechnik für alle?“ muss nicht nur die Begrifflichkeit
Medizintechnik präzisiert und definiert werden, sondern auch die Gruppe aller Ak-
teure. Im Mittelpunkt steht unbestritten der Patient. Ferner von Bedeutung sind
dessen Angehörige oder Betreuer, der Arzt, das Ärzteteam und das betreuende Pfle-
gepersonal. Hinzu kommen das technische Personal und die Industrie. Der durch
die Industrie geleistete Support ermöglicht erst eine längerfristige Funktion der
Medizintechnik. Schließlich sind die Krankenkassen, sei es die gesetzliche Kran-
kenkasse (GKV) oder die privaten Krankenkassen (PKV) und damit die Solidarge-
meinschaft, welche Medizintechnik zu finanzieren hat, involviert.
Bei der philosophischen Betrachtung der Verfügbarkeit und Verwendung einer
Ressource wie Medizintechnik muss neben den Beteiligten auch der Aktionsspiel-
raum definiert werden. Hier sind mehrere Szenarien denkbar: Soll ausschließlich die
Situation in einer Industrienation wie Deutschland betrachtet, eine weltweite Be-
trachtung anstrebt oder Sondersituationen betrachtet werden, wie beispielsweise die
Verfügbarkeit limitierter Ressourcen in Krisensituationen? Die beiden letzten Punkte
sollen in dieser Ausarbeitung nicht diskutiert werden. Hinsichtlich der Allokations-
problematik lebenswichtiger, aber begrenzter Ressourcen in Krisensituationen sei
auf meine Dissertation mit dem Thema „Ethik einer Krisenmedizin“ verwiesen.5
Medizintechnik „Made in Germany“ genießt einen exzellenten Ruf und ist welt-
weit gefragt.6 Grundüberzeugung in den allermeisten Köpfen ist daher, dass uns in
Deutschland eine Medizintechnik auf höchstem Niveau zur Verfügung steht – immer,
überall und für jedermann. Zu diesem Denken trägt sicherlich die gesteigerte Portabi-
lität von Medizintechnik aber auch die Point-of-care (POC) Diagnostik bei. Ein Bild,
welches trügt. Im Folgenden soll geklärt werden, warum auch in einer Industrienation
eine hochmoderne Medizintechnik nicht für jedermann zugänglich sein kann.
Zunächst und augenscheinlich dürfte der räumliche Aspekt sein. Es lassen sich
mobile und immobile Medizintechnik unterscheiden. Mobile Medizintechnik findet
sich beispielsweise in Notarzt- oder Rettungswägen, bei der immobilen Medizin-
technik handelt es sich unter anderem um Operationssäle oder Computertomogra-
phen. Mobile Medizintechnik kommt somit in der Regel zum Patienten, im Falle
immobiler Medizintechnik muss der Patient den Weg zur Medizintechnik finden.
Sicherlich gibt es auch Zwischenlösungen, wie z. B. eine mobile extrakorporale
Stoßwellenlithotripsie (ESWL), die möglicherweise zwischen mehreren Zentren
„pendelt“. Doch auch hier muss der Patient zumindest den für ihn nächsten Ort
aufsuchen. Medizintechnik ist somit nicht ubiquitär verfügbar. Lebensbedrohlich
Verletzte oder Erkrankte sind darauf angewiesen, dass der Rettungsdienst rechtzei-
tig sein Ziel erreicht. Hierauf muss aber auch der Patient zeitnah in einem nächst-
gelegenen und für ihn geeigneten Zentrum ankommen. Sicherlich konnte durch die
Einführung des Rettungsdienstes mit Rendezvous-System und die Einrichtung von
Rettungshubschraubern ein Maximum an Zeitersparnis gewonnen werden. Den-
noch bedarf es eines Patientenzustandes, der das Erreichen der Rettungskräfte und
die entsprechende Weiterbehandlung ermöglicht. Ein limitierender Faktor ist somit
zunächst der Patientenzustand, die Schwere der akuten Erkrankung oder Verlet-
zung. Doch auch in der Palliativsituation bei Tumorpatienten scheint die Nähe zum
Hausarzt, zum behandelnden Facharzt und zur Klinik als nächstes Zentrum mit
medizintechnischer Ausstattung und Versorgungsmöglichkeit von entscheidender
Bedeutung zu sein. Dies zeigen erste Ergebnisse einer Versorgungsstudie bei Pa-
tienten mit fortgeschrittenem, metastasierten Prostatakarzinom, welche derzeit am
Klinikum Weiden der Kliniken Nordoberpfalz AG durchgeführt wird.
Zu diskutieren ist, wie es zu werten ist, dass Personen, die fern von Zentren
wohnen, systematisch benachteiligt sind. Zum einen ist die Wahl des Lebensmittel-
punktes unbestritten eine persönliche Entscheidung. Die Folgen hinsichtlich einer
etwaigen Benachteiligung wären somit dem jeweiligen Individuum zuzuschreiben.
Die Wahl des Wohnortes wird jedoch aus unterschiedlichsten Gründen und Beweg-
gründen gefällt. Die Priorisierung obliegt dem Einzelnen und wird häufig in einer
Situation vorgenommen, in welcher ärztliche bzw. medizintechnische Unterstüt-
zung (noch) nicht oder kaum benötigt wird. Wird jedoch eine bewusste Entschei-
dung für ein Leben in für den Rettungsdienst schwer zu erreichenden Regionen
trotz bekanntem, erhöhtem Erkrankungsrisiko (z. B. nach stattgehabtem Herzin-
farkt, Stentimplantation oder anderen Risikofaktoren für akute lebensgefährliche
Erkrankungen) getroffen, so ist dies als klare Akzeptanz einer möglichen Benach-
teiligung bei Notwendigkeit medizinischer Hilfe zu werten.
Problematisch in diesem Zusammenhang scheint der Wille von Politik und
Krankenkassen, Medizin mehr und mehr zu zentralisieren7, um „durch strukturelle
Reformen Effektivität und Qualität der medizinischen Versorgung zu verbessern
und gleichzeitig alle Beteiligten maßvoll in Sparmaßnahmen einzubeziehen“8. So-
mit wird bewusst eine Benachteiligung verschiedener Personengruppen in Kauf
genommen, um zentral hochwertige, teure Medizin oder Medizintechnik vorhal-
ten zu können. Verfügbarkeit und Ökonomie stehen klar in Konkurrenz. Ubiquitär
verfügbare Medizin muss preisgünstig sein, wohingegen hochpreisige Technik nur
zentralisiert zur Verfügung gestellt werden kann. Gerade letztere wird sicherlich
einigen Patienten verwehrt bleiben.
7 Werner, Markus: Planwirtschaft auf die Spitze getrieben. In: eigentümlich frei, 6.3.2015,
http://ef-magazin.de/2015/03/06/6525-versorgungsstaerkungsgesetz-im-gesundheitsbereich-
planwirtschaft-auf-die-spitze-getrieben (Zugriff am: 15.11.2016); sowie: dpa / aerzteblatt.de:
Niedersachsen: Techniker Krankenkasse will Zentralisierung von Krankenhäusern. Veröffent-
lichung: 29.10.2014, http://www.aerzteblatt.de/nachrichten/60667 (Zugriff am: 15.11.2016).
8 Deutscher Bundestag – 15. Wahlperiode: Entwurf eines Gesetzes zur Modernisierung der ge-
setzlichen Krankenversicherung (GKV-Modernisierungsgesetz – GMG). Drucksache 15/1525,
8.9.2003, http://dipbt.bundestag.de/doc/btd/15/015/1501525.pdf.
182 Thomas Bschleipfer
9 s. Albers, P.; Albrecht, W.; Algaba, F.; Bokemeyer, C.; Cohn-Cedermark, G., Fizazi, K.; Hor-
wich, A.; Laguna, M. P.; Nicolai, N.; Oldenburg, J.: EAU Guidelines on Testicular Cancer.
European Association of Urology, 2016; S. 1–48.
10 s. Sullivan, C. J.; Murphy, K. P.; McLaughlin, P. D.; Twomey, M.; O’Regan, K. N.; Power,
D. G.; Maher, M. M.; O’Connor, O. J.: Radiation exposure from diagnostic imaging in young
patients with testicular cancer. European Radiology, April 2015; 25, 4, pp. 1005–1013.
11 s. Su, Danial; Faiena, Izak; Tokarz, Robert; Bramwit, Mark; Weiss, Robert E.: Comparative
analysis of the risk of radiation exposure and cost of reduced imaging intensity for surveillance
of early-stage nonseminomatous germ cell tumors. Urology 2015; 85, 1: pp. 141–146.
12 s. Albers u. a., a. a. O.
13 Albrecht, Walter: Vortrag „Hodenkarzinom: Neues in der Leitlinienorientierten Therapie“. 11.
Uroonkologisches Symposium, Benediktinerabtei Weltenburg, Kelheim, 11.–12.11.2016.
14 vgl. Su u. a., a. a. O.
15 s. Albers u. a., a. a. O.
16 Zentrum für Krebsregisterdaten, Robert Koch Institut: Hodenkrebs (Hodenkarzinom),
17.12.2015, http://www.krebsdaten.de/Krebs/DE/Content/Krebsarten/Hodenkrebs/hodenkrebs_
node.html (Zugriff am: 29.11.2016).
Warum Medizintechnik nicht für alle da sein kann 183
17 Kornwachs, Klaus: Das Prinzip der Bedingungserhaltung. Eine ethische Studie. Münster 2000.
S. 47 ff. u. S. 60 ff.
18 Pachner, A.: Bildgebende Verfahren in der Medizin. Veröffentlichung: 22.4.2004, http://www.vis.
uni-stuttgart.de/plain/vdl/vdl_upload/102_33_v1-medBildgebung.pdf (Zugriff am: 16.11.2016).
19 ebd.
184 Thomas Bschleipfer
zehn Mal so viele wie 1990.“20 Die Zeit bringt somit ein Mehr an Verfügbarkeit,
obwohl (nach eigenen Recherchen) derartige Großgeräte nicht billiger wurden.
Auch änderte sich die Vergütung (abgebildet in der Gebührenordnung für Ärzte)
für CT- und MRT-Untersuchungen über die Jahrzehnte hinweg nicht wesentlich.
Vom zeitlichen Aspekt ist auch die Indikationsstellung zur Anwendung von Medi-
zintechnik betroffen. Vielfach existieren bereits medizintechnische Verfahren, wohin-
gegen Studien für den Wirksamkeitsnachweis bei speziellen Erkrankungen noch feh-
len. Diese Verfahren können somit Patienten, welche von derartigen Erkrankungen be-
troffen sind, nicht zur Verfügung gestellt werden. Als Lösung wird häufig angeboten,
Patienten in Studien einzuschließen, sofern diese bereits initiiert wurden. Ein- oder
Ausschlusskriterien für die Studienteilnahme und die häufig weite Entfernung zu Stu-
dienzentren erschweren jedoch vielen Patienten den Zugang zu neuartigen Verfahren.
Die Verfügbarkeit von Medizintechnik ist ferner hochgradig an den Kosten-
faktor gebunden. Auch hier zeigen sich wesentliche zeitliche Veränderungen. Als
Beispiel sei die Genomsequenzierung genannt. Das National Human Genome Re-
search Institute veröffentlichte Daten über die Kosten im zeitlichen Verlauf. Wäh-
rend sich die Kosten für eine Gesamt-Genomanalyse im Jahre 2001 auf 100 Mio.
Dollar beliefen, betrugen diese in 2015 „nur“ noch 1000 Dollar.21 Dies ist wesent-
lich der medizintechnischen Weiterentwicklung zu verdanken, wodurch die Auto-
matisierung zahlreicher Prozesse ermöglicht wurde.
Insbesondere in der Onkologie mag dies von großer Bedeutung sein. Durch
die Genomanalyse aus im Blut zirkulierenden Tumorzellen (Liquid Biopsy) wird
es möglich sein, einen malignen Tumor besser klassifizieren und therapieren zu
können. Erfolgversprechende Daten liegen bereits für das Prostatakarzinom vor.22
In Anbetracht der Kosten wäre eine solche Untersuchung trotz ihrer Verfügbar-
keit vor zehn Jahren nicht oder nur sehr schwerlich denkbar gewesen. Die Belastung
einer Solidargemeinschaft, welche für die Kosten des Gesundheitssystems aufzu-
kommen hat, muss daher in gleicher Weise berücksichtigt werden, wie die tatsäch-
liche Verfügbarkeit von Medizintechnik bzw. deren Vorhandensein in „adäquater“
Nähe zum Patienten, was die „realistische“ Erreichbarkeit im klinischen Alltag meint.
Wichtigste Einflussgröße (als limitierender Faktor) ist schließlich der Patient
selbst. Ich möchte dieses Kapitel unter folgenden Aspekten betrachten: Der Patient will
nicht, kann nicht, und/oder soll bzw. darf nicht Nutznießer von Medizintechnik werden.
20 Hentschel, Klaus: Kostenfalle Apparatemedizin. In: Die freie Welt, 6.8.2014, http://www.
freiewelt.net/blog/kostenfalle-apparatemedizin-10038603/ (Zugriff am: 16.11.2016).
21 National Human Genome Research Institute. DNA Sequencing Costs: Data. Veröffentlichung:
24.5.2016, http://www.vis.uni-stuttgart.de/plain/vdl/vdl_upload/102_33_v1-medBildgebung.
pdf (Zugriff am: 16.11.2016).
22 vgl. Schlomm, Thorsten: Vortrag „Welche Bedeutung hat die Genetik bei urologischen Tumo-
ren, Schwerpunkt PCa“. 11. Uroonkologisches Symposium, Benediktinerabtei Weltenburg,
Kelheim, 11.–12.11.2016; sowie: Xia, Shu; Kohli, Manish; Du, Meijun; Dittmar, Rachel L.;
Lee, Adam; Nandy, Debashis; Yuan, Tiezheng; Guo, Yongchen; Wang, Yuan; Tschannen, Mi-
chael R.; Worthey, Elizabeth; Jacob, Howard; See, William; Kilari, Deepak; Wang, Xuexia;
Hovey, Raymond L.; Huang, Chiang Ching; Wang, Liang: Plasma genetic and genomic abnor-
malities predict treatment response and clinical outcome in advanced prostate cancer. Oncotar-
get 2015; 6: pp. 16411–16421.
Warum Medizintechnik nicht für alle da sein kann 185
(2) Die Wirksamkeit der Einwilligung setzt voraus, dass der Patient oder im Fall des Absatzes 1
Satz 2 der zur Einwilligung Berechtigte vor der Einwilligung nach Maßgabe von § 630e Absatz
1 bis 4 aufgeklärt worden ist.
(3) Die Einwilligung kann jederzeit und ohne Angabe von Gründen formlos widerrufen
werden.“24
Zunächst ist es denkbar, dass Patienten eine bestimmte Medizintechnik nicht in An-
spruch nehmen können, da die Grunderkrankung ihren Einsatz nicht zulässt. Es gibt
Situationen, in denen im individuellen Fall die entsprechende medizinische Indika-
tion nicht vorliegt. So kann beispielsweise bei Patienten mit einem bösartigen Tumor
der Nieren (Nierenzellkarzinom) keine Strahlentherapie des Primärtumors angeboten
werden. Der Tumor zeigt keine Strahlensensibilität, so dass der Einsatz dieser hoch-
modernen Technik für diesen Tumor ungeeignet ist. Allzu häufig stellen sich auch
Patienten – „vorgebildet“ durch das Internet – vor und formulieren den detaillierten
Wunsch für eine bestimmte Medizin- oder Operationstechnik (explizierter Patien-
tenwille). Nicht wenige Patientinnen mit Harninkontinenz äußern beispielswiese die
Bitte zur Implantation eines suburethralen Bandes (Inkontinenzbandes) oder (selte-
ner) eines künstlichen Schließmuskels. Nach gründlicher Evaluation und Untersu-
23 Deutscher Bundestag: Gesetz zur Verbesserung der Rechte von Patientinnen und Patienten
vom 20. Februar 2013. Bundesgesetzblatt, Jahrgang 2013, Teil I, Nr. 9, ausgegeben zu Bonn
am 25. Februar 2013. http://www.bundesaerztekammer.de/fileadmin/user_upload/downloads/
Patientenrechtegesetz_BGBl.pdf
24 ebd.
186 Thomas Bschleipfer
chung stellt sich jedoch häufig heraus, dass nicht wie angenommen eine Belastungs-
inkontinenz (Urinverlusten beim Husten, Niesen …), sondern eine Dranginkontinenz
(unwillkürliche Kontraktionen der Blase mit Urinverlust) vorliegt. Die Implantation
eines Bandes bzw. eines artifiziellen Sphinkters würde demnach zu einer Befundag-
gravation und nicht zu einer Besserung führen. Durch Darlegung der Pathophysiolo-
gie und durch ausführliche Besprechung von Befunden und Indikationen muss den
Patienten erklärlich gemacht werden, dass sie einer bestimmten Technik nicht zuge-
führt werden können. In diesen Fällen fehlt die medizinische Indikation und Sinnhaf-
tigkeit für ein Verfahren. Meist existieren jedoch entsprechende Alternativen.
Bestimmte medizintechnische Verfahren können bei Patienten auch nicht zur
Anwendung kommen, sofern Kontraindikationen vorliegen. Liegt bei einer Patientin
beispielsweise ein lokal weit fortgeschrittenes Zervixkarzinom (maligner Tumor des
Gebärmutterhalses) vor (FIGO IV A) mit bestehenden Infiltrationen der Harnblase
oder des Rektums, so kann diesen Patienten keine Strahlentherapie mehr angeboten
werden. Die Gefahr von rekto- oder zystovaginalen Fisteln ist deutlich erhöht, so dass
der Einsatz einer Radiotherapie als kontraindiziert anzusehen ist.25 Ein weiteres Bei-
spiel sei die Implantation eines Blasenschrittmacher (sakrale Neuromodulation S3)
bei Patienten mit multipler Sklerose und der Notwendigkeit zu regelmäßigen Kern-
spinuntersuchungen des zentralen Nervensystems, insbesondere des Rückenmarks.
Aktuell existieren keine Schrittmacher, welche kernspintauglich sind. Somit bleibt
Patienten, die zwingend oben genannte Bildgebung zur Verlaufsdiagnostik ihrer Er-
krankung benötigen, die Implantation eines solchen Blasenschrittmachers verwehrt.
Neben der Grunderkrankung ist häufig eine schwere Nebenerkrankung oder die
Multimorbidität (insbesondere älterer Patienten) limitierender Faktor für den Ein-
satz moderner Medizintechnik. In den letzten Jahren hat die „roboter-assistierte“
Chirurgie (DaVinci®, Fa. Intuitive Surgical) in zahlreichen Fachgebieten und bei
zahlreichen Indikationen Einzug gehalten. Operationen im kleinen Becken sind
häufig mit einer Trendelenburg-Lagerung (Kopftieflage) verbunden. Für die robo-
ter-assistierte Prostatektomie beim Mann werden hierbei 25°–35°, für Beckenbo-
denrekonstruktionen der Frau (z. B. Sakrokolpopexie) 30–40° gewählt. Bisweilen
wurden auch Lagerungen bis 45° beschrieben. Diese Kopftielflagerung ist assozi-
iert mit einem Anstieg des Hirndrucks und des Augeninnendrucks. Ferner zeichnet
sich eine erschwerte Belüftung der Lungen ab. Die Lungencompliance (Weitbar-
keit) wird z. T. bis zur Hälfte reduziert. Ebenfalls wird eine Ischämie der unteren
Extremitäten beschrieben mit dem Risiko eines Kompartmentsyndroms.26 „Most
vulnerable to the head-down extreme position are the cardiac, respiratory, and cen-
tral nervous systems.“27
Aus diesem Grund bestehen für verschiedene Patienten (relative) Kontraindi-
kationen für den Einsatz eines Roboters bei Operationen mit notwendiger Tren-
delenburg-Lagerung. Hierzu zählen beispielsweise Patienten mit deutlicher Adi-
positas (BMI > 30), Lungenerkrankungen, gastroösophagealem Reflux, erhöhtem
Aspirationsrisiko und Augenerkrankungen mit Gefahr der Retinaablösung.28
Die Liste weiterer Beispiele ist lang und betrifft somit zahlreiche Patienten und In-
dikationen. Patienten mit Kontrastmittelallergie oder Niereninsuffizienz können häu-
fig keiner Bildgebung mit Kontrastmittelgabe (KM-CT, KM-MRT) zugeführt werden.
Patienten, denen es nicht möglich ist, für längere Zeit zu liegen, können nicht bestrahlt
werden. Bei Patienten mit Koagulopathien, unbehandelten Gerinnungsstörungen,
Schwangerschaft oder unbehandeltem Hypertonus besteht für die Durchführung einer
ESWL (extrakorporalen Stoßwellentherapie von Nierensteinen) eine Kontraindika-
tion. Vielfach handelt es sich jedoch um relative Kontraindikationen, so dass Nutzen,
Risiko und Praktikabilität für jeden Patienten individuell abgewogen werden müssen.
Vorstellbar sind auch Szenarien, bei welchen ein Eingriff nicht durchgeführt
werden kann, da die (peri- und) postoperative Nachbehandlung bzw. Nachsorge
nicht gewährleistet ist. Man stelle sich vor, ein Patient mit Parkinsonerkrankung
oder Epilepsie wird vorgestellt zur Implantation einer tiefen Hirnstimulation (THS).
Der Patient sei asylsuchend, jedoch ohne vorliegende Aufenthaltsgenehmigung mit
der Gefahr der Abschiebung. In diesem Falle könnte – abgesehen von allen kosten-
technischen Aspekten – auch bei korrekter Indikationsstellung obiger Eingriff nicht
durchgeführt werden, da die Nachsorge des Patienten nicht gewährleistet ist: „In den
ersten Monaten nach dem operativen Eingriff muss der Patient im Normalfall häufig
seinen Arzt aufsuchen, um die Stimulation zu optimieren und die Medikamenten-
einnahme zu titrieren. Später wird ein Wiedervorstellungsschema (alle 3–6 Monate)
gewählt, das regelmäßige Vorstellungen beim behandelnden Arzt vorsieht, um den
Status der Erkrankung zu überwachen und die Stimulation bei Bedarf anzupassen.“29
Der Erfolg eines medizintechnischen Verfahrens hängt somit nicht allein vom
Vorhandensein, der Machbarkeit und korrekten Indikation ab, sondern auch von der
häufig damit unabdingbar verbundenen Nachkontrolle und Nachsorge.
Zuletzt seien nicht-medizinische Gründe genannt, weshalb Patienten möglicher-
weise ein medizintechnisches Verfahren nicht in Anspruch nehmen können. Hierzu
Nitin; Mitra, Sukanya; Silasi, Dan; Urman, Richard D.: Anesthetic considerations in robotic-
assisted gynecologic surgery. The Ochsner Journal 2013; 13, pp. 517–524.
27 Sener, Alp; Chew, Ben H.; Duvdevani; Mordechai; Brock, Gerald B.; Vilos, George A.; Pautler:
Stephen E.: Combined transurethral and laparoscopic partial cystectomy and robot-assisted
bladder repair for the treatment of bladder endometrioma. Journal of Minimally Invasive Gyne-
cology, June 2006; 13, 3, p. 245.
28 vgl. Rosenblum, a. a. O.; sowie: Gilfrich, Christian; Brookman-May, Sabine; May, Matthias;
Lebentrau, Steffen: Die roboterassistierte radikale Prostatektomie. Urologie Scan 2014; 1:
S. 49–68.
29 Medtronic. Tiefe Hirnstimulation. Veröffentlichung: 26.03.2013, http://www.medtronic.de/
fachkreise/produkte-therapien/neurologie-schmerztherapie/therapien/tiefe-hirnstimulation/
nachsorge/index.htm (Zugriff am: 19.11.2016).
188 Thomas Bschleipfer
Warum sollte ein Patient eine medizintechnische Leistung nicht erhalten dürfen?
„Nicht zu dürfen“ bedeutet, keine Erlaubnis zu haben. Somit liegt vor, dass an-
dere Personen als der Patient eine Erlaubnis für den Zugang zu medizintechnischen
Leistungen verwehren. Vorstellbar ist dies bei Patienten mit weit fortgeschrittenem
Tumorleiden „am Ende ihres Weges“. Bei Eintreten eines Herzstillstandes oder an-
Die ethischen Aspekte zum Thema „Medizintechnik“ umfassen deutlich mehr als
die alleinige Betrachtung von deren Verfügbarkeit und Zugänglichkeit. Im Folgen-
den werfe ich vier Fragen auf, über die es sich kritisch nachzudenken lohnt:
• Machen wir mehr, als wir können sollten?
Eine Frage nach der Anwendung von Medizintechnik über das Notwendige
hinaus im Spannungsfeld Medizin versus Ökonomie.
• Wir machen, was wir können, aber können wir auch, was wir machen?
Eine Frage nach der Qualität und den Limitationen in Medizin und Medizin-
technik.
• Müssen wir machen, was wir können? Brauchen wir all die Medizintechnik,
die wir haben?
Die Frage nach der Notwendigkeit der zur Verfügung stehenden Medizin-
technik und ihres Mehrwerts für Patienten, Gesundheitssystem und Industrie
• Müssen wir immer mehr machen?
Die Frage nach dem Leistungsprinzip in der Marktwirtschaft, Stichwort
„Zum Wachstum und technischen Fortschritt verdammt“.
Warum Medizintechnik nicht für alle da sein kann 191
LITERATUR
Albers, P.; Albrecht, W.; Algaba, F.; Bokemeyer, C.; Cohn-Cedermark, G., Fizazi, K.; Horwich, A.;
Laguna, M. P.; Nicolai, N.; Oldenburg, J.: EAU Guidelines on Testicular Cancer. European
Association of Urology, 2016; S. 1–48.
Albrecht, Walter: Vortrag „Hodenkarzinom: Neues in der Leitlinienorientierten Therapie“. 11.
Uroonkologisches Symposium, Benediktinerabtei Weltenburg, Kelheim, 11.–12.11.2016.
Artikel „Medizintechnik“. In Wikipedia, https://de.wikipedia.org/w/index.php?title=Medizintechnik
&oldid=158229517 (Zugriff am: 8.11.2016).
Artikel „Wearable Computing“. In: Wikipedia, https://de.wikipedia.org/w/index.php?title=Wearable_
Computing&oldid=154601583 (Zugriff am: 14.11.2016).
Bschleipfer, Thomas: Ethik einer Krisenmedizin. Kritische Analyse bereichsspezifischer Dilem-
mata: Ressourcenallokation, Instrumentalisierung und Doppelloyalität. BTU Cottbus,
25.10.2007, https://opus4.kobv.de/opus4-btu/frontdoor/index/index/docId/346 (Zugriff am:
16.11.2016).
Bschleipfer, Thomas; Kornwachs, Klaus: Militärische Einsatzmedizin – Ethische Dilemmata. In:
Deutsches Ärzteblatt 2010; 107(30): S. 1448–1450.
Deutscher Bundestag: Gesetz zur Verbesserung der Rechte von Patientinnen und Patienten vom
20. Februar 2013. Bundesgesetzblatt, Jahrgang 2013, Teil I, Nr. 9, ausgegeben zu Bonn am
25. Februar 2013. http://www.bundesaerztekammer.de/fileadmin/user_upload/downloads/
Patientenrechtegesetz_BGBl.pdf
Deutscher Bundestag – 15. Wahlperiode: Entwurf eines Gesetzes zur Modernisierung der gesetzli-
chen Krankenversicherung (GKV-Modernisierungsgesetz – GMG). Drucksache 15/1525,
8.9.2003, http://dipbt.bundestag.de/doc/btd/15/015/1501525.pdf.
dpa / aerzteblatt.de: Niedersachsen: Techniker Krankenkasse will Zentralisierung von Krankenhäu-
sern. Veröffentlichung: 29.10.2014, http://www.aerzteblatt.de/nachrichten/60667 (Zugriff am:
15.11.2016).
European Renal Association – European Dialysis and Transplant Association. Evaluation, selection
and preparation of the potential transplant recipient. Nephrology Dialysis Transplantation,
2000; 15 [Suppl. 7]: pp. 3–38.
EZSurgical, Clinical Intro: Risks of Trendelenburg Position in Surgery. Veröffentlichung: 2016.
http://www.ezsurgical.com/Files/Trendelenburg%20Risks_Short%20Intro.pdf.
Fink, Hans-Juergen: Roboter im Einsatz: Da Vinci operiert in 3-D. Hamburger Abendblatt, 19.4.2011,
http://www.abendblatt.de/ratgeber/gesundheit/article108002567/Roboter-im-Einsatz-Da-Vinci-
operiert-in-3-D.html (Zugriff am: 19.11.2016).
Gilfrich, Christian; Brookman-May, Sabine; May, Matthias; Lebentrau, Steffen: Die roboterassis-
tierte radikale Prostatektomie. Urologie Scan 2014; 1: S. 49–68.
Hentschel, Klaus: Kostenfalle Apparatemedizin. In: Die freie Welt, 6.8.2014, http://www.freiewelt.
net/blog/kostenfalle-apparatemedizin-10038603/ (Zugriff am: 16.11.2016).
Imec, Jan Provoost: Wearables für die Gesundheit. In: Medizin und Technik, 8.6.2015, http://
medizin-und-technik.industrie.de/allgemein/wearables-fuer-die-gesundheit/ (Zugriff am:
14.11.2016).
Kaye, Alan D.; Vadivelu, Nalini; Ahuja, Nitin; Mitra, Sukanya; Silasi, Dan; Urman, Richard D.:
Anesthetic considerations in robotic-assisted gynecologic surgery. The Ochsner Journal 2013;
13, pp. 517–524.
Klinik für Strahlentherapie und Radioonkologie, Universitätsklinikum Leipzig: Zervixkarzinom.
Veröffentlichung: 2.5.2016. http://radioonkologie.uniklinikum-leipzig.de/radioonko.site,postext,
therapiekonzepte,a_id,1043.html (Zugriff am: 18.11.2016).
Kornwachs, Klaus: Das Prinzip der Bedingungserhaltung. Eine ethische Studie. Münster 2000.
S. 47 ff. u. S. 60 ff.
Krüger-Brand, Heike E.: Medizintechnik: „Made in Germany“ ist gefragt. In: Deutsches Ärzteblatt
2007; 104(45): S. 10
192 Thomas Bschleipfer
Walter Glöckle
Die Habilitationsschrift „Offene Systeme und die Frage nach der Information“ von
Klaus Kornwachs befasst sich mit dem Systembegriff, der Beschreibung von Systemen
und dem Zusammenhang von System und Information. Zum Systembegriff wird dort
einleitend ausgeführt: „Zunächst ist festzuhalten, daß das ‚System‘ kein Gegenstand
der Erfahrung ist, sondern eine Konstruktion, und zwar in der Form einer Beschrei-
bung, deren Regeln im allgemeinen stark mathematisiert sind. Das System besteht in
der Systematisierung bestimmter Sachverhalte, darunter fallen auch Eigenschaften von
Gegenständen, im Rahmen einer dem Gegenstandsbereich adäquaten Theorie ange-
sichts bestimmter Probleme und Interessen. Daraus folgen zwei wichtige Unterschei-
dungen. Erstens: Die Beschreibung eines Problems im Rahmen der Systemtheorie er-
setzt weder das empirische Wissen um, noch die Theorie über den Gegenstandsbereich.
Zweitens: Was noch zum System gehört und was nicht, d. h. die Abgrenzung zwischen
‚Umwelt‘ und ‚System‘, ist nicht theorieimmanent ableitbar, sondern ausschließlich an
das Erkenntnis- und Verwertungsinteresse des Systemdefinierers gebunden.“1
In Vorträgen und Vorlesungen zur allgemeinen Systemtheorie hat Klaus Korn-
wachs die beiden Grundsätze oftmals folgendermaßen prägnant ausgedrückt:
1. Die Systemtheorie erfindet nichts, sie plaudert nur aus.
2. Jedes System hat einen Autor.
Dieser Beitrag hat den soziotechnischen Systemansatz in der atomrechtlichen Auf-
sicht, d. h. bei der staatlichen Überwachung der Atomkraftwerke und anderen kern-
technischen Anlagen, zum Thema. Dabei wird besonders auf die Intension (Was
will der Autor bezwecken? Warum wird der Systemansatz gewählt?) und den Nut-
zen (Was wird deutlich? Was „plaudert“ der Systemansatz aus?) eingegangen.
SOZIOTECHNISCHES SYSTEM
Studien des Londoner Travistock Institute befassten sich Anfang der 1960er Jahre
mit technischen und arbeitsorganisatorischen Verbesserungen im britischen Kohle-
bergbau. Sie analysierten, warum Verbesserungen nicht die erwarteten Wirkungen
erzielten.2 So nahm trotz verbesserter Technologie die Produktivität ab. Die Ursache
1 Kornwachs, Klaus: Offene Systeme und die Frage nach der Information. Stuttgart 1987. S. 17.
2 Trist, Eric; Bamforth, Ken: Some Social and Psychological Consequences of the Longwall
Method of Coal-Getting. An Examination of the Psychological Situation and Defences of a
194 Walter Glöckle
hierfür sahen die Autoren darin, dass bei der technischen Verbesserung die sozialen
Aspekte nicht beachtet worden waren, beispielsweise wie die Bergleute in Gruppen
zusammenarbeiten, wie Verantwortung wahrgenommen wird oder wie die Arbeit von
der Gruppe selbst organisiert wird. Die Autoren prägten den Begriff „soziotechni-
sches System“, um deutlich zu machen, dass die Interaktionen zwischen Personen
und Technik an Arbeitsplätzen eine entscheidende Rolle spielen. Die grundlegende
Erkenntnis war: Eine Anpassung im Sinne einer Optimierung der Mensch-Maschine-
Schnittstelle ist in komplexen Organisationen unzureichend. Vielmehr ist die wech-
selseitige Abhängigkeit von sozialen und technischen Aspekten zu beachten.
In der Kerntechnik wurden seit der Errichtung von kommerziellen Atomkraft-
werken Anforderungen an die Technik (mehrfache Barrieren, spezielle mehrfach
vorhandene Sicherheitssysteme zur Störfallbeherrschung u. a.), an die Beschäftig-
ten (Fachkunde, Zuverlässigkeit u. a.) und an die Organisation (Betriebsvorschrif-
ten, Verantwortlichkeiten u. a.) zur Gewährleistung einer hohen Sicherheit gestellt.
Die Teil-Systeme Mensch, Technik und Organisation wurden jedoch relativ un-
abhängig voneinander betrachtet. Erst der katastrophale Unfall im Atomkraftwerk
Tschernobyl 1986 hat bewirkt, dass ein Atomkraftwerk als soziotechnisches Sys-
tem verstanden wurde – ein soziotechnisches System, das als „offenes System“
in Wechselwirkung mit dem politischen, wirtschaftlichen und gesellschaftlichen
Umfeld steht. Die vertiefte Analyse auch kleinerer Vorfälle gewann in der Folgezeit
zunehmend an Bedeutung. In diesen Ereignisanalysen werden das Zusammenwir-
ken von Technik, Individuum, Gruppe, Organisation und Organisationsumfeld de-
tailliert untersucht und Verbesserungen abgeleitet.3
Nach dem Reaktorunfall in Tschernobyl hat sich der Begriff „Sicherheits-
kultur“ eingebürgert. Dieser Begriff erlaubte zunächst die dort zutage getretenen
Schwächen wie mangelnde hinterfragende Grundhaltung und mangelndes sicher-
heitsgerichtetes Vorgehen mit einem Schlagwort zu versehen. Später verdeutlichte
die Verbindung der Sicherheitskultur mit der Organisationskultur, dass über die
personell-organisatorischen Vorkehrungen hinaus Werte und Grundeinstellungen
eine Organisation und das Verhalten der Personen in ihr prägen.4
Im Hinblick auf die personell-organisatorischen Vorkehrungen und Maßnahmen
sind die regulatorischen Anforderungen in Deutschland schrittweise ausgebaut wor-
den. Ursprüngliche Anforderungen an die Qualitätssicherung wurden durch Anfor-
derungen an ein Qualitätsmanagementsystem ersetzt. Später traten Anforderungen
an ein Sicherheitsmanagementsystem hinzu. Mit der Regel 1402 sind im Jahr 2012
schließlich Anforderungen an ein prozessorientiertes integriertes Managementsys-
tem im Regelwerk des Kerntechnischen Ausschusses (KTA)5 festgelegt worden. Das
Wechselspiel zwischen Managementsystem, das eine ausgeprägte Sicherheitskultur
Work Group in Relation to the Social Structure and Technological Content of the Work System.
In: Human Relations,1951 (4), S. 3.
3 Fahlbruch, Babette; Miller, Rainer; Wilpert, Bernhard: Sicherheit durch organisationales Ler-
nen. Das Lernen aus Ereignissen und Beinahe-Ereignissen. In: atw, Internationale Zeitschrift
für Kernenergie, 43. Jg., November 1998, S. 699.
4 vgl. Schein, Edgar H.: Organizational culture and leadership. New York 2004(3).
5 Kerntechnischer Ausschuss: Bekanntmachung von sicherheitstechnischen Regeln des Kern-
Soziotechnischer Systemansatz in der Atomaufsicht 195
unterstützen soll, und Sicherheitskultur, die das Managementsystem mit Leben füllt,
ist Gegenstand aktueller wissenschaftlicher Arbeiten und Fachdiskussionen.6
ATOMAUFSICHT
Die Bedeutung des Zusammenwirkens von sozialem und technischem System für die
Sicherheit einer kerntechnischen Anlage muss sich auch in der Überwachung dieser
Anlagen widerspiegeln. Die atomrechtliche Aufsichtsbehörde in Baden-Württemberg
hat mit der in den Jahren 1997 und 1998 entwickelten Aufsichtskonzeption den sozio-
technischen Systemansatz konsequent in ihre Aufsicht einbezogen.7 Die Aufsichts-
konzeption legt dar, wie und in welchen Feldern sich die Untersysteme „Mensch“,
„Technik“ und „Organisation“ im Hinblick auf die Sicherheit gegenseitig beeinflus-
sen und wie die Aufsichtsbehörde das Zusammenwirken und die Schnittstellen ange-
messen überwachen kann. Sie lenkt zudem den Blick auf die äußeren Einflüsse, die
auf das soziotechnische System „Atomkraftwerk“ einwirken. Neben dem Mutterkon-
zern, Lieferanten, Politik und Öffentlichkeit ist die Atomaufsicht selbst ein wichtiger
Einflussfaktor. Dieses Einflusses sollte sich die Aufsichtsbehörde bewusst sein. Sie
sollte bei ihrem Handeln darauf zu achten, dass sie ihren Einfluss soweit wie möglich
zur Aufrechterhaltung und weiteren Verbesserung der Sicherheit einsetzt.
Aufbauend auf der Aufsichtskonzeption hat die Aufsichtsbehörde die verschiede-
nen bereits praktizierten Kontroll- und Prüfverfahren überarbeitet. Sie wurden dahin-
gehend erweitert, dass die Schnittstellen zwischen den Untersystemen angemessen
einbezogen sind. Vor allem bei den stärker technisch orientierten Kontrollen, sei es
im Bereich des Strahlenschutzes oder der Anlagentechnik, hat die Aufsichtsbehörde
die organisatorischen Regelungen sowie das Personalverhalten bei Bedienung, In-
standhaltung oder Überwachung in die Kontrollen integriert. Darüber hinaus hat sie
ergänzende Prüfverfahren entwickelt und implementiert, die sich beispielsweise mit
der Ereignisanalyse, der Personalausstattung, der Personalplanung und dem Manage-
mentsystem befassen. Die Reflexion des behördlichen Einflusses auf den Anlagen-
betreiber wurde als ein Inhalt des Prüfverfahrens „Gespräche auf Führungsebene“
und somit als behördliche Aufgabe verankert. Auch die Sicherheitskultur wurde aus-
drücklich als Gegenstand der behördlichen Aufsicht festgelegt. Mit verschiedenen
Methoden achtet die Aufsichtsbehörde seitdem auf Erkenntnisse und Eindrücke, die
als Indizien für eine nachlassende Sicherheitskultur gewertet werden können, und
gibt Impulse zur Weiterentwicklung und Stärkung der Sicherheitskultur.8
Eine zusätzliche Vertiefung hat die Aufsicht über die Sicherheitskultur beim
AKW-Betreiber durch die Einführung des in der baden-württembergischen Aufsichts-
behörde entwickelten „Katalogs zur Erfassung organisationaler und menschlicher
Faktoren bei der Aufsicht vor Ort“ (KOMFORT) im Jahr 2005 erfahren.9 Mit diesem
Tool sammelt die Behörde während ihrer Aufsichtstätigkeiten in den Atomkraftwer-
ken „nebenbei“ Eindrücke zu verschiedenen Aspekten der Sicherheitskultur wie „Be-
folgen von Vorschriften“, „Sauberkeit, Ordnung und Pflege der Anlage“, „Kenntnisse
und Kompetenzen“, „Arbeitsbelastung“, „Wahrnehmen von Führungsaufgaben“,
„Umgang mit der Behörde“, „Betriebsklima“ u. a. Die Eindrücke werden in einer
vierstufigen Skala („vorbildlich“, „in Ordnung“, „nicht in Ordnung“, „mangelhaft“)
bewertet. Da Einzelwahrnehmungen keine Rückschlüsse auf die Sicherheitskultur als
Ganzes erlauben, erfolgt eine jährliche Auswertung der vielen, über das Jahr hinweg
vorgenommenen Bewertungen: Lassen sich Häufungen erkennen, die eine gemein-
same Ursache haben können? Gibt es über mehrere Jahre betrachtet Trends, die auf
eine Veränderung der „Kultur“ hindeuten? Solche übergeordnete Feststellungen oder
Hinweise greift die Aufsichtsbehörde auf, indem sie ihre Erkenntnisse und Bewertun-
gen den Verantwortlichen auf der Betreiberseite „zurückspiegelt“, mit deren Erkennt-
nissen und Bewertungen vergleicht und ggf. Maßnahmen einfordert.
Die rechtliche Grundlage für eine verstärkte Aufsicht im personell-organisato-
rischen Bereich bilden in Baden-Württemberg nachträgliche Auflagen, die im Jahr
2003 erlassenen wurden. Diese legen Pflichten des Genehmigungsinhabers im Hin-
blick auf die Einführung und Weiterentwicklung eines Sicherheitsmanagementsys-
tems, die Förderung und Selbstbewertung der Sicherheitskultur, die Berichterstattung
zur Personalausstattung und Personalplanung sowie die Anforderungen an Organi-
sationsänderungen fest. In der Folge wurden mit der Regel 1402 des KTA derartige
Anforderungen an den Betrieb von Atomkraftwerken bundesweit detailliert festge-
schrieben. Damit wurden zugleich eine Basis und ein Bewertungsmaßstab für die be-
hördlichen Kontrollen des soziotechnischen Systems „Atomkraftwerk“ geschaffen.
ZIELSETZUNG
Die einer Systembeschreibung zugrundeliegende Intension lässt sich mit den Ver-
ben „betrachten“, „prognostizieren“ und „steuern“ umschreiben. Mit dem sozio-
technischen Systemansatz in der Atomaufsicht legt die Behörde das Aufsichtsobjekt
„Atomkraftwerk“ fest. Sie definiert, was der atomrechtlichen Aufsicht unterliegt
und was nicht. Nicht alles, was sich auf dem Betriebsgelände befindet oder dort
stattfindet, ist sicherheitsrelevant. Daher sind z. B. der Betrieb einer Kantine oder
eines Infozentrums, aber auch Systeme wie der Kühlturm nicht in das Aufsichtspro-
gramm aufgenommen. Umgekehrt wird die Aufteilung von Aufgaben und Verant-
wortlichkeiten in verschiedene Organisationseinheiten inzwischen als sicherheits-
behörde. In: atw Internationale Zeitschrift für Kernenergie, 45. Jg., Oktober 2000, S. 588.
9 Stammsen, Sebastian; Glöckle, Walter: Erfassen von Sicherheitskultur bei Anlageninspektionen.
Das KOMFORT-Aufsichtsinstrument der baden-württembergischen atomrechtlichen Aufsichts-
behörde. In: atw Internationale Zeitschrift für Kernenergie, 52. Jg., November 2007, S. 731.
Soziotechnischer Systemansatz in der Atomaufsicht 197
und damit als aufsichtsrelevant angesehen, was noch vor 20 Jahren als der Organi-
sationsfreiheit des Unternehmens vorbehalten betrachtet wurde. Die Aufbauorgani-
sation unterliegt inzwischen der Atomaufsicht, wodurch der Organisationsfreiheit
des Betreibers gewisse Schranken gesetzt sind. Die Einflüsse des Mutterkonzerns
und der Öffentlichkeit liegen außerhalb des Zugriffs durch die Aufsichtsbehörde, so
dass nicht diese Einflüsse selbst, sondern der Umgang des Genehmigungsinhabers
mit ihnen der atomrechtlichen Kontrolle unterliegt. Die präzise Umschreibung des
Aufsichtsgegenstandes dient der Transparenz des Behördenhandelns und ist zudem
eine Grundvoraussetzung für die erwünschte weitreichende Öffentlichkeitsbeteili-
gung in atomrechtlichen Verfahren.
Neben der Definition der Systemgrenzen nimmt die Aufsichtsbehörde mit der Sys-
tembeschreibung auch eine Gliederung des Systems in Subsysteme, Sub-Subsysteme
usw. vor. Darüber hinaus betrachtet sie auch die Schnittstellen zwischen den verschie-
denen Untersystemen und deren Zusammenwirken. Mit dem „Verstehen des System-
aufbaus“ bezweckt sie eine Systematisierung der behördlichen Kontrolle. Diese soll
möglichst passgenau die sicherheitsrelevanten Objektbereiche (Systemelemente) abde-
cken und „blinde Flecken“ vermeiden. Zugleich soll bei aller Differenzierung das Ganze
nicht aus dem Blick geraten und eine ganzheitliche Sichtweise zum Tragen kommen.
Die Aufsicht über ein Atomkraftwerk darf sich nicht darauf beschränken,
Abweichungen von Anforderungen, die in der Genehmigung oder in technischen
Regelwerken festgelegt sind, zu identifizieren. Vielmehr ist ein fachkundiges Be-
werten von festgestellten Sachverhalten nötig. Bedeutsam sind dabei insbesondere
das Prognostizieren des Systemverhaltens und das „Verstehen der Systemdyna-
mik“. Welche Konsequenzen für die Sicherheit ergeben sich, wenn der Betreiber
ein Beinahe-Ereignis nicht genügend tief analysiert, wenn er bei einer technischen
Änderung die Rückwirkung auf eine bestehende Komponente nicht ausreichend
betrachtet oder wenn er seine Betriebsvorschriften nicht an die in einer anderen
Anlage gewonnenen Erkenntnisse anpasst? Das fachkundige („prognostizierende“)
Verstehen erlaubt zudem, die beschränkten Ressourcen der staatlichen Aufsicht so
einzusetzen, dass sie möglichst wirkungsvoll sind.
Die dritte Stufe, das „Steuern“, kommt dann zum Tragen, wenn behördliches Ein-
greifen erforderlich ist. Die behördlichen Maßnahmen sollen entweder im Sinne von
Gefahrenabwehr unterbinden, dass Zustände mit erhöhter Gefährdung eintreten, oder im
Sinne der weiteren Erhöhung der Sicherheit dazu beitragen, dass Verbesserungen vorge-
nommen werden. Wie das oben angeführte Beispiel aus dem britischen Kohlebergbau
zeigt, ist dabei das gesamte soziotechnische System zu beachten. Sehr leicht können
sich punktuelle Verbesserungen im Gesamtsystem als „kontraproduktiv“ herausstellen.
Zum Betrachten, Prognostizieren und Steuern des soziotechnischen Systems
„Atomkraftwerk“ sind Fachkompetenzen nötig, die über ingenieur-technische
Kenntnisse hinausgehen. Mit ihren Bediensteten und Sachverständigen muss die
Aufsichtsbehörde auch arbeitswissenschaftliche, organisationswissenschaftliche,
juristische, psychologische und soziologische Themenfelder und speziell deren
Schnittstellen zu technischen Gegebenheiten kompetent abdecken. Das erfordert
entsprechend ausgebildetes Fachpersonal. Das bedingt aber auch, dass Fachleute
verschiedener Disziplinen eng zusammenarbeiten, offen sind für die Themen und
198 Walter Glöckle
Ansatzpunkte der anderen Fachbereiche und sich Kompetenzen über ihr eigenes
Spezialgebiet hinaus aneignen. Insofern zielt der soziotechnische Systemansatz
auch auf eine multidisziplinäre Aufsicht mit entsprechend kompetentem Personal.
Zusammenfassend liegt die Intension des „System-Autors“ darin, die Atomauf-
sicht zu stärken. Die mit dem soziotechnischen Systemansatz verbundene Systema-
tisierung und Neuausrichtung gab und gibt der Aufsichtsbehörde entscheidende Im-
pulse zur Erhöhung der Transparenz, Intensivierung der Wachsamkeit, Steigerung
der Durchsetzungsfähigkeit und Erweiterung der Kompetenz.
NUTZEN
Was „plaudert“ der Systemansatz aus? Allem voran steht die Grundaussage: Ein Atom-
kraftwerk ist keine Maschine – auch nicht eine sehr große. Die Anlagentechnik al-
lein wird dem komplexen System nicht gerecht. Ein Atomkraftwerk ist vielmehr ein
komplexes Gebilde, bei dem Mensch, Technik und Organisation zusammenwirken.
Dementsprechend ist bei der Sicherheitsüberwachung eine ganzheitliche Betrachtung
unerlässlich. Eine Aufsichtsbehörde und ihre Sachverständigenorganisationen müssen
sich mit technischen, psychologischen, arbeits- und organisationswissenschaftlichen
Gesichtspunkten befassen. Sie brauchen ingenieurtechnisches Personal, das die ver-
schiedenen Schnittstellen bei der Aufsicht abdeckt. Sie benötigen ebenso kompetentes
nicht-technisches Personal, das keine Berührungsängste mit der Technik hat und sich
der technischen Spezifika, insbesondere des hohen Gefährdungspotenzials, bewusst ist.
Eine zweite zentrale Aussage ist: Wie jedes komplexe System zeigt ein Atom-
kraftwerk Selbstorganisation und Autonomie. Lineare Reiz-Reaktion-Schemata
reichen nicht aus, um das Verhalten gegenüber äußeren Einflüssen zu verstehen.
Das System reagiert nicht bloß auf seine Umwelt, vielmehr besitzt es viele innere
Freiheitsgrade. Will die Aufsichtsbehörde Sicherheitsverbesserungen erreichen, tut
sie gut daran, die internen Potenziale und Kräfte des Systems zu nutzen. Anstatt
konkrete Maßnahmen zu fordern, sollte sie Ziele vorgeben und die Betreiberorga-
nisation selbst die Verbesserungsmaßnahmen entwickeln lassen. Damit wird der
größere Wissenspool des Betreiberpersonals genutzt. Zudem sind die Widerstände,
die sich jeder Neuerung entgegenstellen, geringer, wenn möglichst viele Beteiligte
bei der Entwicklung der Neuerung einbezogen sind.
Gezielt lässt sich das Potenzial der Betreiberorganisation nutzen, indem die Auf-
sicht die betreiberinternen Prozesse der Eigenüberwachung, Selbstüberprüfung und
Verbesserung nutzt. Die Kontrolle der Strahlenschutz-Organisation im Atomkraftwerk
ist effektiver als die Kontrolle einzelner Strahlenschutzmaßnahmen. Die behördliche
Vergewisserung über die Wirksamkeit des internen Auditsystems erlaubt eine breitere
Kontrolle als punktuelle behördeneigene Audits. Eine behördliche Fachdiskussion
beispielsweise mit dem Verantwortlichen für die Reaktorphysik kann bereits dadurch
Sicherheitsverbesserungen auslösen, dass die Position dieser Person mit seinen eige-
nen Verbesserungsvorschlägen innerhalb des Betreiberunternehmens gestärkt wird.
Das soziotechnisches System „Atomkraftwerk“ ist, wie schon mehrfach betont,
ein offenes System. Es steht im Austausch mit seiner Umwelt, mehr noch – und das
Soziotechnischer Systemansatz in der Atomaufsicht 199
ist die dritte zentrale Aussage – es passt sich dieser Umwelt an. Die politisch-ge-
sellschaftliche Diskussion um die Atomenergie beispielsweise geht nicht spurlos an
den Beschäftigten vorbei. Je mehr die Beschäftigten den Eindruck gewinnen, dass
sich diese Diskussion von einer rationalen Argumentation entfernt oder ihre Argu-
mente kein Gehör finden, umso mehr besteht die Gefahr des Rückzugs in internes
Gruppendenken. Abgrenzung und Feindbilder sind Folgen eines solchen Rückzugs.
Vergleichbares gilt in Bezug auf Strategien der Mutterkonzerne, denen zufolge die
Atomsparte als „schlechtes“ Geschäftsfeld ausgegliedert werden soll. Auch dies
kann von den Beschäftigten als Stigmatisierung empfunden werden und sich auf
deren Motivation und Arbeitsverhalten auswirken.
Eine andere Form der Adaption an die Umwelt kann die nur oberflächliche Er-
füllung einer Erwartungshaltung sein. Davor ist auch das Aufsichtsverhältnis nicht
gefeit. Eine Aufsichtsbehörde, die die Einhaltung von Vorschriften ins Zentrum ihres
Handelns stellt, muss damit rechnen, dass der Beaufsichtigte darauf angepasst re-
agiert. Er wird bei seinen Informationen jeweils die Sachverhalte in Verbindung mit
den einzuhaltenden Vorschriften bringen. Über seine Beurteilung der Sachverhalte
erfährt die Behörde dadurch wenig. Ein Streben nach Exzellenz, ein Streben, welches
über die Erfüllung der Anforderungen hinausgeht, wird damit nicht gefördert. Die
Aufsichtsbehörde kann das Sich-Einstellen des Systems auf die behördlichen Anfor-
derungen jedoch auch so gestalten, dass es der Sicherheitsverbesserung dient, z. B. in-
dem sie die Aufmerksamkeit auf entsprechende Fragestellungen lenkt oder bestimmte
Entwicklungen unterstützt. Zu solchen wünschenswerten Entwicklungen gehört auch
die Ausbildung und Aufrechterhaltung einer ausgeprägten Sicherheitskultur.
Komplexe Systeme zeigen Emergenzen. Die Organisationskultur, und als
Spezialfall davon die Sicherheitskultur, ist eine emergente Qualität eines sozio-
technischen Systems. Dieser weiteren Grundaussage entsprechend lässt sich die
Organisationskultur nicht an einzelnen Bestandteilen des Systems, seien es Einzel-
personen oder Gruppen, ablesen. Sie lässt sich schwer aus isolierten Beobachtun-
gen, Aussagen, Unterlagen etc. erschließen. Zudem ist Vorsicht geboten, wenn aus
einzelnen negativen Befunden auf Sicherheitskultur-Probleme geschlossen werden
soll. Dasselbe gilt auch für die umgekehrte Richtung: nicht jede Beseitigung einer
organisatorischen Schwäche ist zugleich eine Stärkung der Sicherheitskultur.
Wesentliche Änderungen einer Organisationskultur geschehen nicht von heute
auf morgen. Sie erfordern einen Zeitraum von Jahren, wenn nicht Jahrzehnten.
Die Entwicklung einer Kultur, in der wichtige Informationen und insbesondere Si-
cherheitsbedenken offen kommuniziert werden, die Fehler und Fehlleistungen als
Chance für Verbesserungen sieht und die die eigene Betriebserfahrung wie auch Er-
kenntnisse aus anderen Anlagen und Industrien für Optimierungen nutzt, ist für das
System „Atomkraftwerk“ nicht zum Nulltarif zu haben. Nicht selten ist eine Krise,
die bisherige, nicht mehr hinterfragte Auffassungen, Normen, Vorgehensweisen
u. a. in Frage stellt, zugleich eine Chance für eine Kulturänderung. Auf jeden Fall
sind Anstrengungen zur Entwicklung einer ausgeprägten Sicherheitskultur nötig,
die nicht nachlassen dürfen. Die jahrzehntelange Befassung hat in den deutschen
Atomkraftwerken zu einer Sicherheitskultur geführt, zu der andere soziotechnische
Systeme, beispielsweise im Gesundheitswesen, erst allmählich aufschließen.
200 Walter Glöckle
LITERATUR
Fahlbruch, Babette; Miller, Rainer; Wilpert, Bernhard: Sicherheit durch organisationales Lernen.
Das Lernen aus Ereignissen und Beinahe-Ereignissen. In: atw, Internationale Zeitschrift für
Kernenergie, 43. Jg., November 1998.
Keil, Dietmar; Glöckle, Walter: Sicherheitskultur im Wettbewerb – Erwartungen der Aufsichtsbe-
hörde. In: atw Internationale Zeitschrift für Kernenergie, 45. Jg., Oktober 2000.
Kerntechnischer Ausschuss: Bekanntmachung von sicherheitstechnischen Regeln des Kerntechni-
schen Ausschusses – Integriertes Managementsystem zum sicheren Betrieb von Kernkraftwer-
ken (KTA 1402). In: Bundesanzeiger Amtlicher Teil, 23.1.2013.
Kornwachs, Klaus: Offene Systeme und die Frage nach der Information. Stuttgart 1987.
Ministerium für Umwelt, Klima und Energiewirtschaft Baden-Württemberg: Konzeption für die staat-
liche Aufsicht über die baden-württembergischen Kernkraftwerke. URL: http://um.baden-
wuerttemberg.de/fileadmin/redaktion/m-um/intern/Dateien/Dokumente/3_Umwelt/Kernenergie/
Managementsystem_Abteilung/Konzeption_f%C3%BCr_die_staatliche_Aufsicht_%C3%BC
ber_die_ba-w%C3%BC_KKW.pdf (Stand: 28.1.2017).
Ritz, Frank: Betriebliches Sicherheitsmanagement. Aufbau und Entwicklung widerstandsfähiger
Arbeitssysteme. Stuttgart 2015.
Schein, Edgar H.: Organizational culture and leadership. New York 2004(3).
Stammsen, Sebastian; Glöckle, Walter: Erfassen von Sicherheitskultur bei Anlageninspektionen.
Das KOMFORT-Aufsichtsinstrument der baden-württembergischen atomrechtlichen Auf-
sichtsbehörde. In: atw Internationale Zeitschrift für Kernenergie, 52. Jg., November 2007.
Trist, Eric; Bamforth, Ken: Some Social and Psychological Consequences of the Longwall Method
of Coal-Getting. An Examination of the Psychological Situation and Defences of a Work Group
in Relation to the Social Structure and Technological Content of the Work System. In: Human
Relations,1951 (4).
VERANTWORTLICH FÜR DAS WISSEN
Ernst Peter Fischer
„Es gibt eine moralische Einsicht, der ich mich nicht habe entziehen können“, ver-
kündete der Physiker und Philosoph Carl Friedrich von Weizsäcker 1980 in einem
Vortrag, mit dem er „Rechenschaft über die eigene Rolle“ abgeben wollte, die er
bei der Entwicklung sowohl der Kernphysik als auch der Atombombe gespielt
hatte. Er betonte, nur um dieser moralischen Einsicht wegen „halte ich die heutige
Rede. Sie heißt in einem Satz zusammengedrängt: Die Wissenschaft ist für ihre
Folgen verantwortlich.“1
Ich vermute, dass dieser Satz die allgemeine Zustimmung des damaligen Pu-
blikums gefunden hat und dass er auch an dieser Stelle von vielen Lesern bereit-
willig und ohne Zögern akzeptiert wird. Mir erscheint die Formulierung trotzdem
fragwürdig, und ich stehe ihrer unverbindlichen Allgemeinheit eher skeptisch ge-
genüber. Auf der einen Seite ist der Satz trivial. Denn wenn die Folgen der Wissen-
schaft Luxus und Wohlergehen sind, wird niemand nach der Verantwortung fragen.
Und wenn die Folgen der Forschung Schäden und Probleme mit sich bringen, wie
kann eine Gesellschaft dann anders als mit wissenschaftlichen Mitteln darauf re-
agieren? Zur Wissenschaft gibt es – in abendländischen oder europäischen Kultur-
kreis jedenfalls – keine Alternative, und wenn überhaupt, dann kann man nur aus
ihren Reihen auf eine Antwort rechnen und damit von Verantwortung reden.
Auf der anderen Seite ist von Weizsäckers Formulierung genau genommen un-
zutreffend. Denn „die Wissenschaft“ – das ist keine Person, und nur Menschen kön-
nen moralische Verantwortung übernehmen. Sie tun dies – allgemein ausgedrückt
–, wenn sie erstens so gut wie möglich beurteilen, was die Konsequenzen ihrer
Handlungen sind, und wenn sie zweitens nach den dabei gewonnenen Einsichten
handeln. Da aber alle Wissenschaftler, die diesen Namen verdienen und keine Ver-
brechen im Sinn haben, wenigstens im Prinzip so vorgehen, wird von Weizsäckers
moralisch wirkender Satz wieder völlig selbstverständlich, und das eigentliche
Problem, die Bewertung der konkreten wissenschaftlichen Befunde und der daraus
sich ergebende Entschluss zum Handeln, kommt gar nicht erst in den Sinn.
Es bleibt zudem unklar, was „die Folgen“ sein sollen, für die „die Wissen-
schaft“ zuständig sein soll. Die Folgen der Tatsache, dass eine christlich-abend-
ländische Gesellschaft sich seit Hunderten von Jahren bei ihrem wirtschaftlichen
Schaffen auf die Wissenschaft verlässt, die spätestens im 19. Jahrhundert für Milli-
onen Menschen zum Beruf geworden ist, zeigen sich in den Möglichkeiten, die auf
diese Weise in die Welt gesetzt und dort kräftig umgesetzt werden. Bäcker liefern
Brötchen, und Wissenschaftler liefern Möglichkeiten, deren Nutzung weitgehende
Veränderungen nach sich ziehen, und zwar Veränderungen der Bedingungen, unter
denen Menschen in Gesellschaften leben, wie sie etwa in der europäischen Welt zu
finden sind, in der die moderne Wissenschaft im frühen 17. Jahrhundert geboren
wurde. Mit anderen Worten, die Folgen der Wissenschaft zeigen sich in der Ge-
schichte, und für die sind alle Menschen gemeinsam verantwortlich, auch wenn
sich viele Politiker und Ethiker an diesen Gedanken erst noch gewöhnen müssen
Dabei ist diese Einsicht nicht neu und spätestens seit dem Beginn des 19. Jahr-
hunderts bekannt, als verstanden wurde, dass Geschichte nicht etwas ist, das Men-
schen zustößt, sondern etwas, das sie zustande bringen. Wer bedenkt, dass im Jahre
1800 die erste Batterie Strom lieferte und 100 Jahre später die Haushalte elektri-
fiziert wurden, erkennt leicht, wie sehr die Folgen der Wissenschaft zum Leben
der Menschen gehören und es beeinflussen. Dieses Wissen gehört aber nicht zur
Bildung im Lande der Dichter und Denker, im dem viele Intellektuelle nur dann
von Technik und Naturwissenschaft reden, wenn sie davor warnen dürfen – ent-
weder im Fernsehen oder auf ihrem Laptop, die sie beide ebenso wenig wie die
Drucktechnik und das Papier hätten, wenn Ingenieure oder andere wissenschaftlich
tätige Menschen sie nicht ersonnen und angefertigt hätten. Dass Disziplinen wie
Physik, Chemie und Biologie etwas mit der Geschichte der menschlichen Gesell-
schaft zu tun haben, wirkt bis heute für viele Historiker verstörend oder fremd.
Sie kümmern sich lieber um militärische Aktionen oder geopolitische Strategien,
lassen den wissenschaftlichen Hintergrund unbeachtet und kommen gar nicht auf
die Idee zu fragen, warum man im 19. Jahrhundert damit begonnen hat, nach Öl zu
bohren und warum seitdem so viel von Energie die Rede ist. Tatsächlich wird in
den Geschichtsbüchern so getan, als ob die moderne Welt sowohl ohne die Fächer
auskommt, für die Nobelpreise vergeben werden – warum eigentlich dafür? –, als
auch ohne ihre Mitwirkung so geworden ist, wie wir sie erleben.
Mir scheint hier ein doppeltes Ungleichgewicht nach Ausgleich zu verlangen.
Geschichte kann man nicht ohne Beitrag der Wissenschaft verstehen, und die Wis-
senschaft kann viele ihrer Fragestellungen nicht in Angriff nehmen, wenn sie die
Geschichte ihrer Gegenstände nicht zur Kenntnis nimmt. Die Geschichte formt
die Wissenschaft, und die Wissenschaft formt die Geschichte. Solch eine doppelte
Sicht ist charakteristisch für die Epoche, die Fachleute mit dem verlockenden Wort
„Romantik“ bezeichnen und in der auch der Philosoph Georg Wilhelm Friedrich
Hegel lebte, der in der Geschichte mehr als eine Folge von Ereignissen sah, die in
Chroniken festgehalten werden. Geschichte findet nicht statt, Geschichte wird ge-
macht, und zwar in Europa mit den Mittel der Wissenschaft, für die dann alle Men-
schen zusammen verantwortlich sind, und nicht nur ein Teil von ihnen. Indem von
Weizsäcker die Gruppe der Forscher unter allen heraushebt, um ihnen die Schuld an
Fehlentwicklungen aufladen zu können, fällt er erstens hinter die Romantik zurück
und entbindet er zweitens die Nicht-Wissenschaftler – die Öffentlichkeit und die
Medien – von jeder Verantwortung. Er erteilt dem Publikum und seinen Bericht-
erstattern die Absolution. Das Ozonloch, das Wald- und Artensterben, der saure
Regen, der Unfall im Atomkraftwerk, die übereilten Versuche bei der Gentherapie –
dafür ist nun allein „die Wissenschaft“ verantwortlich. Die Öffentlichkeit kann sich
beruhigt zurücklehnen und mit dem Finger auf die Verantwortlichen zeigen, ohne
Verantwortlich für das Wissen 205
zu merken, dass drei Finger der ausgestreckten Hand auf sie selbst zurückweisen.
Man hat trotzdem nichts mit dem Klimawandel zu tun. Den machen die anderen
in Fabriken oder fernen Ländern. Man fühlt sich wohl bei dem Gedanken und ap-
plaudiert dem populistischen Satz des populären Philosophen, der den Menschen
die Verantwortung für das Wissen abnimmt und sie einer ungeliebten und schwer
verständlichen Instanz aufbürdet.
EINZELNE WISSENSCHAFTLER
Carl Friedrich von Weizsäcker hätte seinen gefährlich einlullenden Satz anders fas-
sen und sagen können: „Die Wissenschaftler sind für die Folgen ihres Tuns verant-
wortlich.“ Dann hätte sich am Einverständnis seiner Zuhörer nichts geändert. Aber
hätte die Behauptung damit mehr Bedeutung bekommen? Was ist im Einzelfall
gemeint, wenn gesagt wird, Forscher sind für die Folgen ihrer Entdeckung verant-
wortlich? Wofür soll zum Beispiel ein Astronom, der Sterne beobachtet und Him-
melskarten anfertigt, verantwortlich sein, außer für die Zuverlässigkeit und Voll-
ständigkeit seiner Protokolle? Und wieviel mehr Verantwortung übernimmt dem-
gegenüber eine Genetikerin, die nach einer Genvariante sucht, die für ihre Trägerin
mit großer Wahrscheinlichkeit Brustkrebs zur Folge hat? Ist sie zugleich auch für
die Hilflosigkeit verantwortlich, mit der die Öffentlichkeit auf das dann mögliche
Angebot reagiert, einen prädiktiven Gentest für Brustkrebs durchzuführen? Bleibt
ihr überhaupt eine Wahl? Lädt sie nicht mehr Verantwortung auf sich, wenn sie sich
entschließt, die Suche nach dem Brustkrebsgen einzustellen, weil sie meint, die
Gesellschaft könne mit diesem Wissen noch nicht umgehen?
War zum Beispiel Albert Einstein für seine weltberühmte Formel E = mc2 ver-
antwortlich, die preisgab, wieviel Energie in der Materie steckt? Die Gültigkeit
von Einsteins Formel wurde unübersehbar, als die erste Atombombe zündete. War
Einstein dafür verantwortlich? Immerhin hat er dem amerikanischen Präsidenten
Roosevelt geraten, sie zu bauen, bevor es die Deutschen für Hitler tun. Oder ist
vielmehr die westliche Gesellschaft für die Bombe verantwortlich, denn es waren
schließlich demokratisch gewählte Regierungen, die sie in Auftrag gegeben haben,
und es waren Angehörige der amerikanischen Armee, die das ganze Geschehen
organisiert und überwacht haben.
Die von Einstein abgeleitete Beziehung zwischen Masse und Energie war die
Folge seines Handelns, das ein Nachdenken über die Frage war, wie der Energie-
gehalt eines Körpers von seiner Trägheit abhängt. Es waren weltferne Fragen, mit
deren Hilfe Einstein seine berühmte Formel nicht gesucht, wohl aber gefunden hat,
und zwar zu einer Zeit, als er 26 Jahre alt und Angestellter an einem Patentamt
war. Niemand wird einen heutigen oder künftigen Einstein daran hindern können,
über esoterisch anmutende und meilenweit von jeder Anwendung entfernt schei-
nende Fragestellungen nachzudenken, und niemand kann garantieren, dass dabei
nicht ähnlich tiefgreifende Zusammenhänge erkennbar werden, die neben ihren
großen Einsichten auch große Risiken mit sich bringen. Als jüngstes Beispiel aus
dem 21. Jahrhundert kann die Arbeit zweier Genetikerinnen – Jennifer Doudna und
206 Ernst Peter Fischer
der dreißiger Jahre gemacht, wobei als Ziel vor allem Uran diente. Die Physiker
hofften dabei, die Neutronen würden eingefangen und auf diese Weise Elemente
herstellen, die größer als Uran waren („Transurane“). Sie wollten sehen, ob sol-
che künstlichen Produkte stabil bleiben. Es waren dann Chemiker wie Otto Hahn,
die zur allgemeinen Verblüffung feststellten, dass eher das Gegenteil passierte: Die
Neutronen zerteilten das Uran. Die Kernspaltung war entdeckt, und es war Lise
Meitner, die als erste verstand, woher die Energie kam, die für diesen Vorgang nötig
war, nämlich aus der Materie selbst, wie Einstein ganz zu Beginn und ganz ohne
Absicht gefunden hatte.
Die Geschichte wird jetzt schneller und gezielter entwickelt, vor allem, weil in-
zwischen Krieg herrscht – wofür ganz sicher kein Naturwissenschaftler verantwort-
lich ist. Wo könnte nun eine Stelle stecken, an der die skizzierte Entwicklung hätte
abbrechen können? Oder lässt sich nur sagen, wodurch sich das Böse endgültig
durchsetzte? Ich denke, dass die Antwort in dem Gedicht von Eugen Roth zu finden
ist, das die Überschrift „Das Böse“ trägt und zum Beispiel in der Sammlung zu fin-
den ist, in der all seine Verse enthalten sind, die erzählen, was „Ein Mensch“ macht:
Ein Mensch – was noch ganz ungefährlich –
Erklärt die Quanten (schwer erklärlich).
Ein zweiter, der das All durchspäht,
Erforscht die Relativität.
Es ist schwierig, etwas Gescheites über den Teufel zu sagen, und es ist erst recht
schwierig, etwas Vernünftiges über ihn zu schreiben. Zu groß sind die entsprechen-
den Figuren, die uns in der Literatur entgegentreten, bei Thomas Mann etwa oder
bei Goethe. Sein Teufel aus dem „Faust“ mit Namen Mephistopheles wird uns in
Kürze begegnen, und dabei wird auffallen, was ihn und seine Anhänger in den Tex-
ten auszeichnet, nämlich der hohe Grad von Rationalität. Teufel besitzen offenbar
eine Menge Verstand, und dieser Hinweis bringt die philosophische Frage wieder
208 Ernst Peter Fischer
auf den Tisch, die wissen will, wie die Menschen die Hervorbringungen ihrer ratio-
nalen Fähigkeiten – also ihre teuflischen Seiten – unter Kontrolle bekommen? Was
ist das Gegengewicht der Intelligenz, die in der Entwicklung von Wissenschaft und
Technik waltet?
Die bekannteste Antwort hat der Philosoph Karl Jaspers in seinem Buch „Die
Atombombe und die Zukunft des Menschen“ versucht, dessen erste Auflage 1958
erschienen ist. Er setzt voll und ganz auf die Vernunft: „An ihr hängt die Rettung“,
schreibt er, um hinzuzufügen, „ist die Vernunft im ganzen unwirksam und versagt
ihre Durchschlagskraft, dann scheint heute der Untergang die Folge“.2
Die meisten Menschen haben Jaspers damals Beifall gespendet, und die meis-
ten Menschen werden heute genau so handeln. Wir müssen wohl auf die Vernunft
setzen, obwohl wir oft und wiederholt von ihr enttäuscht worden sind. Aber ist
dies wirklich die einzige Instanz, die den Menschen bleibt? Oder hat jemand einen
anderen Vorschlag gemacht?
Die Antwort heißt „Ja“, auch wenn sie kaum zur Kenntnis genommen worden
ist. Sie stammt von dem Physiker Wolfgang Pauli, der zwar 1945 mit dem Nobel-
preis für seine Disziplin ausgezeichnet worden, der aber außerhalb seiner Wissen-
schaft bis heute ein Unbekannter geblieben ist. Dabei hat Pauli als einziger der gro-
ßen Physiker seiner Zeit die Mitwirkung am Bau der Atombombe verweigert, und
zwar mit dem Hinweis auf die Rationalität des Bösen, die dabei praktiziert wird.
Pauli hat schon früh auf die Tatsache hinzuweisen versucht, dass es mindestens
zwei Motive für den Wissenschaftler gibt. Es geht nicht nur um die Ausnutzung
oder Ausbeutung von Natur – nach dem bekannten Motto „Wissen ist Macht“. Es
geht auch – und wahrscheinlich sogar vor allem – um eine Erfüllung im Denken
und Fühlen. (Es geht um Bildung, wie in diesem Zusammenhang auch gesagt wer-
den kann.) Erfüllung erlaubt – wörtlich genommen – keine Einseitigkeit, weder
die des Verstandes noch die der Vernunft. Wenn die Rationalität erst einmal eine
Schieflage produziert hat – damals die Bombe, heute die Umweltzerstörung und die
Genmanipulationen –, kann ich das Gleichgewicht nur dadurch herstellen, dass ich
etwa Ergänzendes einsetze, etwas Komplementäres in dem eingeführten Sinne des
Wortes. In Paulis Worten: „Wenn die Rationalität Schiffbruch erleidet, hilft nicht
der Rückgriff auf Vernunft, sondern die Besinnung auf komplementäre Gegensatz-
paare. Die in Frage kommenden komplementäre Gegensatzpaare sind für mich:
Bewusstsein – Unbewußtes, Denken – Fühlen, Vernunft – Instinkt, Logos – Eros.“3
Pauli vermutet, dass „nur eine chthonische, instinktive Weisheit (…) die
Menschheit vor den Gefahren der Atombombe retten“ kann, und ich vermute, dass
er da sehr recht hat, selbst wenn dies bislang allzu wenige bemerkt haben. An dieser
Stelle zeigt sich besonders deutlich der Schaden, den ein Mangel an naturwissen-
schaftlicher Bildung mit sich bringen kann. Zwar kennt hierzulande nahezu jeder
den Namen Jaspers, aber wer wüßte etwas über Pauli zu sagen, der doch ähnlich
viel – und vielleicht in dem konkreten Fall sogar viel mehr – zu sagen hat? Es nützt
nichts, in weihevollen Tönen Vernunft und Humanität zu preisen, wenn man die
2 Jaspers, Karl: Die Atombombe und die Zukunft des Menschen. München 1982. S. 554.
3 zitiert nach: Fischer, Ernst Peter: An den Grenzen des Denkens – Wolfgang Pauli und die
Nachtseite der Physik. Freiburg im Breisgau 2000.
Verantwortlich für das Wissen 209
teuflische Seite menschlichen Handelns übersieht, die Mark Twain durch „the dark
side of the moon“ angesprochen hat. Es gehört doch zur Idee der humanistischen
Bildung, die im 14. Jahrhundert aufgekommen ist, sich vom feierlichen Ton des
Mittelalters abzusetzen und auch die Tiefen der menschlichen Seele zu berück-
sichtigen. Diesen Schritt gilt es immer noch zu vollziehen. Pauli, ein Naturwis-
senschaftler, hat dazu aufgerufen und geraten, das vom Christentum als ungeistig
geächtete Materielle mit einem positiven Wertvorzeichen zu versehen. Wie lange
noch wird die Philosophie diesen nötigen Schritt erschweren?
Als die Wissenschaftler vor rund 400 Jahren laufen lernten, indem sie anfingen,
ihre Tätigkeit zu organisieren und für die menschliche Gesellschaft nutzbar zu ma-
chen, da taten sie dies aus einem einsichtigen und nachvollziehbaren Grund heraus.
Wahrscheinlich am schönsten und einprägsamsten formuliert hat ihn Bertolt Brecht
in seinem Drama, mit dem er das „Leben des Galilei“ auf die Bühne gebracht hat.
Brecht legt Galilei die Worte in den Mund, die im 17. Jahrhundert den Ausschlag
für die wissenschaftlichen Bemühungen der Menschen waren: „Ich halte dafür,
dass das einzige Ziel der Wissenschaft darin besteht, die Mühseligkeit der mensch-
lichen Existenz zu erleichtern.“
Man sollte das Attribut vor dem Ziel, das Wort „einzige“, nicht überlesen, son-
dern ernst nehmen. Wissenschaft ist tatsächlich allein mit diesem Anspruch an-
getreten, und dieser Gedanke trägt bis heute, denn genau dafür werden sie ver-
antwortlich gemacht. Natürlich lassen sich im Laufe der Geschichte unterschiedli-
che und verschieden anspruchsvolle Ansichten zu der Frage finden, was als letzte
Wertmaxime der Verantwortung anzusehen ist, wie es unter Philosophen heißt: Für
Immanuel Kant etwa ist es der Mensch als Zweck an sich; für Albert Schweitzer
ist es die Ehrfurcht vor dem Leben; für Hans Jonas ist es die Bewahrung des Seins;
und für den politisch erfahrenen Naturphilosophen Klaus Michael Meyer-Abich ist
es der Frieden mit der Natur. Aber vermutlich wird niemand widersprechen, wenn
gedanklich der Anschluß an Brechts Galilei gesucht und die Ansicht vertreten wird,
auch heute noch sei der Blick auf Nützlichkeit geboten, und es komme auf „das
gute Leben aller“ an.
Vor diesem Hintergrund müssen die vielen Vorschläge gesehen werden, die seit
1945 gemacht worden sind, um einen hippokratischen Eid für Naturwissenschaft-
ler zu formulieren. Als Ziel solcher Initiativen, die zum ersten Mal im Angesicht
von explodierenden Atombomben gestartet worden sind und bis heute fortgeführt
werden, schwebte den Autoren die Stärkung der Verantwortung vor Augen, die For-
scher nach außen haben. Die Naturwissenschaftler sollten verpflichtet werden, ihr
Wissen und Können einzusetzen „zum Besten der Menschheit“ (1946), „für die
Wohlfahrt der Menschheit“ (1956), „zum Wohl der gesamten Menschheit“ (1976),
„für das Wohlergehen der Menschheit“ (1988), und immer so weiter mit immer
neuen und alten Variationen. Abgesehen davon, dass Vorschläge dieser Art erstens
eher nett und betulich klingen und zweitens zumeist unverbindlich – und damit un-
210 Ernst Peter Fischer
wirksam – bleiben, scheitert die Idee, eine hippokratische Eidesformel für Wissen-
schaftler nach dem medizinischen Vorbild zu entwickeln, vor allem an einem Punkt
Während Hippokrates eine wohldefinierte und unumstrittene Größe in den
Mittelpunkt seiner Festlegung der Verantwortlichkeit stellen konnte – nämlich das
Leben des Patienten, das es unter allen Umständen zu erhalten galt und gilt –, gibt
es nichts Vergleichbares für Physiker, Chemiker, Biologen und andere Naturfor-
scher. Denn was ist damit gemeint, sich für das Wohl der Menschheit einzusetzen?
Wie kann man sicher sein, so zu handeln, wenn man einem Einzelnen hilft? Hat
Einstein der Menschheit gedient, als er den Bau der Atombombe empfahl? Haben
die Physiker zum Wohl der Menschheit beigetragen, die nach dem Zweiten Welt-
krieg die Atomforschung verlassen und die Molekularbiologie entwickelt haben,
die uns dann die Gentechnik beschert hat? Und warum muss es immer die „gesamte
Menschheit“ sein? Ist ein Wissenschaftler nicht vor allem einzelnen Personen ge-
genüber verpflichtet, deren Leiden oder Leben er vor Augen hat? Überhaupt: Lässt
sich eindeutig definieren, was das Wohl bzw. was das Gute ist? Wie kann ich sicher
sein, dass meine Handlungen zum Guten führen? Kann ich dies überhaupt wissen?
Die Antwort lautet „Nein“, und eigentlich müßte sie, so laut es geht, verkün-
det werden. Sie stammt von dem Teufel, der von Anfang an zwischen uns steht,
wenn wir agieren. Sie stammt genauer von Mephistopheles, den Goethe in seinem
„Faust“ vom Himmel fallen lässt und der dem Gelehrten zu Diensten sein will.
Als sich Faust und Mephisto zum ersten Mal begegnen, führt sich der Teufel mit
einem seltsamen Satz ein. Auf die Frage, „Wer bist denn du?“, kommt die berühmte
Antwort:
„Ich bin ein Teil von jener Kraft,
die stets das Böse will, und stets das Gute schafft.“
Goethe lässt durch den Teufel ausdrücken, was im Grund jeder weiß, was mittler-
weile durch die Chaosforschung theoretisch sanktioniert und wissenschaftlich auf-
gewertet und abgesegnet ist und was jede vorgelegte Eidesformel schlicht bedeu-
tungslos macht: Die Welt, in der wir leben, ist nicht linear und gradlinig, sondern
komplex und vernetzt, und zwar so, dass die einzige gültige Logik in ihr die des
Misslingens ist. Es gibt keine Handlung – und erst recht keine Entdeckung –, deren
Folgen umfassend vorhersagbar sind und nur Gutes bewirken. Selbst das beste Gute
hat seine Schattenseiten, und selbst das schlimmste Böse hat sein Gutes.
Betrachten wir dazu einige Beispiele. Als unbedingt gut würde man die Verbes-
serung der hygienischen Verhältnisse betrachten, wie die nach dem Zweiten Welt-
krieg etwa in deutschen Haushalten möglich geworden ist. Welche Nachteile kön-
nen sich dabei bemerkbar machen? Die Antwort auf dies Frage liefern die Polio-
Viren, die zwar offensichtlich immer vorhanden und in unserer inneren und äuße-
ren Umwelt präsent waren, die aber solange harmlos blieben, solange Kinder früh
genug mit ihnen in Berührung kamen und infiziert wurden. „Früh genug“ heißt in
einem Alter, in dem das Nervensystem noch nicht differenziert genug war, um vom
Virus befallen, beschädigt und teilweise lahmgelegt zu werden. Diese Möglichkeit
bestand für den Eindringling erst, als dank der verbesserten Hygiene die Kinder das
Virus aufnahmen, als sie älter waren und ihr Nervensystem Platz für ihn bot.
Verantwortlich für das Wissen 211
Als unbedingt schlecht kann man (im Rückblick) die Absicht von Francis Gal-
ton (1822–1911) bezeichnen, der als Begründer der Eugenik – Erbverbesserung –
gilt und sie politisch verstand. Er entwickelte sehr früh Pläne, die englische Rasse
mit wissenschaftlichen Mitteln auf einer hohen Stufe von Reinheit zu halten und
vor fremden Einflüssen zu bewahren. Zu diesem fragwürdigen, wenn nicht gar ver-
werflichen Zweck ersann Galton – ein Cousin des großen Charles Darwin – eine
statistische Technik, die heute als Regressionsanalyse bekannt und zum festen Be-
standteil der Naturwissenschaften gehört.4
Als unbedingt schlecht und böse kann man zudem viele der Aufgaben betrach-
ten, die im militärischen Sektor an Wissenschaftler vergeben und von ihnen be-
arbeitet werden – die Entwicklung von Waffen oder Kampfstoffen etwa, die von
den atomaren über die chemischen bis hin zu den biologischen reichen, oder die
Konstruktion von Geräten, mit denen feindliche Maschinen (und ihre Piloten) zu-
verlässig abgeschossen werden können. Diese Sicht trifft aber zum einen nur in
Friedenszeiten zu, und auch wer den Satz des vorsokratischen Philosophen Heraklit
nicht mehr hören kann, dass die Krieg der Vater aller Dinge ist, wird sicher wissen,
wieviel technische Entwicklungen – vom Radar bis zur Urform des Internet – im
Auftrag militärischer Dienststellen entstanden sind.
Mit anderen Worten, der Einsatz von Wissenschaft und die Entscheidung für
ein Leben auf wissenschaftlicher Grundlage ist mit einem Risiko verbunden, das
außerhalb der individuell tragbaren Verantwortung liegt. Sie fängt an, wenn Gefah-
ren erkennbar auftreten und es möglich ist, sie klein zu halten. Und sie setzt sich in
der Aufgabe fort, die Öffentlichkeit über die unvermeidlichen Risiken zu informie-
ren, die eine wissenschaftliche Entwicklung mit sich bringt
Der israelische Historiker Yuval Harari hat 2013 „Eine kurze Geschichte des Men-
schen“ vorgelegt, die auf Englisch 2011 erschienen ist und kürzer „Sapiens“ heißt.5
Harari fängt beim Urknall an, er stellt einige Revolutionen vor – eine kognitive,
eine landwirtschaftliche und eine wissenschaftliche –, und er macht sich im letzten
Kapitel Gedanken über „Das Ende des Homo sapiens“, das ihm unter anderem
dank der Pläne von Genetikern unausweichlich erscheint, den Neandertaler wieder
auferstehen zu lassen. Außerdem denkt er auch an das Vorhaben der Neurologen
und Kognitionsforscher, mehrere Gehirne miteinander zu vernetzen. Wenn dies ge-
lingt, entsteht ein Wesen mit einem kollektiven Gedächtnis, dem sich plötzlich die
Möglichkeit bietet, sich an die Erinnerungen von anderen Menschen zu erinnern.
Wenn ich mein Erinnern bin, wie die Philosophie weiß, dann bin ich jetzt ein an-
derer. Ich bin dann vermutlich ein anderer Mensch, und dann sind alle vernetzten
Menschen andere Menschen, und vielleicht kommt auf diese Weise das Ende des
Menschseins herbei. Natürlich kann niemand sagen, was dabei genau passiert und
4 s. Weber, Thomas P.: Darwin und die Anstifter. Köln 2000. S. 33.
5 Harari, Yuval: Eine kurze Geschichte der Menschheit. München 2013.
212 Ernst Peter Fischer
was aus den Kollektivwesen entstehen kann, aber klar ist, dass aus den Menschen,
die einmal Tiere waren, so etwas wie Götter geworden sind, die das Leben bestim-
men und neu entwerfen. Sie haben dabei mindestens ein Problem. Sie wissen nicht,
was und wohin sie wollen. Sie haben immer noch keine Theorie des Lebens, wie
ganz zu Beginn angemerkt wurde. Und so wendet sich Harari am Ende seines Bu-
ches an seine Leser mit einer Frage, über die nachzudenken sich ungemein lohnt:
„Gibt es etwas Gefährlicheres als unzufriedene Götter, die nicht wissen, was sie
wollen?“ Vielleicht kann man sie überzeugen, vorsichtig zu Werke zu geben, ihre
Verantwortung anzunehmen und damit das zu werden, was sie sein wollen, nämlich
zufrieden mit sich und den Menschen. Die moralische Einsicht, der sich Menschen
nicht entziehen sollten, heißt, dass sie alle für die Folgen des erworbenen Wissens
verantwortlich. Es lebt sich besser damit.
Verantwortlich für das Wissen 213
LITERATUR
Fischer, Ernst Peter: An den Grenzen des Denkens – Wolfgang Pauli und die Nachtseite der Physik.
Freiburg im Breisgau 2000.
Harari, Yuval: Eine kurze Geschichte der Menschheit. München 2013.
Jaspers, Karl: Die Atombombe und die Zukunft des Menschen. München 1982.
Weber, Thomas P.: Darwin und die Anstifter. Köln 2000.
Weizsäcker, Carl Friedrich von: Wahrnehmung der Neuzeit. München 1983.
IV. SPRACHE DER TECHNIK:
KÖNNEN WIR SAGEN, WAS WIR TUN?
TECHNISCHES WISSEN, TECHNISCHE SPRACHE,
TECHNISCHE BILDER
Hans Poser
1 TECHNISCHES WISSEN
Fragt man einen Philosophen, was Wissen sei, so wird er mit der einen oder anderen
Ergänzung auf Platon verweisen, der Wissen als wahre Auffassung mit Begründung
bestimmt hatte („Theaitetos“, 201d–206b). Das wird einem Techniker oder Tech-
nikwissenschaftler wenig helfen, denn was ist eine Auffassung und wann und wie
ist sie zu begründen – das bleibt ja offen. Fragt man dagegen einen Soziologen,
selbst wenn er Bücher über die Wissensgesellschaft geschrieben hat, so findet sich
keine Klärung, sondern eine Verschiebung: Die faktische gegenwärtige Überein-
stimmung als handlungsleitender Bestand in einem Kulturkreis, also eine commu-
nis opinio, wird für Wissen gehalten, denn hierauf stützt sich das gesellschaftliche
Geschehen; doch in „postfaktischen“ Zeiten mit Berufung auf das „Bauchgefühl“
oder der freien Erfindung „alternativer Fakten“ dürfte eine solche Sicht zu Ideolo-
gien führen. Der Techniker wird deshalb darauf beharren, dass es sich beim techni-
schen Wissen um eine bewährte Auffassung handelt, also um Inhalte, die zwar kein
Wahrheitskriterium erfüllen, sich jedoch im praktischen Umgang mit der Welt als
tauglich erwiesen haben. Damit wird ein Absolutheitsanspruch vermieden, sodass
unter technischem Wissen viel vorsichtiger methodisch begründete Aussagen von
Hypothesenstatus zu verstehen sind, die unter veränderten Bedingungen eine An-
passung erlauben.
Nun ist solches technisches und technologisches Wissen sehr unterschiedlicher
Gestalt1, nämlich:
TW1 ein Sachverhaltswissen,
TW2 ein Wissen um Mittel für einen Zweck im Sinne einer Funktionserfüllung
(theoretisches Handlungswissen),
TW3 ein Wissen, wie solche Mittel zu gewinnen und anzuwenden sind (prakti-
sches Handlungswissen, know how),
TW4a ein Wissen um Werte, die hinter den Bedürfnissen stehen (normatives Hand-
lungswissen),
TW4b ein Wissen über die Modifikation von Zielen im Lichte der Werte, falls dies
erforderlich ist (praktisches und theoretisches normatives Wissen),
TW5 Problemlösungswissen (Form eines Nichtwissens, das eine Auflösung er-
fordert).
1 Poser, Hans: Homo creator. Technik als philosophische Herausforderung. Wiesbaden 2016.
S. 119–132 u. S. 255–293.
218 Hans Poser
Das Sachverhaltswissen TW1 stützt sich zwar in Teilen auf die empirischen Aussa-
gen der Erfahrungswissenschaften, aber es wäre verfehlt, dabei stehen zu bleiben,
denn es kann im Blick auf die zu verfolgenden Zwecke (TW2) nicht um den Ideal-
fall experimentell gefundener Größen einer Einzelwissenschaft gehen, sondern um
die Zusammenführung von disziplinär geschiedenen Sachverhalten von der Physik
über die Biowissenschaften bis in die Sozialwissenschaften. Dabei sind wiederum
nicht Idealdaten von Interesse, sondern gerade das Wissen um jene in der prak-
tischen Gemengelage bedeutsamen Sachverhalte: Das technologisch konzipierte
Artefakt kann ja keinen idealen Carnot-Prozess verwirklichen oder auf Bedürfnisse
einer idealen Gesellschaftsstruktur abzielen.
Scheinbar einfacher liegen die Verhältnisse bei der Funktionserfüllung TW2 –
scheinbar, weil diese vielleicht für jedes Einzelelement eines Artefakts prüfbar sein
mag, doch deren Zusammengehen über Fachgrenzen hinweg dadurch noch kei-
neswegs gewährleistet ist. Dennoch liegt an dieser Stelle mit der Bindung an die
Funktionserfüllung der alles entscheidende Unterschied zwischen bloßer Theorie
und erfolgreicher Technikwissenschaft. Das ist nicht als Abwertung der Theorie zu
verstehen, wie sie Alois Riedler gegenüber seinem Kollegen Franz Reuleaux um
1900 an der TH Berlin betrieb2, sondern als Notwendigkeit einer Synthese beider
Seiten, wie Leibniz sie als theoria cum praxi gefordert hatte: Technikwissenschaf-
ten gründen sich nicht auf Naturgesetze, sondern auf effektive Regeln als Typen
von Handlungsanweisungen. Dabei werden Mittel auf Zwecke bezogen, wobei
es zu einem Zweck gleich welcher Art zahlreiche Mittel geben wird. Doch mehr
noch – mit diesem Begriffspaar wird die Empirie im strikten Sinne des Vorfindli-
chen verlassen: Zwecke als Ziele sind Ausdruck eines teleologisches Moments und
einer Wertsetzung! So wird Technologie zu einer Auch-Wertwissenschaft. Zugleich
bezeichnet das Mittel-Ziel-Verhältnis einen teleologischen Zusammenhang, zu dem
eine kausale Verknüpfung als Funktionserfüllung herangezogen wird. Damit er-
weist sich die werthaft-teleologische Sicht als die bestimmende Seite technischen
und technologischen Wissens.
Das theoretische Handlungswissen bedarf des Zusammengehens mit dem prak-
tischen Handlungswissen TW3. Dabei geht es im einfachsten Fall um eine Ansamm-
lung von erfolgreichen Mittel-Zweck-Verknüpfungen, heute oft als „know how“
bezeichnet oder in „tacit knowledge“ gesehen, doch viel weiter ausgreifend um ein
Wissen, das Nebenbedingungen wie Verfügbarkeit, Finanzierbarkeit, Verwirklich-
barkeitsbedingungen einschließt, sodass eine Auswahl unter TW2-Lösungsangebo-
ten im Blick auf die Sachverhaltslage TW1 möglich wird.
Auch wenn aufgrund der in TW2 angesprochenen Finalität deutlich geworden
ist, dass Technik und Technologie durch Werte gekennzeichnet sind, bedarf dieses
einer weiteren Differenzierung in Gestalt des TW4-Wertewissens. Dieses hat zwei
Elemente – das eine baut auf gesellschaftlich tradierte, zu berücksichtigende oder
zu erfüllende Werte, das zweite verlangt beim Entwerfen einen Umgang mit der
Modifikation von Mitteln und gegebenenfalls auch von Zwecken unter Bezug auf
2 König, Wolfgang: Der Gelehrte und der Manager. Franz Reuleaux (1829–1905) und Alois
Riedler (1850–1936) in Technik, Wissenschaft und Gesellschaft. Stuttgart 2014.
Technisches Wissen, technische Sprache, technische Bilder 219
2 TECHNISCHE SPRACHE
Die eben unterschiedenen Wissensformen sind (bis auf „tacit knowledge“) sprach-
lich gefasst. In der Handwerkstradition wurde dies unmittelbar an den Arbeitsvor-
gang geknüpft und spielte dabei gegenüber der Praxis eine sekundäre Rolle. Das
zu ändern berief sich Diderot in seiner „Encyclopédie“ auf Leibniz mit dem Pro-
gramm, Handwerkstechniken zu beschreiben und überdies in Kupferstichen dar-
zustellen, um dieses Wissen in sprachlicher Form allgemein verfügbar zu machen.
Damit gewinnt die Sprache nicht nur an Gewicht, sondern tritt an die Stelle der
praktischen Vermittlung. Dies mag wesentlich zur Ausbildung einer nicht mehr
lokal begrenzen Fachsprache beigetragen haben, im deutschsprachigen Raum ab-
lesbar etwa an Johann Beckmanns „Anleitung zur Technologie oder zur Kenntniß
der Handwerke, Fabriken und Manufacturen“ von 1777. Etwa gleichzeitig kam es
in den praxisorientierten fürstlichen Collegia, dann in der Pariser „École polytech-
nique“ und den nachfolgenden Polytechnischen Lehranstalten zur Ausbildung von
bereichsspezifischen technischen Fachsprachen mit Fachbegriffen für Objekte, Me-
thoden, Zwecke. Der damit verbundene Anspruch einer theoretischen Fundierung
verlangte deren Verknüpfung nicht nur in der Umgangssprache, sondern in geeig-
3 Verein Deutscher Ingenieure: VDI Richtlinie 3780 – Technikbewertung: Begriffe und Grundla-
gen, Bild 3. Düsseldorf 2000.
4 Kornwachs, Klaus: Logische Strukturen technischen Wissens. In: Klaus Kornwachs (Hg.):
Technologisches Wissen. Entstehung, Methoden, Strukturen. Berlin 2010. S. 143.
5 Kornwachs, Klaus: Strukturen technologischen Wissens. Analytische Studien zu einer Wissen-
schaftstheorie der Technik. Berlin 2012. S. 223–278.
220 Hans Poser
6 Jakob, Karlheinz: Maschine, Mentales Modell, Metapher. Studien zur Semantik und Ge-
schichte der Techniksprache. Tübingen 1991. S. 100.
7 s. Ischreyt, Heinz: Studien zum Verhältnis von Sprache und Technik: Institutionelle Sprachlen-
kung in der Terminologie der Technik. Düsseldorf 1965.
Technisches Wissen, technische Sprache, technische Bilder 221
3 TECHNISCHE BILDER
8 Bredekamp, Horst; Schneider, Birgit; Dünkel, Vera (Hg.): Das Technische Bild. Kompendium
zu einer Stilgeschichte wissenschaftlicher Bilder. Berlin 2008. S. 8.
222 Hans Poser
Abb. 1: Ionisches Kapitel. In: Vitruvius Teutsch: Nemlichen des aller namhafftigisten vnd hoch-
erfarnesten, Römischen Architecti, und Kunstreichen Werck oder Bawmeisters, Marci Vitruuij
Pollionis, Zehen Bücher von der Architectur vnd künstlichem Bawen. Ein Schlüssel vnd einleytung
aller Mathematischen und Mechanischen künste. 3. Buch. Nürnberg 1548. S. 126 r.
9 Költzsch, Peter: Zum Problem der Modelle aus der Sicht der Technikwissenschaften. In: Bre-
dekamp, Horst u. a.: Modelle des Denkens. Streitgespräch. Berlin-Brandenburgische Akademie
der Wissenschaften, Debatte 2. Berlin 2007, S. 81–90.
Technisches Wissen, technische Sprache, technische Bilder 223
Abb. 2: Kehrrad. In: Georg Agricola: Vom Bergkwerck XII Bücher darin alle Empter /
Instrument /Gezeuge / unnd alles zu disem handel gehörig / mit schönen figuren vorbiltet / und
klärlich beschriben seindt. 6. Buch. Basel 1557. S. 164.
224 Hans Poser
Abb. 3: Pavia, Bischöflicher Palast, Holzmodell des Doms von Pavia, um 1500.
In: Malaguzzi-Valeri, Francesco: La Corte di Lodovico il Moro. Bd. II. Mailand 1915.
http://www.rdklabor.de/w/images/6/64/01-0919-1.jpg (Stand: 22.01.2017).
Abb. 4: Draperie. In: Diderot: Encyclopédie. Recueil de Planches. Vol. 2b. Paris 1763. S. 268.
Technisches Wissen, technische Sprache, technische Bilder 225
Einem wiederum neuen Abbildungstyp begegnen wir bei Felix Reuleaux. Es geht
hier im Zuge der Verwissenschaftlichung der Technik nicht nur um eine Beispiel-
Vorlage wie bei Vitruv, sondern recht eigentlich um dreierlei, das an folgendem
einfachen Beispiel deutlich wird: Abzubilden sind in einer Systemzeichnung alle
Typen von „Zapfen“ zusammen mit Angaben über die Form- und Maßverhältnisse,
ausgedrückt in einer Formel (Abb. 5), und schließlich ergänzt um eine theoriege-
leitete Begründung der Formel – im Falle des Stirnzapfens von über einer Seite.
Nun war Reuleaux gegen Ende seines Wirkens in Alois Riedler ein Widersa-
cher erwachsen, der Reuleaux’ vielgeschätzte Zeichnungen als „unbrauchbar“ oder
„unrichtig“ verwarf und ihnen eigene Zeichnungen entgegenstellte (Abb. 6).
Riedler verfolgte dabei zwei neue Ziele, zum einen, Zeichnungen nicht auf The-
orie, sondern auf praktische Erfahrungen in von ihm entwickelten „Ingenieurlabo-
ratoren“ zu gründen. Zum anderen geht auf ihn das technische Zeichnen zurück, das
später in DIN-Normen gefasst wurde. So war eine Systematisierung und Standardi-
sierung der Wiedergabe von Technik auf allen technischen Bereichen erzielt: Damit
waren auch alle Interpretationsebenen einer technischen Zeichnung eindeutig fixiert.
226 Hans Poser
LITERATUR
Bredekamp, Horst; Schneider, Birgit; Dünkel, Vera (Hg.): Das Technische Bild. Kompendium zu
einer Stilgeschichte wissenschaftlicher Bilder. Berlin 2008.
Ischreyt, Heinz: Studien zum Verhältnis von Sprache und Technik: Institutionelle Sprachlenkung in
der Terminologie der Technik. Düsseldorf 1965.
Jakob, Karlheinz: Maschine, Mentales Modell, Metapher. Studien zur Semantik und Geschichte der
Techniksprache. Tübingen 1991.
Költzsch, Peter: Zum Problem der Modelle aus der Sicht der Technikwissenschaften. In: Brede-
kamp, Horst u. a.: Modelle des Denkens. Streitgespräch. Berlin-Brandenburgische Akademie
der Wissenschaften, Debatte 2. Berlin 2007, S. 81–90. https://edoc.bbaw.de/solrsearch/index/
search/searchtype/collection/id/16301.
Kornwachs, Klaus: Logische Strukturen technischen Wissens. In: Klaus Kornwachs (Hg.): Techno-
logisches Wissen. Entstehung, Methoden, Strukturen. Berlin 2010. S. 137–157.
ders.: Strukturen technologischen Wissens. Analytische Studien zu einer Wissenschaftstheorie der
Technik. Berlin 2012.
König, Wolfgang: Der Gelehrte und der Manager. Franz Reuleaux (1829–1905) und Alois Riedler
(1850–1936) in Technik, Wissenschaft und Gesellschaft. Stuttgart 2014.
Poser, Hans: Computergestütztes Konstruieren in philosophischer Perspektive. In: Banse, Gerhard;
Friedrich, Käthe (Hrsg.): Konstruieren zwischen Kunst und Wissenschaft. Idee – Entwurf –
Gestaltung. Berlin 2000. S. 275–287.
ders.: Homo creator. Technik als philosophische Herausforderung. Wiesbaden 2016.
TOO TIGHTLY-CUT NEW CLOTHES FOR THE “EMPEROR”?
Imre Hronszky
INTRODUCTION
Institutionalised technology assessment (TA) was born from the emerging resist-
ance to polluting technologies as Technikfolgenabschätzung, as assessing (quan-
titative) risks (realising caution) around 50 years ago. It was introduced to extend
deterministic planning. Paradoxical as it may seem, one of the most important rec-
ognitions of this period was that of the essentially limited capability of calculating
risks. That is because of the unavoidable presence of complexity and that way,
of the Knightian, the “genuine uncertainty”. Precaution appeared as the appropri-
ate behaviour to meet it. TA went through profound development but it preserved
at least one of its basic characteristics: TA is technology specific, concentrating
on particular technologies and is more product than process oriented. Contrarily,
responsible research and innovation (RRI) aims at inquiring into and supporting
science-technology-innovation as part of a prospective comprehensive social-eco-
nomic endeavour. As its main intention, in the frame of supporting this endeavour,
RRI aspires to realise a collective, shared responsibility of all participants both for
the purposes and the possible negative effects, in an overarching societal process
where the participants become mutually responsive to each other.
The vision of RRI very quickly became widely accepted as an ethics based un-
dertaking. But there was an immediate turn, better to say a bifurcation, around 2010
in interpreting RRI. Responsibility for RI was originally considered to fit the re-
quirements for precaution in the history of TA as its central critical attitude. For nu-
merous, by far not only intellectual reasons, another interpretation was made central
around 2010 in assessing RI: instead of preventing the negative consequences, the
adverse effects of RI, as its primary task, supporting RI as a “positive” endeavour
came to the limelight. The interpretation of RRI quickly generated countless rami-
fications in the relevant discourses. But the term itself remained a formal anchoring
point, in the hope of developing it into a comprehensive key concept. There has
been extensive academic discourses and, as in any real world story, we find endur-
ing pressure and multiple and repeated authority interventions that have essential
effects in creating some sorts of closure on the term by now.
Shortly after, the RRI vision received a quick institutionalisation as the com-
mon commitment to develop RRI as a collective task for all partners in RI to ac-
celerate responsible RI as far as possible in a process of becoming mutually re-
sponsible to each other. This RRI should overcome the decades long “divide” in
interpreting and doing RI. RRI, in this sense should be a cross-cutting, transversal
230 Imre Hronszky
issue for policy making, for any type of research and innovation to be funded by the
European Commission.
There was a quick and obvious success in some sense by 2016 that induced
a widespread enthusiasm around it. However, only, Arie Rip raised a basic criti-
cal question to all this. As he says metaphorically, the “emperor” (RRI) has been
gradually developing his own existence in a peculiar dynamic.1 Intended to be an
umbrella term, RRI actually started as a blank metaphor. But after some years, it
is still a non-existing “emperor”, just it has been getting rather different and con-
tingent interpretations, versions of RRI “clothes”. RRI even involved topics, like
gender equality, the so called “keys”, where it is not fully clear how they belong to
the responsible RI issue. But this way, RRI, the “emperor”, became more and more
real in the process of repeatedly trying on different “new clothes”. Unfortunately,
all this makes it impossible to work out that very basic task of RRI, that is to give
coherent advices for the application of RRI, an inherently cross-cutting issue pres-
ent in all innovation efforts.
Savienne de Saille persuasively details how two different dynamics charac-
terised the ten years before the term RRI was coined, and the roughly four years
of introducing of the institutionalised RRI until 2013.2 The period started with
a step made by the EU as a value community. It was the promising declaration
of the precautionary approach as the official viewpoint of the EU. But the period
had two, an economic and a social-critical dynamic, contradictory intentions in the
innovation policy of the EC. She rightfully concludes that forces concentrating on
the overcome of the economic crisis by accelerating economic growth (to which,
we can say, a special sort of responsibility may be attached), took the decisive po-
sition in determining what institutionalised RRI should look like. Institutionalised
RRI should help in reaching higher economic growth, as the materials that define
the “Horizon 2020” programme and RRI prescribe, instead of giving a primary
place to precaution in any sense. For social-critical forces this result is an essential
distortion of the original aim, and, is an unrightful expropriation of the term. This
way, not only has there not been any important innovation of innovation policy, but,
as she concludes, old positions got reinforced. The question emerges if the change
is perhaps more than this, in one respect. This change seems to be, among other
things, an important one, but perhaps an, in the long run, misleading renewal of the
old positions concentrating on economic growth.
Collective, shared responsibility of all participants in RI can be realised in two,
completely different approaches. These approaches essentially differ in three key
areas: how they relate to the role science, technology and innovation has and should
have in society, how they think about genuine uncertainty and reponsibility for
adverse effects, and what they want to realise with the public-, citizen-, and us-
er-participation in societal, economic, and innovation issues. It is most important to
1 Rip, Arie: The clothes of the emperor. An essay on RRI in and around Brussels. Journal of
Responsible Innovation, vol. 3, 2016: 21.11.2016, http://dx.doi.org/10.1080/23299460.2016.
1255701.
2 de Saille, Stevienna: Innovating for Innovation Policy: The Emergence of “Responsible Re-
search and Innovation”. Journal of Responsible Innovation, July 2015. pp. 152–168.
Too tightly-cut new clothes for the “emperor”? 231
recognise that choosing between them can not be an “objective” process in which
the simply “unbiased conclusion” is made on either side, based solely on “the facts
and the logic” but choosing is, in a definitely uncertain world, necessarily a val-
ue-laden one based on a commitment to a value-laden fact-base made by either of
them. (Choosing between them will lead to different results even in those disputes
when the same fact-base is accepted.) Choosing between them is choosing between
two, complex, irreducible mixes, “compounds” of values and facts.
On the one hand science, technology and innovation (innovation in a compre-
hensive meaning) can be seen as ambivalent issues by definition: they do not only
have positive potential for societal progress, but just the opposite, too. Further,
one can start from a basic position concerning the most defining characteristics of
the complex issues surrounding us. This is understanding genuine (non-calculable)
uncertainty as their non-removable essential characteristic. This way, among other
things, one can attribute highest importance to try to prevent the emergence of the
“adverse” effects by taking a precautionary approach. The problem of “sacrificing”
in innovation brings the ethical primacy of precaution to the foreground in the gov-
ernance of innovation. If “sacrificing” is not definitive, recovery actions have their
economic costs.
This preventive approach is not incompatible with looking at innovation as an
essential element of human progress. In this approach, this means conditional ac-
ceptance of RI as a means in solving societal challenges – among other means such
as innovations in social cooperation. One can further accept that, in a participative
democracy, the public and the citizens should be able to make inquiries about in-
novation primarily based on their “civic epistemologies”3 in a “two-way commu-
nication”. In this case a critical-positive relation can be set, in which trying “early
warning” and action based on the warning is the morally justifiable unavoidable
first step in the progress of integrating innovation into human activity. “Precaution-
ary foresight” can be a term for this kind of deliberative, two-sided commitment in
progress.4
On the other hand, one can move in a reductive way and identify RI as the most
appropriate issues to solve societal (and environmental) problems. By taking this
approach, enthusiasm is the most appropriate emotional mediator, a kind of rational
religion in turning to them. In this view, the publics have to and can acquire this
enthusiasm. They can rationally understand the reasons in the degree in which they
acquire the related knowledge of experts. Public confidence in science-technolo-
gy-innovation is the most important, and the critical attitude properly should be
subordinated to such engagement. This approach is the only way to overcome the
“divide” in assessing innovation. With this, the dominant mistrust in RI cultivated
by some extreme groups, finds its abstract counterpart in the enthusiastic, unques-
tionable acceptance of RI.
Those who have made the decisions over the recent institutionalised RRI have
been reacting by a reflex, based on their, immediate perception: critical movements
3 Jasanoff, Sheila: Designs on Nature. Science and Democracy in Europe and the United States.
Princeton 2005.
4 Stirling, Andy: Democratising innovation. SPRU. Sussex 2014.
232 Imre Hronszky
divide society and slow down technological innovation as the only real alternative
for economic competition, and solving social problems, this way. In this respect,
their possibly the most successful elimination is of highest importance, a precon-
dition for a successful innovation policy. Institutionalised RRI funding cuts them
out of support, just as it cuts the defenders of “precautionary foresight”, by setting
the strongly reductive frame for funding RRI: precautionary behaviour should not
be or only as topic of minor importance included in RRI, and the public, without
scientific knowledge is identified as, in itself simply an ignorant “participant”. This
purified RRI deals then in the collaboration of all remaining parties in working out
collective responsibility for each other, but also for the naive public in a dynamic
facilitating the advancement of RI.
It is some sort of tragedy, that the ideal to achieve collaborative work between
all parties on shared responsibility, this most important issue, that is put in centre by
the institutionalised RRI, is to be realised in a space preformed for the institution-
alised RRI by a decision based on a starting exclusion. The question of cui prodest
of such setting of the discourse arena rightfully arises.
The recent institutionalised RRI is an accomodation of the EU innovation pol-
icy authorities to the vision the EU authorities fixed in the Europe 2020, as Flagship
Initiative Innovation Union as their expectation of what innovation can do for the
economy to overcome the economic crisis.5 This is to strategically turn to a “social
economy” which aims “to refocus R&D and innovation policy on the challenges
facing our society.” One essential task of the recent institutionalised RRI is justifi-
cation, legitimation of RI as integrated into a modified economic growth. RI in the
future should concentrate on the solution of the Grand Challenges, the challenges
that appear as European or global social and environmental problems. Institution-
alised RRI promises to confirm and consolidate the needed “positive engagement”
in science, technology and innovation. (One can just remember how quickly and
warmly the Competition Council reacted to the Rome Declaration on RRI as legiti-
mating issue in 2014.) But this is one of its possible roles from an economic growth
perspective. The other role is to adjust funding to a new innovation policy that fits
in the efforts to renew the economic competition, that remains based on economic
growth and efficiency, but strategically turns to exploit the Grand Challenges to
find the best direction to the economic growth based economic competition. In this
way, the renewing economic competition consciously turns to partly overcome its
neo-liberal limits.
The toward solution of Grand Challenges directed market economy starts to
realise some overarching direction shift in the direction of economic growth and
competition. This is a very strong step from the viewpoint of economy, integration
of something, and a way of increasing the profit, that, as yet, mainly has been a cost
increasing issue. But this is only the half-way point. (It is also worth noting here
that one expert report that was asked to suggest, in 2013, what institutionalised
RRI and its funding should be, suggested exploiting the precautionary approach as
5 European Commission: Europe 2020 – A strategy for smart, sustainable and inclusive growth.
Brussels, 3.3.2010, COM(2010) 2020 final.
Too tightly-cut new clothes for the “emperor”? 233
source of economic value. It urged to take “late lessons from early warnings” really
seriously and urged to make economic profit from “early warning”.)
Science has already been profoundly transforming in the last 40 years. It has
reached a rapidly growing capability to offer strategic potentials for the market and,
also to contribute to solving societal problems this way. But the situation seems to
be different with the recent, “coming” “industrial revolution”, that would be based
on convergence of technologies and the all pervading role of digital transformation
of which a rather certain forecast can be made. But the raising role of complexity
and interconnectedness can also be expected in an earlier never experienced quality
and measure. With this, the high risk/high opportunity character of any action dra-
matically increases. This way, multiplication of the possibility of quite new types
of progress by innovation and its “adverse effects”, dramatically increases. Any
deliberate vision has to take into account this: aligning for the best possible utilising
of the coming innovation potential must be framed by an overall persuasion that
appropriate approach to complexity must have primacy.
Highest authorities in the EU or G7, having the decision capacity in innovation
policy making, identify a never before seen challenge for advancement.6 They
urge enthusiasm for exploiting the dawning new possibilities for economic compet-
itiveness, and also solving social problems this way. Persuasion of citizens by the
visions of the researchers who have to advise them is put by them into the centre.
Unfortunately, urging for enthusiasm is scarcely connected to the need to realise
highest precaution as an overall accompanying effort, even when reaching the “pos-
itive” ends is also essentially object of the complexity challenge.
It seems steady acceleration of economic growth and efficiency concentrating
on exploring and exploiting the “positive” side of innovation remains unquestion-
able determining requirement in the dawning integration of the economic and the
social in reality. This position has, at least two main consequences. First, in the
systemic interaction in the dynamism, this has a decisive feed-back effect even on
what will be accepted as a Grand Challenge – acceptable for the economy in its
given state: economic growth not any Grand Challenge is the decisive selection
factor in the cooperation. Second, everything that slows down the growth is to be
played down. To “liberate” the path also for this special sort of socio-economic
innovation, any serious precautionary approach must be confined. An ideological
preparatory effort, a “demistification” of the precationary approach helps in this
issue. According to this, importance of uncertainty is overdramatised. There is a
downplaying of the Rio Declaration, and a view that “diminishes” the qualitative
difference between uncertainty and risk, by identifying them as only gradual dif-
ferences. Furthermore, according to the “demistification”, potential of high tech
for solving societal problems is dangerously underestimated by its critics and any
public criticism and fear is mostly based on ignorance.
The new approach needs expertise of all sorts and all new sorts more then ever.
This approach brings the danger of realising an, in many respects, economistic,
expertocratic, and technocratic result of social problems which also incorporates
works of experts from social sciences. But strategic support by the public must also
to be assured. Enthusiastic citizens should be a secure essential base for the new
system. To the redirection of economic growth, a special type of unavoidable (re)
education of the citizens is needed. Public involvement should be essentially based
on different sorts of their scarcely questionable supportive potentials, not on a de-
liberative attitude. Doing “citizen science”, even when it is a bit opaque what it can
mean, belong to these potentials.
I fully abandon the critical interpretation of all tender calls in any detail in this short
article. Instead of that, I bring more in foreground some preparatory materials, some
early showcases and the standpoint of the recently responsible commissionaire.
RRI Tools is a project that already gained funding in the 7th Framework Pro-
gramme from 2013.7 It has also been offering showcases with the task of facilita-
ting practical realization of RRI by providing a guide to application to the different
points of the RRI funding announcements and a collection of best practices. This is
a funny mixture, to say the least. As any other part of the RRI funding system, the
RRI Tools realises an immense amount of work. That is most important in many
respects, you have just to look at their efforts to help develop a community of
practice for realising RRI. Thus, it is even more depressing that RRI Tools seems
to suffer from most of the same illnesses as institutionalised RRI itself as a whole.
I limit myself to some examples in the “Key Lessons from RRI Tools”. They
stand together with very good examples in this material. Ethics only concentrates
on the professional ethics and exemplifies it with a code from 1992. Considerations
on and examples of, how ethics for all the participants should look like, what ac-
companying ethical evaluation should be and how ethics should work from within
even when its leeway is reduced to supporting RI are missing. Citizens are called
when this is identified as important by other actors. The otherwise practically very
important differentiation of “technical issues”, to be dealt with by experts, helps
to avoid public participation in a strange way. For example, RRI Tools repeatedly
refers to the practice of Vinnova, the Swedish innovation funding organisation. The
turning in the development of Vinnova’s practice from 2012 is certainly an im-
portant showcase for overcoming the “disciplinary ghetto” of research (the term
is from Vinnova) to “challenge-driven innovation”, but it is an anti-showcase for
demonstrating essential public participation. E.g., in a project funded by Vinnova,
a Swedish language teaching software was developed for young refugees, a very
important issue, to help them gain access to higher education. Having identified
this as a “technical task”, the language tool was developed without any two-way
interaction with the intended users in the process of development. Further, you find
a “Green urban system solutions” project funded, made by experts, but you rightly
miss any essential citizen participation.
There is an awarding system, EFARRI, to support RRI in ERA. An, in its
dimensions and wide expert and stakeholder base very impressive Italian-Viet-
namese project, IMMR, winner in 2016 (Report on it is enclosed to RRI Tools),
worked out an “integrated and sustainable watermanagement of the Vietnamese
Red-Thai Bin River System in a changing climate”. When it will be realised it will
have a strong effect on the life of about 26 million inhabitants around Hanoi and
the issue is full of contradictory interests. But inhabitants and their possible orga-
nized groups (if they existed at all) were only represented by local authorities in
the project worked out in “a participatory process involving the main institutional
stakeholders”. A quasi standardised model is offered to realise by the cooperation.
It could be named customization through local authorities. The offered solution
seems to strengthen the way of life in an autoritarian word, technically managed
by the bureaucracy.
I can only very shortly reflect on one expert report for instutionalising RRI
funding. “Science education for responsive innovation” is a high-level expert group
report immediately addressed to the EC.8 The report is praised by the recent com-
missionaire Moedas in the foreword as follows: “This publication offers a 21st
century vision for science and society (RRI).” He correctly emphasises: to align
research and innovation to the values, needs and expectations of society “we must
engage all of society in research and innovation processes.” But as he stresses, this
is to be realised by specifically relying on science. “We need science to inform po-
licy, objectively. We need science to inform citizens and politicians in a trustworthy
and accessible way. We need to make decisions together–rather than from polarised
positions–and to take responsibility for those decisions, based on sound science
evidence.” As he concludes, the education report demonstrates “how best to equip
citizens with the skills they need for active participation in the processes that will
shape everyone”s lives.” This is praising the deficit model and the decision making
to be made together with appropriately (re)educated citizens.
The expert report outlines what the public needs to acquire to get enlightened.
This is the necessary knowledge of and about science to be able to participate ac-
tively and responsibly. As the report claimes “science learning helps to (…) put
uncertainty into perspective, to guide technological development and innovation
and to forecast and plan for the future.” Education materials suggested by the expert
material refer to hundreds of schools in most different countries where the deficit
model is very consciously being taught.
We can see even through the few examples chosen that the official type of
RRI “as a means to bring science closer to the people” not only is essentially a
reductive approach but, on a layer deeper, it also often lags behind its own requi-
rements.
8 European Commission: Science Education for Responsible Citizenship. Report to the Euro-
pean Commission. Brussels 2015.
236 Imre Hronszky
CONCLUSION
The, on the EC level recently institutionalised RRI follows an innovation policy ap-
proach of a Janus face. This way it is an essential modification of the old framework,
based solely on economic competitiveness and autonomy of science for RI funding.
It has four pillars. First, it puts in its core a strategic alliance between innovation and
the Grand Challenges to give a global strategic orientation for RI in terms of global
societal (and environmental) needs, meanwhile keeping the leading role for serving
the needs of economic growth. Second, it deprives the precautionary approach of
its essential role (this does not differentiate it from the earlier variant). Third it aims
at and is on the way to realising a one-sided public participation. It promotes “con-
structing” or at least selecting citizens who look at RI through the lens of science
(and technology), find their jobs based on their science (and technological) education,
and are positively biased towards partaking in the exploration and exploitation of
something probably partly becoming a new, a global technological fix as the overall
engine for their good life, that is essentially conceptualised in consumption of newer
and newer technological achievements, also of those which repair the adverse effects
of previous technologies. Fourth, institutionalised RRI and its funding intends to re-
ceive public legimation this way. To reach these goals “smoothly”, institutionalised
RRI plays down the importance of precaution and the two-way communication. In its
recent form, institutionalised RRI and its funding is not an agent for a participative
democratic transformation of RI, politics and society but for renewing a technocratic,
expertocratic perspective, even when perhaps masses of citizens enthusiastically par-
ticipate in different sorts of “citizen science”. Institutionalised RRI gears the innova-
tion process to societal needs in a special way that fits in the Europe 2020 strategy.
Too tightly-cut new clothes for the “emperor”? 237
LITERATURE
European Commission: Europe 2020 – A strategy for smart, sustainable and inclusive growth. Brus-
sels, 3.3.2010, COM(2010) 2020 final. http://eur-lex.europa.eu/LexUriServ/LexUriServ.
do?uri=COM:2010:2020:FIN:EN:PDF (Stand: 10.4.2017).
European Commission: Science Education for Responsible Citizenship. Report to the European
Commission. Brussels 2015. http://ec.europa.eu/research/swafs/pdf/pub_science_education/
KI-NA-26-893-EN-N.pdf (Stand: 10.4.2017).
G7 Science ministers’ communiqué, Turin, 27–28. September. 28th September 2017. http://www.g7italy.
it/sites/default/files/documents/G7%20Science%20Communiqu%C3%A9.pdf (Stand: 30.9.2017).
Jasanoff, Sheila: Designs on Nature. Science and Democracy in Europe and the United States.
Princeton 2005.
Rip, Arie: The clothes of the emperor. An essay on RRI in and around Brussels. Journal of Respon-
sible Innovation, vol. 3, 2016: 21.11.2016, http://dx.doi.org/10.1080/23299460.2016.1255701.
RRI Toolkit. Fostering Responsible Research and Innovation. http://www.rritools.eu (Stand: 10.4.2017).
de Saille, Stevienna: Innovating for Innovation Policy: The Emergence of “Responsible Research
and Innovation”. Journal of Responsible Innovation, July 2015. pp. 152–168.
Stirling, Andy: Democratising innovation. SPRU. Sussex 2014.
„BREAKING NEWS“ – ODER WIE MODERNE TECHNIK
JOURNALISMUS INHALTLICH VERÄNDERT
Harald Kirchner
In Zeiten von „Fake News“ ist die Glaubwürdigkeit des Journalismus wieder stär-
ker in die Diskussion geraten. Gibt es eine von unbekannten Mächten gesteuerte
Mainstream-Presse? Kann man Journalisten noch trauen? Insbesondere von Popu-
listen wird die Glaubwürdigkeit des Journalismus insgesamt angezweifelt – eine
vielleicht durchsichtige Strategie, um Kritiker ins Abseits zu stellen und die ei-
genen Echoräume gegen Argumente zu immunisieren. Optimisten hoffen jedoch,
dass gerade durch krude Falschbehauptungen, zum Beispiel der Administration
des amerikanischen Präsidenten Donald Trump (wie mit der Zahl der Besucher
der Inauguration des Präsidenten), die Aufmerksamkeit für kritischen Journalismus
wieder steigen könnte.
Abgesehen von dieser großen und wichtigen Diskussion über den Umgang mit
Wahrheit in der Gesellschaft gibt es allerdings auch technisch-gesellschaftliche
Faktoren, die den Journalismus und damit auch die allgemeine Wahrnehmung poli-
tischer und gesellschaftlicher Prozesse beeinflussen, die nicht so deutlich im Fokus
der Diskussion stehen – wahrscheinlich, weil sie sich hauptsächlich nur den Me-
dienschaffenden selbst in aller Deutlichkeit zeigen.
Gemeint ist die technische Möglichkeit, immer schneller Nachrichten in den
verschiedensten Medien zu publizieren, und die daraus folgende immer größere
Arbeitsteilung. Ein Zeitungsredakteur ist heute auch Online-Journalist, bisweilen
sogar in Personalunion Radio- und Fernsehmacher, Fernsehjournalisten produ-
zieren inzwischen auch Radio- und Online-Beiträge oder liefern Teile zu für den
jeweils anderen „Ausspielweg“, wie die verschiedenen Medien innerhalb eines
Medienhauses (zum Beispiel eines öffentlich-rechtlichen Senders) inzwischen ge-
nannt werden. Der Nachrichtenjournalismus nähert sich durch die Faktoren Ge-
schwindigkeit und Arbeitsteilung ein Stück weit der industriellen Produktion von
Nachrichten an.
In Deutschland ist das Fernsehen zwar immer noch die Nachrichtenquelle Num-
mer eins, doch der Trend geht eindeutig Richtung Online-Nachrichten mit dem
Schwerpunkt auf mobile Endgeräte.1 Matthias Streitz, Geschäftsführer von „Spiegel
Online“ wird mit dem Satz zitiert: „Die mobilen Endgeräte und Apps spielen bei uns
eine stark wachsende Rolle, zusammengenommen sogar fast die wichtigste (…).“2
1 vgl. Reuters Institute Digital News Survey 2016, Oxford. In: Media Perspektiven, Frankfurt am
Main, 1.11.2016, S. 534 ff.
2 Bayerischen Landeszentrale für neue Medien (Hg.): Tendenz – das Magazin der Bayerischen
Landeszentrale für neue Medien, München, 1.4.2016, S. 17.
240 Harald Kirchner
Die Reuters-Studie hat auch ergeben, dass für immer mehr Nutzer von Online-
Medien die Geschwindigkeit, in der Nachrichten publiziert werden, zum Kriterium
für die Beurteilung eines Medium geworden ist – ein Trend, dem zahlreiche Medien
Rechnung tragen, indem sie Nachrichten-Apps anbieten, die selbsttätig auf sich
aufmerksam machen, sobald es Neuigkeiten gibt. Wer mehrere Apps mit „Push-
Nachrichten“ auf seinem Smartphone installiert hat, bei dem fiept, klingelt und
surrt es innerhalb von Sekunden mehrfach, wenn ein wichtiges Wahlergebnis vor-
liegt, sich ein Anschlag ereignet hat oder ein Fußballspiel entschieden worden ist.
Inzwischen werden sogar Inhalte den Vorgaben technischer Geräte wie die „Apple-
Watch“ angepasst: Weil das Display der Uhr so klein ist, müssen Inhalte entspre-
chend dargestellt, sprich verkürzt werden.3
Die zweite große Veränderung, die sich für den Journalismus ergeben hat, ist
ebenfalls auf technische Entwicklungen wie das Internet und die immer höheren Ra-
ten bei der Datenübermittlung zurückzuführen. Denn nicht allein die Geschwindig-
keit der Nachrichtenübermittlung hat sich erhöht, durch die allgemeine Zugänglich-
keit von Übertragungs- und Publikationswegen ist neben den professionellen Medien
eine neue mediale Öffentlichkeit entstanden. Vor allem soziale Medien beeinflussen
inzwischen die Arbeit von Journalisten, insbesondere derer, die tagesaktuell für elek-
tronische, wie auch für Printmedien Beiträge erstellen. Im Folgenden sollen diese
Veränderungen und vor allem das Zusammenspiel von etablierten, presserechtlich
verfassten Medien und sozialen Medien aus praktischer Sicht beleuchtet werden.
„Genaues lässt sich noch nicht sagen“, sagt ein Reporter ins Mikrophon und gibt da-
mit die zuverlässigste Beschreibung eines Ereignisses, das seit kaum einer Stunde
München, ja, die ganze Republik in Atem hält. Es sind nur Minuten vergangen, seit
ein Notruf bei der Polizei eingegangen ist, und doch läuft bereits eine Maschinerie
auf Hochtouren. Und noch nicht einmal eine Stunde ist vergangen, seitdem die
Nachricht von Schüssen beim Olympiaeinkaufszentrum in der Welt ist, da gibt es
die ersten Live-Berichte per Telefon im Fernsehen, kurz darauf stehen auch schon
Übertragungswagen bereit, die in bester Bildqualität frisch ins Geschehen gewor-
fene Reporter zeigen, die nur Spärliches berichten können. Printmedien haben auf
ihren Internetseiten „Liveblogs“ gestartet – doch der Maschinerie der etablierten
Medien steht auch eine Maschinerie der sozialen Medien gegenüber, die noch auf-
geregter und scheinbar schrankenlos kommunizieren kann.4
Am Beispiel des Amoklaufs in München am 22. Juli 2016 lässt sich nicht nur
zeigen, wie eng verwoben soziale Medien und etablierte Medien bereits sind, son-
dern dass zwei Entwicklungen die Medien derzeit prägen: Beschleunigung und das
Verschwinden des Autors.
3 ebd.
4 Eine genaue Dokumentation über die mediale Chronik des Münchner Amoklaufs hat die „Süd-
deutsche Zeitung“ erstellt, abrufbar unter: http://gfx.sueddeutsche.de/apps/57eba578910a46f716
ca829d/www/ (Zugriff am: 20.5.2017).
„Breaking News“ – oder wie moderne Technik Journalismus inhaltlich verändert 241
1.1 Beschleunigung
Wie sich an der Berichterstattung über den Amoklauf von München zeigen lässt,
ist die Beschleunigung einer der entscheidenden Faktoren im Journalismus und
einer, der im wesentlichen durch technische Entwicklungen geprägt ist. War bis
vor kurzem ein Übertragungswagen mit Satellitentechnik und einer mehrköpfigen
Bedienungsmannschaft für die Übertragung von Live-Bildern notwendig, reicht
heute ein kleiner Rucksack mit einer Apparatur, in der mehrere Telefon-Sim-Kar-
ten stecken, um Bilder live in guter Sendequalität zu übertragen. Ganz abgesehen
davon bieten Internetdienste wie „Periscope“ die Möglichkeit, live vom Smart-
phone aus Bilder zu senden (wenn auch nicht in Fernsehqualität). Sowohl die tech-
nische Entwicklung im Profi-Bereich als auch die im Consumer-Bereich haben die
Medienlandschaft verändert.
Die Schwelle für eine Live-Berichterstattung hat sich dadurch extrem gesenkt,
und dies hat auch Folgen für das, was inhaltlich berichtet wird. Der Grundsatz
„Sorgfalt vor Schnelligkeit“ ist deutlich aufgeweicht worden – obwohl dies von
Rundfunkverantwortlichen sicherlich vehement bestritten werden würde. Um die
Bedeutung dieser Veränderung wirklich deutlich machen zu können, möchte ich
die konkreten Abläufe journalistischen Arbeitens vor allem im Bereich der elek-
tronischen Medien beleuchten. Dazu sind zwei Fragestellungen besonders wichtig:
A: Was sind die Kriterien für eine Berichterstattung und, vor allem, was sind die
Kriterien für Art und Zeitpunkt der Berichterstattung, also auch für eine Live-Be-
richterstattung ad hoc?
Die Relevanz eines Sachverhalts für die Zielgruppe eines Mediums ist das generelle
Kriterium für Berichterstattung. Dass die Wahl Angela Merkels 2013 im Bundestag
zur Kanzlerin eine Nachricht von allgemeiner Relevanz ist, dürfte unbestritten sein,
allerdings fragt sich, ob der Geschwindigkeitswettbewerb der Nachrichtenagentu-
ren bei der Verbreitung der Nachricht sinnvoll ist. Denn nur Sekunden nach der
Verkündung des Ergebnisses (das man ohnehin live im Internet wie auch im Fernse-
hen (Phönix) verfolgen konnte), versuchen sich die Agenturen darin zu überbieten,
schneller zu sein als die Konkurrenz. Kaum anderthalb Minuten nach der Zeile
„Angela Merkel zur Bundeskanzlerin gewählt“, kommen bereits die Agenturen mit
dem genauen Abstimmungsergebnis. Wozu also der Überbietungswettbewerb für
die erste, nicht sonderlich überraschende Meldung angesichts einer aufgrund einer
großen Koalition zu erwartenden überwältigenden Mehrheit? Relevanter als das
reine Faktum, dass Merkel die Wahl gewonnen hat, ist das konkrete Ergebnis, weil
dies politische Interpretationen zulässt – warum also nicht zwei Minuten länger auf
eine sinnvolle Meldung warten?
Es ist der mittlerweile leider überstrapazierte Begriff „breaking news“, also
Nachrichten die den normalen Lauf der Dinge verändern, der fast nur noch dafür
herhält, dass sich Medien als besonders schnell und damit auch kompetent profi-
lieren können. Genau hier entsteht ein Problem: Schnelligkeit kann ein Ausweis
von Kompetenz sein, denn sie kann anzeigen, dass ein Medium einen Reporter
vor Ort hat, der selbst berichtet und nicht auf eine Agentur, also auf eine Nachricht
242 Harald Kirchner
aus zweiter Hand, warten muss. Wenn ein Reporter jedoch damit beschäftigt ist,
einen hohen aktuellen „Output“ zu generieren, dann hat er weniger Zeit für eine
hintergründige Analyse. Üblicherweise sind die Rollen derer, die aktuell arbeiten,
und derjenigen, die die Analyse liefern, auf verschiedene Personen verteilt, doch
inzwischen wird der Kostendruck in allen Medien immer größer, weshalb hier Ab-
striche gemacht werden. Wenn also der Geschwindigkeit immer höhere Priorität
eingeräumt wird, führt das bei begrenzten Ressourcen zwangsläufig zu Abstrichen
bei der analytischen Berichterstattung.
Dass der Amoklauf in München höchste Priorität in der Berichterstattung hatte,
ist naheliegend, die Frage ist, ob zu einem Zeitpunkt, zu dem es nur spärliche gesi-
cherte Informationen, dafür um so mehr Gerüchte gab, eine Dauerberichterstattung
zwingend ist, die sich – mangels neuer realer Nachrichten – eben auch mit der
Diskussion von Gerüchten beschäftigen muss. Die großen Sender hatten sich dafür
entschieden, das Regelprogramm zu unterbrechen und ausschließlich über die Ge-
schehnisse in München zu berichten.
Als es 2009 zu einem Amoklauf an einer Schule in Winnenden gekommen ist,
wurde der Südwestrundfunk sowohl dafür kritisiert, dass er das Programm nicht un-
terbrochen hat, als auch dafür, dass er zu viel über ein Ereignis berichtet habe, über
das noch wenige Fakten vorgelegen haben – die medienkritische Empörungslage
war damals bereits diffus. 2016 wurde schon nicht mehr so sehr über das Ob ei-
ner ununterbrochenen Berichterstattung diskutiert, sondern eher über das Wie. Das
heißt, die Frage nach einem Innehalten und Warten auf gesicherte Informationen
wurde kaum mehr gestellt. Tatsächlich stellt sich diese Frage heute auch nicht mehr,
denn der Taktgeber für die mediale Begleitung von Ereignissen sind nicht mehr die
herkömmlichen Medien, sondern die sozialen Medien.
B: Wie beeinflussen sich soziale Medien und presserechtlich verfasste Medien ge-
genseitig?
Sowohl in den herkömmlichen Medien als auch in den sozialen Medien setzte die
Berichterstattung wenige Minuten nach Beginn des Amoklaufs in München ein.
Wenn ein wichtiges Ereignis bereits in der Öffentlichkeit dargestellt wird, dann
können dies Journalisten, egal welchen Mediums, heute nicht mehr ignorieren –
einerseits weil aktuelle Medien ihrem eigenen Anspruch, schnell zu reagieren,
gerecht werden wollen, andererseits, weil die Erwartungshaltung bei Zuschauern,
Hörern, Lesern inzwischen so groß ist, dass schon eine verzögerte Berichterstattung
selbst zum Thema insbesondere in den sozialen Medien werden kann und sogar
Anlass zu Verschwörungstheorien geben mag.
Mit die ersten Bilder vom Amoklauf, genauer gesagt, Bilder, die in der Nähe
des Tatortes nach dem Amoklauf vom Polizeieinsatz gemacht wurden, waren von
einem Passanten mittels des Internetdienstes „Periscope“ live online gestellt wor-
den. Mittlerweile sind auch die Mitarbeiter von Sendern und Zeitungen angehalten,
sofort wenn sie Zeuge eines berichtenswerten Ereignisses werden, Bilder und Vi-
deos an die Redaktionen zu übermitteln; es geht darum, schnell so viel wie möglich
verwertbares Material zu generieren. Es gibt also auch einen Wettlauf um die ersten
Bilder – wichtiger aber ist, dass man mit Informationen umzugehen hat, die zwar
„Breaking News“ – oder wie moderne Technik Journalismus inhaltlich verändert 243
nicht bestätigt, aber in der Welt sind. So ist die Fehlinformation, dass es auch am
Münchner Stachus zu einer Schießerei gekommen sei, lange Thema. Selbst die Po-
lizei war sich geraume Zeit nicht darüber im Klaren, ob es nun eine weitere Schie-
ßerei gegeben hat oder nicht. Die Frage, die den ganzen Abend über im Raum stand
war, ob es sich um einen Terroranschlag oder um einen Amoklauf handelte. Die
Tatsache, dass es weit verbreitete Meldungen über mehrere Schießereien und über
mehrere Täter gab, war für viele Anlass, von einem Terrorakt zu sprechen, auch die
Behörden waren sich dessen geraume Zeit nicht sicher. Die „Twitter“-Nachrichten
von Privatpersonen über einen Terroranschlag schwollen gewaltig an, während die
„Tweets“ über einen Amoklauf vergleichsweise überschaubar blieben. Die Lage
war zunächst tatsächlich unklar, allerdings verschob sich nicht zuletzt durch die
sozialen Medien die Gewichtung zugunsten der Annahme eines Terroranschlags.
Das erklärt sich freilich nicht nur aus den realen Geschehnissen am Tag des Amok-
laufs, sondern aus dem nachrichtlichen Umfeld, denn zuvor gab es in Frankreich
und Deutschland einige Terroranschläge – eine Fehleinschätzung lag also nahe. Für
das, was berichtet wird, ist nicht nur die tatsächliche Faktenlage von Bedeutung,
sondern auch der Erfahrungshorizont, von dem aus sie betrachtet wird. Das gilt
umso mehr für diejenigen, die als Nicht-Profis berichten, ihnen fehlt schlicht das
journalistische Handwerkszeug, um eine saubere Einordnung der einströmenden
Informationen zu gewährleisten. Allerdings konnten sich auch die professionellen
Medien dem nicht entziehen, sie mussten auch die durch Fehlinformationen ent-
standene Panik mit einbeziehen – die unübersichtliche Nachrichtenlage, wurde da-
mit selbst zum Gegenstand der Berichterstattung, die wiederum auf das Geschehen
Einfluss genommen hat.5
Das Idealbild eines Reporters ist der Mensch, der mit Block und Stift einem Er-
eignis beiwohnt und dann darüber berichtet. Theoretisch gilt dies auch heute noch,
doch schon immer war Journalismus ein arbeitsteiliges Geschäft, besonders in der
aktuellen Berichterstattung. Zeitungen wie auch Hörfunk und Fernsehen haben
schnelle, kurze Informationen stets über Nachrichtenagenturen bezogen. Besonders
Hörfunknachrichten basieren meist auf Agenturen. Dies ist ein eingespielter Weg:
Ein Agentur-Journalist vor Ort gibt kurze Meldungen an seine Zentrale, die gibt sie
in den „Dienst“, der Redakteur des Hörfunks zum Beispiel nimmt diese Meldung,
vergleicht sie meist mit weiteren Agenturen zum selben Thema und verwendet sie
für die Sendung – das alles geschieht oft in Minuten. Der Redakteur, der eine Mel-
dung aus verschiedenen Texten verschiedener Agenturen schreibt, kennt die Auto-
ren dieser Texte nicht, es handelt sich letztendlich um ein anonymes Produkt. Das
ist nicht unbedingt ein Nachteil, denn die Arbeitsabläufe sind erprobt, es gelten
für alle Beteiligten die gleichen professionellen Standards. Es gilt das Vertrauen in
lange tradierte professionelle Informationsketten.
Allerdings verändert sich auch hier die Medienwelt, einerseits durch die Be-
schleunigung der Informationsverwertung, andererseits durch die Art der Verwen-
dung der generierten Inhalte. Insbesondere für elektronische Medien ist letzterer
Prozess von besonderer Bedeutung, denn sie arbeiten Multimedial – ein so genann-
ter „O-Ton“ zum Beispiel (ein Original-Ton, also die Aussage eines am Geschehen
Beteiligten) wird nicht nur im Fernsehen, sondern auch im Hörfunk und Online
verarbeitet. Das heißt, die Distributionskette wird nicht nur immer länger, es ver-
ändert sich vor allem ihr Charakter. Ging es bisher um die Verbreitung rein nach-
richtlichen Inhalts („Der Bundestag hat beschlossen, dass …“; „Es gab beim Unfall
drei Tote und zwei Verletzte …“ usw.) so werden jetzt selbst längere analytische
Beiträge aus einzelnen Versatzstücken zusammengesetzt, ohne dass die jeweiligen
Autoren voneinander wissen. Es war zwar schon lange Praxis, sich „O-Töne“ von
Kollegen zuliefern zu lassen, dem ging allerdings stets eine Absprache über The-
men und Fragen mit dem ausführenden Kollegen voraus, das heißt es gab einen
klar formulierten Auftrag für einen bestimmten Beitrag. Inzwischen werden ge-
führte Interviews, aber auch recherchierte Inhalte schriftlich, in Massenspeicher ge-
stellt, auf die sämtliche Redaktionen zugreifen können.– Interviews, recherchierte
Fakten, alles wird zum „Material“, das verwertet werden kann. Ein Thema wird
für verschiedene Sendungen, Wellen, Online, also für verschiedene Ausspielwege
gesetzt, und völlig unabhängig voneinander arbeitende Redakteure bedienen sich
aus dem angelieferten Material. Das klingt zunächst unproblematisch, doch die je-
weiligen Redakteure kennen oft nicht den Kontext, in dem ein kurzes Statement
geholt wurde. Vor allem aber: Bevor eine Kamera läuft, führt der Reporter noch
ein Gespräch, erfährt also weitere Hintergründe und kann so das Gesagte deutlich
besser einordnen – gerade wenn, wie es die normale Praxis ist, ein nur 20 Sekunden
langer Satz in einen Beitrag wandert, ist es um so wichtiger, mehr zu wissen als nur
das, was in den Massenspeicher gelangt.
Genau diese Entwicklung macht die Situation auch für den Gesprächspartner
des Reporters immer unklarer, denn wenn der Interviewte nicht weiß, wer seine
Aussage wie verwenden wird, belastet das auch das Vertrauensverhältnis zwischen
Journalisten und Gesprächspartner. So lange zum Beispiel ein Politiker einen Jour-
nalisten kennt und weiß, dass verantwortungsvoll mit seinen Aussagen umgegan-
gen wird, dann erhält der Journalist offenere Aussagen. Nur wenn ein Gesprächs-
partner sich darauf verlassen kann, dass nicht etwa durch die Art des Schnitts seine
Aussagen Fehlinterpretationen ausgesetzt sein werden, kann er sich auch öffnen.
Die Angst gerade von Politikern, in einer bestimmten, von ihnen nicht intendierten
Weise interpretiert zu werden, hat nicht zuletzt dazu geführt, dass immer mehr als
reine Sprechblasen empfundene Aussagen in die Welt gesetzt werden. Diese Angst
ist nicht unbegründet, denn tatsächlich werden Aussagen oftmals möglichst weitge-
hend ausgelegt, um zu einer spektakulären Schlagzeile zu kommen.
Das angesprochene Problem der ausgeweiteten Distributionskette ist jedoch
subtiler, denn es muss nicht die Gier nach der Sensation sein, die zu Problemen
führt. Wenn es immer weniger Journalisten gibt, die sich vor Ort informieren,
„Breaking News“ – oder wie moderne Technik Journalismus inhaltlich verändert 245
Gespräche führen, „O-Töne“ holen, dafür immer mehr Redakteure, die das ange-
lieferte „Material“ für verschiedenste Kanäle weiterverarbeiten, tritt schlicht das
Problem der „stillen Post“ in den Vordergrund – es passieren häufiger Fehler oder
es verschiebt sich vielleicht sogar der Tenor einer Aussage. Der Stellenwert des ein-
zelnen Autors, der nicht nur für die Richtigkeit des Berichteten bürgt, sondern auch
eine Einschätzung aufgrund langer Erfahrung in einem Thema besteuern kann,
geht immer weiter zurück. Ausdruck dafür sind auch Funktionsbezeichnungen wie
„Content-Manager“, „Distributoren“ – es geht immer mehr darum, möglichst ef-
fizient „Content“ für verschiedenste „Ausspielwege“ nutzbar zu machen. Das be-
dingt, dass sich immer mehr Redakteure, die sich mit einem Thema nicht näher
beschäftigt haben, über genau dieses Thema berichten müssen. Wie gesagt – aktu-
eller Journalismus war immer arbeitsteilig, daher ist die Tatsache, dass es Distribu-
tionsketten gibt, kein prinzipielles Problem, doch es besteht zunehmend die Gefahr
der Überdehnung dieser Ketten. Die Beschleunigung des Nachrichtengeschäfts und
die Vermehrung der „Ausspielwege“ gerade bei den elektronischen Medien (On-
line, Hörfunk, Fernsehen) führen daher zu einer Ausweitung des Journalismus aus
zweiter Hand.
Einen „Verantwortlichen im Sinne des Presserechts“ (V. i. S. d. P.) gibt es in den so-
zialen Medien selbstverständlich nicht – ihn gibt es nur bei professionellen Medien
(die Angabe des presserechtlich Verantwortlichen ist gesetzlich vorgeschrieben)
und das nicht nur aus juristischen, sondern auch aus handwerklichen Gründen. Für
Profis gilt stets das Vier-Augen-Prinzip: Nichts wird (oder nichts sollte zumindest)
publiziert werden, ohne dass ein Kollege zuvor den Text, den Film vorher gesehen
hat. In sozialen Medien allerdings treten Autoren oft unter Pseudonym auf, bei aller
Offenheit des Netzes gibt es kaum etwas Intransparenteres als die vielfach geteil-
ten, „geretweeteten“ Nachrichten von unbekannten Privatpersonen (selbst wenn
sie mit realen Namen arbeiten, bleiben sie für ein breites Publikum anonym). Das
heißt, ein ganz entscheidendes Element journalistischen Arbeitens fehlt völlig: die
Kenntnis der Quelle einer Information.
Betrachtet man das Beispiel des Amoklaufs in München, dann ist festzustellen,
dass nicht verifizierbare „Postings“ von zahlreichen Privatpersonen, nicht nur die
Journalisten, sondern auch die Behörden verwirrt haben. So wurde die Zahl der
Orte, an denen es zu Schießereien gekommen sein soll, immer höher, ohne dass
diese Falschmeldungen entsprechend schnell hätten korrigiert werden können. Die
Folge davon war eine massive Verunsicherung in der Bevölkerung. Problematisch
dabei war, dass durch wenige Falschmeldungen innerhalb von Minuten aufgrund
von Weiterleitungen immer neue Falschmeldungen entstanden sind. Allein die Tat-
sache, dass der Strom der Meldungen anschwoll, erzeugte auch bei professionellen
Journalisten, wie auch bei Behörden den Eindruck, dass es sich um mehr als Ge-
rüchte handeln könnte. Also wurden auch über eigentlich professionell arbeiten-
den Medien unbestätigte Meldungen in Umlauf gebracht, zwar wurde meist der
246 Harald Kirchner
6 a. a. O.
„Breaking News“ – oder wie moderne Technik Journalismus inhaltlich verändert 247
schränkungen, denn die Hoheit darüber, was an erster Stelle für alle Nutzer sichtbar
sein soll, wollen die Nachrichtenmacher nicht ganz abgeben. Die Algorithmen für
die Themenauswahl, sollen sich auf „weiche“ Stoffe beschränken.
An dieser Stelle wird ein Kompromiss zwischen dem ureigenstem journalisti-
schem Selbstverständnis – die Wichtigkeit einer Nachricht einzuordnen – und dem
persönlichen Geschmack des Nutzers gemacht.
3 KONSEQUENZEN
Die technische Entwicklung hat wie geschildert einen erheblichen Einfluss nicht
nur auf die Geschwindigkeit, in der Journalismus betrieben wird, auch die Inhalte
werden durch das Wechselspiel von Beschleunigung und einer neuen Öffentlichkeit
durch die sozialen Medien mitbestimmt.
Daraus ergibt sich die Frage, ob sich die etablierten professionellen Medien
einem Prozess entziehen können, der in den bestehenden Strukturen fast zwangs-
läufig zu einer qualitativen Verschlechterung des Journalismus führen muss. Hinzu
kommt, dass der Journalismus sich zunehmend mit bewusst in Umlauf gebrachten
falschen Informationen auseinandersetzten muss – wenn sogar eine Mitarbeiterin
des US-Präsidenten Trump von „alternative facts“ spricht, dann wird die Arbeit
noch schwieriger. Qualität müsste angesichts dessen einen immer höheren Stel-
lenwert bekommen.
Die Auflagen der Zeitungen sinken, die Quoten der Qualitätsprogramme wer-
den nicht besser, was zu einem Spardruck führt, gleichzeitig steigen durch die
Beschleunigung des Nachrichtengeschäfts und eine auch durch Populismus beein-
flusste Netzöffentlichkeit die Ansprüche an den Qualitätsjournalismus. Bedeutet
das Aufkommen des „Postfaktischen“ nicht schon ein Versagen der Informations-
kultur einer Gesellschaft?
Der Journalismus steckt sicherlich in einem Dilemma, allerdings ist zweifel-
haft, ob allein mehr Personal bei Zeitungen und Sendern dieses auflösen könnte,
denn es bedarf nicht nur aus ökonomischen Gründen eines entsprechend großen
Publikums, das gewillt ist, sich mit Qualitätsjournalismus zu beschäftigen. Die-
ser Qualitätsjournalismus ist durchaus auch eine Zumutung, sie besteht darin,
sich regelmäßig die Zeit zu nehmen, auch Artikel zu lesen, die einen selbst nicht
unbedingt interessieren, die den Leser aber zu einem informierten Bürger ma-
chen könnten. Eine Demokratie kann nur dann funktionieren, wenn Wähler ihre
Entscheidung auch mit vernünftigen Argumenten begründen können. Dass dies
zwar immer mehr ein Anspruch als eine Realität war, ist eine Binsenweisheit,
doch es scheinen sich die Gewichte zwischen bloßer Meinung und begründetem
Argument zu verschieben. Angebote sich qualitativ hochwertig zu informieren,
gibt es derzeit noch genug, doch um den gesellschaftlichen Auftrag des Journa-
lismus erfüllen zu können, bedarf es auch der Leser, Hörer, Zuschauer, die solche
Angebote wahrnehmen.
248 Harald Kirchner
LITERATUR
Backes, Thierry; Jaschensky, Wolfgang; Langhans, Katrin; Munzinger, Hannes; Witzenberger, Be-
nedict; Wormer, Vanessa: Timeline der Panik. Ein Täter, ein Tatort – und eine Stadt in Angst:
Wie aus dem Münchner Amoklauf ein Terroranschlag mit 67 Zielen wurde. Eine Rekonstruk-
tion. Süddeutsche Zeitung, 2016, http://gfx.sueddeutsche.de/apps/57eba578910a46f716ca829d/
www/ (Zugriff am: 20.5.2017).
Hölig, Sascha; Hasebrink, Uwe: Reuters Institute Digital News Survey 2016 – Ergebnisse für
Deutschland. Arbeitspapiere des Hans-Bredow-Instituts, Nr. 38, Hamburg, Juni 2016. https://
www.hans-bredow-institut.de/uploads/media/Publikationen/cms/media/3ea6d4fed04865d10a
d27b3f98c326d3a0ae6c29.pdf (Zugriff am: 20.5.2017).
ZUR RHETORIK DER TECHNIK
Aufriss eines Forschungsgebietes
Volker Friedrich
„Haben wir die Technik, die wir brauchen, und brauchen wir die Technik, die wir
haben?“ Mit diesen Fragen umreißt Klaus Kornwachs zentrale Aspekte der Tech-
nikphilosophie.1 Aus der Sicht eines Rhetorikers könnte eine Anschlussfrage ge-
stellt werden: Haben wir das Wissen über eine Rhetorik der Technik, das uns dabei
unterstützte, die Antworten auf diese Fragen zu formulieren? In dieser Anschluss-
frage wäre eingeschlossen, dass es so etwas wie eine „Rhetorik der Technik“ gäbe
oder man sie bearbeiten könnte. Der Beobachtung des Autors dieser Zeilen nach
wird im deutschsprachigen Raum einer Rhetorik der Technik nur eingeschränkt
nachgegangen. Sicher gibt es aus der Technikphilosophie heraus bereits eine Be-
schäftigung mit dem Verhältnis der Sprache zur Technik. Gleichwohl sei die Frage
aufgeworfen, wie aus der spezifischen Warte der Rhetorik dazu ein Beitrag geleistet
werden kann und somit Berührpunkte zwischen Rhetorik und Technikphilosophie
behandelt werden könnten. Ließe sich in solch einem Forschungsgebiet eine Zu-
sammenarbeit zwischen Philosophen, Rhetorikern, Technikern, Ingenieuren und
Naturwissenschaftlern auf den Weg bringen? Dieses Forschungsgebiet wird in fol-
gendem Aufriss bruchstückhaft skizziert.
Mittels Technik organisiert der Mensch die Wirklichkeit, und er schafft mittels
neuer Technik neue Wirklichkeiten. Dadurch, dass er darüber spricht (und schreibt),
organisiert er die Vermittlung der technisch geprägten Wirklichkeiten. Dies wiederum
wirkt letztlich auch zurück auf Technik selbst. Technik und Rhetorik der Technik ste-
hen in einer Wechselwirkung, die zu betrachten einer der Gegenstände einer Rhetorik
der Technik wäre: Technik artikuliert sich, und Technik wird artikuliert. Wie spricht
Technik zu uns, wie sprechen die Techniker über Technik, wie die Nichttechniker?
Können wir Technik – nicht allein, aber eben auch – als rhetorisches Phänomen, als
Rhetorik begreifen? Können wir Rhetorik nutzen, um Technik zu begreifen?
Technikphilosophen greifen Fragen nach der Wechselwirkung von Sprache
und Technik durchaus auf, manche sehen Technik selbst als Medium an.2 In dieser
1 So etwa zu finden in seiner Einführung in die Philosophie der Technik (Kornwachs, Klaus:
Philosophie der Technik. Eine Einführung. München 2013. S. 121.) oder in den Geleitworten
zu der von ihm herausgegebenen Reihe „Technikphilosophie“ (exemplarisch sei der erste Band
dieser Reihe angeführt: Kornwachs, Klaus: Geleitwort des Herausgebers. In: ders.: Das Prinzip
der Bedingungserhaltung. Eine ethische Studie. Münster 2000. S. V.).
2 vgl. Hubig, Christoph: Technik als Medium. In: Grunwald, Armin (Hg.): Handbuch Technik-
ethik. Darmstadt 2013. S. 118–123.
250 Volker Friedrich
Skizze soll es um einen ergänzenden Aspekt gehen, nämlich den Diskurs, den die
Rhetorik dazu beisteuern könnte.
Einen Eintrag zu den Begriffen „Technik“ oder „Technikrhetorik“ sucht man
im begriffsgeschichtlichen Standardwerk „Historisches Wörterbuch der Rhetorik“
vergeblich; zu finden ist allerdings eine Definition des Stichwortes „Wissenschafts-
rhetorik“: „Der Ausdruck ‚W.‘ bezeichnet: (1) die bewusste kommunikative Ver-
mittlung wissenschaftlichen Wissens, und zwar sowohl (1a) innerhalb der scientific
community als auch (1b) nach außen, in popularisierender Form auf ein wissen-
schaftlich nicht vorgebildetes Publikum abzielend; (2) die wissenschaftliche Un-
tersuchung und Thematisierung der rhetorischen Vermittlung von Wissen auf einer
Metaebene. Zwei Leitfragen dienen deshalb im Folgenden zur Orientierung – ‚Wie
wurde und wird Wissen rhetorisch vermittelt?‘ (Wissenschaft als Rhetorik) und
‚Wie wurde und wird die rhetorische Vermittlung von Wissen theoretisch erschlos-
sen und dargestellt?‘ (Rhetorik als Wissenschaft).“3
Nach einer Analogiebildung, die in der obigen Definition „Wissen“ durch
„Technik“, „wissenschaftlich“ durch „technisch“ ersetzte, bezeichnete der Begriff
„Technikrhetorik“: (1) die bewusste kommunikative Vermittlung technischen Wis-
sens, und zwar sowohl (1a) innerhalb der Gemeinschaft der Techniker, Ingenieure,
Naturwissenschaftler etc. als auch (1b) nach außen, in popularisierender Form auf
ein technisch nicht vorgebildetes Publikum abzielend; (2) die wissenschaftliche Un-
tersuchung und Thematisierung der rhetorischen Vermittlung von Technik auf einer
Metaebene. Orientierung wäre demzufolge für die Technikrhetorik zu gewinnen mit
Fragen wie: Wie wurde und wird Technik rhetorisch vermittelt? Wie wurde und wird
eine rhetorische Vermittlung von Technik theoretisch erschlossen und dargestellt?4
Dass man zu den Begriffen „Technik“ oder „Technikrhetorik“ vergeblich
Einträge im begriffsgeschichtlichen Standardwerk „Historisches Wörterbuch der
Rhetorik“ sucht, dürfte nicht als eine Art einmaliger „Betriebsunfall“ der deutsch-
sprachigen Rhetorikforschung zu werten sein, sondern auf eine deutliche Diffe-
renz der Diskussionen im deutschsprachigen zu denen im angelsächsischen Raum
verweisen; dort wird zur Technikrhetorik intensiv und seit längerem gearbeitet.
Exemplarisch sei auf die Arbeiten von Alan G. Gross verwiesen. Er hat mehrere
Bücher verfasst, mitverfasst und herausgegeben, die sich mit Fragen der Wissen-
schafts- und Technikvermittlung, der Rhetorizität und den Persuasionsstrategien
von Wissenschaft und Technik befassen und sie historisch, hermeneutisch und kri-
tisch untersuchen.5 Seit 2009 gibt Gross die Buchreihe „Rhetoric of Science and
Technology“ heraus.6
3 Klüsener, Bea; Grzega, Joachim: Wissenschaftsrhetorik. In: Ueding, Gert (Hg.): Historisches
Wörterbuch der Rhetorik, Bd. 10: Nachträge. Tübingen 2012. Sp. 1486.
4 Die beim Begriff „Wissenschaftsrhetorik“ vorgenommene Unterscheidung zwischen „Wissen-
schaft als Rhetorik“ und „Rhetorik als Wissenschaft“ lässt sich für „Technikrhetorik“ nicht
sinnvoll übertragen; „Rhetorik als Technik“ hätte den Bezug zum griechischen „rhetorike
techne“, also der ursprünglich aristotelischen Bezeichnung für Rhetorik als eine lehrbare Dis-
ziplin (vgl. Kalivoda, Gregor; Zinsmaier, Thomas: Rhetorik. In: Ueding, a. a. O., Bd. 7, Sp.
1423.).
5 s. u. „Literatur“.
6 Zu den Themen der Reihe, die in vielem meine unten ausgeführte Liste abdecken und ergänzen,
Zur Rhetorik der Technik 251
hält der Verlag fest: „Although the point has already been made that science and technology are
in some sense rhetorical, the field remains open to new topics and innovative approaches. The
Rhetoric of Science and Technology series of Parlor Press will publish works that address these
and related topics:
1. The history of science and technology approached from a rhetorical perspective
2. Science and technology policy from a rhetorical point of view
3. The role of photographs, graphs, diagrams, and equations in the communication of science
and technology
4. The role of schemes and tropes in the communication of science and technology
5. The methods used in rhetorical studies of science and technology, especially the predomi-
nance of case studies
6. The popularization of science by scientists and non-scientists
7. The effect of the Internet on communication in science and technology
8. The pedagogy of communicating science and technology to popular audiences and audien-
ces of scientists and engineers
9. The inclusion of science and technology in rhetoric and composition courses.“ (http://www.
parlorpress.com/science; Zugriff am: 1.8.2017.)
7 vgl. Ceccarelli, Leah: Rhetoric of Science and Technology. In: Mitcham, Carl (Hg.): Encyclo-
pedia of Science, Technology, and Ethics. Bd. 3. Detroit 2015. S. 1625–1629. Die einschlägige
wissenschaftliche Gesellschaft, die „Association for the Rhetoric of Science, Technology, and
Medicine (ARSTM)“, nimmt die Medizin noch hinzu: http://www.arstmonline.org (Zugriff
am: 1.8.2017).
8 vgl. Cutcliffe, Stephen H.: Science, Technology, and Society Studies. In: Mitcham, Carl (Hg.):
Encyclopedia of Science, Technology, and Ethics. Band 4. Detroit 2015. S. 1723–1726. Studi-
enprogramme dieser Art sind im deutschsprachigen Raum rar, Klaus Kornwachs hat an der
Brandenburgischen Technischen Universität Cottbus mit den Bachelor- und Masterstudiengän-
gen „Kultur und Technik“ Vergleichbares aufgebaut.
9 Bolz, Norbert: Das Gestell. München 2012. S. 9–13.
10 Blumenberg, Hans: Ästhetische und metaphorologische Schriften. Frankfurt am Main 2014(4).
S. 14.
252 Volker Friedrich
dass wir nicht zu sagen wissen, was wir tun.“11 Rhetorik der Technik hätte also
mit Technikvermittlung auf einer grundsätzlichen Ebene zu tun. Bolz befasst sich
an anderen Stellen mit dem Verhältnis von Design, Rhetorik und Technik, das als
Benutzerfreundlichkeit der Computer des Nutzers tiefes Nichtverstehen der Tech-
nik maskiert: „Die Intelligenz der Produkte besteht gerade darin, den Abgrund des
Nichtverstehens zu verdecken. So löst sich das Gebrauchen vom Verstehen ab. Wer
heute von intelligentem Design spricht, meint, daß der Gebrauch des Geräts selbst-
erklärend ist. Doch diese Erklärung führt nicht zum Verständnis, sondern zum rei-
bungslosen Funktionieren. Man könnte deshalb formelhaft sagen: Benutzerfreund-
lichkeit ist die Rhetorik der Technik, die unsere Ignoranz heiligt. Und diese design-
spezifische Rhetorik, die sich eben nicht in Diskursen, sondern in der Technik des
Interface Design ausprägt, verschafft uns heute die Benutzerillusion der Welt.“12
Bolz hebt hier insbesondere auf Computer- und Medientechnik ab, also genau
den Bereich der Technikrhetorik, der in der deutschsprachigen Literatur am häu-
figsten diskutiert wird. Auf ebensolche medienrhetorischen Aspekte, die sich mit
technikrhetorischen zumindest in Teilen überschneiden, geht substantiell Francesca
Vidal ein in ihrer „Rhetorik des Virtuellen“13 und mit dem von ihr herausgegebenen
„Handbuch Medienrhetorik“14. Zu Fragen der Medien-, Bild-, Film-, Design- oder
visuellen Rhetorik u. Ä. sind auch im deutschsprachigen Raum über die letzten
Jahre eine Reihe von Monografien, Sammelbände und auch Periodika erschienen,
„Technikrhetorik“ oder „Rhetorik der Technik“ spielen jedoch eine nachgeordnete
Rolle, zuweilen mutet es so an, als sähen die Autoren Medien nicht als einen Teil
der Technik, sondern als eine eigenständige Sphäre …
Dazu beitragen dürfte die geringe Rolle, die Rhetorik als akademische Diszi-
plin in Deutschland spielt.15 Eine Ursache dafür, dass Rhetorik in anderen Sprach-
räumen an den Universitäten stärker vertreten ist als in Deutschland, dürfte mehrere
Ursachen haben: Platons Herabsetzung der Rhetorik im „Gorgias“ hat hierzulande
womöglich stärker gewirkt16, da auch Kant sich nicht gerade schmeichelhaft über
Rhetorik äußerte 17 – zwei Großdenker reden klein, das wirkt. Eine weitere Ursache
für den schweren Stand der Rhetorik in Deutschland wird darin zu sehen sein, dass
Rhetorik durch den Geniekult in der deutschen Klassik eine Herabsetzung erfuhr18,
eine weitere darin, dass Rhetorik wegen ihres Missbrauchs durch die Nationalsozi-
alisten in Verruf geraten ist und als propagandistische Manipulation gilt. In diesem
Essay jedenfalls wird Rhetorik als der Teil der Philosophie angesehen, der sich mit
der Theorie und Praxis menschlicher Kommunikation und Argumentation befasst,
die persuasiven Wirkungen kommunikativer Akte untersucht und nach der Mög-
lichkeit eines rationalen Diskurses von Argumentationen fragt, wenn nicht primär
über Wahrheiten, sondern über Wahrscheinliches gestritten wird. Wird Rhetorik in
diesem Sinne als ein Teil der Philosophie betrachtet, so kann eine Rhetorik der
Technik als Teil der Technikphilosophie gesehen werden, zumindest aber als ein
Beitrag zur Technikphilosophie.
Was gehörte zu den Forschungsgegenständen einer Rhetorik der Technik? Zur
Antwort sei eine unvollständige Liste, die keine Rangfolge bedeutet, angeführt:
a) die Untersuchung der Sprache der Technik;
b) die Untersuchung der Sprache, mit der über Technik und eine technisierte Welt
gesprochen und geschrieben wird;
c) die Untersuchung der Sprache und der Argumente, mit der Persuasion für oder
gegen Technik herbeigeführt wird;
d) die Untersuchung der Metapherologie der Technik;
e) die Rhetorizität der Technik;
f) eine Narratologie der Technik;
g) die Geschichte der Rhetorik der Technik;
h) die Wechselwirkungen zwischen Technik und Rhetorik der Technik.
Im Folgenden sollen diese Punkte umrissen werden, mehr als eine Skizze kommt
dabei nicht zustande, zu umfangreich sind diese Gebiete.
18 Die Kunst, mit Worten Wirkung zu entfalten, wurde als nicht lehr- oder erlernbar angesehen –
man hat’s oder hat’s nicht.
254 Volker Friedrich
tur-, Ingenieur- und Technikwissenschaften oft einen nahezu naiven Umgang mit
Sprache pflegen, dass sie von den Schwierigkeiten, sich mit der Normalsprache
zu vermitteln, wenig wissen und sich dieses Wissen aus einem interdisziplinären
Diskurs mit den Geisteswissenschaften nicht holen. Rhetorik könnte dabei weiter-
helfen – zum Beispiel mit ihrem Wissen über Stilqualitäten wie Verständlichkeit,
Klarheit und Angemessenheit.
Ein tieferes Verständnis für die Wirkungen technischer Bilder und Visualisie-
rungen in der Wissenschaft ließe sich durch eine Auseinandersetzungen mit visu-
eller Rhetorik gewinnen. Ansätze der visuellen Rhetorik werden hierzulande auch
in den Forschungen kaum aufgegriffen, die sich – wie das Exzellenzcluster „Bild
Wissen Gestaltung“19 – mit ebensolchen Phänomenen befassen, ähnliches gilt für
viele Teile der aktuellen bildwissenschaftlichen Diskussionen.20
b) die Untersuchung der Sprache, mit der über Technik und eine technisierte Welt
gesprochen und geschrieben wird
In seinem letzten Buch „Die zweite Aufklärung. Vom 18. ins 21. Jahrhundert“ reihte
der Medienwissenschaftler Neil Postman im dritten, mit „Technologie“ überschrie-
benen Kapitel eine Reihe von kritischen Fragen auf, die an neue Technologien21 ge-
stellt werden können. Die erste Frage beispielsweise lautet: „Was ist das Problem, für
das diese Technologie die Lösung bietet?“22 Die von Postman in der Folge angeführ-
ten Fragen seien zu stellen, wenn auf diese erste Frage keine befriedigende Antwort
gefunden werden könnte. Die sechste von Postmans Fragen an neue Technik lautet:
„Welche sprachlichen Veränderungen werden durch neue Technologien erzwungen
und was wird durch derlei Veränderungen gewonnen und was verloren?“23 Postman
interessierte sich stets für die gesellschaftlichen und kulturellen Auswirkungen von
Technik, und er sah, wie stark gesellschaftliche und sprachliche, kommunikative
Entwicklungen ineinander verwoben sind. In dieser Perspektive verändert Technik
also die Kommunikation in einer Gesellschaft. Dies gilt nicht allein auf einer tech-
nischen Ebene, indem Technik neue Kommunikationsmedien entwickelt, sondern
Technik und, als ihr Teil, auch Kommunikationsmedien wirken auf die Sprache zu-
rück, mit der über Technik und eine technisierte Welt gesprochen und geschrieben
wird. Damit ist nicht allein gemeint, das Technik gleichsam „Sprechanlässe“ schafft
und Gegenstand kommunikativer Betrachtungen wäre; es geht vielmehr um eine
Beobachtung und Analyse der Sprache, die wir nutzen, um Technik und über Tech-
nik zu kommunizieren. Dieses Gebiet der Rhetorik der Technik könnte uns darüber
Auskunft geben, wie unser Verständnis technischer Zusammenhänge geleitet wird
von der Sprache, die wir zur Kommunikation von Technik nutzen.
Mit welcher Rhetorik wird Technik vermittelt? Welche Rolle spielt die Stilistik
in der Technikrhetorik? Gibt es eine spezifische latinitas (Sprachrichtigkeit) für die
Technikkommunikation, zudem spezielle Ausprägungen der perspicuitas (Klarheit,
Verständlichkeit)? Gibt es ein spezifisches aptum (Angemessenheit) in der Kommu-
nikation über Technik? Die Vermutung liegt nahe, dass eine Parallele zur Wissen-
schaftsrhetorik zu konstatieren wäre: Dort hat sich im 17. Jahrhundert eine Art „Anti-
Rhetorik“, ein „stilloser Stil“ etabliert24 – der klassischen rhetorischen Stilqualität der
Angemessenheit wird die nüchtern-sachliche Darstellung zugewiesen.
c) die Untersuchung der Sprache und der Argumente, mit der Persuasion für
oder gegen Technik herbeigeführt wird
Technisches Schreiben als Instruktionstext wird selbstverständlich von Linguisten
untersucht25, für die Rhetoriker gäbe es Arbeit zu leisten bei der Untersuchung der
persuasiven Elemente und Funktionen solcher Texte.
Mit Präsentationen und Konzepten beispielsweise werden technische Ideen,
Lösungsvorschläge, Prototypen, Umsetzungen vorgestellt. Damit sollen Zuhörer,
Zuschauer oder Leser überzeugt werden, sei es, dass die Vorstandsetage eines Un-
ternehmens von den Ideen der Forschungs- und Entwicklungsabteilung, oder sei es,
dass ein politisches Gremium von einer technischen Lösung überzeugt werden soll.
In diesen Themenbereich fallen auch Untersuchungen zur Rhetorik von Technik-
bewertung und Technikfolgenabschätzung, die gemeinhin deliberative Aufgaben
erfüllen, also wiederum originär rhetorisch sind. Verschiedene Werke über Tech-
nikfolgenabschätzung haben sich dieser Fragen auf der Basis habermasscher Über-
legungen zur Diskursethik angenommen26; aus rhetorischer Warte lohnte es sich,
beispielsweise auf der Rhetorik fußende argumentationstheoretische Arbeiten auf
diese Diskussion hin zu prüfen, beispielsweise „Klassiker des 20. Jahrhunderts“
wie die Arbeiten von Perelman27 oder Toulmin28.
29 Campe, Rüdiger: Von der Theorie der Technik zur Technik der Metapher. Blumenbergs syste-
matische Eröffnung: In: Haverkamp, Anselm; Mende, Dirk (Hg.): Metaphorologie. Zur Praxis
von Theorie. Frankfurt am Main 2009. S. 285.
30 Bolz, Die Wirtschaft des Unsichtbaren, a. a. O., S. 116.
31 „Mit ‚Rhetorizität‘ wird allgemein das ‚Rhetorisch-sein‘ von Kommunikation zum Ausdruck
gebracht, also dass ein kommunikativer Akt sich rhetorischer Mittel bedienen kann, um die
angestrebte Persuasion und Wirkung zu erzielen.“ Friedrich, Volker: Wörterbuch – Begriffe für
die Form und für die Gestalter. In: ders. (Hg.): Sprache für die Form – Forum für Design und
Rhetorik. http://www.designrhetorik.de/?page_id=1149 (Permalink).
32 „Die ‚Rhetorizität der Gestaltung‘ sieht in Wirkungsintentionalität, -steuerung und -erzielung
die Schlüssel zum Verständnis der Persuasion von Gestaltung. Dabei spielt der Begriff der
Angemessenheit (aptum, decorum) eine zentrale Rolle. Zum Verständnis der Rhetorizität von
Gestaltung kann die Rhetorik dem Design an die Seite treten und ihm einen Begriffsapparat
liefern, mit dem gestalterische Zusammenhänge erfasst, benannt und differenziert werden kön-
nen.“ ders., ebd.
Zur Rhetorik der Technik 257
beispielsweise die Rhetorik technischer Gesten. Der Erfolg moderner Produkte der
Kommunikationstechnik, die durch gleichsam natürliche Fingergesten gesteuert
werden, wird gern mit ihrer intuitiven Selbstverständlichkeit erklärt; dabei wird
übersehen, dass genau darin ein rhetorisches Konzept liegt, eine persuasive Strate-
gie, eine Überzeugungstechnik der Technik.
Wie entsteht Persuasion durch Technik? Aus rhetorischer Warte selbstverständ-
lich wie jede Persuasion: durch Appelle an Logos, Ethos und Pathos. Zu untersuchen
wäre, wie diese Appelle von, durch, mit Technik im Detail hervorgerufen werden.
Zu Persuasionsstrategien gehören Appelle an den Logos, was Fragen aufwirft:
Wie entwickeln Technik und Technikrhetorik Argumentationen? Wie wird Tech-
nikrhetorik als Mittel der Persuasion eingesetzt, wie entwickelt sie technikspe-
zifisch Persuasion und kommunikative Wirkung? Wie werden aus kommunikati-
ven Angeboten, die technikimmanent sind, technischen Artefakten innewohnen,
persuasive Strategien und Argumentationen abgeleitet, wie verbalisiert, wie wir-
kungsvoll kommuniziert? Sodann: Wie wird mittels der Bezugnahme auf Tech-
nik versucht, Argumentationen aufzubauen, zu stützen oder zu widerlegen? Wie
Technik beschrieben wird, lenkt, wie Technik genutzt, verstanden, akzeptiert wird.
Für Technik einzunehmen, sei es den Nutzer oder die Gesellschaft, ist ein Akt der
Persuasion, also ein rhetorischer Akt – der ein weites Feld rhetorischer Forschung
eröffnet.
33 Homer: Odyssee. 5,243–5,261. In: ders: Ilias. Odyssee. München 1982(2). S. 508 f.
34 Laßwitz, Kurd. Auf zwei Planeten. Frankfurt am Main 1984(2).
258 Volker Friedrich
Entwickler von Militärtechnik ließen sich durch Filme inspirieren, sich selbststeu-
ernde Kampfroboter sollen nun Soldaten ersetzen.35 Gerade Hollywood kann als
visionäre Ideenschmiede technischer Entwicklung angesehen werden.
Eine Narratologie der Technik nähme Fragen auf wie: Welche Geschichte(n)
erzählt Technik? Wie wird Technik in Geschichten vermittelt? Wie wird sie in Ge-
schichten entworfen? Welche Erzähltechniken werden eingesetzt, wenn Technik
erzählt wird?
Aber vor dem Meta-Diskurs müsste wohl erst ein Anfang gemacht werden. Die
obige Liste ist dafür selbstredend nur Fragment – und böte gern eine Anregung,
nicht allein, doch eben auch für einen Technikphilosophen wie Klaus Kornwachs.
35 Von solchen Elementen leben viele der Verfilmungen der Marvel-Comics, z. B. die „Iron-
Man“-Reihe.
Zur Rhetorik der Technik 259
LITERATUR
„Technik“ ist einer jener Groß-Begriffe, den jeder von uns beinahe täglich in ir-
gendeiner Gesprächssituation verwendet, liest oder hört. Und wie bei nahezu allen
so häufig gebrauchten Wörtern scheint es auch hier klar und selbstverständlich zu
sein, was unter „Technik“ zu verstehen ist. Bilder und Vorstellungen erscheinen im
Nu vor unserem geistigen Auge. Das Wort „Technik“ ist auch deshalb allgegen-
wärtig, weil es seit längerem geübte Praxis ist, alle möglichen Phänomene der All-
tagskultur mittels den technischen Diskursen entlehnten Metaphern auszudrücken
und zu kommunizieren. Man denke beispielsweise an die gängige Beschreibung
ökonomischer Vorgänge und Probleme mit Begriffen, die vorzugsweise der Au-
tomobiltechnik entnommen werden. So entsteht ein Bild der Volkswirtschaft, das
dem eines komplizierten technischen Apparates sehr ähnelt und in der Öffentlich-
keit verbreitet sich die Auffassung, Volkswirte und Wirtschaftspolitiker seien eine
Unterart des Kraftfahrzeug-Ingenieurs, die mit der Aufgabe betraut ist, den „Mo-
tor“ der Wirtschaft am Laufen zu halten und dafür zu sorgen, dass die Konjunktur
„anspringt“ und alsbald „Fahrt aufnimmt“.
„Technik“ ist schon aufgrund der vielen möglichen Kopplungen in andere
Bereiche kulturellen Gestaltens hinein von besonderer Dominanz und wohl daher
auch mit besonderen Erwartungen ausgestattet. Das Wort „Technik“ vermag sodann
heftige Emotionen auszulösen. Es kann verheißend klingen, aber auch ängstigend
und Unbehagen erzeugend. Für letzteres steht aktuell die sehr emotional geführte
Debatte um die „Digitalisierung der Volkswirtschaften“, die von nicht wenigen als
eine große Gefahr angesehen und mit dem Szenario rasch steigender Arbeitslosig-
keit aufgrund der Befürchtung, dass ganze Berufszweige verschwinden bzw. eine
radikale Entwertung von Qualifikationen und individuellen Lebensleistungen ein-
tritt, verbunden wird. „Technik“, so scheint es, teilt sich den von ihr in irgendeiner
Weise Beeinflussten oder Betroffenen als ein fremder Sachzwang mit2. Technik
erscheint als fremde Macht, in der der Mensch sich selbst fremd zu werden scheint,
1 Zschimmer, Eberhard: Philosophie der Technik. Vom Sinn der Technik und Kritik des Unsinns
über die Technik. Jena 1914. S. 28.
2 s. Recki, Birgit: Technik als Kultur. Plessner, Husserl, Blumenberg, Cassirer. In: Zeitschrift für
Kulturphilosophie, 2013/2, S. 289–303, hier bes. S. 300.
264 Steffen W. Groß
als Schöpfer von Werken, die ein Eigenleben beginnen, eine Eigenlogik etablieren,
Werke und Wirkungen, die er nicht ganz versteht. Georg Simmel hat unter anderem
darin, im nicht entscheidbaren Konflikt von subjektivem und objektivem Geist, den
Grund der „Tragödie der Kultur“3 gesehen; und eine nach wie vor eindringlich-
beeindruckende Verarbeitung der Ambivalenz menschlicher Gestaltungsmacht mit
künstlerischen Mitteln hat Johann Wolfgang Goethe 1797 mit seinem Gedicht „Der
Zauberlehrling“4 und der Beschreibung von dessen verzweifelten Versuchen des
Fassen-Wollens aber nicht Fassen-Könnens versucht.
Die Einführung und schnell massenhafte Verbreitung bestimmter Technolo-
gien, deren Integration in den Alltag, verändern seit Beginn des 19. Jahrhunderts
beschleunigt und nachhaltig die Wahrnehmung der natürlichen wie der sozialen
Umwelten sowie die Perspektiven auf den Menschen selbst. So bringt der Bau und
die Nutzung von Eisenbahnen, die damit einhergehende Möglichkeit von Massen-
mobilität, eine Veränderung der Raum-Zeit-Wahrnehmung mit sich, die in zeit-
genössischen Berichten oft als eine durchaus ambivalente Erfahrung beschrieben
wird. Die Erfindung und die Verbreitung der Fotografie verändern die Wahrneh-
mung von Landschaften und von Menschen – gerade auch dies führt zu neuen,
anderen Selbst-Wahrnehmungen durch die zwischengesetzte Technik. Gegenbewe-
gungen unter dem Motto „Zurück zur Natur“ wirken bald hilflos verloren und wer-
den schnell belächelt. In dieser Hinsicht kann das 19. als ein Schlüsseljahrhundert
gelten und Jürgen Osterhammel hat nur zu Recht von der „Verwandlung der Welt“5
gesprochen, die sich im Zuge der Industrialisierung des Wirtschaftens, der Techni-
sierung des Alltags und der globalen Verbreitung von Technik vollzieht und die sich
als unumkehrbar erweist.
Es sind, bei näherer Betrachtung nur wenig verwunderlich, die Kunst und die
Künstler, die sehr sensibel auf die Frag-Würdigkeit von Technik und ihrer Verbrei-
tung reagieren und sie verarbeitend zu verstehen suchen. Die folgende Passage aus
dem Aufsatz Technik und konstruktivistische Kunst des Kunstkritikers und -publi-
zisten Ernst Kállai aus dem Jahr 1922 liefert zum einen eine bemerkenswerte Be-
stimmung des Begriffs der Technik und zum anderen beschreibt sie eindrucksvoll
das Changieren zwischen Faszination an der Technik und den sich aus ihr speisen-
den neuen Möglichkeiten gerade für Kunst und Künstler einerseits und dem Unbe-
hagen an sich zeigenden neuen Zwängen, Beschränkungen und dem Standardisie-
rungsdruck andererseits: „Die Technik selbst ist ein vom Menschen geschaffenes
3 „Das große Unternehmen des Geistes, das Objekt als solches dadurch zu überwinden, daß er
sich selbst als Objekt schafft, und mit der Bereicherung durch diese Schöpfung zu sich selbst
zurückzukehren, gelingt unzählige Male; aber er muss diese Selbstvollendung mit der tragi-
schen Chance bezahlen, in der sie bedingenden Eigengesetzlichkeit der von ihm selbst geschaf-
fenen Welt eine Logik und Dynamik sich erzeugen zu sehen, die die Inhalte der Kultur mit
immer gesteigerter Beschleunigung umd immer weiterem Abstand von dem Zwecke der Kultur
abführt.“ Simmel, Georg: Der Begriff und die Tragödie der Kultur. In: ders.: Philosophische
Kultur. Gesammelte Essais. Leipzig 1911. S. 277.
4 Goethe, Johann Wolfgang: Der Zauberlehrling. In: Erich Trunz (Hg.): Goethes Werke. Ham-
burger Ausgabe. Bd. I. München 1998. S. 276–279.
5 Osterhammel, Jürgen: Die Verwandlung der Welt. Eine Geschichte des 19. Jahrhunderts. Mün-
chen 2016(2).
Technik als Erkenntnis- und Formprozess 265
Werk, aus einer logisch beherrschten Schicht des Bewusstseins in den Kreis roher
oder vorbereiteter natürlicher Energien und Materialien projiziert. Die einfachen
und streng gesetzmäßigen Bezüge ihrer Raumformen schaffen ein System, das
gänzlich auf sich selbst beruht, eine reine Selbstbeherrschung ist und sein Wesen an
allen Punkten zu überschauen vermag. Dieser typisierte Gehalt steht über allen La-
byrinthen subjektiver Gefühle und Instinkte, über Tragödien und pathetischen An-
strengungen. Er duldet keinerlei individuelle Ausschweifungen, bietet der isolierten
Einsamkeit von Stimmungen keinen Raum. Dies sind enorme Antriebe für einen
Geist, der sich (…) sein eigenes Gerüst als das Skelett der neuen, von tragischen
Lasten befreiten Lebensordnung und -gemeinschaft schaffen will.“6
In den Diskursen unseres Alltags dominiert ein vordergründig ingenieur-tech-
nischer Begriff von Technik. Wenn wir das Wort „Technik“ hören, dann denken wir
beinahe unweigerlich an – eben technische – Geräte aller Art, Maschinen, Werk-
zeuge, Computer, Verkehrsmittel usw. Ich nenne dies den apparatenhaften Alltags-
begriff von Technik. Überdies ist dieser Technik-Begriff stark von ökonomisch
eingefärbten Vorstellungen von „Nützlichkeit“ durchwaltet: Technik soll uns „das
Leben leichter“ machen und es nach Möglichkeit verlängern, sie soll uns die Müh-
sal körperlich schwerer und/oder geistig stupider Arbeiten abnehmen, neue Mög-
lichkeiten eröffnen, die möglichst ohne negative Nebenfolgen bleiben, forcierter
Technikeinsatz soll sich (in welcher Form auch immer) „auszahlen“ – „Technik“
und (zu realisierende) „Utopie“ sind verschwistert und stehen unter der Vorherr-
schaft instrumenteller Imperative.
Womöglich zeichnet sich hier ein schwerwiegendes Problem ab, das maßgeb-
lich zu Begriffsverwirrungen von „Technik“ und gesellschaftlichen wie auch indivi-
duellen Zwiespältigkeiten in der Haltung zu Technik beiträgt: Wir gehen vorschnell
vom fertigen technischen Produkt der Technik aus. Technik wird zuvorderst, wie
schon die gerade zitierte Stelle aus dem Aufsatz von Ernst Kállai aufweist, als Werk
wahrgenommen. Das Wirken bekommt hingegen weit weniger Aufmerksamkeit und
Interesse. Wir neigen dazu, den immer in der Zeit verlaufenden kreativen Prozess
der Technikentwicklung zu ignorieren, wir nehmen Technik erst zur Kenntnis und
betrachten sie durchaus kritisch, nachdem der sich der aufgewirbelte Staub gelegt
hat, wenn sie „fertig“ vor uns steht. Dies befeuert nur die Illusion, dass es sich bei
Technik um etwas Objektives und Rationales im strengsten Sinne handeln würde.
Technik scheint in der als weitgehend entzaubert geltenden Welt als weiteres „stahl-
hartes Gehäuse“ neben die von Max Weber so gekennzeichnete Bürokratie zu treten.
Diese Wahrnehmungsweise ist es auch, die schließlich zur Grundlage des Hauptstro-
mes der westlichen Technikkritik seit dem Ende des 19. Jahrhunderts geworden ist.
Eine avanciertere und nach wie vor durchaus bedenkenswerte Kritik legt den
Finger dabei auf eine weitere wunde Stelle: Der amerikanische Philosoph und
Kulturkritiker Charles Frankel wies in seiner kulturkritischen Schrift „The Case
of Modern Man“ 1955 darauf hin, dass bei aller Technikbegeisterung (oder eben
auch -verdammung) ein wichtiger Aspekt aus dem Blick zu geraten droht: Die
6 Kállai, Ernst: Technik und konstruktivistische Kunst [1922]. In: ders.: Vision und Formgesetz.
Aufsätze über Kunst und Künstler 1921–1933. Leipzig und Weimar 1986. S. 13 (Hervorhebun-
gen im Original).
266 Steffen W. Groß
7 Frankel, Charles: The Case for Modern Man. New York 1955. S. 198.
8 ebd.
Technik als Erkenntnis- und Formprozess 267
Daher möchte ich die Aufmerksamkeit stärker auf diesen dynamischen, prozesshaf-
ten, Formen bildenden Aspekt der Technik (oder vielleicht besser: des Technischen)
lenken. Mein Gewährsmann dabei ist Ernst Cassirer, der es als einer der ersten un-
ternahm, nicht das Werk, sondern ausdrücklich das Wirken der Technik im und für
den Aufbau der Kultur umfassend verstehbar werden zu lassen. Und dieses Wirken
findet immer in der Zeit statt. Damit stellen sich uns Technik – wie Kultur insge-
samt – als geschichtliche Welten dar.
Ein Verständnis von – und für – Technik als Wirken und nicht als Werk wird
möglich vor dem Hintergrund des differenzierten Form-Begriffs, mit dem Cassi-
rer arbeitet, d. h. Kulturphänomene und -leistungen zu erfassen und zu begreifen
sucht. In seinem Aufsatz „Form und Technik“9 (1930), den ich als eine Erweiterung
der „Philosophie der symbolischen Formen“ um eben die symbolische Form der
Technik sehe, wendet Cassirer einen differenzierenden Form-Begriff an. Da ist die
forma formata als das fertig Geformte, zu seiner Form Gekommene, das Werk.
Und in Spannung dazu steht die forma formans, die Formung, das zur Form Kom-
mende und zugleich sich der abschließenden Form Entziehende, das Wirken. Es
gibt keinen Zweifel daran, welchem der beiden Form-Begriffe das Hauptinteresse
Cassirers gilt. Das „Sein“ von Schöpfungen der Kultur soll als Prozess, als Tätig-
keit, als Formgebung wahrgenommen und konzeptionalisiert werden. So geht mit
der Formgebung immer eine Sinngebung einher.
Die erkenntniskritische Voraussetzung dafür hatte Cassirer mit seinem bereits
1910 erschienen Buch „Substanzbegriff und Funktionsbegriff“10 gelegt. Um kul-
turelle Leistungen zu begreifen, müssen wir ihre Funktionen konzeptionalisieren.
Substanzbegriffe helfen uns in diesem Bemühen kaum weiter. Geistige Leistungen
und ihre Ergebnisse sind keine vor uns liegenden Dinge, die distanziert betrach-
tet werden können. Vielmehr entspringt ihr Sinn für uns aus ihrem Funktionieren,
das zudem in vielfachen Verweisungszusammenhängen steht, diese erst schafft und
fortwährend um-schafft. Damit aber wird das Betrachten selbst zum Tun und zum
Erleben, nicht zuletzt als sich-selbst-Erleben im Tun.
Im Aufsatz „Form und Technik“ wendet Cassirer diesen Ansatz konkret auf das
Kulturphänomen der Technik und des technischen Gestaltens an. Und so kann es
nur als konsequent gelten, wenn er dort schreibt: „Denn das ‚Sein‘ der Technik lässt
sich selbst nicht anders als in der Tätigkeit erfassen und darstellen. Es tritt nur in
ihrer Funktion hervor; es besteht nicht in dem, als was sie nach außen hin erscheint
und als was sie sich nach außen gibt, sondern in der Art und Richtung der Äußerung
selbst: in dem Gestaltungsdrang und Gestaltungsprozess, von dem diese Äußerung
9 Cassirer, Ernst: Form und Technik. In: Kestenberg, Leo (Hg.): Kunst und Technik. Berlin 1930.
S. 15–62; zudem in: Birgit Recki (Hg.): Ernst Cassirer Gesammelte Werke (ECW). Bd. 17:
Aufsätze und Kleine Schriften 1927–1931. Hamburg 2004. S. 139–183.
10 ders: Substanzbegriff und Funktionsbegriff. Untersuchungen über die Grundfragen der Er-
kenntniskritik [1910], ECW, Bd. 6. Hamburg 2000.
268 Steffen W. Groß
Kunde gibt. So kann das Sein hier nicht anders als im Werden, das Werk nicht an-
ders als in der Energie sichtbar werden.“11
Allerdings bezeichnet Cassirer diese Situation als ein „neues Dilemma“12. Ein
Dilemma verweist auf auf eine schwierige Entscheidungssituation zwischen zwei
oder mehreren gleichermaßen wenig angenehmen Alternativen und treibt in die Su-
che nach einem Ausweg, nach einem sicheren Standort. Der darin liegende Antrieb
jedoch ist in vorzüglicher Weise Weg-weisend, treibt aus dem Gewohnten und aus
den attraktiven, weil bequemen, Scheinplausibilitäten heraus. In Dilemmata liegen
somit Entwicklungschancen, die es zu ergreifen gilt. Und so wird bald sichtbar,
dass sich Technik keineswegs im statischen Werk, im Erzeugten, erschöpft, sondern
als eine dynamische „Weise und Grundrichtung des Erzeugens“13, der zu folgen
wäre, erfasst werden soll. Und geht man dieser „Grundrichtung des Erzeugens“
nach, dann zeigt sich, dass Technik durchaus die Funktionen einer „symbolischen
Form“14 erfüllt: Technik schafft und erschließt – wie bzw. neben der Sprache, dem
Mythos, der Wissenschaft, der Religion und der Kunst – eine eigenständige Wirk-
lichkeit. Und gerade diese Eigenständigkeit der technischen Wirklichkeit ist es
wohl, die uns nicht selten Unbehagen bereitet.
Symbolische Formen aber sind Energien des Geistes. Und in der Technik
drückt sich ein weiteres Mal diese Energie aus wie sie zugleich im Durchgang und
mittels der geschaffenen technischen Werke Wirklichkeiten erschließt und, in ihrer
utopischen Funktion, neue Möglichkeiten aufscheinen lässt. Energien des Geistes
sind poietischer Natur – mit offenem Ausgang. Im Falle der Technik nun erweisen
sie sich als dialektische Verschränkung von Grenzenlosigkeit und Begrenztheit. Ei-
nen Hinweis darauf lieferte Max Eyth, der 1904 für einen Vortrag schon titelgebend
Poiesis und Technik in einen Formen bildenden Zusammenhang bringt: „Technik
ist alles, was dem menschlichen Wollen eine körperliche Form gibt. Und da das
menschliche Wollen mit dem menschlichen Geist fast zusammenfällt, und dieser
eine Unendlichkeit von Lebensäußerungen und Lebensmöglichkeiten einschließt,
so hat auch die Technik, trotz ihres Gebundenseins an die stoffliche Welt, etwas von
der Grenzenlosigkeit des reinen Geisteslebens überkommen.“15 In gewisser Weise
verweist diese Passage auf die den symbolischen Formen innewohnende Dialek-
tik, einerseits immer kulturelle Leistungen und insofern Ergebnis menschlichen
Wollens und Handelns zu sein, und zugleich andererseits Erschließungsweisen von
Wirklichkeiten und damit wiederum Voraussetzung und Möglichkeitsbedingung
von weiteren kulturellen Leistungen. Mit den Artefakten der Technik wird Physi-
sches gestaltet, was die Energien des Geistes fürderhin kanalisiert, ihnen Richtung
gibt und Form verleiht.
Ganz im Sinne dieser Dialektik verstehe ich Cassirers Vorschlag, in der Tech-
nik schließlich eine „Bezwingerin der chaotischen Kräfte im Menschen selbst“16
zu sehen. Damit wird Technik, in gewisser Weise Kállais These von der „reinen
Selbstbeherrschung“ und dem „typisierten Gehalt“ verstärkend, zur Bedingung der
Möglichkeit von Freiheit, einer Freiheit, die ohne Begrenzungen keine sein kann.
Womöglich kommt dies der gesuchten „Idee in der Technik“ ein wenig näher. Es ist
die Idee der Freiheit, die wir in der Technik als einem schöpferischen Bilden und
Wirken suchen und in konkreten Formen begreifen können.
LITERATUR
Cassirer, Ernst: Der Begriff der symbolischen Form im Aufbau der Geisteswissenschaften. In: Birgit
Recki (Hg.): Ernst Cassirer Gesammelte Werke (ECW). Bd. 16: Aufsätze und Kleine Schriften
1922–1926. Hamburg 2003. S. 75–104.
ders.: Freiheit und Form [1930]. In: ECW. Bd. 17: Aufsätze und Kleine Schriften 1927–1931. Ham-
burg 2004. S. 139–183.
ders.: Substanzbegriff und Funktionsbegriff. Untersuchungen über die Grundfragen der Erkenntnis-
kritik [1910]. In: ECW. Bd. 6. Hamburg 2000.
Eyth, Max: Poesie und Technik. In: ders.: Lebendige Kräfte. Sieben Vorträge aus dem Gebiet der
Technik. Berlin 1924(4). S. 1–22.
Frankel, Charles: The Case for Modern Man. New York 1955.
Goethe, Johann Wolfgang: Der Zauberlehrling. In: Erich Trunz (Hg.): Goethes Werke. Hamburger
Ausgabe. Bd. I. München 1998. S. 276–279.
Kállai, Ernst: Technik und konstruktivistische Kunst [1922]. In: ders.: Vision und Formgesetz. Auf-
sätze über Kunst und Künstler 1921–1933. Leipzig und Weimar 1986. S. 11–16.
Osterhammel, Jürgen: Die Verwandlung der Welt. Eine Geschichte des 19. Jahrhunderts. München
2016(2).
Recki, Birgit: Technik als Kultur. Plessner, Husserl, Blumenberg, Cassirer. In: Zeitschrift für Kultur-
philosophie, 2013/2, S. 289–303.
Simmel, Georg: Der Begriff und die Tragödie der Kultur. In: ders.: Philosophische Kultur. Gesam-
melte Essais. Leipzig 1911. S. 245–277.
Zschimmer, Eberhard: Philosophie der Technik. Vom Sinn der Technik und Kritik des Unsinns über
die Technik. Jena 1914.
TECHNISCHES SPIEL OHNE GRENZEN?
Ethische und sicherheitstechnische Fragen beim Spiel mit Technik
Stefan Poser
1 Caillois, Roger: Les jeux et les hommes. Le masque et le vertige (1958); engl.: Man, Play and
Games. New York 1961; dt.: Die Spiele und die Menschen. Maske und Rausch. Stuttgart 1960
(zitierte Ausgabe: Frankfurt am Main 1982). S. 32 f., S. 151 f.
2 s. Poser, Stefan: Glücksmaschinen und Maschinenglück. Grundlagen einer Technik- und Kul-
turgeschichte des technisierten Spiels. Bielefeld 2016.
3 Ropohl, Günter: Zur Technisierung der Gesellschaft. In: Bungard, Walter; Lenk, Hans (Hg.):
272 Stefan Poser
rium für Technik verzichtet und damit einen begrifflichen Freiraum für die spiele-
rische Nutzung und Gestaltung von Technik herstellt4. Zugrunde liegt außerdem
ein umfassender Spielbegriff, der Spiel und Vergnügen miteinander verbindet, und
Spielresultate zulässt, die über das Spiel hinaus bestehen, sodass Sport, Jahrmarkts-
vergnügen und Basteln gleichermaßen zum Spiel zählen.5 Er orientiert sich an An-
sätzen Johan Huizingas, Roger Caillois’ und Brian Sutton-Smith’ zum Spiel sowie
Mihaly Csikszentmihalyis zum flow-Erlebnis, wobei Caillois’ Kategorisierung von
Spielen als Leitfaden genutzt wird.6
Um das Spiel mit Technik ethisch vertretbar zu gestalten, muss das Kriterium
der Zweckfreiheit und damit der Folgenlosigkeit – so das Eingangspostulat dieses
Beitrags – für solche Spiele uneingeschränkt gelten, deren Inhalte und Folgen au-
ßerhalb der Spielwelt nicht akzeptabel wären. Allerdings stößt sich die Forderung
der Zweckfreiheit an der Realität: Wären Spiele eindeutig zweckfrei und hätten
keine Auswirkungen auf das tägliche Leben der Spielenden, so wären Diskurse
über die gesellschaftliche Bedeutung von Spielen und wiederkehrende Spielverbote
unnötig.
JAHRMARKTSVERGNÜGEN
Beim Spiel werden regelmäßig Grenzen erreicht und in einigen Fällen sogar über-
schritten, die in anderen Lebensbereichen gelten. Ein Stück weit „lebt“ das Spiel
davon, das Grenzen erreicht, in einigen Fällen sogar verschoben werden: Das Fahr-
vergnügen bei Achterbahnen basiert darauf, dass an die physische Belastungsgrenze
der Fahrgäste herankonstruiert wird, sie Beschleunigungen ausgesetzt sind, die mit
großer Wahrscheinlichkeit Schwindel- und Rauschzustände hervorrufen. Wird diese
Grenze überschritten, äußert sich das in Übelkeit und Rückenschäden. Solcherma-
ßen traktierte Jahrmarktsbesucher taten sich in den 1950er Jahren zusammen, grün-
deten einen „Verein der Loopinggeschädigten“ und setzten sich erfolgreich für ein
Betriebsverbot der betreffenden Anlage ein.7 Beides markiert, dass hier beim Tech-
nikeinsatz zu Spielzwecken nicht nur körperliche Grenzen, sondern auch Grenzen
des gesellschaftlich Akzeptierten, des ethisch Verantwortbaren überschritten wur-
den. Diese Akzeptanz variiert allerdings in unterschiedlichen Gesellschaften bezie-
hungsweise Gesellschaftsschichten und veränderte sich im Laufe der Zeit.
Eine völlig andere Risikoeinschätzung geht beispielsweise aus einem Zeitungs-
bericht über eine Loopingbahn in San Francisco hervor, dessen Autor sich 1863 dem
tatsächlichen Risiko und dem öffentlichen Interesse an riskanten Vorführungen wid-
met: Unfälle geschähen bei Loopingbahnen, die es in Europa schon seit zwanzig
Jahren gebe, hin und wieder. Tatsächlich sei das Unfallrisiko vermutlich nicht höher
als bei einer Reise mit dem Zug oder einem Binnenschiff. Aber „the chief charm of
these exhibitions … lies simply and purely in the danger they involve. … Sporting
men will always bet you odds that the performer of these difficult feats will break his
neck within a certain length of time“8. Am amerikanischen Beispiel wird eine erheb-
lich höhere Akzeptanz von technischen Risiken deutlich als ein Jahrhundert später
in Deutschland. Um sicherzustellen, dass das Jahrmarktsvergnügen und die damit
verbundenen Spiele keine Gesundheitsgefährdung bedeuteten – also diesseits einer
ethisch vertretbaren Grenze blieben – waren Fahrgeschäfte als „Fliegende Bauten“
schon frühzeitig einer baupolizeilichen Genehmigung unterworfen, seit den 1930er
sind darüber hinaus in Deutschland Untersuchungen des TÜV vorgeschrieben.
Schon zu Beginn des 20. Jahrhunderts wurde beim Achterbahnbau klar, dass
Fahrvergnügen und Sicherheitsmaßnahmen miteinander verbunden sein müssen,
um die Entwicklung gesundheitsverträglich und damit ethisch akzeptabel zu ge-
stalten. So führt Andy Brown, der Chefkonstrukteur des von 1891 bis 1941 tätigen
amerikanischen Achterbahndesigners John Miller, dessen Erfolg auf Sicherheits-
technik zurück: Millers „designs were always more thrilling than others because
the safety devices he invented allowed them to be more severe“9. Miller entwi-
ckelte beispielsweise einen Rückrollschutz, Bremssysteme sowie – dies dürfte
seine wichtigste sicherheitstechnische Entwicklung sein – ein Gegenrad, das von
unten an die Schienen greift, um den Wagen in allen Positionen vor dem Entglei-
sen zu bewahren; letzteres ermöglicht den Passagieren später in Kombination mit
Schutzbügeln Erlebnisse annähernder Schwerelosigkeit, die zu einem besonderen
Merkmal von Achterbahnen wurden und außerhalb des Jahrmarkts kaum zu finden
sind. Schon in der Patentschrift von 1919 heißt es entsprechend, die Erfindung „will
make riding more sensational but … at the same time will make such riding entirely
safe“10. „People thought he [Miller] was going beyond what the body could stand“,
SPORT
Bei einigen Sportarten, die sich durch monotone Bewegungsabläufe wie beim Ru-
dern oder Fahrradfahren auszeichnen, kommt es durch die außerordentliche An-
strengung der Sporttreibenden zu flow-Erlebnissen, sogar zu Rauschzuständen.13
technik-Patenten s. Cartmell, a. a. O., S. 117. Solche Räder wurden in Verbindung mit Seitenrä-
dern zum Standard von Achterbahnfahrzeugen; s. Schützmannsky, a. a. O., S. 97 ff., der eine
Skizze eines modernen Fahrzeugs liefert.
11 Interview mit Andy Brown 1973, zitiert nach Cartmell, ebd.
12 Diese Spirale hat überhaupt erst Großanlagen wie Atomkraftwerke mit ihren mehrstufigen
Kontrollsystemen oder Hochgeschwindigkeitszüge mit ihrem elektronischen Fahrtüberwa-
chungssystem ermöglicht. Zur Wachstumsspirale im Falle „ernsthafter“ Technikanwendung s.
Poser, Stefan: Museum der Gefahren. Die gesellschaftliche Bedeutung der Sicherheitstechnik.
Hygiene-Ausstellungen und Museen für Arbeitsschutz in Wien, Berlin und Dresden um die
Jahrhundertwende. Cottbuser Studien zur Geschichte von Technik, Arbeit und Umwelt, 3.
Münster u. a. 1998. S. 211.
13 Der Lehrer und Ruderlehrer Goldbeck beschreibt das flow-Erlebnis lange vor der zugehörigen
Theoriebildung: Goldbeck, Ernst: Unsere Jungen beim Rudersport. Psychologische Analysen
Technisches Spiel ohne Grenzen? 275
des Erlebniswertes einer Körperübung. Leipzig 1929. S. 28 f.; s. auch: Csikszentmihalyi, Mi-
haly; Schiefele, Ulrich: Die Qualität des Erlebens und der Prozeß des Lernens. In: Zeitschrift
für Pädagogik, 39 (1993) 2, S. 215. Im Internet verfügbar als: Postprints der Universität Pots-
dam. Humanwissenschaftliche Reihe, 57, urn:nbn:de:kobv:517-opus-33578.
14 s. beispielsweise Kehrt, Christian: „Das Fliegen ist noch immer ein gefährliches Spiel“ – Ri-
siko und Kontrolle der Flugzeugtechnik von 1908 bis 1914. In: Gebauer, Gunter; Poser, Stefan
u. a. (Hg.): Kalkuliertes Risiko. Technik, Spiel und Sport an der Grenze. Frankfurt am Main,
New York 2006. S. 199–224; sowie: Kinney, Jeremy R.: Racing on Runways: The Strategic Air
Command and Sports Car Racing in the 1950s. In: Braun, Hans-Joachim; Poser, Stefan (Gast-
Hg.): Playing with Technology: Sports and Leisure. Special Issue of ICON. Journal of the In-
ternational Committee of the History of Technology, 19 (2013), S. 193–215.
15 So wurde beispielsweise bei Sportmotorrädern diskutiert, unter welchen Prämissen ABS im
Rennen Vorteile bringe. R.R.: Motorrad-ABS im Rennsport. Richtig verzögern unter Rennbe-
dingungen. In: Motorrad online, 24.11.2011, http://www.motorradonline.de/news/abs-im-
rennsport.396973.html (Zugriff am: 23.3.2017).
16 Elektronische Stützräder fürs Bike. Assistenzsysteme für Motorradfahrer. In: Der Tagesspiegel,
2.4.2015, http://www.tagesspiegel.de/mobil/motorrad/assistenzsysteme-fuer-motorradfahrer-
elektronische-stuetzraeder-fuers-bike/11592658.html (Zugriff am: 29.3.2017). Zum Motorrad-
276 Stefan Poser
die Fahrer ergibt sich jeweils die Frage, inwieweit Sicherheitstechnik die Fahr-
freude beeinflusst, mit ihrem Selbstverständnis als Meister des Umgang mit riskan-
ten Technologien vereinbar und tatsächlich hilfreich ist.
fahren siehe aus soziologischer Perspektive: Alkemeyer, Thomas: Mensch-Maschinen mit zwei
Rädern – Überlegungen zur riskanten Aussöhnung von Körper, Technik und Umgebung. In:
Gebauer, Poser; Kalkuliertes Risiko, a. a. O. S. 225–249.
17 Ein Beispiel zur spielerischen Einbindung von Jugendlichen in die architektonische Gestaltung
eines städtischen Platzes gibt: Lauwaert, Maaike: The Place of Play. Toys and Digital Cultures.
Amsterdam 2009. S. 111 ff.
18 s. beispielsweise Petermann, Franz; Koglin, Ute: Aggression und Gewalt von Kindern und Ju-
gendlichen. Hintergründe und Praxis. Berlin, Heidelberg 2013. S. 89 ff.; sowie: Kunczik, Mi-
chael: Wirkungen gewalthaltiger Computerspiele auf Jugendliche. In: Freiwillige Selbstkont-
rolle Fernsehen (FSF) e. V. (Hg.): tv diskurs, 62 (2012) 4, S. 72–77 und 63 (2013) 1, S. 60–65.
19 Pilarczyk, Ulrike: Von der Faszination der 3-D-Action-Spiele. In: Poser, Stefan; Hoppe, Jo-
seph; Lüke, Bernd (Hg.): Spiel mit Technik. Katalog zur Ausstellung im Deutschen Technik-
museum Berlin. Leipzig 2006. S. 127.
Technisches Spiel ohne Grenzen? 277
FREIES SPIEL
20 Burger, Claudia: Spionin im Kinderzimmer zerstören. In: VDI Nachrichten, 23.2.2017, http://
www.vdi-nachrichten.com/Gesellschaft/Spionin-im-Kinderzimmer-zerstoeren (Zugriff am:
27.3.2017).
21 Zentral ist natürlich die künstlerische Aussage Tinguelys; spielerisches Handeln ist eher ein
Mittel des Schaffensprozesses.
22 Zu Tinguelys Werken siehe das Museum Tinguely in Basel. Beispiele der Umnutzung techni-
scher Artefakte zu Spielzwecken gibt auch: Maines, Rachel: Hedonizing Technologies. Paths
to Pleasure in Hobby and Leisure. Baltimore 2009. S. 124.
23 Zu einem Waffengesetz (und einem Verbot) kam es vor Beginn des Ersten Weltkriegs nicht
mehr. Ellerbrock, Dagmar: Waffenkultur in Deutschland. In: Aus Politik und Zeitgeschichte,
35–37/2014, 18.8.2014, http://www.bpb.de/apuz/190119/waffenkultur-in-deutschland?p=2
(Zugriff am: 22.1.2015).
278 Stefan Poser
Weltkrieg das Spiel in Ruinen und mit Überresten von Kriegsgerät. Ein Gefahren-
potenzial geht insbesondere von leistungsstarker Technik aus – und vom Spiel von
Erwachsenen, die über solche Technik leichter Verfügungsgewalt erhalten als Kin-
der und Jugendliche. Steigern lässt sich dies noch, wenn es zu einer Verkehrung der
Zweck-Mittel-Relation kommt und solche Technologien allein deshalb eingesetzt
werden, weil sie zur Verfügung stehen.24
Versucht man eine Gesamtschau auf die hier skizzierten Bereiche des Spiels, so er-
geben sich zur Frage, unter welchen Bedingungen Spiele noch statthaft sind, unter-
schiedliche Grenzziehungen. Gemeinsam ist zahlreichen Formen des Spiels jedoch,
dass für zu Spielzwecken entwickelte Technik technische Normierungen eingeführt
wurden, die nicht nur Praktikabilitätsüberlegungen (wie die Normung von Gewin-
den) entsprechen, sondern ethischen Prinzipien entspringen – von der Bauaufsicht
über TÜV-Kontrollen bis zu Sicherheitsnormen, die mit jeder neuen Spieltechnik
erweitert werden.
Für das Jahrmarktsvergnügen und im Sport sind Grenzen der physischen Be-
lastbarkeit des Menschen gegeben, die wegen Gesundheitsschäden bei deren Über-
schreitung gleichzeitig medizinische und ethische Grenzen sind. Entsprechend gel-
ten für die Belastungsgrenzen und die Überprüfung der Fahrgeschäfte DIN bzw.
EURO-Normen, die im Grunde ethische Wurzeln haben. Während bei Thrill rides
an diese Grenzen herankonstruiert wird und die zunehmend schwierigere Aufgabe
darin besteht, die Voraussetzungen für das Erlebnis immer neuer Körpersensatio-
nen innerhalb dieser Grenzen zu schaffen, wird im Sport bewusst versucht, jene
Grenzen als individuelle Leistungsgrenzen hinauszuschieben. Dies kann im Sinne
Caillois’ als ludus gedeutet werden, als ein Spiel, in dem selbst gesetzte Ziele er-
reicht werden sollen. Im Sinne der antikapitalistischen Sportkritik der 1970er und
1980er Jahre verkommen Spitzensportler dabei zu „leistungsfähige[n] Muskelma-
schinen (…) zu maschinellen Medaillenproduzenten“25. Im Zusammenhang mit
finanziellen Kompensationsleistungen für Profis, dem Ausbau von Kontrollsyste-
men, die gravierende Gesundheitsschäden in der Regel reduzieren, und der gesell-
schaftlichen Wende zu neoliberalem Gedankengut in den 1990er Jahren sind diese
Argumentationen, die den Leistungssport gänzlich in Frage stellen, unabhängig von
ihrer Berechtigung in den Hintergrund getreten. Die Frage ethischer Grenzen be-
darf im Sport also einer Neubewertung.
Beim freien Spiel mit Technik gibt es systembedingt weder Regeln noch Kon-
trollinstanzen. Ethische Grenzen sind auf jeden Fall da gegeben, wo Persönlich-
keitsrechte verletzt oder Menschen und Umwelt gefährdet werden. Dasselbe muss
für Spiele im virtuellen Raum gelten; allerdings ist der Bezug von virtuellem Spiel-
24 Kornwachs, Klaus: Das Spiel mit der Technik und seine Folgen. In: Gebauer, Poser; Kalkulier-
tes Risiko, a. a. O., S. 73 f.
25 Bremer Beschlüsse der „Jusos“ von 1971, zitiert nach: Krockow, Christian Graf von: Sport.
Eine Soziologie und Philosophie des Leistungsprinzips. Hamburg 1974. S. 11.
Technisches Spiel ohne Grenzen? 279
handeln und Handlungen in der realen Welt nach wie vor unklar. Folglich ist die
Bewertung von Computerspielen – insbesondere Gewaltspielen – nach wie vor in
Anbetracht von Katharsisthese sowie Habitualisierungs- und Destabilisierungthese
oder gar der Kultivierungsthese im Fall von Problemgruppen – offen und schwer
allgemein klärbar, weil die Psyche der einzelnen Spielenden einbezogen werden
muss.26 So bleiben die entsprechenden Kontrollinstanzen letztlich zahnlos. Hier
besteht also trotz umfangreicher Literatur Forschungsbedarf. Ähnliches gilt für
computerbasiertes Spielzeug und verschiedene Assistenzsysteme, bei denen anzu-
nehmen ist, dass ein durch Spiel verbrämtes Erscheinungsbild in Kombination mit
anthropomorphen Zügen zur Verharmlosung von Technik beitragen kann.
26 Während bei der Katharsisthese letztlich von einer positiven Rückwirkung auf die Spielenden
ausgegangen wird, ergeben sich gemäß den weiteren genannten Thesen negative Folgen. Kun-
czik, Computerspiele, Teil II. In: tv diskurs, 63 (2013) 1, S. 60 f.
280 Stefan Poser
LITERATUR
Alkemeyer, Thomas: Mensch-Maschinen mit zwei Rädern – Überlegungen zur riskanten Aussöh-
nung von Körper, Technik und Umgebung. In: Gebauer, Gunter; Poser, Stefan u. a. (Hg.): Kal-
kuliertes Risiko. Technik, Spiel und Sport an der Grenze. Frankfurt am Main, New York 2006.
S. 225–249.
Avedon, Elliott M.; Sutton-Smith, Brian: Introduction. In: dies. (Hg.): The Study of Games. New
York u. a. 1971. S. 1–8, S. 7.
Burger, Claudia: Spionin im Kinderzimmer zerstören. In: VDI Nachrichten, 23.2.2017, http://
www.vdi-nachrichten.com/Gesellschaft/Spionin-im-Kinderzimmer-zerstoeren (Zugriff am:
27.3.2017).
Caillois, Roger: Les jeux et les hommes. Le masque et le vertige (1958); engl.: Man, Play and
Games. New York 1961; dt.: Die Spiele und die Menschen. Maske und Rausch. Stuttgart 1960
(zitierte Ausgabe: Frankfurt am Main 1982). S. 32 f., S. 151 f.
Cartmell, Robert: The Incredible Scream Machine. A History of the Roller Coaster. Bowling Green
1987.
Csikszentmihalyi, Mihaly: Beyond boredom and anxiety (1975); dt.: Das flow-Erlebnis. Jenseits
von Angst und Langeweile: im Tun aufgehen. Stuttgart 1985.
Csikszentmihalyi, Mihaly; Schiefele, Ulrich: Die Qualität des Erlebens und der Prozeß des Lernens.
In: Zeitschrift für Pädagogik, 39 (1993) 2, S. 207–221.
Dessauer, Friedrich: Streit um die Technik. Frankfurt am Main 1956(3).
Ellerbrock, Dagmar: Waffenkultur in Deutschland. In: Aus Politik und Zeitgeschichte, 35–37/2014,
18.8.2014, http://www.bpb.de/apuz/190119/waffenkultur-in-deutschland?p=2 (Zugriff am:
22.1.2015).
Gebauer, Gunter; Poser, Stefan u. a. (Hg.): Kalkuliertes Risiko. Technik, Spiel und Sport an der
Grenze. Frankfurt am Main, New York 2006.
Goldbeck, Ernst: Unsere Jungen beim Rudersport. Psychologische Analysen des Erlebniswertes ei-
ner Körperübung. Leipzig 1929.
Hughes, Thomas P.: The Evolution of Large Technological Systems. In: Bijker, Wiebe E.; Hughes,
Thomas P.; Pinch, Trevor J. (Hg.): The Social Construction of Technological Systems. New
directions in the sociology and history of technology. Cambridge, London 1987. S. 51–82.
Huizinga, Johan: Homo ludens. Proeve eener bepaling van het spel-element der cultuur. Haarlem
1938/1958, engl.: Homo ludens. A study of the play-element in culture. London 1949, dt:
Homo ludens. Vom Ursprung der Kultur im Spiel. Reinbek 1956, 2001(18).
Kehrt, Christian: „Das Fliegen ist noch immer ein gefährliches Spiel“ – Risiko und Kontrolle der
Flugzeugtechnik von 1908 bis 1914. In: Gebauer, Gunter; Poser, Stefan u. a. (Hg.): Kalkuliertes
Risiko. Technik, Spiel und Sport an der Grenze. Frankfurt am Main, New York 2006. S. 199–
224.
Kinney, Jeremy R.: Racing on Runways: The Strategic Air Command and Sports Car Racing in the
1950s. In: Braun, Hans-Joachim; Poser, Stefan (Gast-Hg.): Playing with Technology: Sports
and Leisure. Special Issue of ICON. Journal of the International Committee of the History of
Technology, 19 (2013), S. 193–215.
Kornwachs, Klaus: Das Spiel mit der Technik und seine Folgen. In: Gebauer, Poser; Kalkuliertes
Risiko, a. a. O., S. 51–77.
Krockow, Christian Graf von: Sport. Eine Soziologie und Philosophie des Leistungsprinzips. Ham-
burg 1974.
Kunczik, Michael: Wirkungen gewalthaltiger Computerspiele auf Jugendliche. In: Freiwillige
Selbstkontrolle Fernsehen (FSF) e. V. (Hg.): tv diskurs, 62 (2012) 4, S. 72–77 und 63 (2013) 1,
S. 60–65.
Lauwaert, Maaike: The Place of Play. Toys and Digital Cultures. Amsterdam 2009. S. 111 ff.
MacKenzie, Donald; Wajcman, Judy: Introduction Essay. In: dies. (Hg.): The Social Shaping of
Technology. How the Refrigerator Got its Hum. Milton Keynes u. a. 1985. S. 2–25.
Technisches Spiel ohne Grenzen? 281
Maines, Rachel: Hedonizing Technologies. Paths to Pleasure in Hobby and Leisure. Baltimore 2009.
Mohun, Arwen P.: Risk. Negotiating Safety in American Society. Baltimore 2013.
Petermann, Franz; Koglin, Ute: Aggression und Gewalt von Kindern und Jugendlichen. Hinter-
gründe und Praxis. Berlin, Heidelberg 2013. S. 89 ff.
Pilarczyk, Ulrike: Von der Faszination der 3-D-Action-Spiele. In: Poser, Stefan; Hoppe, Joseph;
Lüke, Bernd (Hg.): Spiel mit Technik. Katalog zur Ausstellung im Deutschen Technikmuseum
Berlin. Leipzig 2006. S. 127–133.
Salen, Katie; Zimmerman, Eric: Rules of Play – Game Design Fundamentals. London 2004.
Poser, Stefan: Glücksmaschinen und Maschinenglück. Grundlagen einer Technik- und Kulturge-
schichte des technisierten Spiels. Bielefeld 2016.
ders: Museum der Gefahren. Die gesellschaftliche Bedeutung der Sicherheitstechnik. Hygiene-Aus-
stellungen und Museen für Arbeitsschutz in Wien, Berlin und Dresden um die Jahrhundert-
wende. Cottbuser Studien zur Geschichte von Technik, Arbeit und Umwelt, 3. Münster u. a.
1998. S. 211.
Ropohl, Günter: Zur Technisierung der Gesellschaft. In: Bungard, Walter; Lenk, Hans (Hg.): Tech-
nikbewertung. Frankfurt am Main 1988. S. 79–97.
Schützmannsky, Klaus: Roller Coaster. Der Achterbahn-Designer Werner Stengel [Begleitbuch der
gleichnamigen Ausstellung im Münchner Stadtmuseum]. Heidelberg 2001.
Sutton-Smith, Brian: The Ambiguity of Play. Cambridge, MA, u. a. 1997.
RHETORISCHE GESTALTUNGSFÄHIGKEIT
IN VIRTUELLEN ARBEITSWELTEN
Francesca Vidal
1 ARBEITSWELT
Schon in den achtziger Jahren des letzten Jahrhunderts war vielfach zu hören,
dass die dritte industrielle Revolution, sprich: der Einzug einer digitalen Tech-
nik in Arbeitsprozesse, zu einem grundlegenden Wandel der Arbeitswelt führen
würde. Befürchtet wurde eine steigende strukturelle Arbeitslosigkeit, weshalb sich
die Diskussion um den Wandel auf die Formen der Erwerbsarbeit konzentrierte.
Ausgedrückt wurden die Ängste durch Parolen wie die vom „Ende der Arbeitsge-
sellschaft“ oder von der „Gesellschaft, der die Arbeit ausginge“. Berechtigt Angst
machte als Folge von Automatisierung die Unternehmenspolitik der „Freisetzung“,
also der Verlust der Lebensgrundlagen.1 Der Sozialwissenschaftler Wolfram Bu-
risch widersprach der Einseitigkeit der Prognosen mit dem Hinweis, dass nicht die
Arbeit abhandengekommen sei, sondern ein „Begriff von Arbeit selbst als Tätigkeit
des selbständigen Subjekts“2. Ihn irritierte, wenn allein der Zugang zur Arbeits-
welt diskutiert, diese in ihren Strukturen jedoch immer weniger hinterfragt wurde.
Er sah in einer solchen Verengung der Sichtweise die Gefahr, dass kaum noch von
den Gestaltungsmöglichkeiten des Subjekts die Rede sei.
Selbstverständliche Grundlage des damaligen Diskurses war die Interpretation
der Gesellschaft als „Arbeitsgesellschaft“: Industriell-technisch fortgeschrittene
Gesellschaften seien solche, „die ihre Reichtümer und den Grad der erreichten Na-
turbeherrschung vor allem der Arbeit verdanken; sie bedienen sich aber andererseits
in zunehmenden Maße einer Technik, die menschliche Arbeit fortwährend ersetzt
(…)“3. Tatsächlich veränderte der Fortschritt dieser Technik die Strukturen der
Arbeitswelt, was dann direkte Auswirkungen auf die sozialen Strukturen hatte. Es
hat sich jedoch bis heute nichts daran geändert, dass die personale Identitätsbildung
mit der Rolle verbunden ist, die der Mensch in der Arbeitswelt einnimmt.
Damals versuchte man die neue Form der Arbeit als Zukunft der Roboter oder
der automatisierten Arbeit zu beschreiben. Auch heute leben wir in Arbeitsgesell-
schaften, diese wurden jedoch in zunehmenden Maßen informatisiert und virtuali-
siert. Digitalisierung, Immaterialisierung und Virtualisierung haben den Charakter
1 vgl. exemplarisch Benseler, Frank; Heinze, Rolf G.; Klönne, Arno (Hg.): Zukunft der Arbeit.
Hamburg 1982.
2 Burisch, Wolfram: „Das Leben ist Freizeit“. Über die Diskriminierung emanzipatorischer Ar-
beit. http://www.bloch-akademie.de/txt/t4_07.htm (Zugriff am: 17.9.2017)
3 Guggenberger, Bernd: Am Ende der Arbeitsgesellschaft – Arbeitsgesellschaft ohne Ende? In:
Benseler u. a., a. a. O., S. 64.
284 Francesca Vidal
von Arbeit grundlegend verändert. Freilich leben wir noch nicht in einer Welt, in
der alles vollständig virtualisiert ist – das mag nur für die IT-Branche selbst gelten –
sondern in einer, in der die Veränderungen langsam greifen. Trotzdem bestimmt
die „virtualisierte Arbeitswelt“ unser politisch-soziales Leben in steigenden Maße.4
Damit kommt der Kritik von Burisch eine neue Brisanz zu, bleibt doch die Frage
offen, ob es allein um die Sicherung von Arbeitsplätzen geht. Viel entscheidender
ist doch, ob die neuen technischen Möglichkeiten auch als eine Chance zum selbst-
bestimmten Handeln zu begreifen sind und, falls sie ein solches Potential enthalten,
wie der arbeitende Mensch sich dieses zunutze machen kann und welche Voraus-
setzungen er hierfür braucht.
Die Arbeitsgruppe um den Soziologen Rudi Schmiede hat sehr früh gezeigt,
dass die Abhängigkeit der Unternehmen vom globalen Kapitalismus zu einer Ori-
entierung an netzwerkförmige Organisationsmuster führt, die durch die neuen
Technologien möglich geworden sind, da „Netzwerkstrukturen in der Ökonomie
einerseits Direktheit der ökonomischen Einflüsse, andererseits Unbestimmtheit
des individuellen Handelns zulassen, wie sie für ein Wirtschaften, das sich zuneh-
mend nicht mehr am Vollzug, sondern am Ergebnis orientiert, erforderlich sind.“5
Ausführlich beschreiben sie die Folgen eines solchen Wandels auf die Lebenswelt.
Konzentriert man sich darauf, dass die neuen Technologien die Generierung von
Informationen erlauben, weil diese in virtuellen Welten modellierbar, simulierbar
und kalkulierbar geworden sind, um dann wieder für Innovationsprozesse genutzt
zu werden, wird deutlich, dass Information allein vom Verwertungsinteresse aus
gesehen als Ware fungiert. Aber erst wenn sie als Grundlage von Gestaltungspro-
zessen gesehen wird, wird auch ihre Geltung als soziale Kategorie einsichtig. Eine
solche Deutung ist schon in der lateinischen Wortform informare enthalten, da sich
diese auch mit „formen“, „gestalten“ übersetzen lässt. Sie kreativ zu nutzen, heißt
demnach, sie nicht auf den Charakter des Tauschobjektes zu reduzieren. Weit mehr
als um maschinell berechenbare Symbole, also in Bitmuster zerlegte Informatio-
nen, geht es dann um den Inhalt. Erst ein technisch-funktionales Denken setzt In-
formation und Kommunikation in eins, macht aus Kommunikation Datenaustausch
und formalisiert selbst das Denken.6
Handelnde Subjekte könnten aber durchaus der Selbstorganisation des tech-
nischen Systems durch beständige Korrektur entgegentreten, denn immer noch
bedarf es des denkenden Menschen, der die zur Verfügung stehenden Wissensbe-
stände auch produktiv umsetzt. Es kommt demnach darauf an, herauszufinden, ob
4 vgl. zur Virtualisierung der Welt und ihre Auswirkung auf die Gestaltungsmöglichkeiten der
Subjekte: Vidal, Francesca: Rhetorik des Virtuellen. Die Bedeutung rhetorischen Arbeitsver-
mögens in der Kultur der konkreten Virtualität. Mössingen 2010. Die folgenden Ausführungen
basieren zum großen Teil auf dieser Studie. In der Studie werden auch die Ergebnisse der Ar-
beitsgruppe Schmiede detailliert wiedergegeben.
5 Schmiede, Rudi: Wissen, Arbeit und Subjekt im „Informational Capitalism“. In: Dunkel, Wolf-
gang; Sauer, Dieter (Hg.): Von der Allgegenwart der verschwindenden Arbeit. Neue Herausfor-
derungen für die Arbeitsforschung. Berlin 2006. S. 48.
6 vgl. Wenzel, Harald: Die Technisierung des Subjekts. Zum Verhältnis von Individuum, Arbeit
und Gesellschaft heute. In: Schmiede, Rudi (Hg.): Virtuelle Arbeitswelten. Arbeit, Produktion
und Subjekt in der „Informationsgesellschaft“. Berlin 1996. S. 182.
Rhetorische Gestaltungsfähigkeit in virtuellen Arbeitswelten 285
die gesellschaftlich Handelnden als Subjekte anerkannt oder als Objekte verächt-
lich gemacht werden.
Informatisierung verändert in entscheidenden Maßen die Kommunikations-
strukturen innerhalb der Arbeitswelt. Dies geschieht u. a. dadurch, dass Menschen
unabhängig von Raum und Zeit tätig werden können, freilich auch müssen. Es
geschieht aber auch, wenn mit Hilfe der Technik die Möglichkeit des asynchro-
nen Arbeitens geschaffen oder die Chance geboten wird, sogenannte nebenläufige
Tätigkeiten dem System zu überlassen. Neben den eröffneten Chancen hat dies
immer auch zur Folge, dass Arbeitende zukünftig vor neuen Anforderungen zur
Bewältigung der Aufgaben stehen werden. Die technischen Errungenschaften ver-
langen immer mehr die Fähigkeit zum selbstgesteuerten Handeln und vor allem zur
Übernahme von Verantwortung.
Mit dem Begriff der Virtualisierung lässt sich der Weg von materialen Orientie-
rungen hin zu virtuell erzeugten beschreiben, die es ermöglichen, dass konkrete Er-
fahrungen sowohl in einer materiellen als auch einer virtuellen Welt möglich sind.
Dabei ist der Zugriff auf die Datenwelt nicht mehr an bestimmte Orte, sondern an
das Vorhandensein einer bestimmten Technik und der entsprechenden Kommunika-
tionsinfrastruktur gebunden. Virtualisierung der Arbeitswelt wird eingeleitet durch
die Übergabe von Arbeitsschritten und Arbeitsprozessen in virtuelle Umgebungen
und damit dem voranschreitenden Verdrängen materieller Arbeit. Zunehmend fin-
det Arbeit zusätzlich oder auch ausschließlich im virtuellen workspace statt. Inso-
fern lässt sich dann sagen, dass die Zukunft der Arbeit „im Netz“ entschieden wird,
es also verstärkt darauf ankommt, hier eine solche Präsenz zu erhalten, dass an der
Schaffung der Rahmenbedingungen mitgewirkt werden kann.7
Die neuen Technologien lassen sich demnach als Informations- und Kommuni-
kationsmedien kennzeichnen, mit deren Hilfe sich globale Infrastrukturen etablier-
ten, die immer mehr medialen Gesetzmäßigkeiten folgen. Um in solchen Strukturen
zu handeln, bedarf es rhetorischer Fähigkeiten. Reduziert man Rhetorik nicht auf
die Funktion eines Instruments der strategischen Kommunikation, sondern versteht
sie als ein kulturschöpferisches Potenzial, dann ermöglicht ihre Kenntnis ein Ein-
greifen in die medialen Prozesse, und sie wird zum Weg des selbstbestimmten Han-
delns. Freilich lässt sich nicht unterschlagen, dass es die strukturellen Figurationen
sind, die das Handeln der Menschen bestimmen. Entscheidend ist aber genauso,
ob die Menschen sich auf die Rolle des Konsumenten der Technik reduzieren las-
sen oder ob sie die neu entstehenden Netzwelten kultivieren wollen. Möglich wird
Kultivierung, weil die neu entstehenden Räume Ergebnis von Kommunikations-
prozessen sind, demnach die Fähigkeit zur Kommunikation erst Partizipation und
Persuasion ermöglicht.
Wie selbstverständlich geht der Mensch heute von der Macht der Kommunika-
tionstechnik aus, die sein Leben in nahezu allen Bereichen bestimmt. Eine derartige
Entwicklung jedoch nur aus ökonomischen Gesichtspunkten zu betrachten, führt
7 vgl. Schröter, Welf: Electronic Mobility – wenn Arbeit losgelöst vom Menschen mobil wird.
Auf dem Weg zu „New Blended Working“. In: Baacke, Eugen; Scherer, Irene; Schröter, Welf
(Hg.): Electronic Mobility in der Wissensgesellschaft. Wege in die Virtualität. Mössingen 2007.
S. 9–28.
286 Francesca Vidal
unweigerlich dazu, die Entwicklung des öffentlichen Raumes allein aus ökonomi-
schen Verwertungsinteressen heraus zu beurteilen. Daraus folgt dann unweigerlich
die Gefahr, dass die Gesellschaft nur noch an den optimal den wirtschaftlichen
Interessen entsprechend Geschulten interessiert ist. Zum einen wird der Katalog der
Anforderungen höher etwa in Bezug auf Flexibilität oder Fertigkeiten, zum anderen
bedeutet es aber auch ein Zurückschrauben der Bildungsanforderungen. Je wei-
ter die technische Entwicklung voranschreitet kann es passieren, dass sogenannte
„skills“ verlangt werden, nicht aber Kreativität im Sinne des Selbstschöpferischen,
mithin Bildung. Beschäftigungsfähigkeit meint vor allem ein sich einfügen können
in bestehende Strukturen und setzt nicht auf den gestaltungswilligen Akteur, wel-
cher diese Strukturen evtl. auch ändern könnte.
Insofern lässt sich an die Befürchtung anknüpfen, dass Automatisierung nicht
zwangsläufig zur ersehnten Freiheit führt. Schon Hannah Arendt warnte in ihrem
Werk „Vita activa“, dass der Mensch an den Rand gedrängt werde: „Denn es ist ja
eine Arbeitsgesellschaft, die von den Fesseln der Arbeit befreit werden soll, und
diese Gesellschaft kennt kaum noch vom Hörensagen die höheren und sinnvolle-
ren Tätigkeiten, um derentwillen die Befreiung sich lohnen würde …“8 Schon
hier wird das Problem deutlich: Es geht um die Erkenntnis, dass die Teilhabe am
gesellschaftlichen Geschehen sich durch die Formen der Kommunikation, des Mit-
einander-Redens, erst konstituiert.9 Dies gilt freilich immer noch, auch wenn die
Etablierung der neuen Informations- und Kommunikationstechnologien zu verän-
derten Interaktionsformen geführt hat.
2 RHETORIK
Der Gedanke, dass eine Orientierung am Wohl der Gesellschaft erst durch Bindun-
gen als Folge von Kommunikation geschaffen wird, mithin durch Persuasion, ist
genuin einer der Rhetorik. Was also meint Kommunikation in einer virtualisierten
Arbeitswelt, wenn darunter nicht der Austausch von Informationen, sondern die
Möglichkeit gemeinsamer Gestaltung verstanden wird?
Die rhetorische Theorie reflektiert die Notwendigkeit, rhetorisch handeln zu
können, immer dann, wenn Räume selbstbestimmt und im Miteinander gestaltet
werden sollen. Sie will wissen, wann der Einzelne in einer kommunikativen Ge-
meinschaft hervortreten und Impulse für Veränderungen geben kann, die, wenn sein
persuasives Handeln „erfolgreich“ ist, eben zu diesen Veränderungen führen. Daher
geht es auch um die Frage, welcher Spielraum zum gesellschaftspolitischen Han-
deln dem Subjekt gegeben wird. Dies ist nur als Wechselverhältnis zu verstehen,
denn welche Möglichkeiten der Einzelne hat, auf die Strukturen der Arbeitswelt
einzuwirken, ist unter anderem auch abhängig von den demokratischen Strukturen
der Gesellschaft und vom gesellschaftlichen Bewusstsein. Wie aber Strukturen und
Bewusstsein sich entwickeln, ist entscheidend im Zusammenhang mit der Gestal-
8 Arendt, Hannah: Vita activa oder vom tätigen Leben (1958). München, Zürich 2007. S. 13.
9 vgl. dies.: Was ist Politik? Fragmente aus dem Nachlass. München, Zürich 1993.
Rhetorische Gestaltungsfähigkeit in virtuellen Arbeitswelten 287
tung der Arbeitswelt zu sehen. Welche Bedeutung der Arbeit für das gesellschaft-
liche Leben der Einzelnen und darüber hinaus für die Zukunft der Gesellschaft
als solcher zugesprochen wird, hängt im entscheidenden Maß davon ab, welche
Auswirkungen die Etablierung der neuen Informations- und Kommunikationsme-
dien auf das Handeln der Akteure haben wird. Die Frage lautet also nicht, wie der
Mensch die Technik nutzt, sondern ob und wie er zum Gestalter werden kann.
Der Mensch ist angewiesen auf die Fähigkeit, mit kommunikativen Mitteln
intervenierend zu handeln. Seine Ziele kann er nur erfolgreich umsetzen, wenn er
sich auf Situation und Adressaten einstellen kann und wenn er eine Vorstellung von
den Zielen hat, die es umzusetzen gilt. Selbstverständlich will ein Unternehmen,
dass die Ziele der Arbeitenden im Interesse der Unternehmen sind. Das heißt für
den rhetorisch Gebildeten, dass er es verstehen muss, dieses Interesse mit seinen
und dem gesellschaftlichen in Einklang zu bringen. Dabei kann nicht unterschlagen
werden, dass der Zielhorizont rhetorischer Theorie im Bereich des Kulturschöpferi-
schen liegt, die Möglichkeit rhetorischen Handelns also daran gebunden ist, ob eine
Gesellschaft überhaupt auf das politisch handelnde Subjekt setzt. Denn auch wenn,
mit Marx gesprochen, das Potential der Befreiung von entfremdeter Arbeit in der
Produktivkraft liegt, hier also die Möglichkeit zur mündigen Gestaltung ergriffen
werden muss, bleibt genau dieses Ergreifen von Möglichkeit abhängig vom politi-
schen Willen der Bürger.
Ob Arbeitende durch Kommunikation zur Kooperation gelangen, wird immer
entscheidender für den Erfolg der Arbeitsprozesse, da Kommunikation wichtiger
Bestandteil der Arbeit ist. Soll bei der Darlegung des gegenwärtigen Wandels hin
zur Virtualisierung der handelnde Mensch in den sich wandelnden Arbeitsabläufen,
Arbeits- und Sozialverhältnissen im Blickpunkt des Interesses bleiben, dann darf
der Wandel nicht als rein materieller Prozess interpretiert werden, sondern als Ver-
änderung eines sozialen Systems. Das Interesse richtet sich demnach einerseits auf
die Handlungsakteure, die in ihrer Arbeit Sinn und Anerkennung suchen, und ande-
rerseits auf die Arbeitswelt mit ihren Kommunikations- und Beziehungsgeflechten.
Vorausgesetzt, dass es ein berechtigtes gesellschaftliches Interesse gibt, die
Bedeutung demokratischer Werte wie Selbstbestimmung und Selbstverwirklichung
für eine humane Arbeitswelt immer wieder herauszustellen, müssen die Plausibili-
täten besonders hervorgehoben werden. Als Subjekt in einer virtualisierten Arbeits-
welt zu handeln, ist nur im Miteinander des gesellschaftlichen Beziehungsgeflechts
möglich. Welche Formen will der heutige Mensch wählen? Was macht er, um den
Anforderungen des Marktes zu entsprechen? Auch wenn gefragt wird, wie er rheto-
risch handeln kann, müssen die Bedingungen für dieses Handeln in den Blick kom-
men. Die Anforderungen der Arbeitswelt verändern das Leben im Ganzen, haben
Einfluss auf Familienstrukturen, soziale Kontakte, Wohnortwahl und vieles mehr.
In solchen Strukturen selbstbestimmt zu handeln, ist nur möglich, wenn die Men-
schen bereit sind, die in diesen Strukturen enthaltenen Widersprüche zu erkennen
und als Potential für Veränderung zu begreifen.
Wenn dem Subjekt mit seinen Handlungs- und Reflexionsvermögen nicht die
Verantwortung abgesprochen wird, dann kann er kulturschöpferisch handeln. Mit
Hilfe der Rhetorik kann er in Spannungsverhältnissen auf Grund seiner argumen-
288 Francesca Vidal
10 Knape, Joachim: Persuasion. In: Ueding, Gert (Hg.): Historisches Wörterbuch der Rhetorik.
Bd. 6. Tübingen 2003. Sp. 874–907. Dass eine Bewusstseinsänderung eintritt, ist immer Folge
der Leistung des Rezipienten, da dieser die Botschaft in seinem Bewusstsein konstruieren
muss.
11 vgl. zur Betonung der Wirkungsweisen als Bestandteile der Persuasion: Ueding, Gert: Was ist
Rhetorik? In: Soudry, Rouven (Hg.): Rhetorik. Eine interdisziplinäre Einführung in die rheto-
rische Praxis. Heidelberg 2006. S. 13–23.
Rhetorische Gestaltungsfähigkeit in virtuellen Arbeitswelten 289
aber nicht zum Widerspruch der Definition von Persuasion führen muss, denn in
solchen Fällen dienen rhetorische Handlungen dazu, aufkommende Ungewisshei-
ten oder Zweifel in Gewissheiten übergehen zu lassen. Nur wer erkennt, dass ein
einmal erreichtes Ziel auch wieder in Frage gestellt werden kann und eine erneute
Überzeugungsarbeit erfordert, kann Bindungen stabil halten.12 Gerade hier wird
Persuasion zum kulturschöpferischen Akt, der dann zum Tragen kommt, wenn ge-
sellschaftlich auf die Fähigkeiten des Subjekts gesetzt wird.
Daraus lässt sich die Feststellung ableiten, dass das Subjekt dann an der Gestal-
tung der Rahmenbedingungen mitwirkt, wenn die Betonung des Subjekts zugleich
als Aufforderung verstanden wird, auf sein rhetorisches Arbeitsvermögen zu setzen.
3 RHETORISCHES ARBEITSVERMÖGEN
12 Knape, a. a. O.
13 Schmiede, Rudi: Informatisierung und Subjektivität. In: Konrad, Wilfried; Schumm, Wilhelm
(Hg.): Wissen und Arbeit. Neue Konturen von Wissensarbeit. Münster 1999. S. 134–151.
14 a. a. O., S. 10. Schmiede unterstützt diese These mit den Ergebnissen industriesoziologischer
Forschung über die Bedeutung informeller Gruppen und der Kooperationsbeziehungen sowie
290 Francesca Vidal
Die aktive Beteiligung des Beschäftigten, die gerade der höher Qualifizierte
durchaus positiv wahrnimmt, wird für die Unternehmen zum Rationalisierungspo-
tential. Seine ihm eigenen Kompetenzen werden in allen Bereichen zur Ressource
des Unternehmens. Die Anforderungen an Selbstorganisation und Selbststeuerung
steigen in zunehmendem Maße, auch darauf bezogen, dass jeder selbst dafür ver-
antwortlich ist, sich das geforderte Potential in Formen des lebenslangen Lernens
anzueignen. Gerade weil die geforderten Fähigkeiten über fachliche Kompetenzen
hinausgehen, sowohl soziale als auch methodische einschließen und dieses Bündel
der stetigen Veränderung unterliegt, wird der Einzelne einem kontinuierlichen Pro-
zess ausgesetzt, für den er sich immer wieder neu qualifizieren und in dem er seine
Qualifikationen immer wieder neu unter Beweis stellen muss.
Die Fähigkeiten, die ein Mensch im Laufe seines Lebens durch Bildung, Pra-
xis, Erfahrung und Erlebnisse im beruflichen wie im privaten Leben erwirbt, sind
Teil seines Arbeitsvermögens, das die Warenform der Arbeit erst möglich macht.
Dieses Vermögen geht aber weit über das hinaus, was der Arbeitende in seinem
Berufsleben tatsächlich einbringen kann.
Mit dem Begriff des „Arbeitsvermögens“ schließt Sabine Pfeiffer „an den
von Negt/Kluge (1993) aufgedeckten Gegensatz von subjektiver Produktion der
Arbeitskraft einerseits und deren Objektivierung als Funktion des Lohnarbeitspro-
zesses an und begreift konsequent ersteres als Arbeitsvermögen und letzteres als
Arbeitskraft“.15 Beides sei nur in seiner dialektischen Beziehung zueinander zu
erfassen, um sowohl auf der Ebene der Kritik und der Utopie gesellschaftliche Ent-
wicklungen zu analysieren. Das Arbeitsvermögen sieht sie sowohl in seinem Pro-
zesscharakter als auch als außerhalb des Subjekts zur Form gekommenes Produkt.
„Arbeitsvermögen und Arbeitskraft sind zwei grundsätzliche, sich geschichtlich
bedingt jeweils verändernde und in einem je dialektischen Verhältnis sich zuein-
ander verhaltende Aspekte, die lediglich analytisch klar in ihre quantitativen und
qualitativen Anteile zu trennen sind.“16
Es geht um das Mehr des Arbeitsvermögens, um derart emanzipatorische Po-
tentiale offenzulegen, was nur möglich ist, wenn Arbeitsvermögen und Arbeitskraft
in ihrem dialektischen Verhältnis im Zusammenhang der gesellschaftlichen For-
men der Arbeitsorganisation gesehen werden. So kann eine kritische Sicht auf die
sich vollziehende Subjektivierung entwickelt werden, weil zu zeigen ist, in welcher
Weise das Arbeitsvermögen einerseits stärker genutzt wird, sich aber andererseits
in diesem Prozess auch neu bildet und so tatsächlich als Potential verstanden wer-
mit praktischen Hinweisen, wie Unternehmen versuchen den Einzelnen stärker einzubeziehen
etwa durch die sogenannten Kommunikationstrainingsprogramme.
15 Pfeiffer, Sabine: Informatisierung, Arbeitsvermögen und Subjekt – konzeptuelle Überlegungen
zu einer emanzipationsorientierten Analyse von (informatisierter) Arbeit. In: Schönberger,
Klaus; Springer, Stefanie (Hg.): Subjektivierte Arbeit. Mensch – Technik – Organisation in ei-
ner entgrenzten Arbeitswelt. Frankfurt am Main, New York 2003. S. 191. Oskar Negt und
Alexander Kluge beschäftigen sich mit den Prozessen, die sich innerhalb des Subjekts auf-
grund des Verkaufs der Ware Arbeitskraft vollziehen. Vgl. Negt, Oskar; Kluge, Alexander:
Geschichte und Eigensinn. Bd.1: Entstehung der industriellen Disziplin aus Trennung und Ent-
eignung. Frankfurt am Main 1993.
16 Pfeiffer, S.: a. a. O. S. 193.
Rhetorische Gestaltungsfähigkeit in virtuellen Arbeitswelten 291
den kann. Mit dieser Konzentration auf die qualitativen Momente lassen sich die
Fähigkeiten erfassen, die das Subjekt braucht, um sich die Welt anzueignen und
die es während dieser Aneignung in allen Lebensbereichen bildet und verausgabt.
Sieht man also mit Pfeiffer das Arbeitsvermögen als Produkt der menschlichen Le-
benstätigkeit, lässt sich im Sinne der Arbeitssoziologie fokussieren, welcher Teil
ökonomisch angeeignet wird und welcher aufgrund der Verwirklichungsbedingun-
gen ruht und darin die Kritik der Verwertungsinteressen ableiten.
Es geht dann auch um die rhetorischen Fähigkeiten, die das Subjekt zugleich
braucht und die doch in weiten Teilen ungenutzt bleiben, weil die Bedingungen es
nicht anders zulassen, und damit zugleich immer auch um die Frage, ob dies die
Fähigkeiten sind, die es ihm erlauben würden, diese Bedingungen zu verändern.
Mit Rekurs auf den Begriff des Arbeitsvermögens kann der Rahmen der An-
forderungen des Marktes bezogen auf die Erwerbstätigkeit gesprengt werden, da
die Qualitäten des Subjekts ganzheitlich in den Blick genommen werden, es also
auch um die Fähigkeiten des Subjekts geht, „die jenseits seiner warenförmigen
Repräsentation, der Arbeitskraft, liegen“17. Das Arbeitsvermögen ist zum einen
abhängig von der individuellen Geschichte des Einzelnen, hinsichtlich der kom-
munikativen Fähigkeiten von der Kommunikationsbiografie, und zum anderen von
den gesellschaftlichen Repräsentationen. Es wird durch den Bezug des Einzelnen
zur Welt angeeignet und bildet derart sein durchaus auch utopisch zu bestimmendes
Potential. D. h., zum Potential des Subjekts gehören neben den formalen Quali-
fikationen unabdingbar auch die individuellen Wissensformen, die auf der Basis
von Erfahrung angeeigneten Handlungsmodi, die sich eben sowohl im Bereich von
Bildung und Arbeit als auch im lebensweltlichen Alltag bilden. Das Subjekt wird
derart verstanden als durch die Gesellschaft situiert und sich entwickelnd durch
die kulturelle Vermittlung. Aufgrund der Lebensbiografie muss jeder individuell
gemachte Erfahrungen und Widerstände in Handeln umsetzen. Das sich so bildende
Arbeitsvermögen wird aus der Perspektive der Verwertungsinteressen des Mark-
tes immer nur in Splittern wahrgenommen. Dass die Transformation der Erfah-
rungen in Handlungswissen in Abhängigkeit zur eingenommenen Perspektive und
zum jeweiligen Diskurs geschieht, eröffnet aber auch die Chance, den Rahmen der
Marktinteressen zu verändern.
Wenn es darauf ankommt, das Erfahrungswissen der Subjekte zu transformie-
ren, eignet sich die Rhetorik im besonderem Maße, da Rhetorik eine Erfahrungs-
wissenschaft ist: Sie gewinnt ihre Erkenntnisse aufgrund empirisch nachweisbarer
Beobachtung und Analyse von Erfahrungen im Bereich des rhetorischen Handelns
und zieht daraus Schlussfolgerungen für die Theorie dieses Handelns. Derart er-
forscht sie die Struktur des gesellschaftlichen Lebens, um zu erörtern, wie der
Mensch zum rhetorisch Handelnden werden kann. In der Rede sieht sie den Ori-
entierungs- und Erfahrungsrahmen, um zu Entscheidungen zu gelangen. Ihre Ori-
entierung entnimmt sie der geschichtlichen Perspektive, d. h., um rhetorikrelevante
Probleme zu erörtern, bezieht sie sich auf ihre historischen Dimensionen. In den
Worten Gert Uedings: „Die Rhetorik ist eine Erfahrungswissenschaft, denn, so er-
läutert Aristoteles, ‚man kann die Ursache untersuchen, weshalb die einen Erfolg
erzielen aufgrund der Gewohnheit, die andern durch Zufall; alle möchten aber wohl
zugeben, dass etwas Derartiges bereits Aufgabe einer Theorie ist‘ (Rhet., 1354a:
1.1.2). Sie bedient sich der kontrollierten und empirisch nachweisbaren Beobach-
tung rhetorischer Sprechakte und versucht die Geltung der aus ihr gewonnenen
Erkenntnisse durch historische Rekonstruktion und die Bildung von Hypothesen
über die Systematik und die Regeln rhetorischen Sprechens zu sichern, was wir
Allgemeine Rhetorik nennen.“18
LITERATUR
Arendt, Hannah: Vita activa oder vom tätigen Leben (1958). München, Zürich 2007.
dies.: Was ist Politik? Fragmente aus dem Nachlass. München, Zürich 1993.
Benseler, Frank; Heinze, Rolf G.; Klönne, Arno (Hg.): Zukunft der Arbeit. Hamburg 1982.
Burisch, Wolfram: „Das Leben ist Freizeit“. Über die Diskriminierung emanzipatorischer Arbeit.
http://www.bloch-akademie.de/txt/t4_07.htm (Zugriff am: 17.9.2017)
Guggenberger, Bernd: Am Ende der Arbeitsgesellschaft – Arbeitsgesellschaft ohne Ende? In: Bense-
ler, Frank; Heinze, Rolf G.; Klönne, Arno (Hg.): Zukunft der Arbeit. Hamburg 1982. S. 63–83.
Knape, Joachim: Persuasion. In: Ueding, Gert (Hg.): Historisches Wörterbuch der Rhetorik. Bd. 6.
Tübingen 2003.
Negt, Oskar; Kluge, Alexander: Geschichte und Eigensinn. Bd.1: Entstehung der industriellen Dis-
ziplin aus Trennung und Enteignung. Frankfurt am Main 1993.
Pfeiffer, Sabine: Arbeitsvermögen. Ein Schlüssel zur Analyse (reflexiver) Informatisierung. Wiesba-
den 2004. S. 141.
dies.: Informatisierung, Arbeitsvermögen und Subjekt – konzeptuelle Überlegungen zu einer eman-
zipationsorientierten Analyse von (informatisierter) Arbeit. In: Schönberger, Klaus; Springer,
Stefanie (Hg.): Subjektivierte Arbeit. Mensch – Technik – Organisation in einer entgrenzten
Arbeitswelt. Frankfurt am Main, New York 2003. S. 182–210.
Schmiede, Rudi: Informatisierung und Subjektivität. In: Konrad, Wilfried; Schumm, Wilhelm (Hg.):
Wissen und Arbeit. Neue Konturen von Wissensarbeit. Münster 1999. S. 134–151.
ders.: Wissen, Arbeit und Subjekt im „Informational Capitalism“. In: Dunkel, Wolfgang; Sauer,
Dieter (Hg.): Von der Allgegenwart der verschwindenden Arbeit. Neue Herausforderungen für
die Arbeitsforschung. Berlin 2006.
Schröter, Welf: Electronic Mobility – wenn Arbeit losgelöst vom Menschen mobil wird. Auf dem
Weg zu „New Blended Working“. In: Baacke, Eugen; Scherer, Irene; Schröter, Welf (Hg.):
Electronic Mobility in der Wissensgesellschaft. Wege in die Virtualität. Mössingen 2007.
Ueding, Gert: Was ist Rhetorik? In: Soudry, Rouven (Hg.): Rhetorik. Eine interdisziplinäre Einfüh-
rung in die rhetorische Praxis. Heidelberg 2006. S. 13–23.
Vidal, Francesca: Rhetorik des Virtuellen. Die Bedeutung rhetorischen Arbeitsvermögens in der
Kultur der konkreten Virtualität. Mössingen 2010.
Wenzel, Harald: Die Technisierung des Subjekts. Zum Verhältnis von Individuum, Arbeit und Ge-
sellschaft heute. In: Schmiede, Rudi (Hg.): Virtuelle Arbeitswelten. Arbeit, Produktion und
Subjekt in der „Informationsgesellschaft‘. Berlin 1996.
GIBT ES EINE KULTUR DER VERNETZTEN WELT?
Wie Informatik eine globale und nachhaltige Informationsgesellschaft ermöglicht
Wolfgang Hofkirchner
Die Geschichte wiederholt sich nicht. Sie ist ein praktisch im Detail nicht reproduzier-
barer, ontisch der Richtung nach nicht umkehrbarer und auf einzelne Bestimmungs-
größen nicht zurückführbarer, offener und epistemisch nicht vollständig vorhersagba-
rer oder erklärbarer Prozess der Entwicklung der soziokulturellen Organisation eines
biologischen Wesens, dessen Erscheinen auf dem Planeten Erde diesem einen Stem-
pel aufdrückt. Was sich wiederholt, sind Konstellationen, die zu früheren Zeitpunkten
so oder ähnlich schon aufgetreten sind, sich aber zum Zeitpunkt der Wiederholung in
einem anderen Umfeld ereignen. Gegenwärtig scheint die Menschheit einem welt-
weiten Wiederholungszwang zum Nationalismus, Populismus und Rechtsruck zu
unterliegen, der im letzten Jahrhundert in die Katastrophe des Zweiten Weltkriegs
gemündet ist – eine Katastrophe, die groß genug gewesen ist, um ein Bewusstsein
zu schaffen, dass eine solche Katastrophe nie wieder zugelassen werden dürfe, aber
eben ein Ereignis, das sich nicht ohne Hegemonie bewusster Kräfte in Institutionen
niederschlagen kann, die ein nochmaliges Eintreten dauerhaft verhindern würden.
Allerdings ist das Umfeld heute ein anderes, und eine Wiederholung könnte
die ultimative Katastrophe heraufbeschwören. War der Zweite Weltkrieg noch ein
Hinweis darauf, dass es möglich ist, im industriellen Stil Massenvernichtung zu be-
treiben, war sein Ende bereits das Aufblitzen eines neuen Zeitalters, in dem neue
Technik die Auslöschung der gesamten Menschheit zur Folge haben kann. Seit dem
Ende des Zweiten Weltkriegs steht die Menschheit unwiderruflich im Kontext des
globalen Zeitalters, des Zeitalters der globalen Probleme. Diese wurden, angestoßen
durch gesellschaftskritische Reflexionen, von sozialen Bewegungen auf den Punkt
gebracht. 1955 wurde das Einstein-Russell-Manifest für den Verzicht militärischer
Mittel in den internationalen Beziehungen unterzeichnet, das als Gründungsdoku-
ment der Pugwash-Bewegung gilt und eine internationale Friedensbewegung inspi-
rierte, die in die Breite wuchs. 1962 erschien Rachel Carsons Buch „Silent Spring“1,
das am Beispiel der Handhabung der Pestizide in den USA für einen sorgsamen
Umgang mit der Natur plädierte und zum Startschuss einer weltweiten Umwelt-
bewegung wurde. Und schließlich entstanden in den Metropolen Bewegungen, die
sich mit den antikolonialen Befreiungsbewegungen solidarisierten, die, von Frantz
Fanons „Les damnés de la terre“2 vorweggenommen, den Kampf für sozioökono-
3 vgl. Hofkirchner, Wolfgang: Relationality in social Systems. In: Li, Wenchao (Hg.): „Für unser
Glück oder das Glück anderer.“ Vorträge des X. Internationalen Leibniz-Kongresses. Hildes-
heim u. a. 2016. S. 235–243; sowie: ders.: The commons from a critical social systems perspec-
tive. In: Recerca, Ausgabe 14, 2014, S. 73–91.
Gibt es eine Kultur der vernetzten Welt? 297
4 s. ders.: Information for a global sustainable information society. In: Hofkirchner, Wolfgang,
Burgin, Mark (Hg.): The future information society. Social and technological problems. Singa-
pore u. a. 2017. S. 11–33.
5 Der französische „Philosoph des Internets“, Pierre Lévy, sprach in den 90ern vom neuen No-
madentum (s. Lévy, Pierre: L’intelligence collective. Pour une anthropologie du cyberespace.
Paris 1994).
6 Den Terminus „Glocalization“ führte Roland Robertson Ende der 90er Jahre in den wissen-
schaftlichen Diskurs ein (s. Robertson, Roland: Globalization. London 1992).
298 Wolfgang Hofkirchner
7 Der Begriff „Agonismus“ geht auf Chantal Mouffe zurück (siehe z. B.: Mouffe, Chantal: Ago-
nistics. Thinking the world politically. London 2013). „Kompossibilität“ ist eine von Leibniz
verwendete Kategorie.
8 Morin, Edgar: Seven complex lessons in education for the future. http://unesdoc.unesco.org/
images/0011/001177/117740eo.pdf, S. 25 (Zugriff am: 1.4.2017).
9 vgl. Ashby, William Ross: An introduction to cybernetics. New York 1956.
Gibt es eine Kultur der vernetzten Welt? 299
Erscheinung, die auf der Ebene des Suprasystems angesiedelt ist und die einzelnen
Intelligenzen von Ko-Systemen übertreffen kann.
Kollektive Intelligenz ist heute das, was auf der Ebene der gesamtgesellschaft-
lichen Entwicklung gebraucht wird. Den anthropogenen Dysfunktionen kann nicht
gegengesteuert, die sozialen Systeme können nicht auf einen nachhaltigen Pfad ge-
bracht werden, solange nicht die dazu erforderlichen Informationen (Daten, Wis-
sen, Weisheit) generiert werden, solange nicht eine Bewusstheit hegemonisch wird,
die ein gutes Leben und das Überleben der Menschheit intendiert, und solange nicht
die Informations- und Kommunikationstechnologien diese Prozesse unterstützen,
statt sie im Interesse der Aufrechterhaltung des status quo zu hintertreiben.
Dieser Imperativ legt einen möglichen dritten Sprung der Menschwerdung
nahe. Einen ersten Sprung von unseren tierischen Vorfahren zum homo sapiens
als animal sociale bildete der Übergang zum Frühmenschen. Dieser Frühmensch
war fähig, bei direkt miteinander verbundenen Akteuren gemeinsame Intentionen
zu erzeugen, gemeinsame Ziele, gemeinsame Aufmerksamkeit in der gemeinsa-
men Handlung, was kulturelle Faktoren in die biologische Evolution einführte. Ein
zweiter Sprung der Anthroposoziogenese führte zwar zu einer kollektiven Inten-
tionalität in der gesellschaftlichen Gruppe, die ein und dieselbe Kultur teilte, als
die sozial-kulturelle Entwicklung die biologische Entwicklung der Frühmenschen
zu dominieren begann. Aber die kollektive Intentionalität wurde nachgerade in
Jahrtausenden zur instrumentellen Vernunft pervertiert, in der homo idioticus10
für seine privaten Zwecke andere Mitglieder der Gesellschaft instrumentalisiert
und seine eigene Handlungsfähigkeit dadurch beschränkt, dass er die anderen in
der Arbeit für das Gemeinwohl und in dessen Nutznießung nicht als gleichwertig
erachtet. Das Entstehen meta-reflexiver Akteure11, deren Wissen und Gewissen
die Sorge um das allgemeine Gute rehabilitiert und zu verallgemeinerten Handlun-
gen auf unserem Planeten fähig sind, würde die Menschwerdung zu einem echten
homo socialis12 „vervollkommen“.
Wenn wir danach fragen, welche Rolle der Information in diesem Transforma-
tionsprozess zukommt, dann ist die Antwort, dass Information die Voraussetzung
dafür darstellt, dass die gestiegene Komplexität der Interaktion der voneinander ab-
hängig gewordenen sozialen Systeme in Sicht genommen und wieder in den Griff
bekommen werden kann.
Information kommt in allen selbstorganisierenden Systemen in drei Varianten vor:
Systeme erkennen andere Systeme in ihrer Umwelt (kognitive Variante), als kogni-
10 Ich habe mir erlaubt, den Begriff des homo oeconomicus zu verallgemeinern. Dabei beziehe ich
mich auf die antike Bedeutung von idiotes zur Bezeichnung derjenigen Personen, die sich nicht an
der res publica beteiligten, sondern Ressourcen der Allgemeinheit zum privaten Gebrauch entzo-
gen (vgl. Curtis, Neil: Idiotism. Capitalism and the privatisation of life. London 2013. S. 12).
11 „Metareflexivität“ ist nach der Soziologin Margaret Archer die Fähigkeit von Personen, nicht
nur den unmittelbaren sozialen Kontext zu reflektieren, sondern auch das Wohl der Gemein-
schaft zum Anliegen zu machen (Archer, Margaret: Making our way through the world. Human
reflexivity and social mobility. Cambridge 2007; s. auch: Donati, Pierpaolo, Archer, Margaret:
The relational subject. Cambridge 2015).
12 Gintis, Herbert, Helbing, Dirk: Homo socialis. An analytical core for sociological theory. In:
Review of Behavioral Economics, Ausgabe 2, 2015, S. 1–59.
300 Wolfgang Hofkirchner
tive Systeme koppeln sie sich mit Ko-Systemen (kommunikative Variante), und als
kommunikative Systeme verschränken sie sich miteinander über die organisatorischen
Beziehungen des Meta-/Suprasystems, an dem sie teilhaben (kooperative Variante)13.
Soziale Systeme zeigen soziales Informationsgeschehen: Die soziale Kognition
befähigt Akteure zur Reflexion ihres Selbst im Gesamtzusammenhang, die soziale
Kommunikation befähigt zur Reflexion der Intention der anderen, und die soziale
Kooperation befähigt zur Reflexion der Intention, die im sozialen System, in das sie
eingebettet sind, geteilt wird.
Soziale Kognition ist konzeptuell, d. h., sie verläuft über die Bildung von Be-
griffen14, die verallgemeinern – sie sind damit inhärent emergente Produkte, weil
sie über das in der Erfahrung Gegebene hinausgehen. Soziale Kommunikation ist
konsilient15, das heißt, sie verläuft über die Abstimmung der eingebrachten Stand-
punkte, in der über die Nützlichkeit und Wahrheitstreue der kognitiven Informati-
onen befunden wird – ebenfalls ein emergenter Prozess, bei dem nicht festgelegt
ist, was herauskommt. Soziale Kooperation ist kollektiv intentional16, das heißt, sie
verläuft über die auf der Basis der kommunikativen Informationen erreichte Über-
einstimmung bei der Zielsetzung, der Analyse des Hier und Jetzt als Ausgangspunkt
und der Planung von Maßnahmen zur Verwirklichung der Ziele – diese Entschei-
dungsfindung und -umsetzung ist wiederum emergent, da im Detail unvorherseh-
bar und nicht vorbestimmt. Die sozialen Informationstypen bilden eine Hierarchie:
Die kooperative Information hat in sozialen Systemen eine konsensuale Funktion
(sie regelt die Bestimmung der gemeinsamen Vorhaben), die kommunikative eine
kollaborative (sie regelt das Zusammenwirken für die Umsetzung der gemeinsam
bestimmten Vorhaben) und die kognitive eine koordinative (sie regelt das Verstehen
des Zusammenwirkens für die Umsetzung der gemeinsam bestimmten Vorhaben).
Im Zeitalter der globalen Probleme ist die Informationsgesellschaft herausgefor-
dert, die Funktionsweisen der Varianten der sozialen Information auf eine bestimmte
Art zu verändern und mit neuem Inhalt zu füllen, und das ist möglich. Die konsen-
suale, kollektive Objektivität der Kooperation kann und muss auf das Überleben der
Menschheit und am guten Leben orientiert werden; es geht um die Veränderung der
Verhältnisse, die Herstellung und (Ver-)Teilung des gemeinsamen Guts betreffen.
Die kollaborative, konsiliente Intersubjektivität der Kommunikation kann und muss
die gesamte Menschheit einbeziehen; es geht darum, dass eine globale Konversation
im Prinzip keinen Akteur von vornherein ausschließen darf. Die koordinative, kon-
zeptuelle Subjektivität der Kognition kann und muss die eigene Handlungsfähigkeit
global erweitern; es geht darum, die Begrenzungen auf die eigenen Interessen hinter
sich zu lassen und zu erkennen, dass die Verfolgung legitimer Eigeninteressen die
Förderung des planetaren Allgemeinwohls voraussetzt.
Das hat Konsequenzen für die Gestaltung der Informationstechnologie. Die In-
formatik müsste demnach so gestaltet werden, dass Anwendungen die Generierung
solcher Information (Daten, Wissen, Weisheit) erleichtern und befördern, die zur
Transformation in eine globale nachhaltige Informationsgesellschaft erforderlich ist.
Die Informations- und Kommunikationstechnologien befördern nicht auto-
matisch eine Qualität der sozialen Informationsprozesse, die der Herausforderung
durch die globalen Probleme gerecht wird. Sie sind vielmehr auch Teil des Problems.
Denn die Informatisierung – der Prozess der Verbreitung jener Techniken, welche
die Gesellschaft immer empfänglicher für Information machen – ist ambivalent. Sie
bereitet nicht nur den Boden für informiertes Welt-Netzbürgertum, sondern kon-
frontiert uns auch im Bereich der Kultur mit Informationsflut und Gehirnwäsche,
im Bereich der Politik mit der Verletzung des informationellen Selbstbestimmungs-
rechts durch Überwachung oder Informationskriege, im Bereich der Wirtschaft mit
der Proprietarisierung intellektueller Güter und Dienste durch Kommodifizierung
und Kommerzialisierung, im Bereich der Umwelt mit computergestützter Über-
nutzung und Verschmutzung der äußeren wie der inneren Natur und nicht zuletzt
im Bereich der Technik selber mit der durch die Computerisierung gesteigerten
Verletzlichkeit der Informationsgesellschaft. Der Informatisierung wohnt zwar ein
Potenzial zur Verminderung von Reibungsverlusten im Funktionieren der Herstel-
lung und Nutzung der Synergieeffekte der Commons inne. Andererseits kann sie
aber auch Zwecken dienen, die der Wiedergewinnung der Commons zuwiderlau-
fen: Sie kann bestehende Ungleichheiten quantitativ verstärken oder qualitativ neue
Ungleichheiten erzeugen. Dies ist empirisch vorfindliche Realität.
Da Informatisierung beides kann – und auch tut –, bedürfen die Informations-
und Kommunikationstechnologien einer bewussten Gestaltung, so dass sie die Pro-
blemlösungsfähigkeit der (Welt-)Gesellschaft in einem Ausmaß steigern, welches
die Dysfunktionen, die mit den gesellschaftlichen Verhältnissen einhergehen (kön-
nen), erfolgreich unterhalb der Schwelle der Selbstgefährdung der sozialen Systeme
hält. Diese Aufgabe der Informatisierung – die technische Unterstützung derjenigen
sozialen Informationsprozesse, die dazu beitragen, dass der Komplexitätsgrad der
sozialen Systeme erhöht wird, damit ein nachhaltiger Pfad der gesellschaftlichen
Entwicklung eingeschlagen werden kann – mag „Informationalisierung“ genannt
werden. Informatisierung ist kein Selbstzweck, sondern kann und muss der Infor-
mationalisierung dienen. Die Informatisierung muss zum Werkzeug der Informati-
onalisierung gemacht werden.
Aus diesem Grund ist die Informations- und Computerethik ein Muss für die
Informatik. Eine globale nachhaltige Informationsgesellschaft braucht eine verant-
wortungsbewusste Informatik. Eine verantwortungsbewusste Informatik muss die
Informations- und Kommunikationstechnologien ethisch reflektiert gestalten. Tech-
nik muss einen Sinn machen, der erstens darin besteht, dass Technikfolgenabschät-
zung und Technikgestaltung den erwarteten und tatsächlichen Nutzen der Technik
im Hinblick auf die soziale Nützlichkeit einer steten Überprüfung unterzieht. Diese
302 Wolfgang Hofkirchner
Überprüfung darf nicht nur die Zweckmäßigkeit der Technik für die Erfüllung des
sozialen Zwecks befragen, sondern muss auch den Zweck selber hinterfragen.
Dieser Zweck kann im Zeitalter der globalen Probleme nur in der Erlangung, im
Ausbau, in der Aufrechterhaltung und im verbesserten Einsatz der Verfügungsge-
walt über das weltweite Gemeingut der Gesellschaften seine Rechtfertigung finden.
Zweitens besteht der Sinn der Technik darin, dass die von der Technik Betroffenen
an diesem Prozess der Technikfolgenabschätzung und Technikgestaltung teilhaben
können und in die Lage versetzt werden, durch die Bestimmung geeigneter Formen
der Technik die gesellschaftliche Entwicklung mit Bewusstheit zu vollziehen.
Eine ethikbasierte Informatik unterscheidet sich vom business as usual, wo
keine mögliche Anwendung, kein Gegenstandsbereich und keine Methode ausge-
schlossen werden, solange sie Profit versprechen, darin, dass sie, unter Einbeziehung
der Betroffenen, zur Entwicklung technischer Lösungen für die Wiedergewinnung
der Commons und die Fortsetzung der Zivilisation auf der Grundlage von Erkennt-
nissen über diejenigen Faktoren in Technik, Umwelt, Wirtschaft, Politik oder Kultur,
die solche Lösungen anregen oder hemmen, durch eine auf die Ziele abgestimmte
und den Gegenstandsbereich transdisziplinär umfassende Methodik beiträgt. Das ist
eine Informatik für eine globale nachhaltige Informationsgesellschaft.
Erst eine solche Informatik wird den Anforderungen unserer Zeit gerecht und
leistet einen Beitrag zu einer sozialverträglichen Weltkultur, Weltpolitik und Welt-
wirtschaft, zur Umweltverträglichkeit und Technikverträglichkeit des Weltsystems,
das sich in statu nascendi befindet und einem dritten Sprung in der Menschwerdung
gleichkommt. Der Ausgang der großen Bifurkation ist allerdings ungewiss.
DANKSAGUNG
Dieser Text, der eine Antwort auf drängende Fragen unserer Zeit zu geben versucht,
ist aus einer wissenschaftlichen Perspektive geschrieben, an deren Herausbildung
Klaus Kornwachs entscheidenden Anteil hatte. Als ich ihn in den frühen 90er Jah-
ren kennenlernte, bestärkte er mich darin, dem Zusammenhang von System und
Information nachzugehen, Informationsgeschehen also systemtheoretisch in Sicht
zu nehmen17. Als mich mein Weg zur Ausweitung der Überlegungen auf die Infor-
mationsgesellschaft führte, war die Begegnung im Rahmen meiner Habilitation im
Fach „Technology Assessment“ an der TU Wien zur Jahrtausendwende ein wichti-
ger Kreuzungspunkt meiner akademischen Laufbahn.18 Als ich 2004 führend daran
beteiligt war, eine außeruniversitäre Forschungseinrichtung zu gründen, die sich
mit systemtheoretischen Fragestellungen beschäftigt (nämlich das Bertalanffy Cen-
ter for the Study of Systems Science), war Klaus als einer der ersten, der bereit war,
Mitglied im Wissenschaftsbeirat zu werden. Dieser unserer Zusammenarbeit sind
wir bis heute treu geblieben.
17 vgl. Kornwachs, Klaus; Jacoby, Konstantin (Hg.): Information. New questions to a multidisci-
plinary concept. Berlin 1996.
18 Hofkirchner, Wolfgang: Projekt Eine Welt. Kognition – Kommunikation – Kooperation. Ver-
such über die Selbstorganisation der Informationsgesellschaft. Münster 2002.
Gibt es eine Kultur der vernetzten Welt? 303
LITERATUR
Archer, Margaret: Making our way through the world. Human reflexivity and social mobility. Cam-
bridge 2007.
Ashby, William Ross: An introduction to cybernetics. New York 1956.
Bertalanffy, Ludwig von: General System Theory. New York 2015.
Carson, Rachel: Silent spring. Boston 1962.
Curtis, Neil: Idiotism. Capitalism and the privatisation of life. London 2013.
Donati, Pierpaolo, Archer, Margaret: The relational subject. Cambridge 2015.
Fanon, Frantz: Les damnés de la terre. Paris 1961.
Gintis, Herbert, Helbing, Dirk: Homo socialis. An analytical core for sociological theory. In: Review
of Behavioral Economics, Ausgabe 2, 2015, S. 1–59.
Hofkirchner, Wolfgang: Projekt Eine Welt. Kognition – Kommunikation – Kooperation. Versuch
über die Selbstorganisation der Informationsgesellschaft. Münster 2002.
ders.: Emergent information. A unified theory of information framework. Singapore u. a. 2013.
ders.: The commons from a critical social systems perspective. In: Recerca, Ausgabe 14, 2014,
S. 73–91.
ders.: Relationality in social Systems. In: Li, Wenchao (Hg.): „Für unser Glück oder das Glück ande-
rer.“ Vorträge des X. Internationalen Leibniz-Kongresses. Hildesheim u. a. 2016. S. 235–243.
ders.: Information for a global sustainable information society. In: Hofkirchner, Wolfgang, Burgin,
Mark (Hg.): The future information society. Social and technological problems. Singapore u. a.
2017. S. 11–33.
Kornwachs, Klaus; Jacoby, Konstantin (Hg.): Information. New questions to a multidisciplinary
concept. Berlin 1996.
Lévy, Pierre: L’intelligence collective. Pour une anthropologie du cyberespace. Paris 1994.
Logan, Robert: The extended mind. The emergence of language, the human mind and culture. To-
ronto 2007.
Morin, Edgar: Seven complex lessons in education for the future. http://unesdoc.unesco.org/
images/0011/001177/117740eo.pdf (Zugriff am: 1.4.2017).
Mouffe, Chantal: Agonistics. Thinking the world politically. London 2013.
Robertson, Roland: Globalization. London 1992.
Tomasello, Michael: A natural history of human thinking. Cambridge 2014.
ders.: A natural history of human morality. Cambridge 2016.
Wilson, Edward O.: Consilience. The unity of knowledge. London 1998.
SCHEITERN VON INNOVATIONEN
Überlegungen zur techniktheoretischen Bedeutung
eines innovativen Forschungsfelds
Wolfgang König
1 vgl. zur Beschäftigung der Technikgeschichte mit gescheiterten Innovationen: Bauer, Rein-
hold: Gescheiterte Innovationen. Fehlschläge und technologischer Wandel. Frankfurt, New
York 2006; sowie: ders.: Failed Innovations. Five Decades of Failure. In: ICON. Journal of the
International Committee for the History of Technology, 20 (2014), S. 33 ff.; sowie: Braun,
Hans-Joachim (Hg.): Failed Innovations (Social Studies of Science 22,2). London, New Delhi
1992; sowie: Gooday, Graeme: Rewriting the ‘Book of Blots’. Critical Reflections on Histories
of Technological ‘Failure’. In: History and Technology, 14 (1998), S. 265–291.
2 vgl. Braun, Failed Innovations, a. a. O., S. 213; König, Wolfgang: Technikgeschichte. Eine Ein-
führung in ihre Konzepte und Forschungsergebnisse. Stuttgart 2009. S 243–257.
3 s. Schumpeter, Joseph: Konjunkturzyklen. Eine theoretische, historische und statistische Ana-
lyse des kapitalistischen Prozesses. 2 Bd. Göttingen 1961; sowie: Huisinga, Richard: Theorien
und gesellschaftliche Praxis technischer Entwicklung. Soziale Verschränkungen in modernen
306 Wolfgang König
dass es gescheiterte Innovationen überhaupt nicht gibt. Der rationale Kern dieser
Aussage besteht darin, dass sich Schumpeter für Innovationen nur im Kontext sei-
ner konjunkturtheoretischen Überlegungen interessierte. Gescheiterte Innovationen
besitzen aber keine konjunkturelle Wirkungen – es sei denn indirekte und marginale
als ergebnisloser Ressourceneinsatz. Man kann dem Einwand terminologisch leicht
gerecht werden, indem man in diesen Fällen nicht von Innovationen, sondern von
Innovationsversuchen spricht.
Sowohl die „Technikgeschichte der Sieger“ wie die Schumpetersche Konjunk-
turtheorie besitzen also eine Berechtigung. Allerdings leisten beide keinen relevanten
Beitrag für eine reflektierte Innovationstheorie. Die „Technikgeschichte der Sieger“
wird sofort problematisch, wenn sie sich nicht darauf beschränkt, über den Gang der
Technik zu berichten, sondern der stattgefundenen technischen Entwicklung die Vor-
stellung einer Gesetzmäßigkeit, Notwendigkeit oder Logik unterstellt. Dies würde ei-
nen Technikdeterminismus implizieren und eine Ignorierung historischer Kontingenz.
Bei Schumpeter ist es – entgegen der landläufigen Meinung – offensichtlich,
dass er sich für Innovationen wenig interessiert, sondern nur für die Wirkung von
Innovationen auf das wirtschaftliche Geschehen. So geht er von einem dauernden
Überschuss an Inventionen aus und entzieht sich damit der Notwendigkeit, auf die
Erfindungstätigkeit näher einzugehen. Und Schumpeters Erklärung von Innovati-
onszyklen durch sich verändernde Mentalitäten der Unternehmer und Manager ist
in ihrer empirischen und theoretischen Dürftigkeit kaum zu überbieten.
In der Technikgeschichte setzt die verstärkte Beschäftigung mit gescheiterten
Innovationen in den späten 1950er Jahren ein,4 seit etwa zwei Jahrzehnten hat sich
auch die sozial- und wirtschaftswissenschaftliche Innovationstheorie des Themas
angenommen; in der Mainstream-Ökonomie spielt es weiterhin kaum eine Rolle.
Das Ergebnis dieses neuen Forschungsparadigmas besteht in zahlreichen Fallstudien
und einer Reihe grundlegender Reflexionen. Dabei geht es der Technikgeschichts-
schreibung darum, durch die Betrachtung gescheiterter Innovationen „eine andere
Perspektive auf den Prozess des technischen Wandels zu entwickeln“5. Aus der Be-
triebswirtschaftslehre kommende Innovationsforscher erheben darüber hinaus den
Anspruch, das Scheitern in Lernprozessen zu verarbeiten und dadurch den Erfolg zu
steigern. Oder sie propagieren zumindest einen angemesseneren Umgang mit dem
Scheitern – dies häufig unter dem Schlagwort einer „neuen Kultur des Scheiterns“.
Zu den Ergebnissen dieser Diskussion gehört die Betonung der Relativität und
Perspektivität des Scheiterns.6 Vielfach besteht weder bei den Zeitgenossen noch
bei den rückblickenden Forschern Übereinstimmung, in welchen Fällen und wann
von gescheiterten Innovationen die Rede sein kann. Den involvierten Zeitgenossen
fällt es naheliegenderweise schwer, das eigene Handeln als erfolglos zu charakteri-
sieren. Eine verbreitete Legitimationsstrategie räumt zwar ein, dass die anfänglich
formulierten Ziele nicht erreicht wurden, betont aber die mit den Fehlschlägen ver-
bundenen Lernfortschritte, welche in andere Bereiche der technischen Entwicklung
transferiert werden könnten.
Die Schwierigkeiten einer „wissenschaftlichen“ Explikation des innovatori-
schen Scheiterns sind nicht geringer. Dies beginnt mit der Interpretation des Inno-
vationsbegriffs, der mehr wissensbezogen, technisch, betriebswirtschaftlich, volks-
wirtschaftlich oder gesellschaftlich gefasst werden kann. An Innovationen sind im-
mer viele Menschen und Gruppen beteiligt, deren Erwartungen an die Innovation
differieren. Erfolg und Scheitern sind schließlich raumzeitliche Phänomene. Das
heißt, gescheiterte Innovationen können in späterer Zeit oder an einem anderen Ort
zu einem Erfolg werden. Und auch erfolgreiche Innovationen durchlaufen häufig
eine Phase, in der man von temporärem Scheitern sprechen könnte. Scheitern – so
könnte man zusammenfassen – ist also ein fragiles Interpretationskonstrukt.
Bei allen diesen Schwierigkeiten einer Bestimmung des Scheiterns kann es
nicht Wunder nehmen, dass genaue quantitative Angaben zur Quote des Scheiterns
nicht möglich sind. Immerhin sind sich die meisten Innovationsforscher einig, dass
die Zahl der gescheiterten Innovationen die der erfolgreichen deutlich übertrifft.
Vielfach wird dabei die Metapher Bernard Réals zitiert: „Der Friedhof gescheiterter
Innovationen ist zum Bersten voll.“7 Andere Autoren nennen Prozentsätze für ge-
scheiterte Innovationen, die sich zwischen 60 und 90 % bewegen und bei denen es
sich nicht übersehen lässt, dass die empirischen Grundlagen für die Zahlenangaben
dürftig sind.8 Allerdings entbehren sie nicht jeglicher Plausibilität. So könnte man
darauf verweisen, dass nur ein sehr kleiner Bruchteil der Patentanmeldungen in
Form von Innovationen realisiert wird.
Jedenfalls gibt es bei den gescheiterten Innovationen einen ausgesprochen
großen – sowohl quantitativen wie qualitativen – Forschungsbedarf. In manchen
Branchen wird das Scheitern von vornherein eingeplant und eingepreist, wie in der
pharmazeutischen Industrie. So schätzt der Geschäftsführer von „Sanofi Deutsch-
land“, dass von 10 000 in der frühen Forschung synthetisierten Molekülen nur ei-
nes letztlich den Markt erreicht.9 Es ist sehr fraglich, ob die zitierten Schätzungen
zu den gescheiterten Innovationen solche Spezifika von Branchen berücksichtigt
haben. Damit ist die Frage nach quantitativen und qualitativen Besonderheiten ein-
zelner Branchen gestellt. Gibt es grundsätzliche Unterschiede zwischen Investiti-
legungen zu einer Typologie innovatorischen Scheiterns. In: Prokla. Zeitschrift für kritische
Sozialwissenschaft, 36 (2016), S. 550 f.
7 Réal, Bernard: La puce et le chomage. Essai sur la relation entre le progrès technique, la crois-
sance et l’emploi. Paris 1990. S. 26.
8 z. B. Braun, a. a. O., S. 215; sowie: Reith, Reinhold: Einleitung. Innovationsforschung und In-
novationskultur. In: Reith, Reinhold u. a. (Hg.): Innovationskultur in historischer und ökonomi-
scher Perspektive. Modelle, Indikatoren und regionale Entwicklungslinien. Innsbruck u. a.
2006. S. 20; Bauer, Scheitern, a. a. O., S. 4.
9 Der Tagesspiegel, 3.8.2015.
308 Wolfgang König
10 Dies wird z. B. in der VDI-Richtlinie 3780 formuliert; vgl. zum Konzept der technologischen
Wahl z. B.: Lemonnier, Pierre (Hg.): Technological Choices. Transformation in Material Cultu-
res Since the Neolithic. London, New York 2002. In Christoph Hubigs Technikphilosophie
besitzt der Begriff der „Möglichkeit“ einen zentralen Stellenwert (Hubig, Christoph: Die Kunst
des Möglichen. Grundlinien einer dialektischen Philosophie der Technik. 2 Bd. Bielefeld
2006–2007).
11 Entsprechende Formulierungen finden sich bei zahlreichen Techniktheoretikern, unter anderem
bei: Jonas, Hans: Das Prinzip Verantwortung. Versuch einer Ethik für die technologische Zivi-
lisation. Frankfurt am Main 1979; vgl. die kritischen Bemerkungen bei: Ropohl, Günter: Allge-
meine Technologie. Eine Systemtheorie der Technik. München, Wien 1999(2). S. 156 u. 287 f.
12 vgl. hierzu König, Technikgeschichte, a. a. O., S. 94–100; sowie: Bauer, Gescheiterte Innovati-
onen, a. a. O., S. 46 f.
Scheitern von Innovationen 309
nennen, bei denen alle oder fast alle Akteure eine technische Innovation verfolgten und
förderten, welche aber letztlich doch scheiterte. Daraus lässt sich schließen, dass die
alleinige Betrachtung von Akteuren zur Erklärung des technischen Geschehens nicht
ausreicht. Es ist vorgeschlagen worden, zusätzlich Strukturen in Anschlag zu brin-
gen, wie der Stand des technischen Wissens und Könnens, die Wirtschaftsverfassung
oder Wertsysteme. Diese Strukturen sind in früheren Zeiten zwar ebenfalls aufgrund
des Handelns von Akteuren entstanden, haben aber mittlerweile festere Institutionali-
sierungen gefunden und wirken gewissermaßen als anonyme soziokulturelle Kräfte.
Während sich das Handeln der Akteure durch die Zeitgenossen noch einigermaßen
erfassen lässt, fällt es schwer, die Wirkungen der anonymen Strukturen zu antizipieren.
Wenn es – wie oben ausgeführt – schwer ist, das Scheitern zu bestimmen, so
muss es erst recht schwer ein, die Gründe für das Scheitern zu benennen. Dessen
ungeachtet, kann man sich bei Fallstudien dieser Aufgabe kaum entziehen und ist
die Chance, zu plausiblen Antworten zu gelangen, am größten. Wesentlich größere
Schwierigkeiten bereiten Generalisierungen im Sinne einer Theorie des Scheiterns.
Bisherige technikgeschichtliche Ansätze leiten aus Fallstudien Gründe für das Schei-
tern ab und fassen sie zu Listen zusammen.13 Dabei bleibt aber die Frage ungeklärt,
welche Relevanz solche Listen besitzen. Erheben sie den Anspruch, tatsächlich die
wichtigsten Gründe für das Scheitern zu benennen, oder lassen sie sich beliebig er-
weitern und verlieren damit an Aussagekraft über die behandelten Fälle hinaus.
Meine These lautet, dass (1) Gründe für das Scheitern von Innovationen nur auf
einer sehr allgemeinen theoretischen Ebene angegeben werden können. Diese sind
dann aber nicht hinreichend, um zu für Einzelfälle relevanten Erklärungen zu gelan-
gen. (2) Auf der anderen Seite lassen sich Erklärungen von Einzelfällen nicht zu einer
Theorie verdichten. Vielmehr sind die Erklärungsmöglichkeiten – wie auch für andere
Bereiche der historischen Entwicklung – grenzenlos. Dies heißt nichts anderes, dass
es für jede Erzählung des Scheiterns von Innovationen Gegenerzählungen gibt, deren
Plausibilität im historischen Diskurs einer Überprüfung unterzogen werden kann.
Zu den mehr auf der theoretischen Ebene angesiedelten Gründen für das Schei-
tern von Innovationen: Diese lassen sich aus innovationstheoretischen Überlegun-
gen deduzieren. Eine Möglichkeit ist bereits angesprochen worden: Man kann das
Scheitern mehr auf der Akteursebene oder mehr auf der Strukturebene ansiedeln.
Letztlich führt die getroffene Vorentscheidung zu unterschiedlichen Erzählungen.
Eine andere Möglichkeit lässt sich aus der gesellschaftlichen Arbeitsteilung ablei-
ten. Gründe für das Scheitern lassen sich eher bei den Produzenten (und eventuell
den Mediatoren) oder mehr bei den Konsumenten finden. So kann man auf der
Produzentenseite auf die Unternehmen, ihre Marktstellung, Organisation, Human-
und sonstigen Ressourcen, verweisen, bei den Konsumenten auf deren Kaufkraft,
Lebensgewohnheiten und Wünsche. Beide Gruppen unterliegen politischen und
rechtlichen Rahmenbedingungen, welche sich fördernd oder hemmend auswirken.
Innovation ließe sich auf diese Weise auch als Kommunikationsprozess zwischen
Produzenten und Konsumenten beschreiben.
13 so Bauer, a. a. O., S. 32–36 u. S. 289–310. Dabei hält es Bauer für möglich, „Muster des Miss-
lingens“ herauszuarbeiten, verneint aber die Möglichkeit einer „Theorie des Scheiterns“
(s. S. 311–318).
310 Wolfgang König
14 vgl. Staudt, Erich; Kriegesmann, Bernd: Erfolgs- und Mißerfolgsfaktoren von Produktinnova-
tionen. In: Corsten, Hans (Hg.): Handbuch Produktionsmanagement. Strategie – Führung –
Technologie – Schnittstellen. Wiesbaden 1994. S. 131–150.
15 vgl. Gooday, Rewriting, a. a. O., S. 266; sowie: Kuckertz, Andreas u. a.: Gute Fehler, schlechte
Fehler. Wie tolerant ist Deutschland im Umgang mit gescheiterten Unternehmern? Stuttgart
2015. S. 5; sowie: Minx, Eckard; Roehl, Heiko: Organversagen. Warum Organisationen unter-
gehen. In: Organisations-Entwicklung 2014, Nr. 2, S. 49; sowie: John, René; Langhof, Antonia:
Einsichten ins Scheitern als Motor des Erfolgs. In: diess. (Hg.): Scheitern. Ein Desiderat der
Moderne? Wiesbaden 2014. S. 331.
16 vgl. zur Geschichte des Topos „aus der Geschichte lernen“: Koselleck, Reinhart: Historia Ma-
gistra Vitae. In: ders.: Vergangene Zukunft. Zur Semantik geschichtlicher Zeiten. Frankfurt am
Main 1979. S. 38–66.
17 vgl. König, Wolfgang: Ist Rückblick Ausblick? Vom Nutzen der Technikgeschichte für die ak-
tuelle Technikentwicklung. In: Niemann, Harry; Hermann, Armin (Hg.): 100 Jahre LKW. Ge-
schichte und Zukunft des Nutzfahrzeuges. Stuttgart 1997. S. 9–15.; sowie: ders., Technikge-
schichte, a. a. O., S. 216 ff.
Scheitern von Innovationen 311
genossen – und auch die Nachgeborenen – nur bedingt überblicken. Die Ableitung
von Handlungen aus dem komplexen Geflecht von Strukturen würde ein umfassen-
des Wissen über die Strukturen und deren Beziehungen voraussetzen, das es nicht
geben kann. Ein zweites Problem besteht darin, dass die Konstellation des Misslin-
gens sich nicht wiederholt. Eine Innovation scheitert aus bestimmten Gründen, eine
andere Innovation scheitert aus anderen Gründen. Ein Lernen aus dem einen für das
andere Innovationsgeschehen ist deshalb kaum möglich.
Günstiger sind die Bedingungen, wenn innerhalb eines Innovationsgeschehens
gelernt wird, was auf eine Korrektur des Innovationsprozesses hinausläuft. Dabei
ändern sich die meisten Innovationsbedingungen nicht, sondern in der Regel wird
ein Faktor variiert. Auch dabei ist das Ergebnis offen, aber die Auswirkungen der
veränderten Innovationshandlung lassen sich einfacher abschätzen. Darüber hinaus
wäre es eher zu erwarten, dass man aus erfolgreichen Innovationen lernt. Eine er-
folgreiche Innovation stellt ein Muster bereit, welches erneut angewendet werden
kann. Dies ist allerdings nur dann vielversprechend, wenn die Abweichungen von
dem Muster gering sind und sich die Innovationsbedingungen nicht wesentlich ge-
ändert haben, was nur sehr begrenzt der Fall sein wird.
Die spärliche empirische Forschung über gescheiterte Innovationen ist jeden-
falls geeignet, die hier vorgetragenen Zweifel am Lernen aus gescheiterten Innova-
tionen zu bekräftigen. So hält ein Innovationsforscher allgemein den nachweisba-
ren Zusammenhang zwischen Lernen und Erfolg eines Unternehmens für gering.18
Und ein anderer weist darauf hin, dass gescheiterte Unternehmer auch später meist
erfolglos bleiben.19 Viel spricht dafür, dass sich die Gründe für das Scheitern spie-
gelbildlich zu den Gründen für den Erfolg verhalten. Dies heißt, dass sie äußerst
vielfältig sein können. So wenig es eine Blaupause für erfolgreiche Innovationen
gibt, so wenig existiert eine Blaupause für das Scheitern.
Aus gescheiterten Innovationen lernen könnte aber auch meinen, zu einem an-
gemesseneren Umgang mit dem Scheitern zu gelangen. Hierzu gehört, dass man
das Scheitern von Innovationen als unumgängliches Element des Innovationspro-
zesses begreift. Dies bedeutet, dass – jedenfalls gesamtgesellschaftlich gesehen –
erfolgreiche Innovationen ohne gescheiterte nicht zu haben sind. Die Konsequenz
aus dieser Einsicht liegt darin, das Scheitern zu enttabuisieren und zu akzeptieren.
Die Gesellschaft, die Unternehmen und die Innovatoren sollten sich von vornherein
auf das Scheitern einstellen. Hierzu gehört, sich Kriterien und ein Procedere für
den Abbruch von Projekten zu überlegen, die zu scheitern drohen. Bemühungen,
das Scheitern grundsätzlich zu vermeiden, sind zum Scheitern verurteilt. Die Be-
schäftigung mit dem Scheitern mündet also nicht in Fehlerfreiheit, sondern in eine
gesteigerte Reflexivität (mindful organization) beim Umgang mit dem Scheitern.20
18 vgl. Denrell, Jerker; Fang, Christina: Predicting the Next Big Thing. Success as a Signal of
Poor Judgment. In: Management Science 56 (2010), S. 1653–1667.
19 Gompers, Paul u. a.: Performance Persistence in Entrepreneurship. Harvard Business School,
Working Paper 09–028. Cambridge 2008.
20 vgl. z. B. Staudt, Erich; Kriegesmann, Bernd: Erfolgs- und Mißerfolgsfaktoren von Produktin-
novationen. In: Corsten, Hans (Hg.): Handbuch Produktionsmanagement. Strategie – Füh-
rung – Technologie – Schnittstellen. Wiesbaden 1994. S. 137; sowie: Kucklick, Christoph:
312 Wolfgang König
Die Beschäftigung mit gescheiterten Innovationen trägt also vor allem in drei-
erlei Hinsicht zu einer Theorie des technischen Wandels bei:
(1) Gescheiterte Innovationen demonstrieren, dass die technische Entwicklung mit
Auswahlprozessen verbunden ist; bei der Gegenrede des „technologischen Im-
perativs“ handelt es sich um einen abstrusen Mythos.
(2) Das Phänomen der gescheiterten Innovationen stärkt das Konzept, technische
Entwicklung unter Rückgriff auf Akteure und Strukturen zu modellieren.
(3) Die Gründe für das Scheitern sind ebenso vielfältig wie für den Erfolg; zu
Lernprozessen im Sinne erfolgreichen Handelns lässt sich das Scheitern kaum
verarbeiten.
Schluss mit dem Scheitern! In: Zeit-Magazin, 27.1.2014, S. 14–22; sowie: Stechhammer, Bri-
gitte: Unternehmen brauchen eine Kultur des Scheiterns. In: Pechlaner, Harald u. a. (Hg.):
Scheitern. Die Schattenseite unternehmerischen Handelns. Die Chance zur Selbsterneuerung.
Berlin 2010. S. 194 ff.
Scheitern von Innovationen 313
LITERATUR
Bauer, Reinhold: Failed Innovations. Five Decades of Failure. In: ICON. Journal of the International
Committee for the History of Technology, 20 (2014), S. 33–40.
ders.: Gescheiterte Innovationen. Fehlschläge und technologischer Wandel. Frankfurt, New York
2006.
ders.: Scheitern als Chance. Historische Fehlschlagforschung. In: Die Produktivität des Scheiterns.
Dokumentation des 11. Innovationsforums der Daimler und Benz Stiftung. Berlin 2014.
S. 4–11.
ders.: Von Wasserwerfern und Mikrowellen. Überlegungen zu einer Typologie innovatorischen
Scheiterns. In: Prokla. Zeitschrift für kritische Sozialwissenschaft, 36 (2016), S. 549–562.
Braun, Hans-Joachim (Hg.): Failed Innovations (Social Studies of Science 22,2). London, New
Delhi 1992.
Brodbeck, Karl-Heinz: Scheitern. Eine Kritik an der traditionellen Ökonomie. In: Pechlahner, Ha-
rald u. a. (Hg.): Scheitern. Die Schattenseite unternehmerischen Handelns. Die Chance zur
Selbsterneuerung. Berlin 2010. S. 51–70.
Denrell, Jerker; Fang, Christina: Predicting the Next Big Thing. Success as a Signal of Poor Judg-
ment. In: Management Science 56 (2010), S. 1653–1667.
Gompers, Paul u. a.: Performance Persistence in Entrepreneurship. Harvard Business School, Wor-
king Paper 09–028. Cambridge 2008.
Gooday, Graeme: Rewriting the ‘Book of Blots’. Critical Reflections on Histories of Technological
‘Failure’. In: History and Technology, 14 (1998), S. 265–291.
Hubig, Christoph: Die Kunst des Möglichen. Grundlinien einer dialektischen Philosophie der Tech-
nik. 2 Bd. Bielefeld 2006–2007.
Huisinga, Richard: Theorien und gesellschaftliche Praxis technischer Entwicklung. Soziale Ver-
schränkungen in modernen Technisierungsprozessen. Amsterdam 1996.
John, René; Langhof, Antonia: Einsichten ins Scheitern als Motor des Erfolgs. In: diess. (Hg.):
Scheitern. Ein Desiderat der Moderne? Wiesbaden 2014. S. 323–338.
Jonas, Hans: Das Prinzip Verantwortung. Versuch einer Ethik für die technologische Zivilisation.
Frankfurt am Main 1979.
König, Wolfgang: Ist Rückblick Ausblick? Vom Nutzen der Technikgeschichte für die aktuelle Tech-
nikentwicklung. In: Niemann, Harry; Hermann, Armin (Hg.): 100 Jahre LKW. Geschichte und
Zukunft des Nutzfahrzeuges. Stuttgart 1997. S. 9–15.
ders.: Technikgeschichte. Eine Einführung in ihre Konzepte und Forschungsergebnisse. Stuttgart
2009.
Koselleck, Reinhart: Historia Magistra Vitae. In: ders.: Vergangene Zukunft. Zur Semantik ge-
schichtlicher Zeiten. Frankfurt am Main 1979. S. 38–66.
Kuckertz, Andreas u. a.: Gute Fehler, schlechte Fehler. Wie tolerant ist Deutschland im Umgang mit
gescheiterten Unternehmern? Stuttgart 2015.
Kucklick, Christoph: Schluss mit dem Scheitern! In: Zeit-Magazin, 27.1.2014, S. 14–22.
Lemonnier, Pierre (Hg.): Technological Choices. Transformation in Material Cultures Since the
Neolithic. London, New York 2002 (zuerst 1993).
Minx, Eckard; Roehl, Heiko: Organversagen. Warum Organisationen untergehen. In: Organisations-
Entwicklung 2014, Nr. 2, S. 49–51.
Réal, Bernard: La puce et le chomage. Essai sur la relation entre le progrès technique, la croissance
et l’emploi. Paris 1990.
Reith, Reinhold: Einleitung. Innovationsforschung und Innovationskultur. In: Reith, Reinhold u. a.
(Hg.): Innovationskultur in historischer und ökonomischer Perspektive. Modelle, Indikatoren
und regionale Entwicklungslinien. Innsbruck u. a. 2006. S. 11–20.
Ropohl, Günter: Allgemeine Technologie. Eine Systemtheorie der Technik. München, Wien 1999(2).
Schumpeter, Joseph: Konjunkturzyklen. Eine theoretische, historische und statistische Analyse des
kapitalistischen Prozesses. 2 Bd. Göttingen 1961 (zuerst 1939).
314 Wolfgang König
Staudt, Erich; Kriegesmann, Bernd: Erfolgs- und Mißerfolgsfaktoren von Produktinnovationen. In:
Corsten, Hans (Hg.): Handbuch Produktionsmanagement. Strategie – Führung – Technologie –
Schnittstellen. Wiesbaden 1994. S. 131–150.
Stechhammer, Brigitte: Unternehmen brauchen eine Kultur des Scheiterns. In: Pechlaner, Harald
u. a. (Hg.): Scheitern. Die Schattenseite unternehmerischen Handelns. Die Chance zur Selbst-
erneuerung. Berlin 2010. S. 193–206.
Verein Deutscher Ingenieure: VDI 3780: Technikbewertung. Begriffe und Grundlagen. Düssel-
dorf 1991.
VI. PROF. DR. PHIL. HABIL. DIPL.-PHYS. KLAUS KORNWACHS –
ZUR PERSON
LEBENSDATEN
Weiterhin lehrt Klaus Kornwachs an der Universität Ulm und ist nach der Grün-
dung seines „Büros für Kultur und Technik“ vorwiegend publizistisch und beratend
tätig, auch im Ausland. Er ist Herausgeber und Autor zahlreicher Fachbücher und
Veröffentlichungen und gefragter Ansprechpartner für Medien, Gesprächsrunden
und Vorträge. Gastprofessuren führten ihn an die Technische Universität Wien, die
Budapest University for Technology and Economy sowie an die Dalian University
for Technology, China. Er ist ordentliches Mitglied der Deutschen Akademie für
Technikwissenschaften (acatech München, Berlin) und weiterer wissenschaftlicher
Vereinigungen.
ARBEITSGEBIETE
Praktische Philosophie: Arbeit, Technik, Natur, Werte in Kultur und Technik, Den-
ken in nicht europäische Kulturen.
Bewertungen von Technikentwicklungen und -trends sowie Innovations- und Pro-
jektbewertung – Information, Technik, Organisation, Innovation, Akzeptanz.
Analytische Philosophie: Wissenschaftstheorie der Technikwissenschaften, Logik.
WISSENSCHAFTLICHE GESELLSCHAFTEN
BEIRÄTE
BUCHVERÖFFENTLICHUNGEN (AUSWAHL)
Monographien
Kornwachs, Klaus: Staub und Hoffnung. José Majer – ein Leben für den Gran
Chaco. Münster, London 2017.
ders.: Arbeit – Identität – Netz. Berlin 2017.
ders.: Philosophie für Ingenieure. München 2014, 2015(2).
ders.: Einführung in die Philosophie der Technik. München 2013.
ders.: Strukturen technologischen Wissens. Analytische Studien zur einer Wissen-
schaftstheorie der Technik. Berlin 2012.
Tschinag, Galsan; Kornwachs, Klaus; Kaluza, Maria: Der singende Fels. Schama-
nentum, Heilkunde, Wissenschaft. Zürich 2009, 2010(2).
Kornwachs, Klaus: Zuviel des Guten – von Boni und falschen Belohnungssyste-
men. Frankfurt am Main 2009.
Berndes, Stefan; Kornwachs, Klaus; Lünstroth, Uwe: Software-Entwicklung – Er-
fahrung und Innovation. Ein Blick auf demographische Veränderungen. Heidelberg
2002.
Kornwachs, Klaus: Logik der Zeit – Zeit der Logik. Münster, London 2001.
ders.: Das Prinzip der Bedingungserhaltung – eine ethische Studie. Münster 2000.
ders.: Kommunikation und Information. Zur menschengerechten Gestaltung von
Technik. Berlin 1993.
Bullinger, Hans-Jörg; Kornwachs, Klaus: Expertensysteme im Produktionsbe-
trieb – Anwendungen und Auswirkungen. München, 1990.
Herausgeberschaften
alle Scheine für den Magister in Philosophie zusammengetragen. Der kluge Mann
schaut nach vorn, den Taxischein hatte ich bereits, aber vielleicht ließ sich der Ein-
stieg in diesen ehrenwerten Beruf noch ein Weilchen herauszögern durch eine Pro-
motion –? Ob es irgendeine Chance gäbe, als Doktorand unterzukommen?, fragte
ich am kleinen philosophischen Institut. Zur Antwort bekam ich, es gäbe da einen
neuen, einen jungen Dozenten, der sich habilitiere und dann das Promotionsrecht
hätte, den könne ich mir ja einmal anschauen.
Das tat ich, ich besuchte den Auftakt einer Vorlesung dieses Dozenten, eine
Vorlesung zur „Philosophie der Arbeit“, ein so spannendes wie mit Geduld zu be-
arbeitendes Thema … Am Ende der Sitzung trat ich vor das Rednerpult und fragte,
ob der Dozent irgendwann einmal in diesem Semester eine Sprechstunde halte.
Worum es denn gehe? Ich habe gehört, er habilitiere sich, ich hingegen versuchte
mich gern an einer Promotion und sei auf der Suche nach einem Betreuer. Wenn
es eine Sprechstunde gäbe, dann sofort, ließ der energische Dozent mich wissen
und schleppte mich in sein nahegelegenes Büro. Dort examinierte er mich zwei,
drei Stunden lang strengstens. Bis heute weiß ich nicht recht, was ihn am Ende
überzeugt hat, es mit mir zu versuchen, womöglich konnte ich mit einem wenige
Wochen zuvor geführten Interview mit Karl Popper punkten. Jedenfalls hatte ich,
noch vor dem Magisterabschluss, auf einmal einen Doktorvater.
Der versammelte alsbald einen Club um sich, Magisterkandidaten, Doktoranden,
Habilitanden, in seinem Oberseminar, das anfänglich wöchentlich, später dann in
Blockveranstaltungen abgehalten wurde, an hin und wieder skurrilen Orten: Bauern-
höfen, Hütten, Berggasthöfen, zum Beispiel in Laufweite zu Heideggers Hütte. Diese
Blockseminare waren nicht nur „bootcamps“ für hoffnungsfrohe oder manchmal me-
lancholische Philosophiejünger, sie waren intensiv in jeder Hinsicht. Man erging sich
in den hitzigsten Diskussionen, wetzte die Argumentationsmesser aufs Schärfste und
wurde, wenn man es noch nicht war, mit etwas gutem Willen trinkfest.
Wer einmal in diesem Club war, der gab die Mitgliedschaft nicht auf, sie hatte
was, sie gab uns etwas, sie machte was mit uns, sie veränderte, formte uns, brachte uns
voran. Irgendwann wurde uns klar, dass wir nicht in einem üblichen Seminar saßen, in
dem ein Dozent Philosophie vermittelte, philosophische Theorien verwaltete, nein, da
war jemand, der Philosophie lebte, kein Selbstverberger, sondern ein Selbstdenker, der
sich zeigte, nicht in intellektuellem Schick, nicht in Feuilleton-tauglicher Grandezza,
aber durchaus schillernd, wildes Denken mit analytischer Präzision verknüpfend,
nahbar, als Mensch, als Denker, als leidenschaftlicher Sucher nach der Widerlegung
der eigenen Vorurteile, kurzum: Wir hatten es zu tun mit einem Philosophen, einem
Mann, der sucht, mit Haltung. Und das noch Erstaunlichere für uns war: Eine philoso-
phische Haltung musste nicht in steife Ehrwürdigkeit verpackt werden, sondern durfte
in heiter-lässiger Eleganz, mit Ironie und Selbstironie unter die Leute treten.
Festschriften mögen altmodisch sein, manch Philosophie auch, Philosophen
sind es nicht. Klaus Kornwachs ist ein Philosoph im sokratischen Alter von 70 Jah-
ren; eine Apologie wird auch nach dem, was noch von ihm zu erwarten ist – das
Hauptwerk, so wird gemunkelt, harrt des Schlusspunktes –, nicht vorzutragen sein,
es sei denn, einer müsste sich rechtfertigen dafür, etwas zu sagen zu haben …
Volker Friedrich
VIII. ÜBER DIE AUTOREN
Prof. Dr. Dr.-Ing. Christian Berg ist Physiker, Philosoph und Theologe. Er arbeitet
und lehrt zu Fragen der Nachhaltigkeit und dem Schnittfeld von Technik und Ge-
sellschaft an den Universitäten Kiel, Clausthal und Saarbrücken.
Prof. Dr. Dr. Thomas Bschleipfer ist Chefarzt der Klinik für Urologie, Andrologie
und Kinderurologie am Klinikum Weiden der Kliniken Nordoberpfalz. In der Phi-
losophie befasst er sich vornehmlich mit medizinethischen Fragen.
Prof. Dr. Mario Bunge, 1919 in Buenos Aires geboren, Physiker und Philosoph, war
Professor für theoretische Physik in Argentinien, später Professor für Logik und
Metaphysik in Montreal. Von den über 50 Büchern des Wissenschaftstheoretikers
wurde bislang nur ein kleiner Teil ins Deutsche übersetzt.
Prof. Dr. Ernst Peter Fischer ist Mathematiker, Physiker, Biologe und Wissen-
schaftshistoriker. Er lehrt Wissenschaftsgeschichte an der Universität Heidelberg
und hat als Publizist zahlreiche Bücher und Artikel verfasst.
Prof. Dr. Volker Friedrich, gelernter Redakteur, hat Philosophie, Germanist und
Politikwissenschaften studiert. Er lehrt Schreiben und Rhetorik an der Hochschule
Konstanz und gibt das E-Journals „Sprache für die Form“ heraus.
Dr. Walter Glöckle ist Ministerialrat und Leiter des Referats „Allgemeine Angele-
genheiten der Kernenergieüberwachung“ im Ministerium für Umwelt, Klima und
Energiewirtschaft Baden-Württemberg.
Prof. Dr. Armin Grunwald, Physiker und Philosoph, leitet das Institut für Technik-
folgenabschätzung und Systemanalyse (ITAS) in Karlsruhe, zudem das Büro für
Technikfolgen-Abschätzung beim Deutschen Bundestag (TAB).
Prof. Dr. Imre Hronszky, Chemiker und Philosoph, lehrte an Budapester Universität
für Technik und Wirtschaft, publiziert u. a. über die Geschichte der Chemie, über
Wissenschafts- und Technikphilosophie und Fragen der Innovation.
Harald Kirchner, M. A. arbeitete als Reporter und Redakteur für die Fernsehnach-
richten des Südwestrundfunks mit dem Schwerpunkt „Politik“. Seit Frühjahr 2017
Leiter der Redaktion „Eisenbahn-Romantik“ beim SWR.
Dr. Dr. Walter von Lucadou, Physiker und Psychologe, leitet die „Parapsychologi-
sche Beratungsstelle“ in Freiburg und gibt die „Zeitschrift für Parapsychologie und
Grenzgebiete der Psychologie“ und „Cognitive Systems“ mit heraus.
Prof. Dr. Klaus Mainzer lehrte Philosophie und Wissenschaftstheorie an der Tech-
nischen Universität München, war Gründungsdirektor des Munich Center for Tech-
nology in Society (MCTS). Er forscht u. a. über mathematische Grundlagen, Kom-
plexitäts- und Chaostheorie.
Prof. Dr. Carl Mitcham lehrt „Humanities, Arts, and Social Sciences“ an der „Co-
lorado School of Mines“. Derzeit ist er auch Professor für Technikphilosophie an
der Renmin Universität in China. Er ist Herausgeber der „Encyclopedia of Science,
Technology, and Ethics“.
Prof. Dr. Peter Jan Pahl lehrte theoretische Methoden der Bau- und Verkehrstech-
nik an der Technischen Universität Berlin, wo er das Fachgebiet „Bauinformatik“
aufbaute. Zudem war er als Prüfingenieur für Baustatik im Land Berlin tätig.
Über die Autoren 325
Prof. Dr. Hans Poser, Mathematiker, Physiker, Philosoph, lehrte Philosophie an der
Technischen Universität Berlin und war Präsident der Allgemeinen Gesellschaft
für Philosophie in Deutschland. Schwerpunkte u. a.: Leibniz, Technikphilosophie,
Wissenschaftstheorie.
Prof. Dr. Dr. Franz Josef Radermacher steht dem Forschungsinstitut für anwen-
dungsorientierte Wissensverarbeitung/n (FAW/n) vor und ist Professor für Daten-
banken und künstliche Intelligenz an der Universität Ulm.
Prof. Dr. Ortwin Renn, Soziologe und Volkswirt, ist wissenschaftlicher Direktor des
Potsdamer Institute for Advanced Sustainability Studies (IASS). Arbeitsschwer-
punkte u. a.: Risikogesellschaft, Nachhaltigkeit.
Welf Schröter leitet das „Forum Soziale Technikgestaltung“ beim Deutschen Ge-
werkschaftsbund, Bezirk Baden-Württemberg, moderiert den Blog „Zukunft der
Arbeit“ der IG Metall und ist Geschäftsführer des Talheimer Verlages.
Prof. Dr. Francesca Vidal ist wissenschaftliche Leiterin des Schwerpunktes „Rhe-
torik“ an der Universität Koblenz-Landau, Mitherausgeberin des „Jahrbuches der
Rhetorik“ und Präsidentin der Ernst-Bloch-Gesellschaft.
Prof. Dr. Walther Ch. Zimmerli hatte mehrere Philosophie-Lehrstühle inne, wirkte
als Rektor der Universitäten Witten/Herdecke und Cottbus und ist nunmehr Senior-
Fellow am „Collegium Helveticum“, das von der ETH Zürich, der Universität Zü-
rich und der Zürcher Hochschule der Künste getragen wird.
Technischer Wandel in hoher Geschwin- widmen sich die Autorinnen und Auto-
digkeit kennzeichnet unsere Zeit. Die- ren in ihren Essays der Philosophie der
ser Wandel wirft grundsätzliche Fragen Technik, der Technikfolgenabschätzung
auf: Können wir begreifen, was wir tun? sowie der Ethik, Sprache und Kultur der
Können wir abschätzen, was wir tun? Technik. Neben Philosophen kommen
Können wir wollen, was wir tun? Kön- auch Vertreter der Soziologie, Medizin,
nen wir sagen, was wir tun? Können wir Technik- und Wirtschaftsgeschichte, Psy-
leben, was wir tun? chologie, Physik, Theologie, Ingenieurs-
wissenschaft, Ökonomie, Politologie und
Mit Fragen wie diesen hat sich der Phi- Rhetorik zu Wort. So entsteht – ganz
losoph Klaus Kornwachs immer wie- im Sinne Klaus Kornwachs’ – ein breites
der auseinandergesetzt. Ihm zu Ehren Spektrum von Ein- und Ansichten.
www.steiner-verlag.de
ISBN 978-3-515-12039-5
9 7835 1 5 1 20395