0% fanden dieses Dokument nützlich (0 Abstimmungen)
92 Ansichten327 Seiten

Volker Friedrich (Editor) - Technik Denken - Philosophische Annäherungen. Festschrift Für Klaus Kornwachs-Franz Steiner Verlag (2018)

Hochgeladen von

HYavuz Aytekin
Copyright
© © All Rights Reserved
Wir nehmen die Rechte an Inhalten ernst. Wenn Sie vermuten, dass dies Ihr Inhalt ist, beanspruchen Sie ihn hier.
Verfügbare Formate
Als PDF, TXT herunterladen oder online auf Scribd lesen
0% fanden dieses Dokument nützlich (0 Abstimmungen)
92 Ansichten327 Seiten

Volker Friedrich (Editor) - Technik Denken - Philosophische Annäherungen. Festschrift Für Klaus Kornwachs-Franz Steiner Verlag (2018)

Hochgeladen von

HYavuz Aytekin
Copyright
© © All Rights Reserved
Wir nehmen die Rechte an Inhalten ernst. Wenn Sie vermuten, dass dies Ihr Inhalt ist, beanspruchen Sie ihn hier.
Verfügbare Formate
Als PDF, TXT herunterladen oder online auf Scribd lesen
Sie sind auf Seite 1/ 327

Volker Friedrich (Hg.

Technik
denken
Philosophische
Annäherungen
Festschrift für
Klaus Kornwachs

Philosophie

Franz Steiner Verlag


Volker Friedrich (Hg.)
Technik denken
Volker Friedrich (Hg.)

Technik denken
Philosophische Annäherungen

Festschrift für Klaus Kornwachs

Franz Steiner Verlag


Bibliografische Information der Deutschen Nationalbibliothek:
Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen
Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über
<http://dnb.d-nb.de> abrufbar.

Dieses Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt.


Jede Verwertung außerhalb der engen Grenzen des Urheberrechtsgesetzes
ist unzulässig und strafbar.
© Franz Steiner Verlag, Stuttgart 2018
Umschlagabbildung: Prof. Thilo Rothacker
Druck: Hubert & Co., Göttingen
Gedruckt auf säurefreiem, alterungsbeständigem Papier.
Printed in Germany.
ISBN 978-3-515-12039-5 (Print)
ISBN 978-3-515-12042-5 (E-Book)
INHALTSVERZEICHNIS
Technik denken – eine Annäherung ................................................................ 9

I. PHILOSOPHIE DER TECHNIK:


KÖNNEN WIR BEGREIFEN, WAS WIR TUN? ........................................... 13
Mario Bunge
Technology ≠ Applied Science, and Industry ≠ Technology ........................... 15
Walther Ch. Zimmerli
Technologisierung und Pluralisierung –
ein Januskopf................................................................................................... 21
Carl Mitcham
Speeding things down ..................................................................................... 31
Klaus Mainzer
Die Berechenbarkeit von Technik und Wissenschaft.
Von komplexen Systemen zur Digitalisierung und künstlichen Intelligenz .... 41
Walter von Lucadou
Gibt es makroskopische Verschränkungen zwischen Mensch
und Maschine? ................................................................................................ 53
Klaus Erlach
Vom Erkennen und Gestalten technischer Möglichkeiten.
Überlegungen zur Wissenschaftstheorie der Technikwissenschaften .............. 69

II. FOLGEN DER TECHNIK:


KÖNNEN WIR ABSCHÄTZEN, WAS WIR TUN? ....................................... 81
Armin Grunwald
Von Technikfolgenprognosen zur hermeneutischen Perspektive.
Metamorphosen der Technikfolgenabschätzung ............................................. 83
Ortwin Renn
Technikfolgenabschätzung: Ein Konzept zur Gestaltung der Zukunft ............ 95
Welf Schröter
Mehr Ent-Ortung erfordert mehr Ver-Ortung. Warum die digitale
Transformation in den Betrieben eine Stärkung der kommunalen
Stadtentwicklungsplanung benötigt ................................................................ 107
6 Inhaltsverzeichnis

Klaus Wiegerling
Zur Anthropologie des körperlich aufgerüsteten Menschen.
Auswirkungen der technischen Aufrüstung des menschlichen Körpers
auf unser Selbst- und Weltverständnis............................................................. 115
Heinz–Ulrich Nennen
Das Prometheus-Projekt und die Mitgift der Pandora ..................................... 127

III. ETHIK DER TECHNIK:


KÖNNEN WIR WOLLEN, WAS WIR TUN? ................................................ 139
Franz Josef Radermacher
Hinweise zur Technik für eine Welt mit zwölf Milliarden Menschen ............. 141
Peter Jan Pahl
Verantwortung angesichts der Unvollkommenheit der Technik ...................... 153
Hans-Jörg Bullinger, Rainer Nägele
Zur Zukunft von „Technology Push“ und „Market Pull“ ................................ 163
Christian Berg
Nachhaltigkeit – totgeritten und lebendige Notwendigkeit ............................. 169
Thomas Bschleipfer
Warum Medizintechnik nicht für alle da sein kann ......................................... 179
Walter Glöckle
Soziotechnischer Systemansatz in der Atomaufsicht ...................................... 193
Ernst Peter Fischer
Verantwortlich für das Wissen......................................................................... 203

IV. SPRACHE DER TECHNIK:


KÖNNEN WIR SAGEN, WAS WIR TUN? ................................................... 215
Hans Poser
Technisches Wissen, technische Sprache,
technische Bilder ............................................................................................. 217
Imre Hronszky
Too tightly-cut new clothes for the “emperor”? .............................................. 229
Harald Kirchner
„Breaking News“ – oder wie moderne Technik Journalismus
inhaltlich verändert.......................................................................................... 239
Volker Friedrich
Zur Rhetorik der Technik. Aufriss eines Forschungsgebietes ......................... 249
Inhaltsverzeichnis 7

V. KULTUR DER TECHNIK:


KÖNNEN WIR LEBEN, WAS WIR TUN? .................................................... 261
Steffen W. Groß
Technik als Erkenntnis- und Formprozess ...................................................... 263
Stefan Poser
Technisches Spiel ohne Grenzen? Ethische und sicherheitstechnische
Fragen beim Spiel mit Technik........................................................................ 271
Francesca Vidal
Rhetorische Gestaltungsfähigkeit in virtuellen Arbeitswelten ........................ 283
Wolfgang Hofkirchner
Gibt es eine Kultur der vernetzten Welt? Wie Informatik eine globale
und nachhaltige Informationsgesellschaft ermöglicht ..................................... 295
Wolfgang König
Scheitern von Innovationen. Überlegungen zur techniktheoretischen
Bedeutung eines innovativen Forschungsfelds ............................................... 305

VI. PROF. DR. PHIL. HABIL. DIPL.-PHYS. KLAUS KORNWACHS –


ZUR PERSON ................................................................................................ 315

VII. EINE NICHT NUR PHILOSOPHISCHE ANNÄHERUNG ................... 321

VIII. ÜBER DIE AUTOREN .......................................................................... 323


TECHNIK DENKEN – EINE ANNÄHERUNG
Mit einer Festschrift sollen verdiente Persönlichkeiten geehrt, insbesondere ihr
Werk, Wirken und Denken gewürdigt werden. Sich einem Denker anzunähern,
der sich wie Klaus Kornwachs philosophisch breit aufzustellen weiß, ist – in
einer ihm gemäßen Breite – nicht einfach. Diese Festschrift, die anlässlich des
70. Geburtstages von Klaus Kornwachs erscheint, setzt an bei seinem Wirken als
Technikphilosoph, der Titel des Bandes lautet deshalb: „Technik denken. Philo-
sophische Annäherungen.“
In die fünf Kapitel des Bandes fügen sich 27 Essays, die meisten Autoren
kommen zwar aus Deutschland, doch sind auch Argentinier, Ungarn, Österreicher,
Schweizer und Amerikaner unter ihnen, zudem Schwaben. Die Kapitelüberschrif-
ten verweisen auf Themengebiete, denen sich Klaus Kornwachs in seinem Schaf-
fen zuwendet, die Autoren nähern sich mit ihren Beiträgen seinen Themen und
Fragen an, nicht allein aus philosophischen Perspektiven, auch aus historischen,
soziologischen, rhetorischen, medialen, informatischen … Die Grenzziehungen
zwischen diesen Kapiteln, Fragen und Themen sind selbstverständlich ein redak-
tionelles Konstrukt, manche der Essays hätten sich auch in ein anderes Kapitel
fügen lassen. Wer hat mitgewirkt, welche Themen werden im Detail aufgegriffen?
Das erste Kapitel der Festschrift widmet sich der Frage: „Können wir begrei-
fen, was wir tun?“ Das Kapitel wendet sich der Philosophie der Technik zu. Darin
meldet sich Mario Bunge zu Wort, er legt die Unterschiede zwischen Wissenschaft
und Technik dar und dass der verständige Mensch beide benötige, um kein närri-
scher Mensch zu sein.– Walther Ch. Zimmerli widerspricht in seinem Beitrag der
kornwachsschen Auffassung, der Pluralismus stoße an seine Grenzen angesichts
alltäglicher Gefahren durch den Terrorismus. Zimmerli leitet seinen Gegenposi-
tion aus der Betrachtung des Januskopfes her, den Technologisierung und Plurali-
sierung darstellten.– Carl Mitcham rät einer sich durch Technik immer schneller
wandelnden Welt, es langsamer angehen zu lassen. Das Motto „speeding things
down“ könnte es Kultur und Politik erlauben, zur Technik aufzuschließen.– Ähn-
liche Fragen wirft Klaus Mainzer auf und betrachtet sie mit Blick auf Digitalisie-
rung und künstliche Intelligenz – welche Wissenschaft betrieben wir, stellten wir
sie ausschließlich auf die Grundlage von Daten?– Walter von Lucadou schlägt zur
Präzisierung der Frage, ob Computern Bewusstsein zuzubilligen wäre, die Einfüh-
rung des Begriffes der „Verschränkung“ vor.– Wo aus wissenschaftstheoretischer
Perspektive die Unterschiede zwischen den Technik- und den Ingenieurwissen-
schaften liegen und welche Rolle dabei eine Theorie der Technik spielt, betrachtet
Klaus Erlach.
Das zweite Kapitel geht der Frage nach: „Können wir abschätzen, was wir
tun?“, es behandelt die Folgen der Technik. Armin Grunwald möchte die Tech-
nikfolgenabschätzung metamorphisieren, in die Prognostik eine hermeneutische
Perspektive tragen – also mehr Interdisziplinarität herbeiführen.– Unter anderem
10 Technik denken – eine Annäherung

angesichts der Komplexität, Ambivalenz und Folgenunsicherheit der Technik plä-


diert Ortwin Renn für eine diskursive Technikfolgenabschätzung und ebenfalls für
neue interdisziplinäre Formen der Zusammenarbeit unter den Wissenschaftsdis-
ziplinen.– Die Auswirkungen der Digitalisierung auf den arbeitenden Menschen
nimmt Welf Schröter in den Blick und gibt Hinweise, wie auf die Ent-Ortung der
Arbeit reagiert werden könnte.– Der Mensch rüstet seinen Körper technisch rasant
auf; was dieser Umbau des Leibes für die „conditio humana“, also anthropologisch
in einem umfassenden Sinne bedeutet, betrachtet Klaus Wiegerling.– Die neuen
Götter unserer neuen Zeit macht Heinz Ulrich Nennen zum Thema seines Essays
und schaut in die Pandora-Büchse der Technik.
„Können wir wollen, was wir tun?“ wird im dritten Kapitel gefragt, das sich um
die Ethik der Technik dreht. Welchen Beitrag Technik leisten kann, um zwölf Milli-
arden Menschen ein lebenswertes Leben auf unserem Planeten zu ermöglichen, und
wie Märkte „moralisiert“ werden könnten, untersucht Franz Josef Radermacher.–
Ingenieure stehen zweifach in Verantwortung: für die früher geschaffene materielle
Infrastruktur und für die Ausrichtung der Technik der Zukunft. Lässt sich die Ver-
antwortung stemmen?, hinterfragt Peter Jan Pahl.– Die Technik schiebt, der Markt
zieht – wie sich diese Wechselwirkung entwickeln wird in Zeiten computerge-
stützter Fertigung und „Industrie 4.0“, dem gehen Hans-Jörg Bullinger und Rainer
Nägele nach.– Christian Berg beschreibt zwei Seiten der Nachhaltigkeit: wie sehr
der Begriff totgeritten und wie sehr Nachhaltigkeit eine lebendige Notwendigkeit
ist.– Mit ethischen Aspekten medizintechnischer Innovationen befasst sich Tho-
mas Bschleipfer und weist darauf hin, dass sie sich nicht allein um Verfügbarkeit
und Zugänglichkeit drehen.– Walter Glöckle legt dar, wie ein soziotechnischer Sys-
temansatz multidisziplinär für die Atomaufsicht genutzt werden kann.– Inwieweit
Wissenschaftler verantwortlich für das Wissen sind, das ihrem Wirken entwächst,
ist Gegenstand des Beitrages von Ernst Peter Fischer.
Die Sprache der Technik wird im vierten Kapitel behandelt, das fragt: „Können
wir sagen, was wir tun?“ Technisches Wissen wird in technischer Sprache und in
technischen Bilder festgehalten; welche Binnenverhältnisse sich dabei entwickeln,
beschreibt Hans Poser.– Die EU hat sich verantwortungsvolle Forschung und In-
novation (RRI – Responsible research and Innovation) auf die Fahne geschrieben;
doch wovon ist dabei die Rede?, fragt Imre Hronszky.– Moderne Technik verändert
Journalismus nicht nur in seinen Produktionsweisen, sondern auch inhaltlich, be-
legt Harald Kirchner. – Rhetorik könnte zur Technikphilosophie beitragen, vermu-
tet Volker Friedrich und umreisst das Forschungsgebiet der „Rhetorik der Technik“.
Das fünfte und letzte Kapitel wirft die Frage auf: „Können wir leben, was wir
tun?“ In diesem Kapitel wird der Kultur der Technik nachgegangen. Steffen Groß
beschreibt Technik als Erkenntnis- und Formprozess und sieht in ihr eine Idee
wirken: Freiheit.– Technik lässt mit sich spielen und scheint ein Spiel ohne Gren-
zen zu ermöglichen; was das für unsere Lebenskultur bedeuten kann, beleuchtet
Stefan Poser.– Lässt sich, so fragt Francesca Vidal, der Wandel der Arbeit hin
zu virtuellen Arbeitswelten mittels rhetorischer Gestaltungsfähigkeiten besser be-
wältigen, kann Rhetorik als Erfahrungswissenschaft in dieser Lage einen Beitrag
leisten?– Eine Weltkultur der vernetzten Welt, beschreibt Wolfgang Hofkirchner
Technik denken – eine Annäherung 11

und untersucht, wie Informatik eine globale Informationsgesellschaft ermöglichen


kann.– Zur Untersuchung technischer Innovationen gehörte, sich mit deren Schei-
tern zu befassen, dies trüge zu einer Theorie technischen Wandels bei, erläutert
Wolfgang König.
Mit diesem ersten Einblick in den Band tritt bereits zutage: Das Denken Klaus
Kornwachs’ lässt viele Anschlussdiskussionen aufmachen, und so kommt diese
Festschrift vielfältig daher und deckt ein weites Spektrum ab, Technik zu denken
und sich ihr und nicht zuletzt dem Denken des Jubilars philosophisch und nicht
ausschließlich philosophisch anzunähern – diese Vielfalt des Denkens findet sich
wohl kaum zufällig in einer Klaus Kornwachs gewidmeten Festschrift …

Volker Friedrich
I. PHILOSOPHIE DER TECHNIK:
KÖNNEN WIR BEGREIFEN, WAS WIR TUN?
TECHNOLOGY ≠ APPLIED SCIENCE,
AND INDUSTRY ≠ TECHNOLOGY

Mario Bunge

The popular press keeps the confusion of science with technology introduced by
Francis Bacon when he demanded a “philosophy of works” to replace the “philoso-
phy of words” of the schoolmen. That confusion was updated by Auguste Comte,
the founder of classical positivism, who coined the formula “Savoir pour pouvoir”.
It was also shared by the young Karl Marx in his famous Thesis XI, as well as by
his coworker and best friend Friedrich Engels, who mistook the utility criterion,
“The proof of the pudding is in the eating,” for the truth criterion used by scien-
tists, namely predictive power joined with compatibility with the bulk of antecedent
knowledge.

1 APPLIED SCIENCE: THE BRIDGE BETWEEN BASIC RESEARCH


AND TECHNOLOGY

In recent years some philosophers have tried to disentangle technology from sci-
ence. In particular, we have learned that applied science must be interpolated bet-
ween basic science and technology. For example, pharmacology is the link between
biochemistry, a basic science, and the discipline in charge of drug design and drug
production. In fact, pharmacologists select a tiny fraction of the millions of possi-
ble molecules, namely those that may be turned into drugs through the so-called
translation process in charge of the pharmacologists working in the so-called la-
boratories attached to drug companies. These people, or the automated machines
they control, perform the myriad tests required to find out how those promising
molecules act on the receptors sitting on cellular membranes.
Schematically, this whole process looks like this:

selection translation Pharma


Biochemistry Pharmacology Pharmatech → industry

Technologists proper start only at the last two phases: the pharmatechnologists de-
sign artifacts expected to produce drugs, and the chemical engineers working at
pharma industrial plants (popularly called “laboratories”) design, perfect, repair or
maintain the machinery that delivers the merchandise sold at pharmacies.
Let us review two stories that, though apparently unrelated, are relevant to our
problem: gravitational waves, and the cradle of the Industrial Revolution.
16 Mario Bunge

2 A FIRST IN PURE SCIENCE: GRAVITATIONAL WAVES

The detection of gravitational waves November of 2015, should have unfused sci-
ence from technology. Indeed, that sensational finding was a triumph of Einstein’s
basic or disinterested scientific research exactly one century earlier. True, the ex-
perimenters were helped by the civil engineers who participated in the realization
of the original design of the LIGO1 experimental installation, which involved two
huge interferometers and two 4,000 meters long vacuum tunnels.
What interests us is that what motivated this recent successful search was not
utility but sheer scientific curiosity – just as Aristotle had written. Indeed, the finding
in question has no foreseeable practical applications, if only because the energy of
the said waves is minute. Only the intervention of a few far-sighted bureaucrats
made it possible to round up and organize a body of nearly 1,000 specialists who
spent 1,100 million US dollars working on a project that culminated a search that
had yielded no results for nearly half a century.
What sustained the faith of the members of the LIGO team was that Einstein’s
prediction was part of his complex if beautiful theory of gravitation, other pre-
dictions of which had been empirically confirmed since 1919. That was the year
when the bending of star light by the Earth’s gravitational field was confirmed by
a team led by the astrophysicist Arthur Eddington. Since then, about 30 additional
“effects” predicted by the same theory have been corroborated.
In other words, the gravitational waves hypothesis, far from being isolated,
was firmly entrenched in one of the most important physical theories. In short, the
LIGO finding was sought and accepted largely because it had been predicted by a
successful theory. It killed two birds with one stone: the empiricist dogma that all
scientific inquiries originate in observation, and the pragmatist confusion of science
with technology.

3 MANCHESTER RATHER THAN PARIS

If technology sufficed to beget modern industry, and if the latter were just applied
science, the Industrial Revolution (ca. 1760–1820) would have started in Paris, the
city of light, rather than in dark Manchester. In 1750 Paris, the second most popula-
ted European city, had 556,000 inhabitants, and was the seat of the largest and most
progressive scientific and humanistic communities in the world. It was the Mecca
of all the best scientists and the most popular writers. By contrast, Manchester had
hardly 20,000 inhabitants, though this number was multiplied by 10 in the course of
one century, while the Paris population only doubled in the same period.
Recall this small sample of French scientists active during the Industrial Revo-
lution: d’Alembert, Buffon, Condorcet, Lagrange, Laplace, and Lavoisier, to which
we should add a bevy of foreign visitors, such as Leonhard Euler, Alexander von
Humboldt, and Ben Franklin. The British scientific community of the same period

1 LIGO: Laser Interferometer Gravitational-Wave Observatory [Anmerkung des Herausgebers].


Technology ≠ Applied Science, and Industry ≠ Technology 17

was no less brilliant: suffice it to recall Babbbage, Black, Cavendish, Davy, William
Herschel, Jenner, and Priestley. Foreign scientists visited Paris, not London, let
alone Oxford or Cambridge – which specialized in training parsons, and rejected
the entrance applications of John Dalton because he was a Quaker – the only Man-
cunian to leave a deep track on science: he was no less than the founder of atomic
chemistry.
More to the point, none of these eminent scientists was interested in machines,
so they made no significant contributions to the Industrial Revolution. The inven-
tors of the steam engine, the spinning jenny, the steam regulator, and the power
loom, were self-taught engineers like Cartwright, Hargreaves, Newman, and Watt.
The most ingenious artifacts were Vaucanson’s duck automaton and Jacquard’s pro-
grammable loom. Both inventions were fully exploited only two centuries later,
by the computer industry. And except for Vaucanson, none of these inventors was
interested in basic science, and none expected riches from their inventions.

4 THE INPUTS AND OUTPUTS OF THE INDUSTRIAL REVOLUTION

Great riches came not from technology but from the manufacturing plants using the
new machines and financed by some venture capitalists, in particular some of the
merchants who had made huge fortunes in the slave trade. Thus, contrary to Marx’s
“law” of historical stages – slavery, serfdom, capitalism, and socialism – the slave
trade was flourishing during the period we are examining, and it contributed signifi-
cantly to the birth of industrial capitalism. The old was feeding the new.
Far from being generated only by technology, the industrial capitalism born
in Manchester and similar English towns had at least three inputs, as shown in the
following diagram:

New Technology Profit


New Products
Modern
Cheap Labor → Industry → for Mass → Market → Salaries
Consumption
Venture Capital Maintenance

Let us comment briefly on both the inputs and the outputs of this system. The new
technology made only a very small use of the new science born three centuries
earlier, as can be seen from the biographies of the inventors of the new machines.
Indeed, none of them had gotten the higher education required to understand the
new science: they were craftsmen rather than engineers. By contrast, labor was
superabundant and very cheap at the time. In fact, the salaries paid to the workers
in the English cotton mills for 14 hours a day just sufficed to keep them from star-
ving – about 20 pennies, or 10 kilograms of bread per day in 1740. (At the present
time, in the US, labor counts for less than 10 percent of the cost of an ordinary
merchandise.)
Capital too was plenty and cheap in Britain at the time of the Industrial Revo-
lution, for the slave trade was both intensive and extremely profitable. (The main
18 Mario Bunge

slave route was England-Gulf of Guinea-Caribbean or Southern USA-Britain. Es-


sentially, slaves were traded for cotton, sugar, and coffee.) Unlike aristocrats, who
invested mainly in land or bonds, slave traders invested their cash mainly in the new
industry. Consequently the English industrialists needed not borrow from banks
or money-lenders. The French industralists had no access to that kind of capital
because Haiti, their only colony with slave labor, was far smaller, and they did not
supply raw materials to industry. Besides, the French inventors’s ingenuity was
held back by the conservatism of the French investors.
The main product of the cotton mills was calico, a cheap cotton cloth suitable
for dresses and loincloths. Unlike the fine silk brocades produced in Lyon for the
rich, the English cloth was accessible to millions of people around he world, es-
pecially in British India. That was the secret of the great success of the Industrial
Revolution: mass consumption through mass production.There was, of course, the
competition of the cotton cloth that the natives produced with the primitive ma-
nual looms common in Indian houselholds. But the Brits knew how to overcome
this obstacle: they incapacitated the Bengali weavers by chopping off their thumbs.
Surely this cruelty was inconsistent with the high-sounding free-trade rhetoric of
the English politicians and their philosophers. But someone had to pay for pro-
gress. And the British Army in India made sure that neither the industralists nor the
merchants payed for it. The burden fell on the Indian workers and the taxpayers,
both in Britain and in India, who supported the half a milllion-strong British Indian
Army, led by men with an “inborn capacity for leadership” or their tamed native
subordinates.

CONCLUSIONS

We have defended the theses that technologists and basic scientists pursue very dif-
ferent goals: whereas the former seek utility, the latter try to find new truths, and the
applied scientists focus on truths of possible practical utility. Still, the individuals in
all three camps are primarily motivated by curiosity. Further, advanced experimen-
tal observation in Big Science makes intensive use of high-tech, as in large-scale
automatic drug trial, neutrino detection, and black hole research. To indulge in Bi-
ble talk, let both Myriam and Martha do their jobs on the Lord’s vineyard. In other
words, we need both brain and hand. So, let us neither confuse them, nor regard one
of them as being higher than the other. They need one another, and Homo sapiens
needs them both to avoid becoming homo stultus.
However, we should try to keep making progress without exploiting anyone.
We no longer live in 1845, when the great Heinrich Heine empathized with the
suffering and struggling Silesian weavers, and prophesized
Altdeutschland, wir weben dein Leichentuch
(Old Germany, we weave your shroud.)

We have made much social progress since installing the welfare state in much of
the so-called West. But it is high time to complete the task started two centuries
ago by the social reformers who sought social justice – the balancing of duties with
Technology ≠ Applied Science, and Industry ≠ Technology 19

rights, and the control of technological progress to avoid its evil effects – massive
labor “redundancy”, ever more destructive wars, environmental degradation, and
dumbing entertainment. We should be able to paraphrase Heine, saying
Neuzeit, wir weben deine Windel.
(Modern times, we weave your nappies.)
TECHNOLOGISIERUNG UND PLURALISIERUNG –
EIN JANUSKOPF

Walther Ch. Zimmerli

Aus mehr oder minder einsichtigem aktuellem Anlass wird „Pluralismus“ in letzter
Zeit wieder häufiger diskutiert, und nach Auffassung von Klaus Kornwachs ist es
sogar evident, „dass der Begriff des Pluralismus an seine Grenzen stößt bei der
mittlerweile alltäglichen Bedrohung durch den Terrorismus als einer Form der po-
litischen, religiösen und zweifelsohne auch wirtschaftlichen Auseinandersetzung“1.
Dieser Ansicht soll, allerdings in Gestalt einer reflektierten Weiterführung, im Fol-
genden widersprochen werden.
Wenn Philosophie, wie Kornwachs meint, „die Aufgabe“ hat, „solche Grenzen
auszuloten“, dann mag es nämlich zunächst einmal umgekehrt auch zulässig sein,
die Verbindung zwischen diesem Grenzbegriff und demjenigen herzustellen, um
den das Denken von Kornwachs ebenso wie die ihm hier zugeeignete akademi-
sche Festgabe kreist: dem Begriff der Technik, den es immer wieder neu zu denken
gilt. Ohne zunächst explizit auf den von Kornwachs genannten konkreten Anlass
einzugehen, will ich als Post- (oder gar Anti-)Platoniker allerdings, um nicht der
in der abendländischen Philosophie hinter jeder Ecke lauernden Gefahr einer Sub-
stantialisierung zu erliegen, nicht über das Verhältnis von Pluralismus und Technik,
sondern über dasjenige von Pluralisierung und Technologisierung nachdenken, auf
diese Weise Whiteheads Ermahnung folgend, nie den Prozesscharakter der Realität
aus dem Blick zu verlieren.
Um das umzusetzen, soll in einem ersten Schritt mein ursprüngliches The-
orem des antiplatonischen Experiments bezüglich des Pluralismus sowie seine
Revision in Erinnerung gerufen werden (I), dem dann das Standardmodell der
philosophischen Reaktion darauf gegenübergestellt und um eine Analyse des
Prozesses der Digitalisierung erweitert werden soll (II). Der abschließende dritte
Schritt schließlich entwickelt – in Absetzung von Popper – ein erweitertes Kon-
zept einer „Drei-Welten“-Lehre, das ein neues Feld philosophischer Erforschung
virtueller Realität und zudem eine neue ontologische Dimension von Pluralismus
erschließt (III).

1 Kornwachs, Klaus: Kann man mit Terroristen reden? In: Wolf, Stefan; Marquering, Paul (Hg.):
Unkritische Masse? Offene Gesellschaft und öffentliche Vernunft. Berlin, Münster, London
2016. S. 145.
22 Walther Ch. Zimmerli

DAS „ANTIPLATONISCHE EXPERIMENT“ – REVISITED

Hermeneutisch und tiefenpsychologisch geschulte Philosophen wissen, dass es eine


aufklärerische Illusion wäre zu meinen, wir seien – wenn auch reflexiv gebrochen –
„Herren im eigenen Haus“; vielmehr können wir uns eben niemals in die Lage ver-
setzen, durch philosophische Reflexion einen Zustand vollständiger Transparenz
der Voraussetzungen des eigenen Denkens zu erreichen. Philosophische Reflexion
besteht zwar nicht zuletzt in dem Versuch, etwas von dem, was uns hinter unserem
eigenen Rücken bestimmt, vor uns zu bringen, aber eben nur „etwas – nicht alles“,
um es in den gegen Jürgen Habermas gerichteten Worten Hans-Georg Gadamers
zu sagen2. Noch etwas pointierter: Philosophische Reflexion besteht zugleich in
diesem Versuch und in der Einsicht, dass prinzipiell immer vieles, vielleicht sogar
das Meiste „hinter unserem Rücken“ bleibt. Und dazu gehört – bis zu Heidegger
und dem sich an ihm abarbeitenden hermeneutischen, strukturalistischen und post-
strukturalistischen Denken – die zwingende Übermacht des Platonismus (was ja
im Übrigen selber ein nach dem Prinzip der Selbstähnlichkeit platonisierend ver-
dinglichender Begriff ist). Heidegger hatte dies im Gefolge Nietzsches noch der
Metaphysik und damit primär Platons Lehrer Sokrates und Platons Schüler Aris-
toteles angelastet. Bei genauerer Betrachtung zeigt sich hinter alledem jedoch die
eine Denkfigur: die Vielheit der Erscheinungen („Phänomene“) auf die Einheit der
Begriffe („Ideen“) zu reduzieren und diese mit der Wahrheit, jene dagegen mit
dem bloßen Schein zu assoziieren. Jeder (aristotelisch oder anderweitig motivierte)
Versuch, die Dignität der phänomenalen Vielheit wieder herzustellen („sozein ta
phainomena“3), war als seinerseits begrifflicher Versuch zum Scheitern verurteilt,
und die Geschichte dieses Scheiterns macht nicht weniger als eben die gesamte
Geschichte des abendländischen Denkens aus.
Aber warum? Worauf ist zurückzuführen, dass zwar das Unbehagen an einer
Kultur des Allgemeinen oder des Begrifflichen überall zu spüren war und ist, dass
dieses Unbehagen sich aber nicht in Gestalt einer antiplatonischen Revolution Bahn
brach, sondern sich ganz im Gegenteil sogar in Form einer Selbstverstärkung perpe-
tuierte? Diese Frage fand im Verlaufe der abendländischen Denkgeschichte zahllose
Beantwortungsversuche, die aber allesamt auf eines hinauslaufen, was wir mit um-
gekehrtem Vorzeichen ohnehin schon immer mit unserer Denk- und Ideengeschichte
als „Logos“-Geschichte verbinden und was sich wie unter einem Brennglas erneut in
einem Begriff, nämlich in dem Begriff „Epistemologie“, bündeln lässt.
Über welche Kraft dieses Denkmodell verfügt, lässt sich daran ablesen, dass
wir, allen entgegenstehenden Evidenzen zum Trotz, ganz fraglos davon ausge-
hen, dass die Erfolgsgeschichte des abendländisch-platonisierenden Denkmodells
ihre Bekräftigung im epistemologischen Siegeszug der (natur)wissenschaftlichen
Rationalität gefunden habe und noch immer finde. Ich sage „allen entgegenste-

2 Gadamer, Hans-Georg: Rhetorik, Hermeneutik und Ideologiekritik. Metakritische Erörterun-


gen zu „Wahrheit und Methode“ (1967). Wieder abgedruckt in: Apel, Karl-Otto u. a.: Herme-
neutik und Ideologiekritik. Frankfurt am Main 1971. S. 78.
3 vgl. Mittelstraß, Jürgen: Die Rettung der Phänomene. Ursprung und Geschichte eines antiken
Forschungsprinzips. Berlin 1962.
Technologisierung und Pluralisierung – ein Januskopf 23

henden Evidenzen zum Trotz“, denn diese erzählen eine andere Geschichte: Es
gibt keinen Siegeszug der (natur)wissenschaftlichen Rationalität, und dass sich
das so verhält, haben nahezu alle bedeutenden Denker seit der Antike nicht nur
gewusst, sondern auch öffentlich gesagt. Was es vielmehr gibt, ist ein Siegeszug
der technischen Umgestaltung der Welt, die desto erfolgreicher war, je enger sie
sich mit der (Natur)Wissenschaft verbündete, anders gesagt: je techno-logischer
sie wurde. Dass das auf einer gegenseitigen Wechselwirkung beruhte, weiß zwar
jeder, aber es ist, um es paradox zu formulieren, niemandem wirklich bewusst.
Zwar ist es bis in die höhere Unterhaltungsliteratur hinein sedimentiertes Allge-
meinbildungsgut, dass etwa die thermodynamischen Grundprinzipien der moder-
nen Physik in der Konstruktion von Dampfmaschinen ihren technischen Ursprung
haben (cf. Spoerls „Feuerzangenbowle“), aber ihre platonisierende Formulierung
(„Energieerhaltungs-“ bzw. „Entropiesatz“) stellt für diese Einsicht ein nahezu un-
überwindliches Hindernis dar.
Und auch dort, wo der Sachverhalt als solcher erkannt wird, legt sich die im
engeren Sinne epistemologische Interpretation wieder so nah, dass sie die eigent-
liche Einsicht verdrängt bzw. in die traditionellen konzeptionellen Bahnen zwingt:
„Die Technisierung der Wissenschaft durch die experimentelle Methode und die
Verwissenschaftlichung der Technik hat zusammen mit dem Verwertungsdruck
wissenschaftlicher Ergebnisse für die Technik (…) den Erklärungsdruck technisch
machbarer Vorgänge so erhöht, dass de facto zwischen angewandter Forschung und
Grundlagenforschung nicht mehr unterschieden werden kann.“4 Die durchaus zu-
treffende Beobachtung, dass im Kontext des Technologisierungsprozesses die im
epistemologischen Grundmodell vorausgesetzten Grenzen zwischen Grundlagen-
forschung und angewandter Forschung verschwimmen, stellt eine zwar notwen-
dige, aber eben nicht hinreichende Bedingung für die erforderliche neue Sicht der
Dinge dar. Statt Wissenschaft als Abstraktionsprodukt technischen Herstellens zu
verstehen und so zu analysieren, drängt sich immer wieder die epistemologische
Engführung auf: Technologie wird nach Maßgabe wissenschaftstheoretischer Ka-
tegorien interpretiert.
Wenn wir jedoch einmal so weit sind, die platonisierend-epistemologische
Weltsicht „vom Kopf auf die Füße zu stellen“, werden wir vielleicht eines Besse-
ren, ganz sicher aber eines Anderen belehrt werden, und zwar nicht nur, was die
Erkenntnis- und Wissenschaftstheorie, sondern auch was die Ontologie betrifft:
Neben und über die platonisierende Reduktion der Phänomenvielfalt durch die
begriffliche Einheit der Ideen hat sich nämlich aufgrund der sukzessiven Hybridi-
sierung von begrifflichen Konstrukten und Artefakten eine Vereinheitlichung der
Phänomene gelegt, die eine Vervielfachung der auf dieser Basis möglichen virtu-
ellen Welten erst ermöglicht. Was wir also derzeit durch Begriffe wie „Technologi-
sierung“ und – eher irreführend – „Digitalisierung“ markieren, ist, ideengeschicht-
lich gesehen, ein groß angelegtes „antiplatonisches Experiment“5, dessen Resultat

4 Kornwachs, Klaus: Technik – System – Verantwortung. Eine Einleitung. In: ders. (Hg.), Tech-
nik – System – Verantwortung. Münster 2004. S. 26.
5 vgl. Zimmerli, Walther Ch.: Das antiplatonische Experiment. In: ders. (Hg.): Technologisches
Zeitalter oder Postmoderne. München 1991(2). S. 13–35.
24 Walther Ch. Zimmerli

übrigens, wie das eben bei „richtigen“ Experimenten der Fall zu sein pflegt, noch
durchaus offen und ungewiss6 ist.
Während ich früher angenommen hatte, dieses Experiment beziehe sich nur auf
die damals modische Postmoderne, bin ich zwischenzeitlich zu der Einsicht gekom-
men, dass die Postmoderne ihrerseits nur ein kulturelles Epiphänomen der technolo-
gieinduzierten Pluralisierung auf dem Wege zu einem Pluralismus zweiter Ordnung
war7. Reichte für einen Pluralismus erster Ordnung noch eine Begründung nach dem
Muster einer Autostereotypbildung durch Abgrenzung von einem Heterostereotyp
des weltanschaulich-ideologischen Monismus aus, so ist nun unter Bedingungen der
Globalisierung und des damit verbundenen Feindbildverlustes eine doppelt affirma-
tive Bestätigung der Vielheit erforderlich: d. h. nicht bloß Pluralität, sondern Plura-
lismus erster Ordnung wird seinerseits zu einem Wert. Dass dies direkte Auswirkun-
gen auf die aktuellen Debatten z. B. über Flüchtlinge bzw. Immigranten hat, liegt auf
der Hand, kann aber hier im Einzelnen nicht ausgeführt werden.
Eine vollständige zeitdiagnostische Erklärung für den epochalen Einschnitt, der
sich – erneut „hinter dem Rücken“ der meisten der beteiligten Akteure – hiermit auftut,
ist damit zwar noch nicht gegeben, es ist aber zumindest ein erster Schritt auf dem dazu
zu beschreitenden Wege getan. Wir halten fest: Der durch die weltweite Technologisie-
rung induzierten Vereinheitlichung der Welt auf der Ebene der Phänomene korrespon-
diert eine ebenfalls weltweite Pluralisierung auf der Ebene der begrifflichen Repräsen-
tationen, seien diese nun kognitiv, kulturell, normativ oder im engeren Sinne politisch.

DIE PHILOSOPHISCHE REAKTION:


STANDARDMODELL UND DIGITALISIERUNG

Nun kann die skizzierte und ansatzweise analysierte epochale Wendung, die un-
ter den Begriff des „antiplatonischen Experiments“ gefasst wurde, schlechterdings
niemandem verborgen geblieben sein. Und in der Tat sind dazu ganze Bibliotheken
mehr oder minder gelehrter Literatur verfasst worden, die sich, in der Regel aus
gesellschaftstheoretischer Perspektive, mit der „post-industriellen“ Gesellschaft,
der „Informationsgesellschaft“, der „Netzwerkgesellschaft“ oder neuerdings der
„digital society“ befassen. Zwar geht es dabei immer um neuartige Phänomenbe-
stände dieser anderen, „post-“ oder „antiplatonischen“ Art, aber sie werden in der
Regel eben gerade nicht als solche thematisiert und erfasst. Vielmehr gibt es eine
Art von sozialphilosophischem Standardmodell, das nach dem von dem Soziolo-
gen Ulrich Beck geprägten Muster der (Welt-)Risikogesellschaft konzipiert ist8 und

6 Für die wissenschaftstheoretische Perspektive, der zufolge sogar im Rahmen mikrophysikali-


schen Experimentierens nicht das einzelne Individuum, sonders eine komplexe scientific com-
munity zur Verfertigung eines wissenschaftlichen Experiments bzw. der daraus folgenden Tat-
sachen beiträgt, vgl. Galison, Peter: How Experiments End. Chicago 1987.
7 vgl. Zimmerli, Walther Ch.: Second Order Pluralism. In: Hertzog, Dirk; Britz, Etienne; Hen-
derson, Alastair (Hg.): Gesprek sonder grense. Festschrift für Johan Degenaar zum 80. Ge-
burtstag. Stellenbosch 2006. S. 324–341.
8 vgl. Beck, Ulrich: Risikogesellschaft. Auf dem Weg in eine andere Moderne. Frankfurt am Main 1986.
Technologisierung und Pluralisierung – ein Januskopf 25

sich an einem nicht-linearen Kausalitätsverständnis von nicht-intendierten Folgen


bzw. Nebenfolgen orientiert. Mit anderen Worten: Die Globalisierung als Techno-
logisierung der Welt rückt in Gestalt der Abweichung vom kausal-linearen Konzept
naturwissenschaftlichen Wissens in den Blick, und die Theoretiker begeben sich –
nicht gerade begeistert – auf dieses unbekannte Terrain.
Es war – neben anderen – wieder Klaus Kornwachs, der eine Variante dieses
Standardmodells für die Philosophie formuliert hat: „Angesichts der Zuspitzung
technisch induzierter Probleme, bewirkt durch vielfältig vermittelte gesellschaftli-
che Herstellungs- und Nutzungszusammenhänge und Verwertungsinteressen, Plura-
lisierung und Globalisierung sowie zunehmende Komplexität und Entgrenzung der
Folgen des technischen Fortschritts, hat auch die Philosophie begonnen, wenn auch
zögernd, sich mit den damit verbundenen wissenschaftstheoretischen, erkenntnis-
theoretischen und ethischen, moralischen und politischen Fragen zu beschäftigen.“9
Und erneut lässt sich hieran exemplarisch ablesen, dass nicht die ontologische,
sondern eben die epistemologische und allenfalls noch die ethische Dimension im
Blick ist. Gewiss, es geht um das Bedenken nicht-intendierter Folgen und um die
damit zunehmende Bedeutung der Reflexion auf Verantwortung. Anders als bei
Hans Jonas10 fehlt allerdings eine Reflexion auf den Hybridcharakter von Sein und
Sollen, die eine Konsequenz der Einsicht in die Charakteristika des antiplatoni-
schen Experiments und damit in die Komplementarität von Technologisierung und
Pluralisierung gewesen wäre.
Das kann fraglos niemandem zum Vorwurf gemacht werden – zu allerletzt
Klaus Kornwachs, der immerhin die Notwendigkeit einer philosophischen Refle-
xion dieser neuartigen Situation gesehen und immer wieder betont hat. Allerdings
ist und bleibt seine Reaktion in gewissem Sinne symptomatisch für den blinden
Fleck der Gegenwartsphilosophie bezüglich des nicht-kontingenten Zusammen-
hangs von Technologisierung und Pluralisierung, der die zuvor vielfach beschwo-
rene Abwendung von der platonisierenden Vereinheitlichung der Vielfalt der Phä-
nomene unter der Herrschaft der Ideen erst wirklich zu vollziehen erlaubt.
Was ist – so kann nun gefragt werden – eigentlich erforderlich, um die nahezu
magische Kraft des „hinter unserem Rücken“ wirkenden Platonismus zu durchbre-
chen? Wenn dieser in der Verbegrifflichung der Phänomen bestand, also gleichsam
in einer kognitiven oder idealen Verdopplung der Welt, dann liegt die Vermutung
nahe, dass die Umkehrung auf eine Konkretisierung der Begriffe, also auf eine Rei-
fizierung des Kognitiven oder Ideellen hinausläuft. Einen ersten Vorgeschmack da-
von vermag uns zunächst das Internet, verstärkt aber nun das „Internet der Dinge“11
zu geben, das bislang philosophisch noch kaum erfasst worden ist.

9 Kornwachs, 2004, a. a. O., S. 27.


10 vgl. Jonas, Hans: Das Prinzip Verantwortung. Versuch einer Ethik für die technologische Zivi-
lisation. Frankfurt am Main 1979; jetzt mit zahlreichen zusätzlichen Materialien kritisch ediert
in: Böhler, Dietrich; Bongardt, Michael; Burckhart, Holger; Zimmerli, Walther Ch. (Hg.): Kri-
tische Gesamtausgabe der Werke von Hans Jonas. Abteilung I, Bd. I.2,1. Freiburg im Breisgau,
Berlin, Wien 2017.
11 vgl. Bullinger, Hans-Jörg; ten Hompel, Michael (Hg.): Internet der Dinge. Berlin 2007.
26 Walther Ch. Zimmerli

Um mindestens eine Ahnung der Dimension dessen, was damit gemeint ist,
zu erhalten, mag es hilfreich sein, sich des Mechanismus zu erinnern, auf dem die
Transformation beruht, die wir – wie gesagt: eher irreführend und erneut platoni-
sierend – als „Digitalisierung“ bezeichnen. Schon der Versuch, die Ideengeschichte
mit dem Fluchtpunkt der künstlichen Intelligenz zu reformulieren, zeigt, dass es
dreier Voraussetzungen bedurfte: der Formalisierung, der Kalkülisierung und der
Mechanisierung12. Bei noch genauerer Betrachtung zeigt sich allerdings, dass es
dabei semiotisch vordringlich um die Reduktion der Semantik auf eine in binärer
Logik darstellbare Syntax ging, die dann in Maschinen mit diskreten Zuständen
algorithmisch abgearbeitet werden konnte. Anders: Was wir „Digitalisierung“ nen-
nen, beruht auf „Binarisierung“; nicht der ganze kalkülisierbare Zahlenraum ist
dazu erforderlich, sondern dessen Reduktion auf seine logisch und semantisch ele-
mentaren Zustände ist es, was den informationstheoretischen und -technologischen
Durchbruch erlaubt.
Allein: erst die iterierte Vernetzung in diesem Sinne digitalisierter KI-Systeme
(Computer) und deren Verwendung in anderen Maschinensystemen (Robotisie-
rung) führt uns schrittweise in das Umfeld dessen, was wir heute unter „Digitalisie-
rung“ verstehen. Bezogen auf das Konzept eines „antiplatonischen Experiments“
ist damit nicht mehr nur die vereinheitlichende semantische Repräsentation der
Vielfalt der Phänomene in einer als „theoretisch“ charakterisierten zweiten, und
zwar begrifflichen Wirklichkeit (oder „Welt“) gemeint, sondern die Erschaffung
einer dritten Wirklichkeit13 oder „Welt“. Anders: wir schreiben Programme, und
diese laufen auf Maschinen, genauer: auf Netzwerken von Maschinen, die ihrerseits
eine dritte Wirklichkeit erschaffen – eben das Internet der Dinge vom aus dem Ke-
ramikblock herausgefrästen Zahnersatz über das Cochlea-Implantat bis zum Pro-
dukt der 3-D-Drucker.
Nicht dass wir erst am Anfang dieser neuen Zeit stehen, die wie eine Sturz-
flut über uns hereinbricht, ist das Faszinierende, sondern dass wir uns damit der
Einlösung eines neuzeitlichen Versprechens nähern, nämlich dem des sogenannten
„Vico-Axioms“: dass wir etwas erst dann wirklich wissen, wenn wir es selbst ma-
chen können – „Wissen ist Machen“14.

ABSCHIED VON DER TÄUSCHUNG

Was aber bedeutet dies nun im Kontext der Reformulierung des antiplatonischen
Experiments? Erneut einschränkend muss wiederholt werden, dass sich erst nur
die Umrisse dieses epochalen Wandels abzeichnen, so dass noch kein konsisten-

12 vgl. Zimmerli, Walther Ch.; Wolf, Stefan: Einleitung. In: dies. (Hg.): Künstliche Intelligenz.
Philosophische Probleme. Stuttgart 2002(2). S. 5–37, bes. 8 ff.
13 vgl. Kroker, Eduard J. M.; Deschamps, Bruno (Hg.): Information – eine dritte Art von Wirk-
lichkeit neben Materie und Geist. Frankfurt am Main 1995.
14 Zimmerli, Walther Ch.: To Know is to Make. Knowledge, Ignorance and Belief in a Technolo-
gical Society. In: Meisinger, Hubert; Drees, Willem B.; Zbigniew, Liana (Hg.): Wisdom or
Knowledge? Science, Theology, and Cultural Dynamics. London 2006. S. 145–152.
Technologisierung und Pluralisierung – ein Januskopf 27

tes Bild davon gegeben werden kann, welche Veränderungen zu erwarten sind.
Eines kann aber jetzt schon als gesichert gelten: Da philosophische Reflexion
per definitionem insofern platonisierend bleiben muss, als sie darin besteht, das
Besondere auf allgemeine Begriffe zu bringen, bleibt sie selbst zunächst einmal
von dem Experiment unberührt. Anders formuliert: Die philosophische Reflexion
ändert sich zwar in Bezug auf ihre Gegenstände, nicht aber per se durch die ex-
perimentelle antiplatonische Wendung. Nach wie vor muss es uns Philosophen
darum gehen, die allgemeinen Begriffe zu der Mannigfaltigkeit der Erscheinun-
gen zu finden – auch und gerade wenn wir realisieren, dass es sich dabei um eine
andere Mannigfaltigkeit, nämlich diejenige im Kontext der vereinheitlichenden
Technologie handelt.
Diese letztere muss nun allerdings anders gesehen werden: In der Welt der
„zweiten Wirklichkeit“ ist sie weltweit identisch. Zwar gibt es Unterschiede der
Gestaltung und des Marketing, aber diese sind – bis auf wenige Ausnahmen – alle-
samt kompatibel. Und so entsteht denn quasi-kompensatorisch eine Art Krieg zwi-
schen denen, die auf Microsoft „schwören“, und den Apple-Gefolgsleuten. An dem
Prinzip, dass es sich hierbei „nur“ um verschiedene Gestaltungsvarianten der Nut-
zeroberfläche jener elementar vereinheitlichenden binären Reduktion von Semantik
auf Syntax handelt, ändert das jedoch nichts.
Schon mit der Entstehung der dann als Paradigma auftretenden iterierten
Grundstruktur von Information als Unterschied15, technisch zwischen „Schalter of-
fen“ – „Schalter geschlossen“ bzw. „Strom fließt“ – „fließt nicht“, ist eine antipla-
tonische, vollständige Reduzierbarkeit von Welt 1 (realistisch interpretierte Seman-
tik) auf Welt 2 (Syntax als zweiwertige Logik) gegeben. Hand in Hand damit geht
die fortschreitende Algorithmisierung, die nun, vom Navigationssystem über die
Welt der Spiele bis hin zu derjenigen der auch dafür erforderlichen technologischen
Theoriebildung nach dem Muster des Designs nicht nur alles durchdringt, sondern
auch erlaubt, eine vollständige Welt 3 (virtuelle Realität) zu erschaffen. Zwar gilt
nach wie vor, dass Welt 1 und Welt 3 im Prinzip unterscheidbar sind, aber das gilt
eben nur „im Prinzip“. Theoretisch, d. h. im platonischen Muster der (auch philo-
sophischen) Reflexion, spielt diese Unterscheidbarkeit eine große, vielleicht die
zentrale Rolle. Lebenspraktisch, genauer: im Zusammenhang der unterschiedlichen
pragmatischen User-Kontexte jedoch kommt es auf diese Unterscheidbarkeit nicht
nur nicht an, sondern alles ist ganz im Gegenteil darauf angelegt, ununterscheidbar
zu erscheinen.
Und das führt uns zurück zu den Anfängen dessen, was seither – irreführen-
derweise, aber symptomatisch – „künstliche Intelligenz“ heißt. Von allem (Tu-
ringschen) Anfang an geht es dabei nämlich um ein „Imitation Game“16. Nicht die
Frage, ob Maschinen bzw. die auf diesen laufenden Programme intelligent sind oder

15 vgl. Zimmerli, Walther Ch.: Macht Information Sinn? Reflexionen zur Iteration von Unter-
schied und Nichtwissen. In: Roelcke, Thorsten; Ballod, Matthias; Pelikan, Kristina (Hg.): In-
formation und Wissen – Beiträge zum transdisziplinären Diskurs. Frankurt am Main, Bern u. a.
2018 (im Druck).
16 Es ist durchaus kein Zufall, dass Alan Turing seinen als „locus classicus“ zu bezeichnendem
Aufsatz „Computing Machinery and Intelligence“ nicht mit einem Satz, sondern gleich mit
28 Walther Ch. Zimmerli

denken können, steht zur Diskussion. Sondern es handelt sich um eine Frage nach
dem, was wir systemtheoretisch als „funktionale Äquivalenz“ bezeichnen können,
die eine Weiterführung des „principium identitatis indiscernibilium“ darstellt. In
dieser Welt 3 ist es gleichgültig, ob die auf den Endgeräten laufenden Programme
intelligent sind. Das wird zu einer letztlich platonisierend metaphysischen Frage,
die – pragmatisch gesehen – obsolet ist. Wichtig ist allein, ob sie sich so verhalten,
dass der Nutzer das nicht mehr unterscheiden kann und – wenn er nicht ein Philo-
soph ist – auch nicht mehr unterscheiden will und muss. Anders: es geht um nicht
mehr, aber auch um nicht weniger als um eine Rehabilitierung der Täuschung17,
und zwar in Nietzsches Formulierung: „im außermoralischen Sinne“.
So betrachtet, gilt in dieser Welt 3 im Rahmen des begonnenen antiplatonischen
Experiments, dass auch einige der das platonische Denkmodell konstituierenden
Bestimmungsstücke entfallen, und zwar jeweils immer nur auf der Ebene ihrer Ge-
genstände. Mit den Begriffspaaren „Sein“ und „Schein“, „Virtualität“ und „Reali-
tät“, „Wesen“ und „Erscheinung“ seien nur einige exemplarisch genannt.
Allerdings läuft, wer nach Popper von „Welt 1“, „Welt 2“ und „Welt 3“
spricht, Gefahr, einer – nun erneut wieder platonisierenden – Fehldeutung Vor-
schub zu leisten, die es daher hier von vornherein auszuschließen gilt. In seinem
Buch „Objective Knowledge“ hatte Popper seine (für seine Verhältnisse erstaun-
lich metaphysische) Drei-Welten-Lehre entwickelt, und zwar in Abgrenzung von
Platon und Hegel ausgerechnet als Erläuterung seines Verständnisses von Plura-
lismus: „In dieser pluralistischen Philosophie besteht die Welt aus mindestens drei
ontologisch verschiedenen Teilwelten, was ich so ausdrücken werde, dass es drei
Welten gibt: als erste die physikalische Welt oder die Welt der physikalischen Zu-
stände; als zweite die Bewusstseinswelt oder die Welt der Bewusstseinszustände;
als dritte die Welt der intelligibilia oder der Ideen im objektiven Sinne; es ist die
Welt der möglichen Gegenstände des Denkens: die Welt der Theorien an sich und
ihrer logischen Beziehungen; die Welt der Argumente an sich; die Welt der Pro-
blemsituationen an sich.“18
Es dürfte sich wohl von selber verstehen, dass sich Popper, all seinen Befrei-
ungsschlägen zum Trotz, noch mitten im platonischen Denkmodell befindet, das –
jedenfalls an dieser Stelle – offenbar gar nicht mit Artefakten rechnet und schon gar
nicht mit solchen, die wir als logische Artefakte zweiter Stufe bezeichnen können,
die also auf dem Wege einer vollständigen Reduktion von Semantik auf Syntax
eine „virtuell“ genannte andere Realität erschaffen. Das hier von mir vorgeschla-
gene Konzept einer Welt 3 der virtuellen Realität, die es nach der erfolgreichen
Durchführung einer Reduktion, die sich als „digitalisierte Epoche“ bezeichnen
ließe und die sich ausschließlich der Erfassung der Wirklichkeitskonstitution durch

einem ersten Zwischentitel beginnen lässt: „The Imitation Game“. Turing, Alan: Kann eine
Maschine denken? (1950). Dt. in: Zimmerli; Wolf (Hg.): Künstliche Intelligenz, a. a. O., S. 39.
17 Anders – und stärker platonisierend – dagegen: Müller, Olaf L.: Wirklichkeit ohne Illusionen.
2 Bde. Paderborn 2003; bes. Bd. 1: Hilary Putnam und der Abschied vom Skeptizismus oder
Warum die Welt keine Computersimulation ist. a. a. O., S. 1 ff.
18 Popper, Karl R.: Objektive Erkenntnis. Ein evolutionärer Entwurf. Hamburg 1974(6). S. 174.
Technologisierung und Pluralisierung – ein Januskopf 29

Täuschung widmet, stellt eine veritable Befreiung von der jahrtausendelangen Eng-
führung allen philosophischen Denkens auf allgemeine Begriffe dar.
Auf diese Weise eröffnet sich nun – so ähnlich wie damals nach Husserls
Entdeckung der Welt der intentionalen Gegenstände und damit letztlich der Nou-
mena nach einer zunächst phänomenologischen und dann transzendentalen Re-
duktion – ein ganzes Panorama zu bearbeitender Probleme, die die Beziehungen
und die Differenzen allgemein zwischen Welt 1, 2 und 3, insbesondere aber zwi-
schen Welt 1 und 3, also der „aktuellen“ und der „virtuellen Realität“ betreffen.
Diese gilt es nun systematisch zu analysieren, um sie wenigstens für die philoso-
phische Reflexion zu retten. Denn es ist abzusehen, dass sich die Unterschiede für
die Pragmatik der Lebensführung ähnlich schnell und nachhaltig verschleifen wie
z. B. im Falle des Umgangs mit sogenannten „intelligenten“ oder „smarten“ Fah-
rerassistenzsystemen, deren Mitwirkung beim Autofahren unterhalb der Wahr-
nehmbarkeitsschwelle der Fahrerinnen oder Fahrer liegt und daher für diese auch
nicht mehr „existiert“.
Der hier skizzenhaft beleuchtete Abschied von der lebenspragmatischen Be-
deutung einer Unterscheidbarkeit zwischen Erkenntnis und Täuschung mag zwar
eine hinreichende Motivation dafür darstellen, es für nicht sinnvoll zu halten, wei-
terhin danach zu fragen, ob die auf unseren als „smart“ bezeichneten Endgeräten
laufenden Programme uns „täuschen“; auf der Ebene der philosophischen Refle-
xion aber ist es nicht nur erlaubt, sondern absolut erforderlich, Fragen dieser Art
zu diskutieren. Denn vergessen wir nicht: die philosophische Einsicht, dass die
Grundlage dieses neuen Denkens in der systematischen Rehabilitierung der Täu-
schung zu suchen ist, ist entweder (wie Nietzsches Versuch einen Rehabilitierung
des Scheins19) zum Scheitern verurteilt, oder sie wird umgekehrt die Erforschung
dieser Welt als Abschied von der Täuschung inszenieren. Dieser aber birgt immer
auch die Gefahr einer potenziellen Ent-Täuschung in sich.
So betrachtet, gewinnt der Januskopf von Technologisierung und Pluralisie-
rung, ontologisch gesehen, eine weitere Dimension: Die zunehmende Techno-
logisierung unserer Welt, durch Digitalisierung noch verstärkt, sorgt nicht nur
dafür, dass das antiplatonische Experiment sich in der Vereinheitlichung der
Welt durch digitale Technologie bei gleichzeitiger Pluralisierung der Welt der
Ideen und gedanklichen Konstrukte verschärft fortsetzt, sondern auch noch dafür,
dass die Ununterscheidbarkeit von aktueller und virtueller Realität letztlich zum
Ausgangspunkt einer neuen philosophischen Analyse der Pluralität der Welten
wird. Und insofern musste der eingangs erwähnten skeptischen Einschätzung
von Klaus Kornwachs, dass der Begriff des Pluralismus angesichts terroristischer
Bedrohung an seine Grenzen stoße, im Sinne einer reflektierten Weiterführung
widersprochen werden.

19 vgl. Zimmerli, Walther Ch.: „Alles ist Schein“ – Bemerkungen zur Rehabilitierung einer Äs-
thetik post Nietzsche und Derrida. In: Oelmüller, Willi (Hg.): Ästhetischer Schein. Kolloquium
Kunst und Philosophie 2. Paderborn, München, Wien, Zürich 1982. S. 147–167.
30 Walther Ch. Zimmerli

LITERATUR

Beck, Ulrich: Risikogesellschaft. Auf dem Weg in eine andere Moderne. Frankfurt am Main 1986.
Bullinger, Hans-Jörg; ten Hompel, Michael (Hg.): Internet der Dinge. Berlin 2007.
Gadamer, Hans-Georg: Rhetorik, Hermeneutik und Ideologiekritik. Metakritische Erörterungen zu
„Wahrheit und Methode“ (1967). Wieder abgedruckt in: Apel, Karl-Otto u. a.: Hermeneutik und
Ideologiekritik. Frankfurt am Main 1971. S. 57–82.
Jonas, Hans: Das Prinzip Verantwortung. Versuch einer Ethik für die technologische Zivilisation.
Frankfurt am Main 1979; jetzt mit zahlreichen zusätzlichen Materialien kritisch ediert in: Böh-
ler, Dietrich; Bongardt, Michael; Burckhart, Holger; Zimmerli, Walther Ch. (Hg.): Kritische
Gesamtausgabe der Werke von Hans Jonas. Abteilung I, Bd. I.2,1. Freiburg im Breisgau, Ber-
lin, Wien 2017.
Kornwachs, Klaus (Hg.): Technik – System – Verantwortung. Münster 2004.
ders.: Kann man mit Terroristen reden? In: Wolf, Stefan; Marquering, Paul (Hg.): Unkritische
Masse? Offene Gesellschaft und öffentliche Vernunft. Berlin, Münster, London 2016. S. 145–
164.
Kroker, Eduard J. M.; Deschamps, Bruno (Hg.): Information – eine dritte Art von Wirklichkeit ne-
ben Materie und Geist. Frankfurt am Main 1995.
Mittelstraß, Jürgen: Die Rettung der Phänomene. Ursprung und Geschichte eines antiken For-
schungsprinzips. Berlin 1962.
Popper, Karl R.: Objektive Erkenntnis. Ein evolutionärer Entwurf. Hamburg 1974(6).
Turing, Alan: Kann eine Maschine denken? (1950). Dt. in: Zimmerli, Walther Ch.; Wolf, Stefan:
Künstliche Intelligenz. Philosophische Probleme. Stuttgart 2002(2).
Zimmerli, Walther Ch.: „Alles ist Schein“ – Bemerkungen zur Rehabilitierung einer Ästhetik post
Nietzsche und Derrida. In: Oelmüller, Willi (Hg.): Ästhetischer Schein. Kolloquium Kunst und
Philosophie 2. Paderborn, München, Wien, Zürich 1982. S. 147–167.
ders.: Das antiplatonische Experiment. In: ders. (Hg.): Technologisches Zeitalter oder Postmoderne.
München 1991(2). S. 13–35.
ders.: Macht Information Sinn? Reflexionen zur Iteration von Unterschied und Nichtwissen. In:
Roelcke, Thorsten; Ballod, Matthias; Pelikan, Kristina (Hg.): Information und Wissen – Bei-
träge zum transdisziplinären Diskurs. Frankurt am Main, Bern u. a. 2018 (im Druck).
ders.: Second Order Pluralism. In: Hertzog, Dirk; Britz, Etienne; Henderson, Alastair (Hg.): Gesprek
sonder grense. Festschrift für Johan Degenaar zum 80. Geburtstag. Stellenbosch 2006. S. 324–
341.
ders.: To Know is to Make. Knowledge, Ignorance and Belief in a Technological Society. In: Mei-
singer, Hubert; Drees, Willem B.; Zbigniew, Liana (Hg.): Wisdom or Knowledge? Science,
Theology, and Cultural Dynamics. London 2006. S. 145–152.
Zimmerli, Walther Ch.; Wolf, Stefan (Hg.): Künstliche Intelligenz. Philosophische Probleme. Stutt-
gart 2002(2).
SPEEDING THINGS DOWN1
Carl Mitcham

As someone who has been acquainted with Klaus Kornwachs since the early 1990s,
I find it unfortunate how little of his work is available in English. His contributions
to technical systems theory, the philosophy of science, and philosophy of technol-
ogy are mostly unknown outside a German orbit. But it is from the perspective of
science, technology, and society (STS) studies that I venture a glancing engagement
with his thought. This informal reflection aims to complement his critical analyses
of relationships between technology and culture by calling attention to a concern that
has slowly emerged over the last quarter century – but is coming increasingly to the
fore among scholars venturing critical reflections on the technoscientific lifeworld.
One of the most widely shared values in our world is the idea of speeding
things up. From the earliest phases of the Industrial Revolution, efforts to accelerate
the production of goods and services have been presented as of multi-dimensional
human benefit. Increasing speed increases productivity, which in turn increases
worker pay and the availability of goods. From the 19th through the 20th century
those responsible for scientific and technological policies have promoted acceler-
ations in transport and communications as public goods that further facilitate the
satisfaction of private consumer interests. In the 21st century increasing the speed
of knowledge production and technological innovation are largely unquestioned
ideals that are imagined as the most effective means to deal with social problems
such as poverty and disease as well as environmental challenges such as pollution,
biodiversity loss, and climate change.
Of course, there have been occasional complaints. For instance, rapid-fire sci-
entific or technological changes are readily admitted to disrupt social ecologies.
During the early decades of the 20th century economist Thorsten Veblen and so-
ciologist William Fielding Ogburn developed the concept of a socio-cultural lag,
noting how changes in technology often outstrip their contexts and demand com-
panion changes in society or culture. Insofar as the functioning of a society depends
on harmony among its various institutions, socio-cultural lag can be the cause of
disorder or mal-functioning. An example given by Ogburn concerned the effects
of industrialization on worker safety and health. Factory system technology lim-
ited worker abilities to protect themselves, but appropriate safety regulations and
worker compensation laws were slow to redress the balance, in part because such
laws were contrary to the interests of captains of industry. Two other examples from
later work are automobiles and nuclear weapons. The mass consumption of cars

1 Acknowledgment: A much earlier version of this reflection grew out of and benefitted from
conversations with Daniel Sarewitz as well as Ned Woodhouse.
32 Carl Mitcham

required the development of traffic regulations, insurance systems, and government


acceptance of responsibility for highway construction. The case of nuclear weapons
is even more dramatic, as articulated by Albert Einstein’s 1946 version of cultural
lag theory: “The unleashed power of the atom has changed everything save our
modes of thinking, and thus we drift toward unparalleled catastrophe.”2
The idea that rapid technological change could be the source of such disorder
was further developed by futurologist Alvin Toffler in “Future Shock”, a concept he
presented as complementary to cultural lag. Cultural lag implicitly criticizes culture
as a problem. Toffler means for future shock to suggest technological change as a
problem. Yet even with Toffler, complaints are mostly voiced in ways that suggest
a need to adjust to the speed of change. Although he raised the idea of moderating
technological change to accommodate limited human response abilities, he also
argued that “The only way to maintain any semblance of equilibrium … will be to
meet invention with invention – to design new personal and social change-regula-
tors”3. The social problems attributed to rapid scientific or technological change
call for human creative flexibility that can support increases in the speed of adjust-
ment. Dealing with technological innovation requires social innovation.
With Toffler and others, technological change or innovation is not something
that always takes place at the same pace. Technological change is virtually syco-
morus with speeding things up. It is difficult to conceive of technological change
that would be compatible with slowing things down.
Indeed, social scientists repeatedly assume that just as the physical sciences
are translated into material culture must we learn to apply the social sciences to
produce social scientific knowledge that enables catch-up cultural change. Speed
of change in social technologies is necessary to balance speed of change in phys-
ical technologies. Social institutions and personal behavior designed for agility in
adjusting to new technologies – from outsourced contracting to life-long learning –
are the name of the world-wide competitive game.

VARIATIONS ON A THEME

Neither Ogburn nor Toffler venture to develop much in the way of quantitative
metrics for technological change. But there are two common approaches. One fo-
cuses on technological outputs and counts numbers of patents over time. Another
looks at increases in some dimension of productivity (GDP, per capita income, per-
sonal consumption index), together with the assumption that technological change
is a major driver of the economy. Techno-optimists such as Julian Simon4 and Ray
Kurzweil5 have developed a host of related versions: Exponential growths in com-

2 Einstein, Albert: Atomic Education Urged by Einstein: Scientists in Plea for $ 200,000 to Pro-
mote New Type of Essential Thinking. New York Times, 25 May 1946, p. 13.
3 Toffler, Alvin: Future Shock. New York 1970. p. 331
4 Moore, Stephen; Simon, Julian L.: It’s Getting Better All the Time: 100 Greatest Trends of the
Last 100 years. Washington, DC, 2000.
5 Kurzweil, Ray: The Singularity Is Near: When Humans Transcend Biology. New York 2006.
Speeding things down 33

puter power and speed, internet users, or internet traffic. (One might note in pass-
ing a parallel growth in instruments for analyzing speed: from the calculus to stop
watches, stop-motion photography, and virtual reality simulations.)
Social or cultural change is much more difficult to assess. Social and quali-
ty-of-life indicators such as those associated with employment, education, public
health and longevity, mental health, family stability, crime, environmental quality,
museum attendance and arts productions, subjective happiness, et al. provide little
direct measurement for any lag tracking technological change. Although it may
well be that when these indicators go negative it reflects a disequilibrium between
new technology and old social or cultural patterns, the correlation rests more on
qualitative than quantitative assessment.
Qualitatively and intuitively it nevertheless remains a reasonable hypothesis
that insofar as social stability is a common good dependent on an appropriate fit
between its different material and non-material elements, disharmonies between
some of them may well be reflected in declines in quality of life. Moreover, whereas
the non-material dimensions of culture such as social habits and traditions exhibit
natural inertias, material dimensions such as science-based technologies exhibit in-
herent change momentums. The social rituals of religion and politics reproduce
more of the same; those of science and technology even more than modern art con-
stitute the culture of the new. More than capitalism, to adapt Joseph Schumpeter’s
famous descriptor, science and technology manifest creative destruction. Historians
of technology have documented how material changes in premodern cultures such
as the stirrup or the draft chimney were experienced in their times as highly disori-
enting. But the accumulation and increasing dominance of these kinds of material
technologies makes socio-cultural lag a more pervasive feature of the present than
of the past.
In terms coined by anthropologist Margaret Mead, traditional cultures with
their relatively stable technologies are pre-figurative. The knowledge of older
members, who have mastered those technologies central to a society, pre-figures
what younger generations need to learn. By contrast, when the central technologies
change, young and old learn together in co-co-figurative culture or have to learn on
their own while elders loose status in a post-figurative social order. As material cul-
ture accumulates and technologically thickens alterations in social power begin to
affect intra-generational relations – and call forth ever more disjunctions and efforts
at responsive structural adjustment. Thus arises what social theorist Daniel Bell has
described as “the cultural contradictions of capitalism”: the difficulty of maintain-
ing either cultural conservatism or political equities in the face of turbo-charged
techno-economic growth. One reason for the increasing replacement in the schools
of lectures by active and collaborative learning exercises may be the simple decline
in relevance of what teachers themselves have previously learned.
By the late 1990s speed began to appear as an ever more explicit theme of social
criticism. Classics professor Stephen Bertman’s “Hyperculture: The Human Cost
of Speed”6 took off from Toffler hyperbolically to blame the accelerating pace of

6 Bertman, Stephen: Hyperculture: The Human Cost of Speed. New York 1998.
34 Carl Mitcham

American life as the source of social disorder, environmental degradation, and an


erosion of the most fundamental humanistic values. In a less rhetorical and more
nuanced manner, sociologist Hartmut Rosa, argued a connection between alienation
and acceleration7, collected texts by others related to the topic8, then presented social
acceleration as a critical theory of late modernity9. Rosa distinguishes accelerations
in technological change, in social change, and in the pace at which individuals lead
their daily lives. This trilogy of accelerations engender what he terms of a “shrinking
of the present”: a diminishing of the time period in which expectations from the
past can reliably serve as guides to future experiences. STS scholar Judy Wajcman’s
“Pressed for Time”10 further explores the pace of life paradox: technologies that
were supposed to give us leisure wind up taking it away from us.

DE-INNOVATION ECONOMICS

Some of the strongest beliefs in the virtues of technological change are economic.
A minority questioning of unfettered technological innovation nevertheless de-
serves brief mention. There are two minority economic criticisms, one much more
radical than the other.
The most radical criticism flys under banners of entropy economics, ecological
economics, and degrowth. The theoretical application of the concept of entropy to
economics was pioneered by Nicholas Georgescu-Roegen11. A version emphasiz-
ing environmental sustainability was independently developed by, among others,
Herman Daly12. But it is the degrowth theory of Serge Latouche that has the strong-
est implications not just for re-directing economic activity but reducing it – and
thereby speeding things down. At the same time, as Latouche admits, “‘De-growth’
is a political slogan with theoretical implications … that is designed to silence the
chatter of those who are addicted to productivism”13. It presents an aspirational
ideal that might be encapsulated in a slogan, “Slow is better.” Slow is better because
it enhances conviviality over production and consumption. Don’t just innovate in
new ways, he might say, de-innovate. Despite efforts to give political muscle to a
political vision, Latouche’s argument remains an impotent imagination.
A less radical but perhaps equally impotent argument has been voiced in re-
sponse to the question “How fast should we innovate?” by a chemist obviously

7 Rosa, Hartmut: Alienation and Acceleration: Towards a Critical Theory of Late-modern Tem-
porality. Aarhus 2010.
8 Rosa, Hartmut; Scheuerman, William E. (Hg.): High-Speed Society: Social Acceleration,
Power, and Modernity. University Park, PA, 2010.
9 Rosa, Hartmut: Social Acceleration: A New Theory of Modernity. New York 2015.
10 Wajcman, Judy: Pressed for Time: The Acceleration of Life in Digital Capitalism. Chicago 2014.
11 Georgescu-Roegen, Nicholas: The Entropy Law and the Economic Process. Cambridge, MA,
1971.
12 Daly, Herman: Economics, Ecology, Ethics: Essays Toward a Steady-State Economy. San
Francisco 1980.
13 Latouche, Serge: Petit traité de la décroissance sereine. Paris 2007. English trans.: Farewell to
Growth. Cambridge, UK, 2009. p. 7.
Speeding things down 35

sensitive to the emerging notions of responsible research and innovation. In the face
of the commonplace belief in the promiscuous promotion of innovation, Thomas
Vogt asks: “[W]hat speed should a particular innovation have? Are there reasons
for us to accelerate or slow down an innovation? … Is fast innovation always bet-
ter?”14 His particular response begins by noting that innovations can make once
abundant resources scare. Prior to certain high-tech electronic developments, the
so-called rare earth minerals were only physically not economically rare. Now that
they physics has become economics, it would seem better to slow down innovation
in some aspects of product development (such as miniaturization) in order to allow
others (such as materials substitution) time to catch up. In many instances, “slower
innovation can be a more efficient process as it allows the exploration of a wider
parameter space and allows sustainable materials compositions to be developed”15.

BEYOND EQUILIBRIUM IN CHANGE

There are two basic reasons why social lag theorists argue for the promotion of so-
cial adaptation to technological change, never mind its speed. One is an assessment
of technological change as mostly good. Another is belief in the inevitability of
such change. Although logically independent, the two beliefs reinforce each other.
Yet insofar as we want to argue that technologies themselves are not independent
variables – that is, against technological determinism and for social construction-
ism – it is worthwhile to consider arguments to the contrary. On occasion it may be
reasonable to pause and at least review criticisms of technological change without
jumping immediately to proposals for social accommodation or economic balance,
and should such criticisms prove even marginally persuasive, to propose ways in
which change might be globally modulated.
Begin with the normative assessment: Is technological change always or on bal-
ance good? There are at least four overlapping arguments against any simple affirm-
ative response: counter productivity, injustice, unhappiness, and reduced intelligence.
After a certain point, increasing technological change readily turns counter-
productive. Consider the example of computer software. The introduction of a new
version of some computer program costs the user money and learning time (and
attention) that must be subtracted from whatever increased utility the new program
is alleged to provide. The immediate widespread adoption of a new program further
requires that a much larger number of persons dedicate time to learning and suffer-
ing the inevitable bugs. Consumer Reports regularly recommends against purchas-
ing the new model of a car its first year on the market precisely for this reason: it
takes a few years to identify and work out the bugs. As the marginal utility of rapid
change decreases, the personal investment required remains much the same. Who
really finds the shrinking life cycle of computers truly worthwhile – or that of smart
phones anything more than a fashion competition?

14 Vogt, Thomas: How Fast Should We Innovate? Journal of Responsible Innovation, 2016,
vol. 3, no. 3, p. 255.
15 ibid, p. 258.
36 Carl Mitcham

Indeed, parallel to those dis-economies of size that have been identified as


boundary conditions to economies of scale, one can postulate inefficiencies of
speed as shadow conditions for acceleration of pace. If a new product is adopted
rapidly by everyone, then the improvements that first users might otherwise experi-
ence from new generation products actually decline in significance.
The original promise of technology was that it would reduce work. It may have
reduced the physical strain of work for those in what Peter Sloterdijk16 calls the
crystal place, but as numerous studies of labor patterns have shown, there has been
little if any reduction in amount. With cells phones and the wireless internet, the for-
ty-hour work week has become an impossible ideal. Through technological change,
including its speed, work has simply changed its character (becoming more mental)
and actually expanded (taking up more time).
Another aspect of counterproductivity is magnified inequality. As Ivan Illich,
Jean Robert, and Jean-Pierre Dupuy have all argued, increased speed in transport
has widened the gap between the speed rich and the speed poor. Those who are able
to buy airplane tickets go faster while those who walk never alter their speed – and
are even slowed down by roads that cut across paths and inconvenienced by multi-
ple ambient invasions (chemical, aural, and visual). More generally, speed capital-
ism increases many different types of inequality and thus raises questions of justice
At its origin, the founders of the American polity proclaimed as a self-evident
truth that all human beings are endowed with a right to the pursuit of happiness.
Does technological change assist in such pursuit? Empirical research on happiness
gives reason to doubt. Psychological studies have questioned whether rising mate-
rial welfare due to technological change is accompanied by increases in subjective
well-being. As reported in a clutch of research – see, e. g., Richard Layard17 and
Jonathan Haidt18 – Americans in the early decades of the 21st century are twice as
wealthy as in the 1950s but report no greater levels of happiness or personal satisfac-
tion. Instead of getting happier as they become wealthier, people tend to get stuck on
a “hedonic treadmill” with expectations rising as fast or faster than incomes.
Humans have remarkable abilities to adapt to new situations over time. One
empirical study discovered that even persons with spinal cord injuries were even-
tually able to adapt emotionally to their new situations to the extent that positive
emotions outweighed negative ones. But happiness studies also suggest that it is
harder to adapt to some experiences than others. Unemployment, for instance, al-
though a necessary concomitant of rapid technological change, leaves more lasting
emotional scars than spinal cord injuries. There are personal cultural lags in adjust-
ing to technological change that may be more difficult to negotiate than social lags.
Technological change, especially in the form of enhanced communication and
computing power is often presumed to increase personal as well as public demo-
cratic intelligence. Here again research raises questions. Technological change mul-

16 Sloterdijk, Peter: Im Weltinnenraum des Kapitals. Für eine philosophische Theorie der Glo-
balisierung. Frankfurt 2005.
17 Layard, Richard: Happiness: Lessons from a New Science. New York 2005.
18 Haidt, Jonathan: The Happiness Hypothesis: Finding Modern Truth in Ancient Wisdom. New
York 2006.
Speeding things down 37

tiplies choices, thus requiring increased decision making. Although initially people
tend to feel better when given options to choose among, after a certain point the
positive benefits quickly disappear. Counter productivity becomes compounded by
irrationality. Faced with the need to choose between large numbers of options, peo-
ple often opt out. At the supermarket, a shopper faced with multiple product choices
has a strong tendency simply to go buy something else. When choice becomes
necessary, as when some cereal has to be purchased, shoppers resort to simple and
even irrational rules (which is why advertising works).
In one analogous empirical study, researchers offered students either thirty or
six options for an extra credit essay on an exam; Those presented with thirty options
were less likely to choose to do the extra credit essay, and when they did so the
essays produced were of inferior quality. It has also been established that beyond
a certain point increases in information about patients reduces the ability of physi-
cians to make accurate diagnoses.
More generally, speed can slow down both personal and social learning. The
simple fact is that one needs time to discover and reflect. A rush to judgment is
often a rush to mis-judgment. Here the “dromology” of French social critic Paul Vi-
rilio (if one digs beneath his oracular prose) has important things to say.19 Virilio’s
analysis of speed in politics points toward tendencies of speed in communications
(the news cycle via the electronic media) to create a real-time politics that inhibits
reflection and reduces social intelligence.

COULD SECOND BEST BE BEST?

Imagine then (if only for a moment) that speeding things up might not always be
beneficial. Is it even possible to speed things down? The most popular argument
against attempting to delimit the speed of scientific research or technological in-
vention and innovation is that if we do not innovate someone else will – and that
the only way to maintain any competitive advantage and dominance in the global
economic system is to maintain and even increase an existing rate of technological
change. The technological system has a dynamism all its own, and if we decline to
serve as its carrier then someone else will – to our detriment.
But what if second (or even third or fourth) best is really best? Who wants to
be on the front lines of a military attack? Even in races, it is often the second or
third person for most of the course who is able to be the first to sprint over a finish
line. We establish procedural boundaries such as those of free and informed consent
for human subjects in scientific research and set speed limits on roads in order to
promote the common good. The slow food and slow cities movements are actually
carving out their own competitive advantages. Why not look for ways to modulate
the rates of technological change?
Among science and technology policy analysts, political scientist Edward
Woodhouse has for more than thirty years argued for and considered practical pol-

19 Virilio, Paul: Vitesse et Politique. Paris 1977.


38 Carl Mitcham

icies for moving in this direction. In a critical commentary on Vogt’s much more
restricted argument for modulating speed in the innovative use of scarce resources,
Woodhouse seeks expand the reflective possibility space with two interrelated
re-framing moves: shift from personal experiences to what goes on in social-politi-
cal institutions and away from “we-talk”. It is not “we” who innovate but corpora-
tions. “Given that a majority of the world’s population has little to say over how fast
the technology revolutionaries move, it is misleading to deploy careless collective
nouns and pronouns that obscure lack of agency”.20
Carelessness becomes especially salient when consider democratic political in-
telligence. Intelligence democratic decision making depends on social trial-and-er-
ror learning, which is turn requires a slow enough pace to actually become aware
of outcomes and greater diversity of stakeholder engagements. Rapidly of tech-
nological change cannot help but hide defects in the haze. Fast driving blurs the
countryside. As Woodhouse summarizes, “rapid pace is the enemy of intelligent
trial-and-error learning both for specific technoscientific endeavors and for the
overall pace of change”21. Although in the context of techno-capitalist momentum
it is difficult to imagine what might actually be done to moderate our headlong rush
into the (questionable) future, Woodhouse ventures three modest proposals: limit
the government funding of innovation, reduce automatic tax write offs for innova-
tion investments, and broaden peer review criteria for what government innovation
funding continues. Any mechanisms for the social consideration of invention and
innovation prior to market introductions, the auctioning of technological licenses,
and the strengthening of corporate legal liabilities for negative outcomes would be
positive actions that could potentially speed things down.
Beyond such modest ideas, one might further propose revamping a global trade
system that promotes international technological competition by formulating pol-
icies to redistribute income and wealth, and question socio-religious assumptions
about technological progress. “If no manufacturer, government regulator, or con-
sumer would find acceptable an automobile without brakes, should a member of
technological civilization endorse an innovation system that lacks institutions for
slowing the pace of change when it becomes excessive?”22
The bottom line is that politicians and the public are not wholly impotent with
regard to the modulation of technological change. But we have to be convinced
that such modulation is on occasion more rational than simply accepting the social
dislocations of such change or promoting cultural lag catch up. At the very least,
the promotion of research and education on such questions is a worthy policy goal –
one that can only enhance interdisciplinary knowledge about the circumstances un-
der which we live, even among those who wind up concluding more of the same is
as good as it gets.

20 Woodhouse, Edward J.: Slowing the Pace of Technological Change? Journal of Responsible
Innovation, 2016, vol. 3, no. 3, p. 267.
21 ibid, p. 269.
22 Ibid, p. 271.
Speeding things down 39

LITERATURE

Reflecting its character as an informal essay rather than a scholarly research paper,
references are selective.
Bell, Daniel: The Cultural Contradictions of Capitalism. New York 1976.
Bertman, Stephen: Hyperculture: The Human Cost of Speed. New York 1998.
Daly, Herman: Economics, Ecology, Ethics: Essays Toward a Steady-State Economy. San Francisco
1980.
Dupuy, Jean-Pierre; Robert, Jean: La trahison de l’opulence. Paris 1976.
Einstein, Albert: Atomic Education Urged by Einstein: Scientists in Plea for $ 200,000 to Promote
New Type of Essential Thinking. New York Times, 25 May 1946, p. 13.
Georgescu-Roegen, Nicholas: The Entropy Law and the Economic Process. Cambridge, MA, 1971.
Haidt, Jonathan: The Happiness Hypothesis: Finding Modern Truth in Ancient Wisdom. New York
2006.
Illich, Ivan: Energy and Equity. New York 1976.
Kurzweil, Ray: The Singularity Is Near: When Humans Transcend Biology. New York 2006.
Latouche, Serge: Petit traité de la décroissance sereine. Paris 2007. English trans.: Farewell to
Growth. Cambridge, UK, 2009.
Layard, Richard: Happiness: Lessons from a New Science. New York 2005.
Mead, Margaret: Culture and Commitment: A Study of the Generation Gap. New York 1970.
Moore, Stephen; Simon, Julian L.: It’s Getting Better All the Time: 100 Greatest Trends of the Last
100 years. Washington, DC, 2000.
Ogburn, William Fielding: Social Change with Respect to Culture and Original Nature. New York
1922.
Rosa, Hartmut: Alienation and Acceleration: Towards a Critical Theory of Late-modern Temporal-
ity. Aarhus 2010.
Rosa, Hartmut: Social Acceleration: A New Theory of Modernity. New York 2015.
Rosa, Hartmut; Scheuerman, William E. (Hg.): High-Speed Society: Social Acceleration, Power,
and Modernity. University Park, PA, 2010.
Sloterdijk, Peter: Im Weltinnenraum des Kapitals. Für eine philosophische Theorie der Globalisi-
erung. Frankfurt 2005.
Toffler, Alvin: Future Shock. New York 1970.
Virilio, Paul: Vitesse et Politique. Paris 1977.
Vogt, Thomas: How Fast Should We Innovate? Journal of Responsible Innovation, 2016, vol. 3, no.
3, pp. 255–259.
Wajcman, Judy: Pressed for Time: The Acceleration of Life in Digital Capitalism. Chicago 2014.
Woodhouse, Edward J.: Slowing the Pace of Technological Change? Journal of Responsible Innova-
tion, 2016, vol. 3, no. 3, pp. 266–273.
DIE BERECHENBARKEIT VON TECHNIK
UND WISSENSCHAFT
Von komplexen Systemen zur Digitalisierung und künstlichen Intelligenz

Klaus Mainzer

Klaus Kornwachs traf ich zum ersten Mal 1997 in der Villa Vigoni am Comer See
anlässlich einer Konferenz über „Interdisciplinary Approaches to a New Under-
standing of Cognition and Consciousness“, die von Valentino Braitenberg und
Franz Josef Radermacher organisiert war.1 Damals waren wir beide 50 Jahre alt.
Wir hatten damals schon Ideen zur interdisziplinären Grundlagenforschung und
Technikphilosophie, die heute genau 20 Jahre später angesichts exponentiell wach-
sender Computer- und Informationstechnologie dramatische Aktualität erhalten.

1 GRUNDLAGEN DES DIGITALEN ZEITALTERS

Als Carl Friedrich von Weizsäcker (1912–2007) im 20. Jahrhundert über die Grund-
lagen von Physik und Philosophie nachdachte, stand die Welt unter dem Eindruck
von Kernwaffen und Kernenergietechnik. Die Verantwortung des Naturwissen-
schaftlers und Ingenieurs in der globalisierten Welt wurde erstmals zu einem zen-
tralen Thema. Weizsäcker erkannte aber, dass man zu kurz springt, wenn man sich
nur auf die Tagespolitik einlässt. Tatsächlich hing damals die Veränderung der Welt
mit grundsätzlichen Umwälzungen des physikalischen Weltbilds zusammen, deren
physikalischen und philosophischen Grundlagen aufgearbeitet werden mussten.
Im 21. Jahrhundert ist die Digitalisierung eine globale Herausforderung der
Menschheit. Spätestens seit Data Mining und Big Data ist der Öffentlichkeit klar,
wie sehr unsere Welt von Daten und Algorithmen beherrscht wird. Umgekehrt
ist aber auch klar, dass ohne Digitalisierungstechnik die Komplexität moderner
Gesellschaften nicht mehr zu bewältigen wäre. Wie berechenbar ist aber diese
komplexe Welt? Manche glauben, dass es nur noch auf schnelle Algorithmen an-
kommt, um Lösungen von Problemen in Technik und Wirtschaft zu finden. Selbst
in der Ausbildung geht es häufig nur noch um „Business-Modelle“ und den schnel-
len wirtschaftlichen Profit. Bereits die Finanz- und Weltwirtschaftskrise von 2008
(die jederzeit wieder eintreten könnte) hing wesentlich mit falsch verstandenen
Grundlagen und Voraussetzungen von mathematischen Modellen und Algorith-
men zusammen.

1 Braitenberg, Valentino; Radermacher, Franz Josef (Hg.): Interdisciplinary Approaches to a


New Understanding of Cognition and Consciousness. Ergebnisband Villa Vigoni Konferenz,
Italy 1997. Ulm 2007.
42 Klaus Mainzer

Gefährlich wird es besonders dann, wenn wir uns blind auf Algorithmen wie
Kochrezepte verlassen, ohne ihre theoretischen Grundlagen und Anwendungs- und
Randbedingungen zu kennen. Nur wer die Theorie kennt, kann allgemeingültige
Sätze und Theoreme über die Leistungsfähigkeit und Grenzen dieser Algorithmen
und Computertechnik beweisen. Erst solche „Metatheoreme“ garantieren Verläss-
lichkeit und Korrektheit. Im „theoriefreien“ Raum des Probierens befinden wir uns
im Blind-, bestenfalls Sichtflug. Von Heidegger2 (Heidegger 1954) stammt die sar-
kastische Äußerung: „Die Wissenschaft denkt nicht.“ Erst recht gilt für ihn dieses
Diktum in der Technik. Wie immer man seine verkürzten Zuspitzungen bewerten
mag: Statt Heideggers „Seinsvergessenheit“ in Wissenschaft und Technik wäre in
diesem Fall ihre „Theorievergessenheit“ zu beklagen. Wenn auch noch das „post-
faktische“ Zeitalter ausgerufen wird, in dem Fakten und Beweise durch Stimmun-
gen und Gefühle ersetzt werden, ist Wissenschaft vollends im Niedergang.
Chancen und Risiken der Digitalisierungstechnik werden in der Öffentlich-
keit häufig deshalb falsch eingeschätzt, weil die Grundlagen der Algorithmen
nicht berücksichtigt werden. Sie sind in der modernen Logik, Mathematik, In-
formatik und Philosophie tief verwurzelt.3 Historisch entstand die Theorie der
Algorithmen und Berechenbarkeit (und damit die Informatik) aus der Grundla-
gendiskussion von Logik, Mathematik und Philosophie seit Anfang des letzten
Jahrhunderts. Seit der Antike wird die Wahrheit mathematischer Sätze durch lo-
gische Beweise in Axiomensystemen begründet. Logisch-axiomatische Beweise
wurden zum Vorbild in Wissenschaft und Philosophie. Im 20. Jahrhundert stellte
sich die Frage, ob die Wahrheiten einer Theorie durch Formalisierung vollstän-
dig, korrekt und widerspruchsfrei erfasst werden können. Große Logiker, Ma-
thematiker und Philosophen des 20. Jahrhunderts (z. B. Hilbert, Gödel, Turing)
zeigten erste Möglichkeiten und Grenzen der Formalisierung auf. Aus forma-
len Beweisen lassen sich unter bestimmten Voraussetzungen Algorithmen bzw.
Computerprogramme gewinnen, die von Rechenmaschinen ausgeführt werden
können. So lässt sich maschinell überprüfen, ob ein Beweis korrekt und wider-
spruchsfrei ausführbar ist.
Diese Einsichten der mathematischen Beweistheorie haben in der Informa-
tik praktische Folgen. Informatik ist nämlich, wie Friedrich L. Bauer, einer der
Münchner Begründer der Informatik in Deutschland, bemerkte, eine „Geistes-
Ingenieurwissenschaft“4: Statt formaler Theorien und Beweise in der Mathematik
werden dort formale Modelle von Prozessabläufen z. B. in der Industrie untersucht.
Um Unfälle und erhebliche Mehrkosten bei Fehlern zu vermeiden, sollte vorher
überprüft und bewiesen werden, ob die Prozessabläufe korrekt und zuverlässig aus-
führbar sind. Wegen der steigenden Datenmassen und Komplexität der Prozessab-
läufe werden solche Untersuchungen immer dringender, damit uns am Ende die
Algorithmenwelt nicht aus dem Ruder läuft.
Die Grundlagen der mathematischen Beweistheorie, Algorithmen, Computer-
programme und ihre philosophischen Wurzeln sind daher ein dringendes Desiderat

2 Heidegger, Martin: Was heißt Denken? Tübingen 1954.


3 Mainzer, Klaus: Die Berechenbarkeit der Welt. Von der Weltformel zu Big Data. München 2014.
4 Bauer, Friedrich L.: Was heißt und was ist Informatik? In: IBM 223, 1974, S. 334.
Die Berechenbarkeit von Technik und Wissenschaft 43

der Ditalisierungstechnik: Wie lassen sich aus Beweisen Computerprogramme ge-


winnen („proof mining“), die automatisch die Korrektheit und Zuverlässigkeit der
Beweise bzw. Computerprogramme garantieren? Wie lassen sich die Algorithmen
in der Finanzwelt konstruktiv sichern? Wieweit ist das überhaupt bei steigender
Komplexität der Probleme und Beweise möglich? Hierbei geht es nicht nur um die
erwähnten praktischen Konsequenzen, sondern auch um grundliegende erkennt-
nistheoretische Fragen: Computerprogramme sind Beispiele von konstruktiven
Verfahren. Seit Anfang des letzten Jahrhunderts wird in Philosophie und mathema-
tischer Grundlagenforschung darüber nachgedacht, ob oder bis zu welchem Grad
Mathematik auf konstruktive Verfahren und damit kontrollierbare Algorithmen re-
duzierbar ist.

2 VON DER GRUNDLAGENFORSCHUNG ZU KOMPLEXEN SYSTEMEN


IN NATUR, TECHNIK UND GESELLSCHAFT

Die methodischen Grundlagen und interdisziplinären Bezüge der Digitalisierung


sind daher ausgehend von Logik und mathematischer Grundlagenforschung zu un-
tersuchen. Dabei spielt heute die Frage nach der Berechenbarkeit komplexer Sys-
teme in Natur, Technik und Gesellschaft eine zentrale Rolle. Fachübergreifende
Modelle für komplexe dynamische Systeme in Natur, Technik und Gesellschaft
liefert die mathematische Systemtheorie. Sie beschäftigt sich fachübergreifend in
Physik, Chemie, Biologie und Ökologie mit der Frage, wie durch die Wechselwir-
kungen vieler Elemente eines komplexen dynamischen Systems (z. B. Atome in
Materialien, Biomoleküle in Zellen, Zellen in Organismen, Organismen in Popula-
tionen) Ordnungen und Strukturen entstehen können, aber auch Chaos und Zerfall.
Allgemein wird in dynamischen Systemen die zeitliche Veränderung ihrer Zu-
stände durch Gleichungen beschrieben. Der Bewegungszustand eines einzelnen
Himmelskörpers lässt sich noch nach den Gesetzen der klassischen Physik genau
berechnen und voraussagen. Bei Millionen und Milliarden von Molekülen, von de-
nen der Zustand einer Zelle abhängt, muss auf Hochleistungscomputer zurückge-
griffen werden, die Annäherungen in Simulationsmodellen liefern. Komplexe dy-
namische Systeme gehorchen aber fachübergreifend in Physik, Chemie, Biologie
und Ökologie denselben oder ähnlichen mathematischen Gesetzen.5
Die universellen Gesetze komplexer dynamischer Systeme sind der Rahmen
für weitere Forschung. Die Grundidee ist immer dieselbe: Erst die komplexen
Wechselwirkungen von vielen Elementen erzeugen neue Eigenschaften des Ge-
samtsystems, die nicht auf einzelne Elemente zurückführbar sind. So ist ein ein-
zelnes Wassermolekül nicht „feucht“, aber eine Flüssigkeit durch die Wechselwir-
kungen vieler solcher Elemente. Einzelne Moleküle „leben“ nicht, aber eine Zelle
aufgrund ihrer Wechselwirkungen. In der Systembiologie ermöglichen die kom-
plexen chemischen Reaktionen von vielen einzelnen Molekülen die Stoffwech-

5 vgl. Haken, Hermann: Synergetics. An Introduction. Berlin 1983(3) sowie Mainzer, Klaus:
Thinking in Complexity. The Computational Dynamics of Matter, Mind, and Mankind. New
York 2007(5).
44 Klaus Mainzer

selfunktionen und Regulationsaufgaben von ganzen Proteinsystemen und Zellen


im menschlichen Körper. Wir unterscheiden daher bei komplexen dynamischen
Systemen die Mikroebene der einzelnen Elemente von der Makroebene ihrer Sys-
temeigenschaften. Diese Emergenz oder Selbstorganisation von neuen Systemei-
genschaften wird in Computermodellen simulierbar.
Allgemein stellen wir uns ein räumliches System aus identischen Elementen
(„Zellen“) vor, die miteinander in unterschiedlicher Weise (z. B. physikalisch, che-
misch oder biologisch) wechselwirken können. Ein solches System heißt komplex,
wenn es aus homogenen Anfangsbedingungen nicht-homogene („komplexe“) Mus-
ter und Strukturen erzeugen kann. Diese Muster- und Strukturbildung wird durch
lokale Aktivität ihrer Elemente ausgelöst. Das gilt nicht nur für Stammzellen beim
Wachstum eines Embryos, sondern auch z. B. für Transistoren in elektronischen
Netzen. Wir nennen in der Elektrotechnik einen Transistor lokal aktiv, wenn er ei-
nen kleinen Signalinput aus der Energiequelle einer Batterie zu einem größeren Si-
gnaloutput verstärken kann, um damit nicht-homogene („komplexe“) Spannungs-
muster in Schaltnetzen zu erzeugen.
Keine Radios, Fernseher oder Computer wären ohne die lokale Aktivität sol-
cher Einheiten funktionstüchtig. Bedeutende Forscher wie die Nobelpreisträger
Ilya Prigogine (Chemie) und Erwin Schrödinger (Physik) waren noch der Auf-
fassung, dass für Struktur- und Musterbildung ein nichtlineares System und eine
Energiequelle ausreichen. Bereits das Beispiel der Transistoren zeigt aber, dass
Batterien und nichtlineare Schaltelemente alleine keine komplexen Muster erzeu-
gen können, wenn die Elemente nicht lokal aktiv im Sinne der beschriebenen Ver-
stärkerfunktion sind.
Das Prinzip der lokalen Aktivität hat grundlegende Bedeutung für Muster-
bildung komplexer Systeme und wurde bisher weitgehend nicht erkannt. Eine
Ausnahme ist der geniale Logiker und Computerpionier Alan M. Turing (1912–
1954), der sich kurz vor seinem tragischen Tod mit Struktur- und Musterbildung
in der Natur beschäftigt hatte.6 Musterbildung konnte von uns allgemein mathe-
matisch definiert werden, ohne auf spezielle Beispiele aus Physik, Chemie, Bio-
logie oder Technik Bezug zu nehmen.7 Dabei beziehen wir uns auf nichtlineare
Differentialgleichungen, wie sie von Reaktions-Diffusionsprozessen bekannt
sind. Anschaulich stellen wir uns ein räumliches Gitter vor, dessen Gitterpunkte
mit Zellen besetzt sind, die lokal wechselwirken. Jede Zelle (z. B. Protein in einer
Zelle, Neuron im Gehirn, Transistor im Computer) ist mathematisch betrachtet
ein dynamisches System mit Input und Output. Ein Zellzustand entwickelt sich
lokal nach dynamischen Gesetzen in Abhängigkeit von der Verteilung benach-
barter Zellzustände. Zusammengefasst werden die dynamischen Gesetze durch
die Zustandsgleichungen isolierter Zellen und ihrer Kopplungsgesetze definiert.
Zusätzlich sind bei der Dynamik Anfangs- und Nebenbedingungen zu berück-
sichtigen.

6 Turing, Alan M.: The chemical basis of morphogenesis. In: Philosophical Transactions of the
Royal Society. London, Series B, 237, 1952, S. 37–72.
7 Mainzer, Klaus; Chua, Leon: Local Activity Principle. London 2013.
Die Berechenbarkeit von Technik und Wissenschaft 45

Allgemein heißt eine Zelle lokal aktiv, wenn an einem zellulären Gleichge-
wichtspunkt ein kleiner lokaler Input existiert, der mit einer externen Energiequelle
zu einem großen Output verstärkt werden kann. Die Existenz eines solchen Inputs,
der lokale Aktivität auslöst, kann mathematisch durch bestimmte Testkriterien sys-
tematisch geprüft werden. Eine Zelle heißt lokal passiv, wenn es keinen Gleichge-
wichtspunkt mit lokaler Aktivität gibt. Das fundamental Neue an diesem Ansatz ist
der Beweis, dass Systeme ohne lokal aktive Elemente prinzipiell keine komplexen
Strukturen und Muster erzeugen können.
Neu ist auch der mathematische Beweis, dass nicht nur lokal aktive und in-
stabile Zustände Veränderungen auslösen. Es ist zunächst aus dem Alltag intuitiv
einleuchtend, dass z. B. eine instabile politische Situation einer Revolution und
Gesellschaftsveränderung vorausgehen muss. Bereits Turing hatte aber wenigstens
für einfache Fälle gezeigt, dass auch stabile Systeme, wenn sie dissipativ gekop-
pelt werden, neue Strukturbildungen auslösen können. In diesem Fall sind stabile
Zustände quasi wie „tote“ chemische Substanzen, die durch geeignete dissipative
Wechselwirkung „zum Leben erweckt“ werden. Wir sprechen dann von lokal ak-
tiven, aber asymptotisch stabilen Zuständen, die „am Rand des Chaos“ (edge of
chaos) ruhen. Sie wurden z. B. von Prigogine nicht berücksichtigt.8
Strukturbildung in der Natur lässt sich mathematisch systematisch klassifizie-
ren, indem Anwendungsgebiete durch Reaktions-Diffusionsgleichungen nach den
eben beschriebenen Kriterien modelliert werden. So haben wir z. B. die entspre-
chenden Differentialgleichungen für Musterbildung in der Chemie (z. B. Muster-
bildung in homogenen chemischen Medien), in der Morphogenese (z. B. Muster-
bildung von Muschelschalen, Fellen und Gefieder in der Zoologie), in der Gehirn-
forschung (Verschaltungsmuster im Gehirn) und elektronischen Netztechnik (z. B.
Verschaltungsmuster in Computern) untersucht.
Strukturbildungen entsprechen mathematisch nicht-homogenen Lösungen der
betrachteten Differentialgleichungen, die von unterschiedlichen Kontrollparame-
tern (z. B. chemischen Stoffkonzentrationen, ATP-Energie in Zellen, neurochemi-
schen Botenstoffen von Neuronen) abhängen. Für die betrachteten Beispiele von
Differentialgleichungen konnten wir systematisch die Parameterräume definieren,
deren Punkte alle möglichen Kontrollparameterwerte des jeweiligen Systems re-
präsentieren. In diesen Parameterräumen lassen sich dann mit den erwähnten Test-
kriterien die Regionen lokaler Aktivität und lokaler Passivität genau bestimmen,
die entweder Strukturbildung ermöglichen oder prinzipiell davon ausgeschlossen
sind. Mit Computersimulationen lassen sich für jeden Punkt im Parameterraum die
möglichen Struktur- und Musterbildungen erzeugen. In diesem mathematischen
Modellrahmen lässt sich also Struktur- und Musterbildung vollständig bestimmen
und voraussagen.
Manche Systemeigenschaften sind der jeweiligen Systemumgebung ange-
passt und setzen sich durch, andere zerfallen wieder und werden ausgesondert.
Dieses Zusammenspiel von Zufall und Selektion bei der Entstehung von neuen
Strukturen wurde erstmals von Charles Darwin am Beispiel der biologischen

8 Prigogine, Ilya: From Being to Becoming. San Francisco 1980.


46 Klaus Mainzer

Evolution der Arten entdeckt. Es handelt sich aber um universelle Eigenschaften


komplexer dynamischer Systeme, die daher auch in technischen Systemen An-
wendung finden können.
Das menschliche Gehirn ist wieder ein Beispiel für ein komplexes dynamisches
System, in dem Milliarden von Neuronen neurochemisch wechselwirken. Durch
vielfach versendete elektrische Impulse entstehen komplexe Schaltmuster, die mit
kognitiven Zuständen wie Denken, Fühlen, Wahrnehmen oder Handeln verbunden
sind. Die Entstehung (Emergenz) dieser mentalen Zustände ist wieder ein typisches
Beispiel für die Selbstorganisation eines komplexen Systems: Das einzelne Neuron
ist quasi „dumm“ und kann weder denken oder fühlen noch wahrnehmen. Erst ihre
kollektiven Wechselwirkungen und Verschaltungen unter geeigneten Bedingungen
erzeugen kognitive Zustände.
Auch das Internet ist ein komplexes System von Netzknoten, die sich zu Mus-
tern verschalten können. Wie im Straßenverkehr kann es bei kritischen Kontrollpa-
rametern (z. B. Datendichte, Übertragungskapazität) zu Datenstau und Datenchaos
kommen.9 Mathematisch handelt es sich bei diesen Netzen um komplexe Systeme
mit nichtlinearer Dynamik, wie wir sie bereits schon bei Zellen, Organismen und
Gehirnen kennengelernt haben. Die nichtlinearen Nebenwirkungen dieser komple-
xen Systeme können global häufig nicht mehr kontrolliert werden. Lokale Ursa-
chen können sich aufgrund nichtlinearer Wechselwirkungen zu unvorhergesehe-
nen globalen Wirkungen aufschaukeln. Man spricht daher auch von systemischen
Risiken, die keine einzeln identifizierbaren Verursacher haben, sondern durch die
Systemdynamik insgesamt ermöglicht werden.
Unsere Technologie wird autonomer, um die Aufgaben einer zunehmend
komplexer werdenden Zivilisation zu lösen. Die dafür notwendigen Organisati-
onssysteme können einzelne Menschen nicht mehr durchschauen. Die Kehrseite
der zunehmenden Autonomie von Technik ist allerdings die schwieriger werdende
Kontrolle: Maschinen und Geräte wurden in den Ingenieurwissenschaften immer
mit der Absicht entwickelt, sie auch kontrollieren zu können. Wie lassen sich aber
systemische Risiken komplexer Systeme vermeiden?
Ein Blick auf die Evolution zeigt, dass sich dort autonome Selbstorganisation
und Kontrolle ergänzt haben. Bei Krankheiten wie Krebs wird dieses Gleichge-
wicht gestört: Ein Krebsgeschwulst ist ein selbstorganisierender Organismus, der
eigene Interessen entwickelt und sozusagen um sein Überleben kämpft, aber nicht
überblickt, dass sein eigener Wirtsorganismus daran zugrunde geht. Komplexe Sys-
teme brauchen also Kontrollmechanismen, um Balance zu finden – in Organismen,
Finanzmärkten und der Politik. Diese Megasysteme aus Mikro- und Makrowelten
entwickeln ihre eigene nichtlineare Dynamik. Sie werden zunehmend eine Heraus-
forderung für die menschliche Governance, damit uns die soziotechnischen Super-
organismen nicht aus dem Ruder laufen.

9 Mayinger, Franz (Hg.): Mobility and Traffic in the 21st Century. Berlin 2001.
Die Berechenbarkeit von Technik und Wissenschaft 47

3 VON KOMPLEXEN SYSTEMEN ZUR


KÜNSTLICHEN INTELLIGENZ

Wie lassen sich komplexe Systeme berechnen? Dazu müssen wir uns über die
Grundlagen des Berechenbarkeitsbegriffs klar werden. Mit der Turing-Maschine
wurde 1936 ein theoretischer Prototyp für Berechenbarkeit und Entscheidbarkeit
von Problemen definiert.10 Turing veranschaulichte seine Definition durch ein Re-
chenband, das in Arbeitsfelder eingeteilt ist, die mit Symbolen eines endlichen Al-
phabets (z. B. 0 und 1 als Bits) bedruckt werden können. Das Rechenband soll nach
beiden Seiten nach Bedarf verlängerbar sein, was der Annahme eines im Prinzip
unbegrenzten Speichers entspricht. Das Band kann von einem Lese- und Schreib-
kopf ein Feld nach links und nach rechts verschoben werden. Zudem gibt es einen
Stoppbefehl, wenn das Programm beendet ist. Das Erstaunliche ist, dass bis heute
jeder Laptop, jeder Supercomputer und jedes Smartphone durch Turing-Maschinen
simuliert werden kann. Nach einer These von Alonzo Church ist daher jeder Algo-
rithmus bzw. jedes Computerprogramm durch eine Turing-Maschine simulierbar.
Diese sogenannte Churchsche These ist das einzige Axiom, das die Informatik zu-
sätzlich zu den übrigen Axiomen der Mathematik benötigt. Darauf baut theoretisch
die gesamte Digitalisierung auf.
Ein Problem heißt Turing-entscheidbar, wenn seine Lösung durch eine Tu-
ring-Maschine (bzw. nach der Churchsche These durch einen äquivalenten tech-
nischen Computer) berechnet werden kann. Um aber Prozesse dynamischer Sys-
teme zu erfassen, müssen Komplexitätsgrade der Turing-Berechenbarkeit unter-
sucht werden. Komplexitätsgrade berücksichtigen z. B. die zeitliche Länge, den
benötigten Speicherplatz und in der Technik auch den Energieaufwand. Es ist
offensichtlich, dass die Komplexitätstheorie eine erhebliche technisch-ökonomi-
sche Bedeutung hat. Auf den Grundlagen von Algorithmen und komplexen dyna-
mischen Systemen bauen, wie im Folgenden deutlich wird, Robotik und künstli-
che Intelligenz auf.
Künstliche Intelligenz (KI) beherrscht längst unser Leben, ohne dass es vielen
bewusst ist. Smartphones, die mit uns sprechen, Armbanduhren, die unsere Ge-
sundheitsdaten aufzeichnen, Arbeitsabläufe, die sich automatisch organisieren, Au-
tos, Flugzeuge und Drohnen, die sich selbst steuern, Verkehrs- und Energiesysteme
mit autonomer Logistik oder Roboter, die ferne Planeten erkunden, sind technische
Beispiele einer vernetzten Welt intelligenter Systeme. Sie zeigen uns, wie unser
Alltag von KI-Funktionen bestimmt ist.
Turing definierte 1950 in dem nach ihm benannten Test ein System dann als in-
telligent, wenn es in seinen Antworten und Reaktionen nicht von einem Menschen
zu unterscheiden ist.11 Der Nachteil dieser Definition ist, dass der Mensch zum
Maßstab gemacht wird.

10 Turing, Alan M.: On computable numbers, with an application to the Entscheidungsproblem.


In: Proceedings of the London Mathematical Society. 2 42, 1937, S. 230–265, Korrektur dazu
43, 1937, S. 544–546.
11 Turing, Alan M.: Computing Machinery and Intelligence. In: Mind. Bd. LIX, Nr. 236, 1950,
S. 433–460.
48 Klaus Mainzer

Auch biologische Organismen sind nämlich Beispiele von intelligenten Sys-


temen, die wie der Mensch in der Evolution mehr oder weniger zufällig entstan-
den und mehr oder weniger selbstständig Probleme effizient lösen können. Dass
unser Organismus mit seinen Muskeln, Sensoren und Gehirn, aber auch mit un-
serem Denken und Fühlen so ist, wie er ist, ergibt sich keineswegs notwendig.
Aus Computerexperimenten wissen wir, dass nur bei leichten Veränderungen der
Anfangs- und Nebenbedingungen auf dieser Erde die Evolution nicht noch einmal
so ablaufen würde, wie wir sie heute kennen. Es gibt also gesetzmäßig mögliche
Entwicklungsbäume, von denen die biologische Evolution auf unserer Erde nur
einige ausprobiert hat.
Gelegentlich ist die Natur zwar Vorbild für technische Entwicklungen (z. B. in
der Bionik). Häufig finden Informatik und Ingenieurwissenschaften jedoch Lösun-
gen, die anders und sogar besser und effizienter sind als in der Natur. Es gibt also
nicht „die“ Intelligenz, sondern Grade effizienter und automatisierter Problemlö-
sungen, die von technischen oder natürlichen Systemen realisiert werden können.
Daher nenne ich (in einer vorläufigen Arbeitsdefinition) ein System dann in-
telligent, wenn es selbstständig und effizient Probleme lösen kann.12 Der Grad der
Intelligenz hängt vom Grad der Selbstständigkeit des problemlösenden Systems,
dem Grad der Komplexität des Problems und dem Grad der Effizienz des Pro-
blemlösungsverfahrens ab – und diese Kriterien können wir messen. Bewusstsein
und Gefühle wie bei Tieren (und Menschen) gehören danach nicht notwendig zu
Intelligenz.
Hinter dieser Definition steht die Welt lernfähiger Algorithmen, die mit expo-
nentiell wachsender technischer Rechenkapazität (nach dem Mooreschen Gesetz)
immer leistungsfähiger werden. Sie steuern die Prozesse einer vernetzten Welt im
Internet der Dinge. Ohne sie wäre die Datenflut nicht zu bewältigen, die durch Mil-
liarden von Sensoren und vernetzten Geräten erzeugt werden. Auch Forschung und
Medizin benutzen zunehmend intelligente Algorithmen, um in einer wachsenden
Flut von Messdaten neue Gesetze und Erkenntnisse zu entdecken.
Vor einigen Jahren schlug der Superrechner „Deep Blue“ von IBM menschli-
che Champions in Schach, kurz darauf „Watson“ in einem sprachlichen Frage- und
Antwortwettbewerb. In beiden Fällen war der Supercomputer im Sinn der Church-
schen These eine Art Turing-Maschine. Im Fall von „Watson“ zerlegen parallel
arbeitende linguistische Algorithmen eine Frage in ihre Teilphrasen, um die Wahr-
scheinlichkeit möglicher Antwortmuster zu berechnen. Dabei wird allerdings ein
gigantischer Speicher („Gedächtnis“) benutzt, den das menschliche Gehirn nicht
realisieren kann – wie etwa das gesamte Internet.
2016 wartete „Google“ mit der Software „AlphaGo“ und einem Supercompu-
ter auf, der menschliche Champions im Bettspiel „Go“ schlug. Daran ist nicht nur
bemerkenswert, dass Go wesentlich komplexer als Schach ist. Hier kamen zum ers-
ten Mal Lernalgorithmen (machine learning) nach dem Vorbild des menschlichen
Gehirns zum Einsatz, die den Durchbruch ermöglichten. Genauer gesagt handelt es

12 Mainzer, Klaus: Information. Algorithmus – Wahrscheinlichkeit – Komplexität – Quanten-


welt – Leben – Gehirn – Gesellschaft. Berlin 2016.
Die Berechenbarkeit von Technik und Wissenschaft 49

sich um verstärkendes Lernen (reinforcement learning), das aus der Robotik und
den Ingenieurwissenschaften wohlbekannt ist13: Das System erhält beim Problem-
lösen in festen Zeitintervallen Rückmeldungen (rewards), wie gut oder wie schlecht
es dabei ist, ein Problem zu lösen. Das System versucht dann seine Strategie zu opti-
mieren. Im Fall von Go wurden nur die einfachen Grundregeln programmiert. Nach
ersten verlorenen Spielen, trainierte das System quasi über Nacht mit Tausenden
von Spielen, die es blitzschnell gegen sich selber spielte. Damit hatte es schließlich
eine Spielerfahrung angesammelt, von der selbst die „Google“-Programmierer von
„AlphaGo“ überrascht waren.
Noch einen Schritt weiter geht 2017 ein Superrechner der Carnegie-Mellon
University mit der Software „Poker-Libratus“. Poker wurde immer als uneinnehm-
bare Festung menschlicher Raffinesse angesehen, da hier doch – so das Argument –
„Intuition“ und „Emotion“, eben das „Pokerface“, zum Einsatz kommen. Zudem ist
Poker im Unterschied zu Schach und Go ein Spiel mit unvollständiger Information.
„Libratus“ wendet wieder das verstärkende Lernen an, diesmal aber unter
Ausnutzung hochentwickelter mathematischer Spiel- und Wahrscheinlichkeits-
theorie.14 So werden in den Spielbäumen der Entscheidungen solche Entwick-
lungsäste zeitweilig „ausgeschnitten“ (pruning) bzw. ausgeschlossenen, die Akti-
onen mit schlechter Performance beinhalten. Das kann sich natürlich in späteren
Spielverläufen für die jeweiligen Spieläste ändern. Jedenfalls führt „Pruning“ zu
einer erheblich Zeitersparnis und Beschleunigung der Algorithmen, wenn das
Programm nicht mehr alle möglichen Spielzüge blind durchforsten muss. Nur
Aktionen, die Teil einer besten Antwort auf ein Nash-Gleichgewicht sind, werden
akzeptiert.15
„Libratus“ ist dem Menschen nicht nur in der blitzschnellen statistischen Aus-
wertung ungeheuer vieler Daten überlegen. Nachdem das System zunächst wie
ein Anfänger das Spiel verloren hatte, spielte es quasi über Nacht Millionen von
„Hands“ gegen sich selber, es lernte und übte und hatte schließlich einen Erfah-
rungsstand, der in einem Menschenleben nicht erreicht werden kann. Hinter der
von einigen Psychologen so vielgerühmten menschlichen Intuition verbergen sich
ebenfalls frühere Lernerfahrungen – nur im Umfang deutlich ärmlicher als in dieser
höchst effizienten Software mit Datenmassen von Spielen und menschlichem Ver-
halten, die im Gehirn eines menschlichen Spielers nicht verarbeitet werden können.
Man mag einwenden, dass es „nur“ raffinierte Mathematik plus gigantische
Computertechnologie ist, die den Menschen schlagen. Wenn aber solche Software
in absehbarer Zeit auch z. B. in allen möglichen Entscheidungssituationen der Tech-
nik, Wirtschaft und Politik mit unvollständiger Information zum Einsatz kommt,
dann werden wir mit unserer menschlichen Intuition alt aussehen: Die Entschei-
dungen werden – wie heute bereits im „Flashtrade“ an der Börse – in Intervallen
von Millisekunden getroffen werden können, ohne dass unser Gehirn in der Lage

13 Bishop, Christopher M.: Pattern Recognition and Machine Learning. Singapore 2006.
14 Sandholm, Tuomas: The state of solving large incomplete-information games, and application
to poker. In: AI Magazine 2010, S. 13–32.
15 Nash, John: Equilibrium points in n-person games. In: Proceedings of the National Academy of
Sciences 36, 1950, S. 48–49.
50 Klaus Mainzer

wäre, sie mit zu vollziehen. Daher sollten wir uns die Grundlagen diese Algorith-
men genau ansehen, um ihre Möglichkeiten und Grenzen zu bestimmen. Genau
diese mathematischen „Metatheoreme“, wie es im 1. Abschnitt hieß, bleiben die
intellektuelle Stärke von uns Menschen. Zudem ist menschliche Intuition von ty-
pisch menschlichen Erfahrungen und Empfindungen abhängig, die wir für wertvoll
halten und bewahrt wissen wollen. Das führt zu einer ethischen Perspektive von
Technikphilosophie, die über die erkenntnistheoretischen Fragen und den techni-
schen Einsatz von KI hinausführt.

4 VON KOMPLEXEN SYSTEMEN UND KI


ZUR TECHNIKGESTALTUNG

Am Ende wird es nicht nur auf unsere intelligenten Fähigkeiten ankommen, in der
uns die Maschinen überlegen sind. Dann geht es auch um die Ziele und Werte, die
wir diesen Systemen vorgeben. Seit ihrer Entstehung ist die KI-Forschung mit gro-
ßen Visionen über die Zukunft der Menschheit verbunden. Löst die „künstliche In-
telligenz“ den Menschen ab? Einige sprechen bereits von einer kommenden „Super-
intelligenz“, die Ängste und Hoffnungen auslöst. Dieser Beitrag ist ein Plädoyer für
Technikgestaltung16: KI muss sich als Dienstleistung in der Gesellschaft bewähren.
Die Algorithmisierung und der Einbruch der Big-Data-Welt eröffnen ein neues
Wissenschaftsparadigma, wonach Wissenschaft ohne Digitalisierungstechnik weit-
gehend nicht mehr möglich ist. Naturwissenschaftler kommen heute bereits ohne
den Einsatz intelligenter Software und großer Rechenkapazität nicht mehr aus. Das
Higgsteilchen beispielsweise wurde nicht wie weiland ein Planet am Himmel von
einem Wissenschaftler beobachtet, sondern durch Software und Superrechner aus
Milliarden von Messdaten als höchstwahrscheinliches Datenmuster herausgefiltert.
In den Life Sciences ist es mittlerweile eine Software des Machine Learning, die
Korrelationen in den Daten von z. B. Proteinnetzen entdeckt, um eine neue For-
schungshypothese vorzuschlagen.
Diese Art von „Technomathematik“ und „Technowissenschaft“ darf allerdings
nicht von ihren theoretischen Grundlagen abgekoppelt werden. In kritischer Ausei-
nandersetzung mit Steven Wolfram („A New Kind of Science“) und Chris Ander-
son („Big Data – End of Theory“) erkennen wir die Gefahren, die in einer nur noch
datengetriebenen (data-driven) Wissenschaft lauern, wenn blind auf Algorithmen
vertraut wird. In der Medizin könnten Big-Data-Algorithmen z. B. statistische Kor-
relationen einer chemischen Substanz zur Tumorbekämpfung bestimmen. In einer
datengläubigen Welt könnten dann sowohl der Profitwunsch eines Pharmakonzerns
als auch der Wunsch betroffener Patienten den Druck erhöhen, daraus ein ent-
sprechendes Medikament zu entwickeln. Eine nachhaltige Therapie wird aber nur
möglich sein, wenn molekularbiologische Grundlagenforschung die Kausalität zel-
lulären Tumorwachstums erklären kann. Statistische Korrelationen ersetzen keine
Kausalitätsanalyse. Auch hier ist wieder ein Plädoyer für Grundlagenforschung an-

16 acatech (Hg.): Technikzukünfte. Vorausdenken – Erstellen – Bewerten. Berlin 2012.


Die Berechenbarkeit von Technik und Wissenschaft 51

gebracht, um die Leistungsfähigkeit und Grenzen von Algorithmen und Big Data
abschätzen zu können. Erst wenn wir die Leistungsfähigkeit und Grenzen unserer
Instrumente kennen, können wir sie uns dienstbar machen.
Damit sind Herausforderungen von Risiko und Ethik verbundenen. Wachsende
Automatisierung ist die Antwort der Technik auf die wachsende Komplexität der
Zivilisation. Menschen scheinen mit ihren natürlichen Fähigkeiten der Kontrolle
und Analyse zunehmend überfordert. Schnelle und effiziente Algorithmen ver-
sprechen bessere Kontrolle und Problemlösung in einer unübersehbaren Daten-
flut. Zu welchen Risiken führen komplexe soziotechnische Systeme, Finanz- und
Wirtschaftssysteme, aber auch Automatisierung durch Roboter und autonome Ent-
scheidungssysteme in Technik und Gesellschaft?17 Sind die Konstrukte traditionel-
ler Ethik obsolet, die von einer Autonomie des Menschen ausgehen? Hier sollten
wir die menschliche Urteilskraft stärken – im Gegensatz zu den Verheißungen des
Transhumanismus im Silicon Valley.18 Technik unterliegt keiner naturwüchsigen
Evolution, sondern muss für uns gestaltbar bleiben – trotz wachsender Effizienz
und Automatisierung.19

17 acatech (Hg.): Cyber-Physical Systems. Innovationsmotor für Mobilität, Gesundheit, Energie


und Produktion. Berlin 2011.
18 Hölger, Stefan: Wider den Transhumanismus. Rezension des Buchs „Künstliche Intelligenz“
von Klaus Mainzer. In: Spektrum der Wissenschaft 14.3.2017.
19 Kornwachs, Klaus: Technikphilosophie – eine Einführung. München 2013; sowie ders.: Philo-
sophie für Ingenieure. München 2014.
52 Klaus Mainzer

LITERATUR

acatech (Hg.): Cyber-Physical Systems. Innovationsmotor für Mobilität, Gesundheit, Energie und
Produktion. Berlin 2011.
acatech (Hg.): Technikzukünfte. Vorausdenken – Erstellen – Bewerten. Berlin 2012.
Bauer, Friedrich L.: Was heißt und was ist Informatik? In: IBM 223, 1974, S. 334.
Bishop, Christopher M.: Pattern Recognition and Machine Learning. Singapore 2006.
Braitenberg, Valentino; Radermacher, Franz Josef (Hg.): Interdisciplinary Approaches to a New
Understanding of Cognition and Consciousness. Ergebnisband Villa Vigoni Konferenz, Italy
1997. Ulm 2007.
Haken, Hermann: Synergetics. An Introduction. Berlin 1983(3).
Heidegger, Martin: Was heißt Denken? Tübingen 1954.
Hölger, Stefan: Wider den Transhumanismus. Rezension des Buchs „Künstliche Intelligenz“ von
Klaus Mainzer. In: Spektrum der Wissenschaft 14.3.2017.
Kornwachs, Klaus: Technikphilosophie – eine Einführung. München 2013.
ders.: Philosophie für Ingenieure. München 2014.
Mainzer, Klaus: Die Berechenbarkeit der Welt. Von der Weltformel zu Big Data. München 2014.
ders.: Information. Algorithmus – Wahrscheinlichkeit – Komplexität – Quantenwelt – Leben – Ge-
hirn – Gesellschaft. Berlin 2016.
ders.: Künstliche Intelligenz – wann übernehmen die Maschinen? Berlin 2016.
ders.: Thinking in Complexity. The Computational Dynamics of Matter, Mind, and Mankind. New
York 2007(5).
Mainzer, Klaus; Chua, Leon: Local Activity Principle. London 2013.
Mayinger, Franz (Hg.): Mobility and Traffic in the 21st Century. Berlin 2001.
Nash, John: Equilibrium points in n-person games. In: Proceedings of the National Academy of
Sciences 36, 1950, S. 48–49.
Prigogine, Ilya: From Being to Becoming. San Francisco 1980.
Sandholm, Tuomas: The state of solving large incomplete-information games, and application to
poker. In: AI Magazine 2010, S. 13–32.
Schrödinger, Erwin: What is Life? The Physical Aspect of the Living Cell, Mind and Matter. Cam-
bridge 1948.
Turing, Alan M.: Computing Machinery and Intelligence. In: Mind. Bd. LIX, Nr. 236, 1950, S. 433–460.
ders.: On computable numbers, with an application to the Entscheidungsproblem. In: Proceedings of
the London Mathematical Society. 2 42, 1937, S. 230–265, Korrektur dazu 43, 1937, S. 544–
546.
ders.: The chemical basis of morphogenesis. In: Philosophical Transactions of the Royal Society.
London, Series B, 237, 1952, S. 37–72.
GIBT ES MAKROSKOPISCHE VERSCHRÄNKUNGEN
ZWISCHEN MENSCH UND MASCHINE?

Walter von Lucadou

ZUSAMMENFASSUNG

Die alte philosophische Frage nach Körper und Geist – res extensa und res cogi-
tans – tritt beim Problem der „künstlichen Intelligenz“ (KI) in ganz neuer Weise in
Erscheinung. Das „Imitation Game“ war ein Gedankenexperiment, das sich Alan
M. Turing (1912–1954) ausgedacht hatte, um die Frage zu klären, ob man einem
Computer unter bestimmten Umständen „Bewusstsein“ zubilligen müsse. Mit
dem Begriff der „Verschränkung“ lässt sich diese Fragestellung weiter präzisieren
und experimentell überprüfen. Es werden Experimente vorgestellt, bei denen Ver-
schränkungs-Korrelationen zwischen quantenphysikalischen Zufallsprozessen und
verschiedenen psychologischen Variablen menschlicher Beobachter nachgewiesen
werden konnten. Ob man damit der Realisierung von Computern mit Bewusstsein
einen Schritt näher gekommen ist, bleibt abzuwarten.

EINFÜHRUNG

Die philosophische Frage des „Leib-Seele-Problems“ (mind-brain-problem) mit


der wir es hier zu tun haben, ist zurzeit Teil verschiedener Forschungsprogramme,
die mit erheblichem Aufwand finanziert werden. Vordergründig geht es hierbei um
ein Funktionsmodell des menschlichen Gehirns, künstliche Intelligenz und deren
technische Anwendung; im Hintergrund jedoch steht die Frage, was Bewusstsein
ist und ob dieses adäquat maschinell simuliert werden kann. Die Maschinen, um die
es hier in erster Linie geht, sind natürlich Computer.
Zunächst erhebt sich die Frage, ob der Mensch selbst als Computer beschrieben
werden kann. Hierbei spielt die Frage nach dem freien Willen eine zentrale Rolle.
Wenn experimentell gezeigt werden könnte, dass das Gehirn in der Lage ist, echte
nicht-deterministische Prozesse zu produzieren, könnte dies als ein Hinweis für die
Möglichkeit des freien Willens interpretiert werden.1 Echte nichtdeterministische
Prozesse sind in der Quantenphysik bekannt, z. B. beim Zerfall von Atomen. Ther-
misches Rauschen wird dagegen nicht als echter nicht-deterministischer Prozess an-

1 vgl. Jordan, Pascual: Verdrängung und Komplementarität. Hamburg 1947 sowie Primas, Hans:
Time-asymmetric phenomena in biology complementary exophysical descriptions arising from
deterministic quantum endophysics. In: Open Systems & Information Dynamics 1(1), 1992,
pp. 3–34.
54 Walter von Lucadou

gesehen. Es scheint allerdings unrealistisch, experimentell zwischen diesen beiden


Arten von Zufall durch neurophysiologische Messungen unterscheiden zu können.
Eine andere Möglichkeit bestünde darin, nicht-klassische Eigenschaften von
Gehirnfunktionen nachzuweisen, d. h. die Demonstration nicht-lokaler Effekte in
der Neurophysiologie. Die klassischen Experimente von Kornhuber2 und Libet3
zum „Bereitschaftspotential“ (das einer freien Willensentscheidung vorausgeht)
könnten vielleicht in dieser Weise interpretiert werden, aber es ist eben auch mög-
lich, sie als klassische, deterministische Prozesse zu verstehen, wenn angenommen
wird, dass unbewusste Prozesse das „Bereitschaftspotential“ im EEG vor einer
„freien Willensentscheidung“ determinieren.
Einen anderen Ansatz liefert das Theorem von Hans Primas (1996). Es be-
sagt, dass inkompatible Eigenschaften „holistische“ (oder „nicht-lokale“) Korrela-
tionen4 in Systemen erzeugen, und dass holistische Korrelationen auch zwischen
sonst unabhängigen Systemen existieren, wenn beide Systeme inkompatible Eigen-
schaften (komplementäre Observablen) enthalten. Primas schreibt: „Zwischen zwei
kinematischen unabhängigen Subsystemen ΣA und ΣB können holistische Korrela-
tionen dann, und nur dann, existieren, wenn es sowohl in ΣA als auch in ΣB inkom-
patible Eigenschaften gibt. Bezüglich eines Zustandes mit dem Zustandsfunktional
ρ gibt es genau dann holistische Korrelationen, wenn es im System ΣA mindestens
zwei Observablen A1,A2 und im System ΣB mindestens zwei Observablen B1,B2
mit |ρ{A1(B1 + B2) + A2(B2 - B1)}|> 2 gibt.“5
Das Theorem kann auch umgekehrt werden: Wenn es möglich ist, nicht-lokale
Korrelationen zwischen zwei unabhängigen Systemen nachzuweisen, und wenn
eines der Systeme nicht-kompatible Observablen enthält oder eine quantentheo-
retische Struktur aufweist, dann folgt daraus, dass das andere unabhängige System
notwendigerweise nicht-lokale Korrelationen oder quantentheoretische Strukturen
enthält. Dies bedeutet, dass das „mentale System“ (Bewusstsein) keine klassische
Struktur haben kann, wenn experimentell nachgewiesen werden sollte, dass makro-
skopische Verschränkungskorrelationen zwischen einem menschlichen Beobachter
und einem unabhängigen quantenphysikalischen Prozess möglich sind.6

2 Kornhuber, Hans Helmut; Deecke, Lüder: Hirnpotentialänderungen bei Willkürbewegungen


und passiven Bewegungen des Menschen. Bereitschaftspotential und reafferente Potentiale. In:
Pflüger’s Archiv für die gesamte Physiologie des Menschen und der Tiere. Bd. 284, 1965,
pp. 1–17.
3 Libet, Benjamin; Gleason, Curtis A.; Wright, Elwood W.; Pearl, Dennis K.: Time of conscious
intention to act in relation to onset of cerebral activities (readiness potential).The unconscious
initiation of a freely voluntary act. In: Brain, 106, 1983, pp. 623–642.
4 Die Begriffe „holistisch“, „nicht-lokal“ oder „Verschränkungskorrelation“ werden in der Lite-
ratur mehr oder weniger synonym verwendet. Sie sollen ausdrücken, dass kein verborgener
kausaler Prozess die Korrelationen erzeugt.
5 Primas, Hans: Time-asymmetric phenomena in biology complementary exophysical descrip-
tions arising from deterministic quantum endophysics. In: Open Systems & Information Dyna-
mics 1(1), 1992, p. 88 f.
6 Uzan, Pierre: On the Nature of Psychophysical Correlations. In: Mind and Matter, Vol 12 (1),
2014, pp. 7–36.
Gibt es makroskopische Verschränkungen zwischen Mensch und Maschine? 55

Die sogenannte „Verallgemeinerte Quantentheorie (VTQ)“ von Hartmann Rö-


mer7 beschreibt solche Strukturen detaillierter und liefert die theoretische Grund-
lage für die experimentelle Untersuchung von makroskopischen Verschränkungs-
korrelationen. Wenn sich Versuchspersonen mit physikalischen Zufallsprozessen
verschränken können, folgt im Prinzip auch, dass dies auch für selbstorganisierende
Maschinen gilt, weil durch deren „Embodiment“ notwendigerweise Zufallspro-
zesse ins Spiel kommen.

TURINGMASCHINEN UND DIE CHURCHSCHE THESE

Alan Turing hat gezeigt, dass jeder Computer, ganz gleich ob es sich um ein Smart-
phone oder das Rechenzentrum einer Universität handelt, durch eine ganz einfache
Anordnung dargestellt werden kann, eine einfache Maschine, die nur aus drei Tei-
len besteht, nämlich einem unendlich langen Band mit unendlich vielen sequentiell
angeordneten Feldern und einem Programm, welches den Lese- und Schreibkopf,
der sich auf diesen Bändern hin- und her bewegen kann, steuert. Bei dem Programm
handelt es sich im Prinzip um eine geschriebene Anweisung, welche festlegt, in
welche Richtung sich das Band bewegen und ob gelesen oder geschrieben werden
soll. Das Programm schreibt vor, wie sich der Lese- und Schreibkopf bewegt (einen
Schritt vorwärts oder rückwärts oder ob er auf der Stelle stehen bleibt) und ob er
einen Inhalt des Bandes lesen oder einen neuen Inhalt auf das Band schreiben soll
(in der Regel genügen die beiden Zeichen „0“ und „1“). Ferner wird bei jedem
Programmschritt festgelegt, welcher Programmschritt aufgrund der jeweiligen Si-
tuation (gelesenes oder geschriebenes Zeichen) als nächstes erfolgt. Erhält die Ma-
schine am Ende keine neue Anweisung mehr, so bleibt die Turingmaschine stehen.
Die Frage, welche Probleme von Turingmaschinen berechnet werden können,
wird durch die Churchsche These (benannt nach Alonzo Church und Alan Turing,
1936), beleuchtet. Sie besagt, dass die Gruppe aller intuitiv berechenbaren Pro-
bleme (womit Probleme gemeint sind, von denen der Mensch vernünftigerweise
annehmen kann, sie formal darstellen zu können) genau mit der Klasse der Turing-
berechenbaren Funktionen übereinstimmt. Das hieße, dass der Computer alle ver-
nünftig darstellbaren Probleme auch berechnen kann. Diese These wurde übrigens
bereits im 13. Jahrhundert von Raimundus Lullus als „ars magna“ vorhergesehen,
als Imagination einer Maschine, die in der Lage wäre, alle Probleme der Mensch-
heit, nicht nur die mathematischen, zu lösen. Die Churchsche These, die sich al-
lerdings nicht beweisen lässt, weil der Begriff „intuitiv berechenbare Funktion“
nicht exakt formalisiert werden kann, geht natürlich sehr weit, und die gesamte
Forschung zur künstlichen Intelligenz basiert auf ihr.

7 Atmanspacher, Harald; Römer, Hartmann; Walach, Harald: Weak quantum theory. Comple-
mentarity and entanglement in physics and beyond. In: Foundations of Physics, 32, 2002,
pp. 379–406 sowie Lucadou, Walter von; Römer, Hartmann; Walach, Harald: Synchronistic
Phenomena as Entanglement Correlations in Generalized Quantum Theory. In: Journal of Con-
sciousness Studies, 14, 4, 2007, pp. 50–74.
56 Walter von Lucadou

DIE VERALLGEMEINERTE QUANTENTHEORIE

Die bisherigen Modelle der Neuro- und Kognitionswissenschaften sind in erster Li-
nie von klassischen, also lokalen Modellen bestimmt. Obwohl es sich in der Physik,
Chemie und ansatzweise sogar in der Biologie und Psychologie gezeigt hat, dass
sich klassische Modelle als obsolet erwiesen haben, wird von den meisten Neuro-
wissenschaftlern das menschliche Gehirn als zwar komplexer, aber doch determi-
nistischer Biocomputer verstanden. Neurowissenschaftliche Laien bestehen dage-
gen zumeist hartnäckig auf der realen Existenz des handelnden Ichs und zwar in
einem tendenziell dualistischen Sinne.8 Man sagt nämlich nicht: „Ich bin ein Gehirn
oder ein Körper“, sondern „Ich habe ein Gehirn und einen Körper“. Typischerweise
existiert das Wort „Ich“ in allen Kulturen und allen Sprachen zur Kennzeichnung
der eigenen handelnden oder erlebenden Person, und es gibt mittlerweile auch bei
einigen Primaten oder einigen Meeressäugern Hinweise dafür, dass sie sich als han-
delndes Subjekt erkennen können.
Mit der Formulierung der verallgemeinerten Quantentheorie9 als systemtheo-
retischem Ansatz ergibt sich nun allerdings eine überraschende Möglichkeit zur
Lösung der vermeintlichen Diskrepanz zwischen dem intuitiven und dem natu-
ralistischen Modell des „freien Willens“ und zwar dadurch, dass angenommen
wird, dass die Grundstruktur der Quantentheorie ein sehr allgemeines Schema
darstellt, das der Natur in allen Bereichen (z. B. auch in der Psychologie) zu-
grunde liegt, während es sich beim klassischen kausalreduktionistischen Modell
um einen Spezialfall handelt, der in ausgewählten Bereichen der (klassischen)
Physik gilt, für den aber nicht von vorneherein feststeht, ob er tatsächlich für
allgemeine Systeme zutrifft. Bei der verallgemeinerten Quantentheorie handelt
es sich also um eine theoretische Struktur, die die naturalistische Auffassung als
Spezialfall enthält.
Ein Unterschied zu klassischen Strukturen tritt erst in dem Moment auf, wenn
zwei Beschreibungsgrößen (Observablen) A und B nicht kommutieren. Das heißt,
dass die Messergebnisse von A und B von der Reihenfolge ihrer Messung abhängen
und zu unterschiedlichen Messresultaten führen. A und B werden dann als „kom-
plementäre“ Observablen bezeichnet, andernfalls als „kompatibel“. In der Psycho-
logie und Soziologie sind komplementäre Verhältnisse allerdings eher die Regel als
die Ausnahme. So wird man z. B. nicht erwarten, dass das Ergebnis eines anstren-
genden Intelligenztests und das eines Stimmungsfragebogens nicht von der Reihen-
folge der „Messung“ abhängen, wohingegen dies bei der Länge und dem Gewicht
eines Tisches sehr wohl der Fall ist.
So kann man annehmen, dass es sich bei der neurologischen Beschreibung
des Gehirns und der Beschreibung des Bewusstseins (aus der „Ich-Perspektive“)
um komplementäre Observablen handelt; Zeichenerkennung und Gestaltwahr-
nehmung, Kontrolle und Vertrauen, wären weitere mögliche Beispiele. Es muss

8 Reuter, Bernhard M.: Zur Psychophysiologie der Ich-Identität. Zeitschrift für Parapsychologie
und Grenzgebiete der Psychologie, 38, 1996, S. 115–135.
9 Atmanspacher et al., a. a. O.
Gibt es makroskopische Verschränkungen zwischen Mensch und Maschine? 57

allerdings hinzugefügt werden, dass „Komplementarität“ immer empirisch nach-


gewiesen werden muss.
Der plausible und scheinbar „harmlose“ Unterschied zwischen kompatiblen
und komplementären Observablen hat für die vorliegende Fragestellung jedoch
weit reichende Folgen:
1. Komplementäre Beschreibungsgrößen sind nicht aufeinander reduzibel, d. h.
sie können nicht von- oder auseinander abgeleitet werden. Es ist also im Allge-
meinen nicht möglich eine globale Observable aus lokalen Observablen kausal-
reduktionistisch „herzuleiten“10.
2. Komplementäre Beschreibungsgrößen können nicht ohne gegenseitige Störung
aufeinander „gemessen“ werden. Der Begriff Störung bedeutet hierbei, dass die
Auswirkung auf die jeweils nicht gemessene komplementäre Größe nicht prä-
zise angegeben werden kann, sondern stochastischer Natur ist. Hier zeigt sich,
dass eine vollkommen deterministische Beschreibung, wie sie der Naturalismus
anstrebt, prinzipiell nicht durchgehalten werden kann.
3. Komplementäre Beschreibungsgrößen können Verschränkungskorrelationen
im jeweiligen komplementären Subsystem erzeugen. Das heißt, dass die loka-
len Variablen eines globalen Systems untereinander Korrelationen aufweisen,
die nicht-kausaler Natur sein können und damit „Musterübereinstimmungen“
aufweisen, die unabhängig von räumlichen und zeitlichen Distanzen existieren.
Solche nicht-kausalen oder nicht-lokalen Verschränkungskorrelationen11 kön-
nen aber nicht zur Signalübertragung oder zur Erreichung kausaler Wirkungen
benutzt werden (NT-Axiom)12. Wird dies dennoch versucht, erweisen sich die
Verschränkungskorrelationen als instabil13.

10 Wenn man z. B. die „Freiheit“ einer bewussten Entscheidung als eine globale Beschreibungsgröße
für einen bestimmten Zustand des Gehirns auffasst, wird man also nicht erwarten können, diese aus
den lokalen neurophysiologischen Zuständen des Gehirns eindeutig herleiten zu können. Dies
schließt natürlich nicht aus, dass zwischen beiden Beschreibungsgrößen korrelative Zusammen-
hänge bestehen (vgl. Römer, Hartmann; Walach, Harald: Complementarity of phenomenal and
physiological observables. A primer on generalised quantum theory and its scope for neuroscience
and consciousness studies. In: Walach, Harald; Schmidt, Stefan; Jonas, Wayne B. (Eds.): Neurosci-
ence, consciousness and spirituality. Dordrecht, Heidelberg, London, New York 2011. pp. 97–107.).
11 Lucadou, Walter von: Makroskopische Nichtlokalität. In: Kratky, Karl W. (Hg.): Systemische
Perspektiven: Interdisziplinäre Beiträge zu Theorie und Praxis. Heidelberg 1991. S. 45–63.
12 vgl. Römer, Hartmann: Verschränkung. In: Knaup, Marcus; Müller, Tobias; Spät, Patrick (Hg.):
Post-Physikalismus. Bamberg 2013. S. 87–121; Lucadou, Walter von; Römer, Hartmann; Wa-
lach, Harald: Synchronistic Phenomena as Entanglement Correlations in Generalized Quantum
Theory. In: Journal of Consciousness Studies, 14, 4, 2007, pp. 50–74.; Walach, Harald; Lucadou,
Walter von; Römer, Hartmann: Parapsychological Phenomena as Examples of Generalised Non-
local Correlations. A Theoretical Framework. In: Journal of Scientific Exploration, Vol. 28, No. 4,
2014, pp. 605–631.; Walach, Harald; Römer, Hartmann: Complementarity is a useful concept for
consciousness studies. A Reminder. In: Neuroendocrinology Letters, 21, 2000, pp. 221–232.
13 Dieser Sachverhalt kann als das stärkste Argument gegen die naturalistische Position angese-
hen werden: In einem klassischen kausalreduktionistischen Modell kann es keine nicht-kausa-
len Zusammenhänge geben. Allerdings eröffnen gerade die Verschränkungskorrelationen in-
nerhalb organisatorisch geschlossener Systeme (z. B. einer Gesellschaft) eine neue Sicht auf die
Frage, was Verbindlichkeit (eines Wertesystems) bedeutet, und wie sie hergestellt werden kann
58 Walter von Lucadou

4. Potentialität ist ein wesentliches Charakteristikum der Quantentheorie. Erst durch


den Akt der Messung wird aus Potentialität Faktizität. Sogar eine unvollständig
vorgenommene und noch nicht abgelesene Messung kann bereits Faktizität erzeu-
gen. Dagegen wird in klassischen Theorien stets Faktizität auch dann angenom-
men, wenn nicht bekannt ist, welches Faktum vorliegt. Für diese quantentheoreti-
sche Potentialität gibt es kein klassisches Analogon. Am einfachsten lässt sich der
Sachverhalt so ausdrücken: Wenn bei einem nichtklassischen System die konkrete
Möglichkeit einer Wirkung von oder auf ein externes System besteht, dann verhält
sich das System als Ganzes so, als habe die Wirkung tatsächlich stattgefunden,
auch wenn dies faktisch nicht der Fall ist14. Es konnte gezeigt werden, dass sich
Probanden unter Doppelblindbedingungen anders verhielten, wenn sie durch eine
Einwegscheibe beobachtet wurden, auch wenn sie davon nichts wussten.15 Dieses
„intuitive Wissen“ oder diese „innere Wahrnehmung“ hat für die meisten Men-
schen eine weit größere Bedeutung, als sie „offiziell“ zuzugeben bereit sind.16

INNEN UND AUSSEN

Kant hat in seiner Kritik der reinen Vernunft dargelegt, dass Raum, Zeit und Kausa-
lität gewissermaßen vor (a priori) der Vernunft existieren und erst die Bedingungen
für dieselbe schaffen. Diese Einsicht findet heute eine grandiose Bestätigung in
der Psychologie durch das sogenannte Repräsentationsmodell17, welches besagt,

(Lucadou, Walter von; Römer, Hartmann: Schuld, Person und Gesellschaft. Systemische Pers-
pektiven. In: Kick, Hermes Andreas; Schmitt, Wolfram (Hg.): Schuld – Bearbeitung, Bewälti-
gung, Lösung. Strukturelle und prozessdynamischer Aspekte. Berlin 2011. S. 79–97.).
14 In der Physik kann dies bei den sogenannten „delayed-choice-Experimenten“ oder dem „nega-
tive result measurement“ (Renninger, Mauritius: Messungen ohne Störungen des Messobjekts.
Zeitschrift für Physik, 158, 1960, S. 417–421.) demonstriert werden: Das bloße Vorhandensein
eines Teilchen-Detektors bei einem Doppelspalt-Experiment, der Aufschluss über den Weg ei-
nes Teilchens liefern könnte, zerstört das Interferenzmuster, selbst dann, wenn das Teilchen gar
nicht entdeckt wird. Für die hier diskutierten Fragestellungen hat dieser Sachverhalt nicht un-
erhebliche Konsequenzen; So wirkt sich z. B. die Etablierung von gesellschaftlichen Kontroll-
systemen auf individuelles Handeln selbst dann aus, wenn gar keine Kontrollen durchgeführt
werden und die Betroffenen gar nichts davon wissen.
15 Beutler, J. J.; Attevelt, J. T. M.; Geijskes, G. G.; Schouten, S. A.; Faber, J. A. J.; Mees, E. J. D.: The Effect
of Paranormal Healing on Hypertension. In: Journal of Hypertension, 5 (suppl. 5), 1987, pp. 551–552.
16 vgl. Lucadou, Walter von: Locating Psi-Bursts. Correlations Between Psychological Characte-
ristics of Observers and Observed Quantum Physical Fluctuations. In: Cook, E. W.; Delanoy,
Deborah L. (Eds.): Research in Parapsychology 1991. Metuchen, NJ, 1994. pp. 39–43. Eine
ähnliche Einstellungs-verändernde Erfahrung findet sich bei religiösen Konversions-Erlebnis-
sen. Häufig wurden solche Flow-ähnlichen Erfahrungen (Csikszentmihalyi, 2000) der seeli-
schen Kohärenz auch von Menschen berichtet, die unter Bedrohung ihres eigenen Lebens an-
deren Menschen vor Verfolgung geholfen haben. Aus der Sichtweise des hier vorgeschlagenen
Modells spiegeln solche Erfahrungen nicht-kausale Korrelationen in organisatorisch geschlos-
senen sozio-psychologischen Systemen wieder. Um es eher poetisch auszudrücken: Globale
Observablen in der Psychologie und Soziologie haben etwas „Magisches“; Albert Einstein (et.
al., a. a. O.) hatte sie als „ghostly interactions“ bezeichnet.
17 Tholey, P.: Erkenntnistheoretische und systemtheoretische Grundlagen der Sensumotorik aus
Gibt es makroskopische Verschränkungen zwischen Mensch und Maschine? 59

dass die subjektive Vorstellung von Realität nicht die Realität selbst, sondern ein
Abbild derselben darstellt, die als mentale Repräsentation vermittels der afferenten
Nervenreizungen aus den Sinnesorganen im Zentralnervensystem entstehen. Um
es einfach auszudrücken, besteht unsere subjektive Realität aus einer Art „Kino im
Kopf“. In der Aufklärung, deren wichtigster Vertreter Kant war, wird jedoch die
menschliche Kognition ausschließlich unter dem Aspekt der Vernunft bzw. Ratio
gesehen. Subjektive oder vermeintlich irrationale Aktionen unserer mentalen Akti-
vität wurden dagegen als minderwertig betrachtet. Es ist daher nicht verwunderlich,
dass in der behavioristischen Psychologie und auch in der künstlichen Intelligenz
mentale Vorgänge hauptsächlich unter Paradigmen, die dem klassischen Weltbild
zugrunde liegen, beschrieben werden.
Ein weiteres wichtiges Charakteristikum der VQT ist die Unterscheidung der
Exo- und Endo-Perspektive.18 In der Endo-Exophysik wird systematisch berück-
sichtigt, dass der „Beobachter“ ein Teil der beobachteten Welt ist, dass aber die
Welt auch ohne (menschlichen) „Beobachter“ existieren kann. Durch die Unter-
scheidung der Exo- und Endoperspektive wird verständlich, weshalb die Cartesi-
anische Trennung der „res cogitans“ von der „res extensa“ unter bestimmten Um-
ständen tatsächlich aufgehoben sein könnte.
Die „Ort- und Zeitlosigkeit“ von Verschränkungskorrelationen lässt sofort an die
Exo-Endo-Unterscheidung in der algebraischen Quantenphysik19 denken. Abbildung
1 zeigt die Aufteilung des „universe of discourse“ (das, worüber man reden kann)
in vier Bereiche, die durch den Cartesischen und den Heisenberg-Schnitt beschrie-
ben werden. Der Cartesische Schnitt bildet die Grenze zwischen den mentalen und
den physikalischen Beschreibungsgrößen der Welt. Der Heisenberg-Schnitt dagegen
drückt die Trennung zwischen dem epistemischen (gemessenen) und dem ontischen
Bereich aus. Die psycho-physikalische Welt kann also in den Bereich „Vernunft und
Technik“ auf der epistemischen Seite und „Seele und Natur“ auf der „ontischen“ Seite
aufgeteilt werden, in der es jedoch keinen Cartesischen Schnitt geben kann.
Fügt man den klassischen Kategorien der Erkenntnis, diese „neue“ nicht-klassi-
sche „Kategorie der Verschränkung“ hinzu, dann sind (wegen 4. im letzten Kapitel)
diese Kategorien nicht bloß „Filter“ der Erkenntnis, sondern Konstrukte, die sich
gewissermaßen „aktiv“ auf den „Universe of Discourse“ auswirken. Wie bei der
Erfahrung von Raum, Zeit und Kausalität können auch bei der Verschränkung Irr-
tümer und Wahrnehmungstäuschungen auftreten, ohne dass es gerechtfertigt wäre,
Verschränkungserfahrungen generell als Illusionen zu betrachten. Verschränkungs-
wahrnehmungen sind somit wichtiger Bestandteil von allen Bereichen menschli-
chen Lebens und spielen – so wird hier vermutet – auch bei der Mensch-Maschine-

gestalttheoretischer Sicht. In: Sportwissenschaft, 10, 1980, S. 7–35.


18 Primas, Hans: Time-asymmetric phenomena in biology complementary exophysical descrip-
tions arising from deterministic quantum endophysics. In: Open Systems & Information Dyna-
mics 1(1), 1992, pp. 3–34. sowie Lucadou, Walter von: The Exo-Endo-Perspective of Non-lo-
cality in Psycho-Physical Systems. In: International Journal of Computing Anticipatory Sys-
tems, 2, 1989, pp. 169–185.
19 Primas, a. a. O.
60 Walter von Lucadou

Abbildung 1: Aufteilung des „Universe of discourse“

Interaktion eine wichtige Rolle.20 Hierzu gibt es jede Menge anekdotische Erfah-
rungsberichte, die meist mit einem „Augenzwinkern“ vorgetragen werden.21

ORGANISIERTE GESCHLOSSENHEIT UND SELBSTORGANISATION

Der Biologe Francisco Varela hat den wichtigen Begriff der organisierten Geschlos-
senheit geprägt22, der einen symbiotischen Zustand von Teilsystemen bezeichnet (z. B.
Verliebtheit, Mutter-Kind-Beziehung aber auch ein Ameisenhaufen), dessen einzelne
Konstituenten eben nur in ihrer Gesamtheit dargestellt werden können. Durch die
VQT wird verständlich, dass es sich dabei um ein verschränktes System handeln muss.
Bewusstsein wird vom Gegenüber im direkten Kontakt gespürt und zugebilligt. Ob
mein Gegenüber über ein Bewusstsein verfügt, ist somit keine kognitive, rationale
Entscheidung, sondern eine unmittelbare Erfahrung von Verschränkung.
Voraussetzung für organisierte Geschlossenheit ist Selbstorganisation. Sie ist
dadurch charakterisiert, dass mindestens zwei Beschreibungsebenen, die Exo-,
Endo-Perspektive zur Beschreibung notwendig sind, sich das System in einem
Fließgleichgewicht von äußeren Ressourcen befindet und somit quasi-intelligentes

20 Lucadou, Walter von: Verschränkungswahrnehmung und Lebenskunst. In: Engelhardt, Dietrich


von; Kick, Hermes Andreas (Hg.): Lebenslinien – Lebensziele – Lebenskunst. Festschrift zum
75. Geburtstag von Wolfram Schmitt. Reihe: Medizingeschichte. Bd. 6. Berlin 2014. S. 37–55.
21 Gesetze von Murphy und Klipstein; Bloch, Arthur: Murphy’s Law and other reasons why
things go wrong. Los Angeles, CA, 1977; Lucadou, Walter von: Die Magie der Pseudoma-
schine. In: Belschner, Wilfried; Galuska, Joachim; Walach, Harald; Zundel, Edith (Hg.): Trans-
personale Forschung im Kontext. Oldenburg 2002: Transpersonale Studien 5, Bibliotheks- und
Informationssystem der Universität Oldenburg.
22 Varela, Francisco J.: Autonomy and autopoesis. In: Roth, Gerhard; Schwengler, Helmut (Eds.):
Self-Organizing Systems. Frankfurt, New York: Campus 1981. pp. 14–23.
Gibt es makroskopische Verschränkungen zwischen Mensch und Maschine? 61

Verhalten, d. h. Muster mit niedriger Entropie erzeugen kann, die sich selbstverstär-
kend ausbreiten und für Adaptivität, Autonomie und Plastizität sorgen.
Ist eine solche Erfahrung der organisierten Geschlossenheit auch im Kontakt
mit einem Computer möglich und nachweisbar? 2012 hat eine amerikanische For-
schergruppe23 einen selbstorganisierenden Roboter gebaut, der über Sinne verfügt,
so dass er in einer fremden Umgebung Kontakt aufnehmen und Sinneseindrücke
sammeln muss, um dann eigenständig Rückschlüsse auf ein adäquates Verhalten
zu ziehen. Das Experiment zeigte, dass die Maschine auf fast schon gespenstische
Weise in der Lage war, in einer realen Umgebung aus ihren Wahrnehmungen zu
lernen. Obwohl der Roboter nicht „wusste“, dass er sich bewegen kann, „lernte“ er
sich fortzubewegen. Die Maschine konnte allerdings nur im Kontakt mit einer rea-
len Umgebung, also durch ihr „Embodiment“, lernen. Genau genommen sind sol-
che Maschinen keine Turingmaschinen mehr, weil sie Elemente der „realen Welt“
(z. B. Sensoren) enthalten. Sie sind somit eher „psychophysikalische“ Systeme.

VERSCHRÄNKUNG ZWISCHEN MENSCH UND MASCHINE

Aus dem bisherigen folgt, dass der Nachweis einer Verschränkung zwischen
Mensch und Maschine den Turing-Test (Imitation Game) in einem vollkommen
neuen Licht erscheinen lassen würde. Darauf hatte übrigens Turing 1950 bereits
selbst hingewiesen: „These disturbing phenomena seem to deny all our usual sci-
entific ideas. How we should like to discredit them! Unfortunately the statistical
evidence, at least for telepathy, is overwhelming.“
Um eine solche Verschränkung nachweisen zu können, müssen allerdings alle
kausalen Zusammenhänge zwischen einem Probanden und einer Maschine, mit der
er sich verschränken soll, ausgeschlossen werden. Dies ist eine höchst artifizielle
Situation, die in der Natur so gut wie niemals vorkommt, weil sich kausale und
Verschränkungsprozesse in organisatorisch geschlossenen Systemen immer gegen-
seitig bedingen und „unterstützen“. Es war auch in der Physik experimentell und
messtechnisch sehr schwierig, reine Verschränkungskorrelationen (vgl. Fußnote 14)
zu isolieren. Das ist auch der Grund, weshalb bisher noch keine gebrauchsfertigen
„Quantencomputer“ existieren, die übrigens ebenfalls keine Turingmaschinen sind.
Trotz dieser Schwierigkeiten ist es in den letzten 30 Jahren gelungen, solche
Verschränkungskorrelationen bei Mensch-Maschine-Experimenten nachzuweisen.24

23 Prof. Dr. Hod Lipson, Cornell University, 19. Januar 2012, swissnex, San Francisco, CA, FORA.tv.
24 Lucadou, Walter von: Experimentelle Untersuchungen zur Beeinflussbarkeit von stochasti-
schen quantenphysikalischen Systemen durch den Beobachter. Frankfurt 1986; ders.: Keine
Spur von Psi. Zusammenfassende Darstellung eines umfangreichen Psychokineseexperiments.
In: Zeitschrift für Parapsychologie und Grenzgebiete der Psychologie, 28, 1986, S. 169–197;
ders.: A multivariate PK experiment. Part III. Is PK a real force? The results and their interpre-
tation. In: European Journal of Parapsychology, 6, 4, 1987, pp. 369–428; ders.: A Multivariate
PK Experiment with unidirectional correlated RNGs. In: Morris, R. L. (Ed.): The Parapsycho-
logical Association 30th Annual Convention. Proceedings of Presented Papers. 1987. Parapsy-
chological Association. pp. 255–261; ders: Locating psi-bursts. Correlations between psycho-
logical characteristics of observers and observed quantum physical fluctuations. In: Delanoy,
62 Walter von Lucadou

Ein typisches Experiment25, das zum Ziel hat, Verschränkungskorrelationen zwi-


schen quantenphysikalischen Zufallsprozessen und einem menschlichen Beobachter
nachzuweisen, kann folgendermaßen beschrieben werden: Eine Versuchsperson
beobachtet auf einem Computerbildschirm ein sich zufällig nach rechts oder links
bewegendes Farbband. Sie bekommt die Instruktion, die Bewegung des Bandes mit
einer Taste für die linke Hand und einer für die rechte Hand so zu steuern, dass sich
das Farbband möglichst in die Richtung eines auf dem Bildschirm gezeigten Pfeils
bewegt. Die Richtung des Pfeils ändert sich nach jedem der neun Versuchsdurch-
gänge systematisch. Jeder Tastendruck bewirkt einen Schritt des Farbbandes nach
links oder nach rechts. Dabei wird die Häufigkeit der Betätigung jeder Taste als psy-
chologische Variable verwendet. Die Tastendrücke wurden von der Versuchsperson
mit der linken oder der rechten Hand getätigt, um den Zufallsprozess, der auf einem
Display angezeigt wird, zu „kontrollieren“. Jeder Tastendruck startet den nächsten
Zufallsprozess, dessen statistische Merkmale (Mittelwert, Autokorrelationswert) als
physikalische Variablen verwendet werden. Der Zufallsprozess ist in Wirklichkeit
jedoch vollkommen unabhängig von den Tastendrucken. Es kann also keinen kau-
salen Einfluss der Versuchsperson auf den Zufallsprozess geben. Die Studie besteht
aus zwei unabhängigen Datensätzen, die mit der gleichen Apparatur in zwei unter-
schiedlichen experimentellen Situationen erzeugt wurden. Der erste Datensatz dient
als Referenz: Ein automatischer Kontroll-Run ohne Versuchsteilnehmer. Der zweite
Datensatz wurde von Versuchsteilnehmern erzeugt, die hoch motiviert waren. Die
Dauer des Experiments hing von der Geschwindigkeit der Tastendrücke ab.

Deborah L. (Ed.): The Parapsychological Association 34th Annunal Conventio. Proceedings of


Presented Papers. Heidelberg 1991. Parapsychological Association. pp. 265–281; ders.: Lassen
sich „PK-Impulse“ lokalisieren? Korrelationen zwischen Persönlichkeitsmerkmalen von Beob-
achtern und quantenphysikalischen Fluktuationen. In: Zeitschrift für Parapsychologie und
Grenzgebiete der Psychologie, 35, 1993, S. 41–70; ders.: A new experiment suggesting non-
local correlations in macroscopic complex systems. In: Dalenoort, Gerhard J. (Ed.): The Para-
digm of Self-Organization II. Studies in Cybernetics). New York, London, Paris 1994. pp. 52–
77; ders.: Locating Psi-Bursts. Correlations Between Psychological Characteristics of Obser-
vers and Observed Quantum Physical Fluctuations. In: Cook, E. W.; Delanoy, Deborah L.
(Eds.): Research in Parapsychology 1991. Metuchen, NJ, 1994. pp. 39–43; ders.: Backward
Causation and the Hausdorff-Dimension of Singular Events. In: Steinkamp, Fiona (Ed.): Pro-
ceedings of Presented Papers. The Parapsychological Association 43rd Annual Convention
August 17–20. Freiburg i. Br. 2000. pp. 138–147.; ders.: Self-organization of temporal structu-
res–a possible solution for the intervention problem. In: Sheehan, Daniel P. (Ed.): Frontiers of
Time. Retrocausation–Experiment and Theory. AIP Conference Proceedings, Volume 863.
Melville, New York 2006. pp. 293–315.; ders.: Selbstorganisation zeitlicher Strukturen. Eine
mögliche Lösung für das Interventionsproblem. In: Zeitschrift für Parapsychologie und Grenz-
gebiete der Psychologie, 47/48/49, 2005/2006/2007, 2011, S. 63–88.; Walach, Harald; Horan,
Majella: Capturing PSI. Replicating von Lucadou’s Correlation Matrix Experiment using a
REG Mikro-PK. Presentation at the BIAL-Conference, Porto, March 2014; Walach, Harald;
Horan, Majella; Hinterberger, Thilo; Lucadou, Walter von: Evidence for a Generalised Type of
Nonlocal Correlations Between Systems Using Human Intention and Random Event Genera-
tors. Submitted for publication in PLOS 1. 2016.
25 Lucadou, 2006 a. a. O.; ders.: Selbstorganisation zeitlicher Strukturen. Eine mögliche Lösung
für das Interventionsproblem. In: Zeitschrift für Parapsychologie und Grenzgebiete der Psy-
chologie, 47/48/49, 2005/2006/2007, 2011, S. 63–88.
Gibt es makroskopische Verschränkungen zwischen Mensch und Maschine? 63

Das Ergebnis bestätigte frühere Studien: Die Art und Weise, wie die Ver-
suchspersonen die Tasten drückten, korreliert signifikant mit dem unabhängigen
Zufallsprozess. Dies zeigt sich daran, dass in einer Korrelationsmatrix, wo alle
psychologischen Variablen den physikalischen Variablen gegenübergestellt wer-
den, signifikante Korrelationen zwischen den jeweiligen Variablenpaaren (psycho-
logisch – physikalisch) auftauchen, die in der Kontroll-Korrelationsmatrix fehlen.
Die Kontroll-Korrelationsmatrix wird mit dem Kontrolldatensatz (ohne Display)
und den gleichen psychologischen Variablen erzeugt.26
Die Struktur der Daten erlaubt die Schlussfolgerung, dass die beobachteten Kor-
relationen (in der experimentellen Matrix) als Verschränkungskorrelationen betrachtet
werden können. Es konnte außerdem gezeigt werden, dass die Struktur der Verschrän-
kungskorrelationsmatrix zeitlich nicht stabil ist (wie vom NT-Axiom gefordert27) und
sich verändert, wenn das Experiment wiederholt wird. Die Ergebnisse sind in Über-
einstimmung mit den Voraussagen der „Verallgemeinerten Quantentheorie (VQT)“.
In der Zwischenzeit wurden ähnliche Studien von verschiedenen Autoren an
mehreren unabhängigen Forschungseinrichtungen mit ganz ähnlichen Resultaten
vorgelegt (Tabelle 1), so dass man als Fazit – mit einer gewissen Vorsicht – schlie-
ßen kann, dass sich (genügend motivierte) Versuchspersonen mit kausal unabhän-
gigen physikalischen Zufallsprozessen verschränken können.

Psych Phys N N
Publikation Subjects # Corr D
Var Var sig cont
Lucadou 1986 Markov 299 24 23 552 34 11 4,95
Lucadou 1986 Schmidt 299 24 22 528 11 4 2,48
Lucadou 1991 307 16 8 128 28 13 3,10
Radin 1993 1 16 23 368 32 17 2,63
Lucadou 2006 motivated 386 27 20 540 93 42 5,79
Lucadou 2006 non-motivated 386 27 20 540 53 42 1,25
Lucadou 2006 Innovatives 220 27 20 540 60 42 2,05
Faul, Braeunig 2010 22 24 9 216 17 10 1,60
Walach et al 2014 503 45 45 2025 278 198 4,23
Grote 2016 20 6 5 30 6 1 3,60
Jolij 2016 105 10 60 600 82 52 3,08
Flores 2016 213 45 45 2025 362 173 10,62

Tabelle 1: Ergebnis aller bisherigen Korrelationsstudien: Nsig zählt die Anzahl von signifikanten
Korrelationen in der Korrelationsmatrix zwischen den psychologischen Variablen (Psych Var)
und den physikalischen Variablen (Phys Var), Ncont diejenigen in der Kontrollmatrix.
(#corr = Psych Var x Phys Var), Nsubj = Anzahl der Versuchspersonen,
Standardisierte Differenz D = (Nsig – Ncont)/√(2* Ncont*(1- Ncont/#corr)).

26 vgl. ders.: The Model of Pragmatic Information (MPI). In: May, Edwin C.; Marwaha, Sonali
Bhatt (Eds.): Extrasensory Perception: Support, Skepticism, and Science. Vol. 1: History, Con-
troversy, and Research; Vol. 2: Theories and the Future of the Field. Santa Barbara, CA, 2015.
27 Lucadou, Walter von; Römer, Hartmann; Walach, Harald: Synchronistic Phenomena as Entan-
glement Correlations in Generalized Quantum Theory. In: Journal of Consciousness Studies,
14, 4, 2007, pp. 50–74.
64 Walter von Lucadou

MÖGLICHE KONSEQUENZEN

Wenn Versuchspersonen sich mit physikalischen Zufallsprozessen verschränken


können, dann folgt daraus im Prinzip, dass Menschen sich auch mit Computern
verschränken können – allerdings nur mit realen, weil diese bisweilen (Hardware-)
Fehler machen, also Zufallsprozesse enthalten. Dies gilt (nach obigen Überlegun-
gen) besonders für selbstorganisierende (also lernende) Maschinen, weil durch
deren Embodiment notwendigerweise Zufallsprozesse ins Spiel kommen und na-
türlich erst recht mit echten Quantencomputern, die es allerdings noch nicht gibt.
Quantencomputer sind nämlich keine Turingmaschinen, sondern extrem effiziente
Rate- oder Schätz-Maschinen, die präparierbare Quantenzustände einnehmen kön-
nen und dann ein „geeignetes“ Zufallsergebnis liefern. Eine Verschränkung des
Menschen mit einem solchen System unterscheidet sich von den oben geschilder-
ten Experimenten im Prinzip kaum. Man kann somit davon ausgehen, dass Pro-
banden diesen Systemen genauso „Bewusstsein“ zuschreiben werden, wie sie dies
bei einem menschlichen Gegenüber tun würden. Als praktische Anwendung könnte
man durch die Verschränkung zwischen Mensch und Maschine die enorme Rechen-
leistung des Computers mit der „Intuition“ des Menschen so kombinieren, dass
Anwendungen möglich werden, die weit über die Möglichkeiten von Turingma-
schinen hinausgehen.28 Die Frage ist natürlich, ob solche Anwendungen für den
Menschen wirklich positiv zu bewerten wären.

28 Lucadou, Walter von: Die Magie der Pseudomaschine. In: Belschner, Wilfried; Galuska, Joa-
chim; Walach, Harald; Zundel, Edith (Hg.): Transpersonale Forschung im Kontext. Oldenburg
2002: Transpersonale Studien 5, Bibliotheks- und Informationssystem der Universität Oldenburg.
Gibt es makroskopische Verschränkungen zwischen Mensch und Maschine? 65

LITERATUR

Atmanspacher, Harald; Römer, Hartmann; Walach, Harald: Weak quantum theory. Complementarity
and entanglement in physics and beyond. In: Foundations of Physics, 32, 2002, pp. 379–406.
http://arxiv.org/abs/quant-ph/0104109.
Beutler, J. J.; Attevelt, J. T. M.; Geijskes, G. G.; Schouten, S. A.; Faber, J. A. J.; Mees, E. J. D.: The
Effect of Paranormal Healing on Hypertension. In: Journal of Hypertension, 5 (suppl. 5), 1987,
pp. 551–552.
Bloch, Arthur: Murphy’s Law and other reasons why things go wrong. Los Angeles, CA, 1977.
Borges Flores, A.: Unpublished results. Personal communication. 2016.
Braeunig, Matthias; Faul, Tillmann: Die von Lucadousche Korrelationsmatrix am Beispiel des
T.REG Zufallsgenerators – Probleme und Resultate. Abstract 2010. XXVI. Workshop der wis-
senschaftlichen Gesellschaft zur Förderung der Parapsychologie e. V. (WGFP), 22. bis 24. Ok-
tober 2010 in Offenburg. The Meaning-Switch. Investigation of Precognition in an Operatio-
nally Closed System. Final Report for BIAL Project No. 98/06 (completed February 2009).
Csikszentmihalyi, Mihaly: Das Flow-Erlebnis. Jenseits von Angst und Langeweile im Tun aufge-
hen. 2000(8). (Übers.: Beyond Boredom and Anxiety. The Experience of Play in Work and
Games. Stuttgart 1975.)
Einstein, Albert; Podolsky, Boris; Rosen, Nathan: Can quantum mechanical description of physical
reality be considered complete? In: Physical Review, 47, 1935, pp. 777–780.
Grote, Hartmut: Multiple-analysis correlation study between human psychological variables and
binary random events. Submitted to Journal for Scientific Exploration, 2016.
Jolij, Jake: Conceptual replications of the correlation matrix method in main stream experiments.
International Symposium: Testing Generalised Entanglement: The Matrix Experiment –
Towards a Consortium Replication, Capri, October 27–29, 2016.
Jordan, Pascual: Verdrängung und Komplementarität. Hamburg 1947.
Kornhuber, Hans Helmut; Deecke, Lüder: Hirnpotentialänderungen bei Willkürbewegungen und
passiven Bewegungen des Menschen. Bereitschaftspotential und reafferente Potentiale.
In: Pflüger’s Archiv für die gesamte Physiologie des Menschen und der Tiere. Bd. 284, 1965,
pp. 1–17. doi:10.1007/BF00412364 PDF
Libet, Benjamin; Gleason, Curtis A.; Wright, Elwood W.; Pearl, Dennis K.: Time of conscious inten-
tion to act in relation to onset of cerebral activities (readiness potential).The unconscious initi-
ation of a freely voluntary act. In: Brain, 106, 1983, pp. 623–642.
Lucadou, Walter von: Experimentelle Untersuchungen zur Beeinflussbarkeit von stochastischen
quantenphysikalischen Systemen durch den Beobachter. Frankfurt 1986.
ders.: Keine Spur von Psi. Zusammenfassende Darstellung eines umfangreichen Psychokineseexpe-
riments. In: Zeitschrift für Parapsychologie und Grenzgebiete der Psychologie, 28, 1986,
S. 169–197.
ders.: A multivariate PK experiment. Part III. Is PK a real force? The results and their interpretation.
In: European Journal of Parapsychology, 6, 4, 1987, pp. 369–428.
ders.: A Multivariate PK Experiment with unidirectional correlated RNGs. In: Morris, R. L. (Ed.):
The Parapsychological Association 30th Annual Convention. Proceedings of Presented Papers.
1987. Parapsychological Association. pp. 255–261.
ders.: Locating psi-bursts. Correlations between psychological characteristics of observers and ob-
served quantum physical fluctuations. In: Delanoy, Deborah L. (Ed.): The Parapsychological
Association 34th Annunal Conventio. Proceedings of Presented Papers. Heidelberg 1991. Pa-
rapsychological Association. pp. 265–281.
ders.: Makroskopische Nichtlokalität. In: Kratky, Karl W. (Hg.): Systemische Perspektiven: Inter-
disziplinäre Beiträge zu Theorie und Praxis. Heidelberg 1991. S. 45–63.
ders.: Lassen sich „PK-Impulse“ lokalisieren? Korrelationen zwischen Persönlichkeitsmerkmalen
von Beobachtern und quantenphysikalischen Fluktuationen. In: Zeitschrift für Parapsychologie
und Grenzgebiete der Psychologie, 35, 1993, S. 41–70.
66 Walter von Lucadou

ders.: A new experiment suggesting non-local correlations in macroscopic complex systems. In:
Dalenoort, Gerhard J. (Ed.): The Paradigm of Self-Organization II. Studies in Cybernetics).
New York, London, Paris 1994. pp. 52–77.
ders.: Locating Psi-Bursts. Correlations Between Psychological Characteristics of Observers and
Observed Quantum Physical Fluctuations. In: Cook, E. W.; Delanoy, Deborah L. (Eds.): Re-
search in Parapsychology 1991. Metuchen, NJ, 1994. pp. 39–43.
ders.: The Exo-Endo-Perspective of Non-locality in Psycho-Physical Systems. In: International
Journal of Computing Anticipatory Systems, 2, 1989, pp. 169–185.
ders.: Backward Causation and the Hausdorff-Dimension of Singular Events. In: Steinkamp, Fiona
(Ed.): Proceedings of Presented Papers. The Parapsychological Association 43rd Annual Con-
vention August 17–20. Freiburg i. Br. 2000. pp. 138–147.
ders.: Die Magie der Pseudomaschine. In: Belschner, Wilfried; Galuska, Joachim; Walach, Harald;
Zundel, Edith (Hg.): Transpersonale Forschung im Kontext. Oldenburg 2002: Transpersonale
Studien 5, Bibliotheks- und Informationssystem der Universität Oldenburg.
ders.: Self-organization of temporal structures–a possible solution for the intervention problem.
In: Sheehan, Daniel P. (Ed.): Frontiers of Time. Retrocausation–Experiment and Theory. AIP
Conference Proceedings, Volume 863. Melville, New York 2006. pp. 293–315.
ders.: Complex Environmental Reactions as a New Concept to Describe Spontaneous ‘‘Paranormal’’
Experiences. In: Axiomathes, 21(2), 2010, pp. 263–285.
ders.: Selbstorganisation zeitlicher Strukturen. Eine mögliche Lösung für das Interventionsproblem.
In: Zeitschrift für Parapsychologie und Grenzgebiete der Psychologie, 47/48/49, 2005/2006/
2007, 2011, S. 63–88.
ders.: The Model of Pragmatic Information (MPI). In: May, Edwin C.; Marwaha, Sonali Bhatt
(Eds.): Extrasensory Perception: Support, Skepticism, and Science. Vol. 1: History, Contro-
versy, and Research; Vol. 2: Theories and the Future of the Field. Santa Barbara, CA, 2015.
ders.: Verschränkungswahrnehmung und Lebenskunst. In: Engelhardt, Dietrich von; Kick, Hermes
Andreas (Hg.): Lebenslinien – Lebensziele – Lebenskunst. Festschrift zum 75. Geburtstag von
Wolfram Schmitt. Reihe: Medizingeschichte. Bd. 6. Berlin 2014. S. 37–55.
ders.: The Correlation-Matrix Method (CMM). A New Light Upon the Repeatability Problem of
Parapsychology. In: Journal of Parapsychology, Vol. 79, Nr. 2, 2015, pp. 145–146.
Lucadou, Walter von; Römer, Hartmann; Walach, Harald: Synchronistic Phenomena as Entangle-
ment Correlations in Generalized Quantum Theory. In: Journal of Consciousness Studies, 14,
4, 2007, pp. 50–74.
Lucadou, Walter von; Römer, Hartmann: Schuld, Person und Gesellschaft. Systemische Perspekti-
ven. In: Kick, Hermes Andreas; Schmitt, Wolfram (Hg.): Schuld – Bearbeitung, Bewältigung,
Lösung. Strukturelle und prozessdynamischer Aspekte. Berlin 2011. S. 79–97.
Primas, Hans: Time-asymmetric phenomena in biology complementary exophysical descriptions
arising from deterministic quantum endophysics. In: Open Systems & Information Dynamics
1(1), 1992, pp. 3–34.
Radin, Dean: Enviromental modulation and statistical equilibrium in mind-matter interaction. In:
Subtle Energies and Energy Medicine 4, 1993, pp. 1–29.
Renninger, Mauritius: Messungen ohne Störungen des Messobjekts. Zeitschrift für Physik, 158,
1960, S. 417–421.
Reuter, Bernhard M.: Zur Psychophysiologie der Ich-Identität. Zeitschrift für Parapsychologie und
Grenzgebiete der Psychologie, 38, 1996, S. 115–135.
Römer, Hartmann: Verschränkung. In: Knaup, Marcus; Müller, Tobias; Spät, Patrick (Hg.): Post-
Physikalismus. Bamberg 2013. S. 87–121.
Römer, Hartmann; Walach, Harald: Complementarity of phenomenal and physiological observab-
les. A primer on generalised quantum theory and its scope for neuroscience and consciousness
studies. In: Walach, Harald; Schmidt, Stefan; Jonas, Wayne B. (Eds.): Neuroscience, con-
sciousness and spirituality. Dordrecht, Heidelberg, London, New York 2011. pp. 97–107.
Tholey, P.: Erkenntnistheoretische und systemtheoretische Grundlagen der Sensumotorik aus ge-
stalttheoretischer Sicht. In: Sportwissenschaft, 10, 1980, S. 7–35.
Gibt es makroskopische Verschränkungen zwischen Mensch und Maschine? 67

Turing, Alan M.: On Computable Numbers, with an Application to the Entscheidungsproblem. In:
Proceedings of the London Mathematical Society. Series 2. Nr. 42, 1936, pp. 230–265.
ders.: Computing machinery and intelligence. Mind, 59, 1950, pp. 433–460.
Uzan, Pierre: On the Nature of Psychophysical Correlations. In: Mind and Matter, Vol 12 (1), 2014,
pp. 7–36.
Varela, Francisco J.: Autonomy and autopoesis. In: Roth, Gerhard; Schwengler, Helmut (Eds.): Self-
Organizing Systems. Frankfurt, New York: Campus 1981. pp. 14–23.
Walach, Harald: Mind-Matter Interactions. On the Rollercoaster from Data to Theory and Back
Again. In: Aquém e Alén do Cérebro. Behind and Beyond the Brain 100 Simpósio da Fundação
Bial. 2014. pp. 85–114.
Walach, Harald; Lucadou, Walter von; Römer, Hartmann: Parapsychological Phenomena as Examp-
les of Generalised Nonlocal Correlations. A Theoretical Framework. In: Journal of Scientific
Exploration, Vol. 28, No. 4, 2014, pp. 605–631.
Walach, Harald; Horan, Majella: Capturing PSI. Replicating von Lucadou’s Correlation Matrix Ex-
periment using a REG Mikro-PK. Presentation at the BIAL-Conference, Porto, March 2014.
Walach, Harald; Horan, Majella; Hinterberger, Thilo; Lucadou, Walter von: Evidence for a Genera-
lised Type of Nonlocal Correlations Between Systems Using Human Intention and Random
Event Generators. Submitted for publication in PLOS 1. 2016.
Walach, Harald; Römer, Hartmann: Complementarity is a useful concept for consciousness studies.
A Reminder. In: Neuroendocrinology Letters, 21, 2000, pp. 221–232.
VOM ERKENNEN UND GESTALTEN
TECHNISCHER MÖGLICHKEITEN
Überlegungen zur Wissenschaftstheorie der Technikwissenschaften

Klaus Erlach

1 DREITEILUNG DES MENSCHLICHEN VERNUNFTVERMÖGENS


IN THEORIE, PRAXIS UND POIËSIS

Technik als Gegenstandsbereich der Philosophie scheint im Vergleich zu den großen


Themen wie Metaphysik, Naturphilosophie oder Ethik von der abendländischen Phi-
losophie meist nur recht beiläufig behandelt worden zu sein. Dies hat seine Ursache
bereits in der antiken Philosophie und hängt oberflächlich betrachtet auch mit einer
gewissen Geringschätzung der „banausischen“ (βαναυσοι) Handwerke im Vergleich
zur geistigen Schau wahren Wissens, bezeichnet als „Theorie“ (ϑεωρια), zusammen.
So stellt etwa Platon im Dialog „Politikos“ fest, dass kein vernünftiger Mensch die
Struktur beispielsweise der Weberei um ihrer selbst willen untersuchen wird1. Damit
scheint eine an konkrete Techniken angebundene Technikphilosophie in der Antike
weiterer Überlegung nicht wert zu sein. Für Platon dient eine Erklärung der Struktur
der Weberei lediglich als Modell zur Klärung komplexer theoretischer Probleme.
Im bekannten Einleitungssatz der „Nikomachischen Ethik“ nimmt Aristoteles
eine grundlegende Dreiteilung der Formen menschlicher Tätigkeiten vor: „Jede
Kunst (τεχνη) und jede Lehre (μεθοδος), ebenso jede Handlung (πραξις) und
jeder Entschluss scheint irgendein Gut zu erstreben.“2 Von Interesse ist hier ins-
besondere die Unterscheidung zwischen dem mit einem Entschluss verbundenen
Handeln und dem technischen Können. Während nun beim praktischen Handeln
das Ziel in den Tätigkeiten (ενεργειαι) selbst oder den durch sie bewirkten Folgen
liegt, dient das technische Können dem Hervorbringen eines Werkes (εργον), das
von der Tätigkeit abtrennbar und für etwas anderes dienlich ist.3 „Demnach ist auch
das mit Vernunft verbundene handelnde Verhalten von dem mit Vernunft verbunde-
nen hervorbringenden (ποιησις) Verhalten verschieden. Darum ist auch keines im
anderen enthalten. Denn weder ist ein Handeln Hervorbringen, noch ist ein Her-
vorbringen Handeln.“4 Sittliches Handeln und das Produzieren eines Werkes sind
demnach voneinander zu unterscheiden. Diese Dreiteilung in Theorie, Praxis und
Poiësis ist nach Günther Bien „für die aristotelische Philosophie konstitutiv und für
die Folgezeit von größter Bedeutung. Sie gibt den Rahmen ab für die aristotelische

1 s. Platon: Politikos. In: ders.: Sämtliche Werke, Bd. 5. Reinbek bei Hamburg 1987. 285 d.
2 Aristoteles: Die Nikomachische Ethik (EN). München 1986. 1094a1, 55.
3 a. a. O., 1139b1–3, 183.
4 a. a. O., 1140a3–6, 185.
70 Klaus Erlach

Einteilung (und Bewertung) der Wissenschaften, der Weltbestände, der mensch-


lichen Handlungskompetenzen (oder ‚Tugenden‘), der Vernunftformen und ver-
nünftigen Seelenteile, der Grundformen von Wahrheit sowie der Lebensweisen und
Lebensziele und wird als vollständig und abgeschlossen vorausgesetzt.“5 Damit ist
aber auch klar, dass ethische und technikphilosophische Fragen nach Aristoteles
komplett getrennten Sphären zuzuordnen sind.
Das auf die Praxis, also auf das sittliche Handeln im sozialen Kontext bezo-
gene Vernunftvermögen ist die Klugheit (φρονησις), die richtige Entscheidungen
gewährleistet und für die Wahl legitimer Handlungsziele zuständig ist. Demgegen-
über ist das auf die Poiësis, also auf das richtige Hervorbringen von kunstvollen
Werken bezogene Vernunftvermögen das rationale Herstellungsvermögen mit der
Bezeichnung „Technik“ (τεχνη). Damit ist zugleich eine Auf- und Abwertung
verbunden. Zum einen ist die technische Vernunft auf der gleichen intellektuellen
Ebene wie die sittliche oder auch die theoretische Vernunft anzusiedeln, zum ande-
ren bleibt sie aber ob ihres Werkcharakters fremden Zielen dienlich und damit der
guten Zielsetzung sittlichen Handelns untergeordnet.
Die drei grundsätzlichen Lebensformen (βιοι) – erstens der theoretischen Kon-
templation mit dem Streben nach Wissen, zweitens des politisch-sittlichen Han-
delns mit dem Streben nach dem Guten sowie drittens des poiëtischen Herstellens
mit dem Streben nach schönen und nützlichen Werken – spannen eine Trias auf,
nach der sich nicht nur die philosophischen Disziplinen, sondern auch alle anderen
Wissenschaften einteilen lassen (Abb. 1). Die Formalwissenschaften – bei Aristo-
teles im „Organon“ zusammengefasst – bilden die Grundlage für alle drei Wissens-
bereiche und sind hier nicht eigens dargestellt.

Abb. 1: Die fundamentale Dreiteilung der Wissenschaften in Theorie, Praxis und Poiësis
(in Anlehnung an Aristoteles)

5 Bien, Günther: Praxis, praktisch. I. Antike. In: Ritter, Joachim; Gründer, Karlfried (Hg.): His-
torisches Wörterbuch der Philosophie. Bd. 7. Basel 1989. Sp. 1281.
Vom Erkennen und Gestalten technischer Möglichkeiten 71

Etwas pointiert und auch nur in lockerer Anlehnung an Aristoteles lassen sich also die
drei Sphären wie folgt charakterisieren und in ihrer jeweiligen Zielsetzung verorten:
1. In der Sphäre der Theorie geht es um die Erkenntnis der physikalischen, che-
mischen, biologischen und menschlichen Natur dank des Vermögens der reinen
Vernunft. Dazu formulieren die Naturwissenschaften mit Kausalgesetzen – den
sogenannten Naturgesetzen – und Naturprinzipien deskriptive Aussagen über
die (objektive) Realität, die sich an ihrer Wahrheit messen lassen müssen.
2. In der Sphäre der Praxis geht es um die Legitimation der sozialen und sittlichen
Verhältnisse in der Gesellschaft dank des Vermögens der praktischen Vernunft.
Dazu formulieren die Sozialwissenschaften mit moralischen Normen und Ge-
setzen des positiven Rechts präskriptive Aussagen über die (soziale) Welt, die
sich an der damit erreichten Gerechtigkeit messen lassen müssen.
3. In der Sphäre der Poiësis geht es um die Gestaltung technischer Gebilde dank
des Vermögens der poiëtischen Vernunft. Dazu entwickeln die Technikwissen-
schaften mit technologischen Regeln und Gestaltungsrichtlinien handlungs-
leitende Aussagen über die (zu konstruierende) Wirklichkeit, die sich an ihrer
Effektivität – sowie der funktionalen Schönheit der konstruierten Produkte –
messen lassen müssen. Die konstruierte Wirklichkeit kann man in extensio-
naler Definition als „Technosphäre“ bezeichnen.6 Mit einer Kritik der poiëti-
schen Vernunft wären dann Möglichkeiten und Grenzen der Gestaltbarkeit der
Technosphäre aufzuzeigen.7
Die im abendländischen Denken vorherrschenden philosophischen Disziplinen
konzentrieren sich hauptsächlich auf die beiden Sphären von Theorie und Praxis,
während die Sphäre der Poiësis nur selten mit eigenständigen Werken gewürdigt
worden ist. Bei Aristoteles sind dies nur die „Poetik“ und im eingeschränkten Sinne
auch die „Rhetorik“. Die besondere Stellung der aristotelischen „Poetik“ liegt im
technikphilosophischen Zusammenhang darin, dass sie Gestaltungsrichtlinien für
die gelungene Tragödie angibt, also präskriptiv vorschreibt, wie eine gute Tragödie
zu „konstruieren“ ist.8 Als moderne philosophische Disziplin gehört zur Sphäre der
Poiësis die historisch sehr spät auftretende Ästhetik, die mit dem Schönen nach der
Scheidung des Wahren vom Guten nur einen kleinen Teil des poiëtischen Schaffens
umfasst, nämlich nur die „zweckfreien“ Künste, nicht aber die „nützliche“ Tech-
nik. Zudem ist sie in der Regel als Rezeptionsästhetik lediglich auf die Frage des
ästhetischen Urteils eingeschränkt, ohne Vorschriften für die richtige Gestaltung
von Kunstwerken zu entwickeln. Genau dies aber muss eine allgemeine Theorie

6 grob skizziert in: ders.: Eine Kritik der poiëtischen Vernunft. Anmerkungen zur Wissenschafts-
theorie vom technischen Gestalten. In: Zeitschrift für allgemeine Wissenschaftstheorie. 32,
2001, 1, S. 1–25.
7 Erlach, Klaus: Das Technotop. Die technologische Konstruktion der Wirklichkeit. Münster
2000. S. 35.
8 Mit dem unlängst aufgefundenen zweiten Buch der „Poetik“ über die Komödie konnte eine bedeu-
tende Lücke im überlieferten Werk des Aristoteles geschlossen werden (vgl. ders.: Der unauslöschli-
che Weltenbrand des Lächerlichen. Die Wiederentdeckung der verschollenen Theorie der Komödie
von Aristoteles. In: Der blaue Reiter. 40, 2017, S. 50–55.). Wenn man bedenkt, wie gering die bishe-
rige Quellenlage zum Bereich der poiëtischen Vernunft gewesen ist, ist dies kein kleiner Gewinn.
72 Klaus Erlach

der Technik im Rahmen der Technikphilosophie leisten – vor allem wenn es um die
Konstruktion und Herstellung nützlicher Artefakte geht.
Mit wachsender Bedeutung der technischen Lebenswelt – dem „Technotop“9 –
stellt sich den historisch „verspäteten“ Wissenschaftlern an Technischen Universi-
täten10 immer dringlicher die Frage, was den spezifisch technikwissenschaftlichen
Gehalt ihrer Forschung ausmachen kann und soll. Mit den nun folgenden Über-
legungen zu einer Wissenschaftstheorie der Technik soll umrissen werden, was
Technikwissenschaften sind und wie sie arbeiten sollen. Dies erfordert zunächst ein
definitorisches Unterfangen.

2 WISSENSCHAFTSVERSTÄNDNIS DER TECHNIKWISSENSCHAFTEN

Unter dem sehr treffenden Titel „Erkennen – Gestalten – Verantworten“ hat die
„Deutsche Akademie der Technikwissenschaften“ die wissenschaftliche Eigen-
ständigkeit der Technikwissenschaften hervorgehoben: „Technikwissenschaften
schaffen kognitive Voraussetzungen für Innovation in der Technik und Anwendung
technischen Wissens und legen die Grundlagen für die Reflexion ihrer Implika-
tionen und Folgen.“11 Leider geht in dieser Definition die doppelte Aufgabe des
Erkennens und Gestaltens verloren. Die Überlegungen von „acatech“ aufgreifend
sei daher folgende Definition vorgeschlagen, die mit einer begrifflichen Trennung
von Technik- und Ingenieurwissenschaften den Doppelaspekt betont: „Die Tech-
nik- und Ingenieurwissenschaften dienen der Gesellschaft durch Erkennen und Ge-
stalten technischer Möglichkeiten mit Hilfe von spezifischen Methoden. Sie sind
institutionalisiert in sich beständig wandelnden, eigenständigen Disziplinen.“12
1. Das „Dienen“ verweist darauf, dass die Technik- und Ingenieurwissenschaften
zweckmäßig sind in dem allgemeinen Sinne, dass sie die Möglichkeitsräume
des technischen Handelns vergrößern. Dadurch erschließen sie neue Möglich-
keiten zur Erfüllung gesellschaftlicher Bedürfnisse und stehen in entsprechen-
der Verantwortung.
2. Im „Erkennen“ sind die Technikwissenschaften den Naturwissenschaften am
ähnlichsten. Typische Methoden sind hier empirische Versuchsreihen zur sys-
tematischen Analyse präparierter technischer Artefakte. Typische Ergebnisse
sind technologische Gesetze und Regeln, die zum Teil auch normativ kodifi-
ziert werden (Abschnitt 3).

9 ders.: Das Technotop. Die technologische Konstruktion der Wirklichkeit. Münster 2000. 37 ff.
10 Erst 1899 verlieh Wilhelm II. anlässlich des 100-jährigen Jubiläums der TH Berlin das Promo-
tionsrecht (s. König, Wolfgang: Die Technikerbewegung und das Promotionsrecht der Techni-
schen Hochschulen. In: Schwarz, Karl (Hg.).: 1799–1999. Von der Bauakademie zur Techni-
schen Universität Berlin. Berlin 2000, S. 127.).
11 acatech (Hg.): Technikwissenschaften: Erkennen – Gestalten – Verantworten. acatech Impuls.
Berlin 2013. S. 18.
12 Diese Definition wurde Auftrag der „Expertenkommission Ingenieurwissenschaften@BW2025“
erarbeitet und nahezu wortgleich als Definition von „Ingenieurwissenschaften“ publiziert (Exper-
tenkommission Ingenieurwissenschaften@BW2025: Abschlussbericht. Stuttgart 2015. S. 5).
Vom Erkennen und Gestalten technischer Möglichkeiten 73

3. Im „Gestalten“ gehen die Ingenieurwissenschaften über andere Wissenschaf-


ten am meisten hinaus, weil sie Prinziplösungen, Methoden sowie normative
Gestaltungsrichtlinien zur Synthese neuer technischer Artefakte und Systeme
entwickeln (Abschnitt 4).
4. In „Disziplinen“ sind die Technik- und Ingenieurwissenschaften aufgrund ihres
geradezu unüberschaubaren inhaltlichen Umfangs fachlich gegliedert. Da diese
Disziplinen eine gewisse Kontinuität brauchen, müssen sie in Einrichtungen
institutionalisiert sein, die sich dem technologischen Wandel anpassen können.
Für eine „Wissenschaftstheorie der Technikwissenschaften“ ergibt sich durch die
basale Zweiteilung in Technikanalyse und Techniksynthese die Aufgabe, neben
dem richtigen Erkennen auch das richtige Gestalten zu begründen. Die Begrün-
dung des verantwortlichen technischen Handelns bleibt hingegen der Technikethik
überlassen und soll hier nicht weiter verfolgt werden.

3 ERKENNEN TECHNOLOGISCHER REGELN UND GESETZE


IN DEN TECHNIKWISSENSCHAFTEN

Das Erkennen in den Technikwissenschaften hat Klaus Kornwachs mit einer auf Re-
geln aufbauenden technischen Handlungslogik rekonstruiert. Eine Regel definiert
Kornwachs dabei als eine „Anweisung, eine endliche Anzahl von Handlungen in ei-
ner bestimmten Reihenfolge hinsichtlich eines gegebenen Ziels an einem ‚Sachsys-
tem‘ durchzuführen“13. Die so bestimmten technischen Regeln ermöglichen eine
qualifizierte Anwendung von technischen Artefakten beim technischen Handeln.
Mario Bunge hat nun darauf hingewiesen, dass derartige Regeln nicht als einfa-
che Aussage über nomologische Zusammenhänge in Form der Implikation A → B
aufzufassen sind, sondern als Handlungsanleitung einen Aufforderungscharakter
haben.14 Das technische Regelwissen verbindet in Zweck-Mittel-Relationen zwei
kategorial unterschiedliche Dinge – nämlich ein anzustrebendes Resultat B (Ziel-
zustand) mit der dazu als erforderlich angesehenen Handlung A (Durchführung).
Die Regel „Wenn B sein soll, muss man A tun“ kann formal ausgedrückt werden
durch „try B per A“. Bunge führt zusätzlich den pragmatischen Syllogismus ein,
der die Gültigkeit der Regel auf die Gültigkeit eines Kausalgesetzes zurückführt:
„wenn (A → B), versuche B durch A.“15 Damit werden technische Regeln sehr eng
an gesetzesartige Aussagen wie z. B. Naturgesetze angebunden.
Im Unterschied zur logischen Implikation behauptet Bunge nun, dass die Ef-
fektivität technischer Regeln unbestimmt bzw. hinsichtlich des Resultats nicht
entscheidbar bleibt, wenn man die Handlung A nicht ausführt, sondern unterlässt.

13 Kornwachs, Klaus: Vom Naturgesetz zur technologischen Regel – ein Beitrag zu einer Theorie
der Technik. In: Banse, Gerhard; Friedrich, Käthe (Hg.): Technik zwischen Erkenntnis und
Gestaltung. Berlin 1996, S. 33.
14 a. a. O., S. 35.
15 Kornwachs, Klaus: Theoretisch-deduktive Methoden. In: Banse, Gerhard; Grundwald, Armin;
König, Wolfgang; Ropohl, Günter (Hg.): Erkennen und Gestalten. Eine Theorie der Technik-
wissenschaften. Berlin 2006. S. 248.
74 Klaus Erlach

Die entsprechend der Wahrheitstabelle der formalen Logik aufgebaute Effektivi-


tätstabelle hat dann zwei offene, mit Fragezeichen markierte Felder.16 Es ist das
Verdienst von Klaus Kornwachs und Mario Harz mit der von ihnen neu entwickel-
ten „Durchführungslogik“ diese Lücke geschlossen zu haben. Dabei wird zunächst
die Handlung A als Durchführung ε eines Sachverhaltes A präzisiert, um dann im
Formalismus das Unterlassen einer Durchführung ε (¬A) deutlich von der Verhin-
derung einer Durchführung ≈ ε (A) zu unterscheiden.17 Die entwickelten durchfüh-
rungslogischen Operationen formalisieren den rationalen Umgang mit technischen
Regeln beim technischen Handeln, also in der Anwendung. Sie sind damit aber
nicht Gegenstand einer Wissenschaftstheorie der Technikwissenschaften in dem
hier interessierenden engeren Sinn.
Das Ziel der Technikwissenschaften ist die Erkenntnisgewinnung im Bereich
grundlegender technischer Zusammenhänge, nicht primär das technische Anwen-
dungshandeln. Das technikwissenschaftlich erzeugte Wissen hat drei Aufgaben –
erkennende, erklärende und pragmatische. Es genügt dem Technologen nicht, bloß
zu wissen, erstens dass eine Konstruktion hält und die beabsichtigte Funktion erfüllt
(also effektiv ist), sondern er sucht zusätzlich nach gesetzesartigen Zusammenhän-
gen, die angeben, zweitens weshalb eine Konstruktion hält und effektiv ist sowie
drittens wie sie in ihrer Stabilität, Materialausnutzung oder Funktionalität zu ver-
bessern wäre, also effizienter zu gestalten ist. Die Technikwissenschaften befassen
sich dazu mit Wirkungszusammenhängen, die zwischen instrumentell messbaren
Phänomenen im technischen Bereich bestehen. Ergebnis ist ein technisches Wis-
sen, das in einem technologischen Regelwerk systematisch zusammengefasst und
soweit wie möglich formal-mathematisch gefasst wird. Diese Gestalt ist auch ein
deutlicher Unterschied zu Handlungsregeln mit Zweck-Mittel-Beziehungen. Die so
erarbeiteten technologischen Regeln dienen dann wissenschaftlich begründeten Be-
rechnungen zur Auslegung, Dimensionierung und elementaren Formgebung einer
technischen Konstruktion.
Zur Entwicklung des technologischen Wissens ist eine eigenständige experi-
mentelle Grundlagenforschung erforderlich. Dies soll an einem Beispiel aus der
Festigkeitslehre kurz umrissen werden. Im Experiment spannt man Materialpro-
ben mit definierter Geometrie in ein Prüfgerät, das die Probe in Längsrichtung mit
steigender Kraft langsam auseinanderzieht, bis sie reißt. Der zeitliche Verlauf wird
im Spannungs-Dehnungs-Diagramm dargestellt (Abb. 2). Dabei ist über der Deh-
nung ε die Zunahme der Spannung σ in der Probe aufgetragen. Bei kleinen Kräften
gilt für Metalle ein proportionaler Verlauf mit linear-elastischer (also reversibler)
Dehnung. Der entsprechend formulierte mathematische Zusammenhang σ = E × ε
findet sich als Hookesches Gesetz in jedem Physikbuch. Dieses sogenannte „Natur-
gesetz“ zeigt, wie sich Material unter Krafteinwirkung „natürlicher“ Weise verhält.
Die Natur zeigt sich in drei materialabhängigen Naturkonstanten, dem Elastizitäts-
modul E, der Streckgrenze Re, sowie der Zugfestigkeit Rm.

16 Kornwachs, 1996, S. 37.


17 ders.: Strukturen technologischen Wissens. Analytische Studien zu einer Wissenschaftstheorie
der Technik. Berlin 2012. S. 178 ff.
Vom Erkennen und Gestalten technischer Möglichkeiten 75

▲ Spannung ơ =
Kraft F
Fläche A Einschnürungsbeginn
Zugfestigkeit Rm
(maximale Kraft)
nicht-lineare Zerreißgrenze
Streckgrenze Re
plastische Verformung

linear-elastische Dehnung
nach Hookschem Gesetz:
Spannung ơ =
Elastizitätsmodul E x Dehnung ε Längenänderung Δ /
Dehnung ε =
Ausgangslänge /0


Abb. 2: Die Spannungs-Dehnungs-Kurve beschreibt das Verhalten
einer Materialprobe unter Zugspannung

O F A

Omax
O*
On

AK
F Zugkraft
A Querschnittsfläche
AK Querschnittsfläche im Kerbgrund
O durchschnittliche Spannung in der Kerbe
Omax maximale Spannung im Kerbgrund
F O * Spannungsverlauf in der Kerbe

Abb. 3: Spannungsverteilung im außen gekerbten Rundstab bei Zugbelastung


(Läpple, Volker: Einführung in die Festigkeitslehre. Wiesbaden 2016(4). S.139.)

Den Technikwissenschaftler interessiert nun aber das Verhalten des gekerbten Rund-
stabs als Basis für Festigkeitsberechnungen zur Bauteilauslegung (Abb. 3). Im Kerb-
grund ist die Querschnittsfläche A des Rundstabes durch die Kerbe auf AK verkleinert.
Nun kann man aber nicht einfach mit der durchschnittlichen Spannung im Kerbgrund
σN rechnen, denn die Kerbe bedingt eine lokale Spannungsüberhöhung im Kerbgrund
auf σmax. Da sich dieser Wert nicht direkt messen lässt, muss man implizit vorgehen.
Dazu definiert man als Formzahl αK das Spannungsverhältnis σmax / σN, so dass eine
höhere Formzahl auf eine höhere Bauteilbelastung hinweist. Diese Formzahl lässt
sich nun experimentell ermitteln, indem man einen Zugversuch mit der gekerbten
76 Klaus Erlach

Probe durchführt und dann die Kräfte, die jeweils beim Beginn der plastischen Ver-
formung aufgewendet werden müssen, in Beziehung zueinander setzt.
Der Spannungsverlauf σ* in der Probe und somit der Wert von σmax hängen von
der Geometrieform der Kerbe und des Bauteiles ab. Für jede Kerbform müsste man
nun sehr aufwendig eigene Versuchsreihen durchführen. Heinz Neuber hat 1937
Berechnungsverfahren für den Spannungsverlauf σ* entwickelt, die auf Lösungen
nichtlinearer Differentialgleichungen basieren. Da die manuelle Berechnung auf-
wendig ist, werden die Formzahlwerte in Abhängigkeit von geometrischen Para-
metern auch in Diagrammen dargestellt. Mit Finiten Elemente Methoden kann man
heute für beliebige Kerbformen Näherungslösungen berechnen. In beiden Fällen
kann man von einem „technologischen Gesetz“ sprechen, das mathematisch als
Differentialgleichung formuliert ist, auf theoretischen Grundannahmen über den
Spannungsverlauf beruht und auch experimentell überprüft werden kann.18
Die mit einigem experimentellen und theoretischen Aufwand ermittelten Er-
gebnisse werden zur Berechnung der Festigkeit von neu konstruierten Bauteilen
benötigt. Für die Vorgehensweise gilt nun folgende „technologische Regel“: Ers-
tens ist die Formzahl in Abhängigkeit von der Belastungsform und der Bauteilgeo-
metrie mit ihrer jeweiligen Kerbwirkung zu ermitteln. Zweitens hat die Festlegung
eines Sicherheitsfaktors, der die Effektivität der Regel gegen nicht berücksichtigte
Abweichungen und Störgrößen (Materialfehler, Toleranzen) absichern soll, zu er-
folgen. Und schließlich erfolgt drittens die Berechnung der maximal zulässigen
Belastung über die zulässige Spannung nach folgender Dimensionierungsregel:

Um ein Bauteilversagen sicher zu vermeiden, dürfen die beim Einsatzzweck auf-


tretenden Kräfte keine größere Belastungsspannung erzeugen als kalkuliert. Bei
schwingender Beanspruchung verringert sich die Kerbwirkung, d. h. das Bauteil
kann kleiner dimensioniert werden. Für diesen aus der Erfahrung bekannten Effekt
gibt es keine theoretische Ableitung. Die technologische Regel wird hier ohne zu-
grundeliegendes technologisches Gesetz formuliert.
Das Beispiel aus der Festigkeitslehre zeigt die gegenüber der Physik in den
grundlagenorientierten Technikwissenschaften verschobene Fragestellung. Die
Naturwissenschaft formuliert mathematisch gefasste Naturgesetze (als Differenti-
algleichung), die Naturkonstanten (meist Materialkonstanten) enthalten. Damit be-
treffen naturwissenschaftliche Aussagen primär Merkmale und Verhalten der Mate-
rie (υλη) – von der Elastizität der Festkörper bis zur Wechselwirkung der Elemen-
tarteilchen. Die Aussagen beinhalten in der Regel keine konkreten geometrischen
Gestaltangaben, sondern bevorzugen abstrakte Grenzwerte wie Massepunkte. Der

18 Auch „acatech“ unterscheidet Gesetze von Regeln: „Das Ziel der Technikwissenschaften be-
steht in der Erzeugung von Gesetzes-, Struktur- und Regelwissen über Technik – in der Ab-
sicht, dieses in technischen Anwendungen zu nutzen.“ (acatech, a. a. O., S. 19.)
Vom Erkennen und Gestalten technischer Möglichkeiten 77

Technikwissenschaftler erforscht keine Naturkonstanten wie der Physiker, sondern


setzt sie als bekanntes Wissen voraus. Er erforscht vielmehr die Auswirkungen un-
terschiedlicher, standardisierter Formelemente auf die mit Naturgesetzen beschrie-
benen, idealisierten, gerade von spezifischer Formgebung absehenden Zusammen-
hänge. Für den Ingenieur tritt mit Geometrie und Abmessungen die Form (ειδοζ)
in den Mittelpunkt des Forschungsinteresses. Ergebnis ist ein technologisches Re-
gelwerk mit zwei zentralen Elementen:
1. Den „Kern“ bilden technologische Gesetze, die die Berechnung von Formkenn-
zahlen in Abhängigkeit von Materialkonstanten und geometrischen Parametern
angeben. Die experimentell bestätigten Zusammenhänge werden entweder
explizit in Gleichungen oder implizit mit parametrisierten Kurvenscharen in
Diagrammen dargestellt. Wenn physikalische Tabellenbücher Materialkonstan-
ten enthalten, dann enthalten technische Tabellenbücher Formkennzahlen. Die
Gesetze sind wahr, wenn sie zutreffen.
2. Die „Peripherie“ bilden technologische Regeln, die angeben, wie basierend
auf technologischen Gesetzen oder bloß vermuteten gesetzesartigen Zusam-
menhängen technische Entwürfe zu dimensionieren sind. Als wichtigen Be-
standteil beinhalten sie zusätzlich normative Sicherheitsfaktoren basierend
auf standardisierten Erfahrungswerten. Diese präskriptiven Dimensionie-
rungsregeln sind häufig auch kodifiziert (DIN). Die Regeln erweisen sich als
effektiv, wenn die damit dimensionierten Konstruktionen in der Anwendung
funktionieren.
In die oben angegebene Dimensionierungsregel fließen dementsprechend auch drei
kategorial unterschiedliche Bestimmungsgrößen ein: Das sind erstens die Natur-
konstante Re aus dem Naturgesetz, zweitens der Geometrieparameter αK aus dem
technologischen Gesetz sowie drittens der normative Sicherheitsfaktor S aus der
technologischen Regel.

4 GESTALTEN MIT LÖSUNGSKATALOGEN UND


GESTALTUNGSRICHTLINIEN IN DEN INGENIEURWISSENSCHAFTEN

Das Ziel der Ingenieurwissenschaften besteht nun nicht darin, durch Anwendung
der in den Technikwissenschaften entwickelten technologischen Regeln ein be-
stimmtes Artefakt zu gestalten, denn dies ist Aufgabe des technischen Konstrukti-
onshandelns der Ingenieure. Ziel ist vielmehr die grundsätzliche Erweiterung der
Gestaltungsmöglichkeiten im Bereich technischer Lösungen durch die systemati-
sche Entwicklung von spezifischem Gestaltungswissen, nämlich geeigneten Gestal-
tungsmethoden, Gestaltungsprinzipien und Prinziplösungen. Das ingenieurwissen-
schaftlich erzeugte Wissen hat dabei drei Aufgaben – gestaltende, heuristische und
bewertende. Es genügt dem Ingenieur nicht, bloß zu ermitteln, erstens mit welchem
Entwurf ein Artefakt und seine Funktionen herstellbar sind durch Verwendung be-
reits bekannter Lösungselemente (also verwirklichbar sind), sondern er benötigt
zusätzlich präskriptive Handlungsleitfäden für den Entwurfsprozess. Diese müssen
78 Klaus Erlach

angeben, zweitens wie in methodischer Weise neue Möglichkeiten zu finden und


verwirklichungsfähig zu gestalten sind, sowie drittens nach welchen Kriterien die
jeweils gefundenen Lösungen zu bewerten sind, um schließlich die Lösung aus-
zuwählen (und zu verwirklichen), die die heterogenen technischen und außertech-
nischen Anforderungen bestmöglich erfüllt. Die Ingenieurwissenschaften befassen
sich dazu mit Gestaltungsaspekten, die als qualitativ bestimmbare Eigenschaften
im technischen Bereich zu bewerten sind. Ergebnis ist ein technisches Wissen, das
in technischen Lösungskatalogen in Verbindung mit präskriptiven, methodischen
Leitfäden systematisch zusammengefasst wird.
Zur Erarbeitung, Überprüfung durch Bewährung und Normierung des im tech-
nischen Lösungskatalog zusammengefassten Funktions-, Struktur- und Gestal-
tungswissens ist eine eigenständige Anwendungsforschung zu betreiben. Hierbei
werden nun nicht eigens herauspräparierte Zusammenhänge wie in einem natur-
oder technikwissenschaftlichen Experiment erforscht, sondern die Strukturen und
Funktionen eines vollständigen Artefaktes werden im Test geprüft. Bei der Struk-
turprüfung geht es beispielsweise um Stabilität und Haltbarkeit. Bei der Funktions-
prüfung interessieren neben der Effektivität und Effizienz der Funktionserfüllung
auch ungeplante Zusatzfunktionen, die sich gerne als Nebenwirkungen störend be-
merkbar machen. Ein Test kann virtuell als Simulation oder mit Prototypen entwe-
der im Prüfstand oder unter realen Einsatzbedingungen erfolgen.
Im Fallbeispiel der Kerbwirkung interessieren den Ingenieurwissenschaftler
nun die möglichen Gestaltungsvarianten. In Abbildung 4 ist beispielhaft ein Teil-
stück einer Welle dargestellt. Die Welle erhält aus funktionalen Gründen einen so-
genannten Einstich, der eine starke Kerbwirkung entfaltet. Diese soll durch Entlas-
tungskerben verringert werden. Für die Bewertung der jeweiligen Lösung gilt das
auf eine Ideallösung abzielende Gestaltungsprinzip des kraftflussorientierten Kons-
truierens: „In der Bauteilkonstruktion ist soweit wie möglich ein ungestörter Kraft-
fluss zu realisieren.“ Im Fall der kleinen Entlastungskerbe links bleibt der Kraftfluss
(in der Zeichnung mit den Linien in der oberen Hälfte dargestellt) gestört, daher ist
die rechte Entlastungskerbe zu wählen.
Das Beispiel aus der Konstruktion zuverlässiger Bauteile zeigt zwei Haupter-
gebnisse einer Ingenieurwissenschaft. Das ist erstens der Lösungskatalog, dessen
Elemente neben ihrer unterschiedlichen geometrischen Formgebung auch durch
unterschiedliche Wirkprinzipien charakterisiert sind. Nach Untergliederung einer
Konstruktionsaufgabe in Teilfunktionen, die das zu entwerfende Artefakt erfüllen
soll, kann der Konstrukteur die Gesamtfunktion modular aus Lösungsbausteinen
für jede Teilfunktion zusammensetzen. Aus einer spezifischen Aufgabenstellung
lässt sich die „richtige“ Lösungsgestaltung jedoch nicht deduktiv eindeutig ablei-
ten, sondern es kann durch die unterschiedlichen Kombinationen der Lösungsbau-
steine eine Vielzahl effektiver technischer Lösungen geben. Eine Orientierungs-
hilfe bei der Auswahl der Lösungsbausteine geben Gestaltungsrichtlinien der Form
„Versuche soweit wie möglich die Ideallösung I zu erreichen“ – kurz: ◊I (ermögli-
che I). Die Güte der Entwurfsvarianten ist schließlich mit gewichteten Kriterien zu
bewerten. Ergebnis ist eine Methodik des systematischen Konstruierens mit zwei
zentralen Elementen:
Vom Erkennen und Gestalten technischer Möglichkeiten 79


Störung des Kraftflusses links
durch zu kleine Entlastungskerbe

falsch Einstich richtig

Abb. 4: Gestaltungsvarianten einer Welle mit Einstich, mit Kraftfluss (aus: Steinhilper, Waldemar;
Sauer, Bernd (Hg.): Konstruktionselemente des Maschinenbaus 1. Grundlagen der Berechnung
und Gestaltung von Maschinenelementen. Berlin, Heidelberg 2012(8). S. 181.)

1. Den „Kern“ bilden Lösungskataloge mit den zugehörigen Gestaltungsrichtli-


nien. Die systematisch aufgebauten Konstruktionskataloge mit den Teilfunktio-
nen, Wirkprinzipien und Baustrukturen dienen als heuristische Suchhilfe (mor-
phologischer Kasten). Dies wird vervollständigt durch Gestaltungsrichtlinien,
die den Weg zur Ideallösung, den „one best way“ weisen.
2. Die „Peripherie“ bilden methodische Vorgehensweisen, die als präskrip-
tiver Handlungsleitfaden in definierten Arbeitsschritten den Weg zu einer
möglichst gelungenen Lösung absichern sollen. Zentraler Bestandteil einer
Lösungsmethodik sind die Bewertungskriterien und Bewertungsverfahren,
die abschließend zur Auswahl einer Vorzugslösung unter konkurrierenden
Zielsetzungen dienen. Dadurch sind sowohl eine quantitative als auch eine
qualitative Bewertung nach technischen und außertechnischen Kriterien zur
Auswahl und Gestaltung der guten Form, des geeigneten Materials sowie des
zweckmäßigen Produktionsverfahrens von technischen Artefakten möglich.
In die Methodik einer Ingenieurswissenschaft fließen drei kategorial unterschied-
liche Bestimmungsgrößen ein: Das sind erstens die Lösungsbausteine aus dem
Konstruktionskatalog, zweitens die Gestaltungsrichtlinien für die technische Ide-
allösung sowie drittens die normativen Bewertungskriterien zur Abwägung konf-
ligierender Zielsetzungen.
Pointiert lässt sich zusammenfassend sagen: Die Technikwissenschaften zie-
len auf das richtige Erkennen und leiten daraus Regeln ab. Die Ingenieurwissen-
schaften zielen auf das richtige Gestalten und leiten daraus Richtlinien ab. Für
eine Theorie der Technik ist dann zusätzlich noch eine Handlungstheorie erfor-
derlich.
80 Klaus Erlach

LITERATUR

acatech (Hg.): Technikwissenschaften: Erkennen – Gestalten – Verantworten. acatech Impuls.


Berlin 2013.
Aristoteles: Die Nikomachische Ethik (EN). München 1986.
Bien, Günther: Praxis, praktisch. I. Antike. In: Ritter, Joachim; Gründer, Karlfried (Hg.): Histori-
sches Wörterbuch der Philosophie. Bd. 7. Basel 1989. Sp. 1277–1287.
Erlach, Klaus: Das Technotop. Die technologische Konstruktion der Wirklichkeit. Münster 2000.
ders.: Eine Kritik der poiëtischen Vernunft. Anmerkungen zur Wissenschaftstheorie vom techni-
schen Gestalten. In: Zeitschrift für allgemeine Wissenschaftstheorie. 32, 2001, 1, S. 1–25.
ders.: Der unauslöschliche Weltenbrand des Lächerlichen. Die Wiederentdeckung der verschollenen
Theorie der Komödie von Aristoteles. In: Der blaue Reiter. 40, 2017, S. 50–55.
Expertenkommission Ingenieurwissenschaften@BW2025: Abschlussbericht. Stuttgart 2015.
König, Wolfgang: Die Technikerbewegung und das Promotionsrecht der Technischen Hochschulen.
In: Schwarz, Karl (Hg.).: 1799–1999. Von der Bauakademie zur Technischen Universität Ber-
lin. Berlin 2000, S. 123–129.
Kornwachs, Klaus: Vom Naturgesetz zur technologischen Regel – ein Beitrag zu einer Theorie der
Technik. In: Banse, Gerhard; Friedrich, Käthe (Hg.): Technik zwischen Erkenntnis und Gestal-
tung. Berlin 1996, S. 13–50.
ders.: Theoretisch-deduktive Methoden. In: Banse, Gerhard; Grundwald, Armin; König, Wolfgang;
Ropohl, Günter (Hg.): Erkennen und Gestalten. Eine Theorie der Technikwissenschaften. Ber-
lin 2006. S. 245–251.
ders.: Strukturen technologischen Wissens. Analytische Studien zu einer Wissenschaftstheorie der
Technik. Berlin 2012.
Läpple, Volker: Einführung in die Festigkeitslehre. Wiesbaden 2016(4).
Steinhilper, Waldemar; Sauer, Bernd (Hg.): Konstruktionselemente des Maschinenbaus 1. Grundla-
gen der Berechnung und Gestaltung von Maschinenelementen. Berlin, Heidelberg 2012(8).
II. FOLGEN DER TECHNIK:
KÖNNEN WIR ABSCHÄTZEN, WAS WIR TUN?
VON TECHNIKFOLGENPROGNOSEN ZUR
HERMENEUTISCHEN PERSPEKTIVE
Metamorphosen der Technikfolgenabschätzung

Armin Grunwald

1 TECHNIKFOLGENABSCHÄTZUNG UND KONSEQUENTIALISMUS

Entscheidungen werden in der Moderne, anders als in traditionellen Gesellschaften,


maßgeblich durch Zukunftsüberlegungen orientiert. Prospektives Folgenwissen,
Visionen, Prognosen, Erwartungen und Befürchtungen, aber auch Ziele werden in
Form von „Zukünften“ (z. B. von Technikzukünften1) gebündelt, kommuniziert und
diskutiert. Vielfach werden mögliche oder wahrscheinliche Folgen von Handlun-
gen und Entscheidungen analysiert, im Hinblick auf Erwünschtheit oder Zumutbar-
keit bewertet und in gegenwärtige Entscheidungsprozesse hinein rückgekoppelt.
Ist die Orientierung durch Zukunftswissen bereits im alltäglichen Leben gängige
Praxis, wenn etwa Entscheidungen über die angemessene Kleidung oder zum Frei-
zeitverhalten an der Wettervorhersage ausgerichtet werden, so gilt dies auch im
gesellschaftlichen Bereich. Umweltpolitik, Sozialpolitik, Energiepolitik oder Si-
cherheitspolitik sind einschlägige Felder, in denen teils weit ausgreifende Aussagen
über mögliche, zu verhindernde oder erhoffte Zukünfte als Entscheidungsgrundla-
gen verwendet werden, mit all den involvierten Unsicherheiten und konfliktbehaf-
teten Auseinandersetzungen der „Contested Futures“2.
Insbesondere die Erfahrung von unerwarteten und teilweise gravierenden Tech-
nikfolgen, die man gerne im Vorhinein gekannt hätte, um sie verhindern oder um
Kompensationsmaßnahmen einleiten zu können, ist vor diesem Hintergrund eine
der Grundmotivationen der Technikfolgenabschätzung (TA).3 Von den 1970er Jah-
ren an ging es zunächst um die Frühwarnung vor technikbedingten Gefahren4, dann
auch um die Früherkennung der Chancen von Technik, damit diese optimal genutzt
werden und Chancen und Risiken abgewogen werden können. TA soll systematisch
die Voraussicht für die Folgen des wissenschaftlich-technischen Fortschritts und
seiner Nutzung ausweiten. Damit soll eine naive „wait-and-see“-Strategie über-

1 acatech (Hg.): Technikzukünfte. Vorausdenken – Erstellen – Bewerten. acatech IMPULS. Hei-


delberg u. a. 2012.
2 Brown, Nik; Rappert, Brian; Webster, Andrew (Hg.): Contested Futures. A Sociology of Pros-
pective Techno-Science. Burlington 2000.
3 Grunwald, Armin: Technikfolgenabschätzung. Eine Einführung. Berlin 2010(2).
4 Paschen, Herbert; Petermann, Thomas: Technikfolgenabschätzung – ein strategisches Rahmen-
konzept für die Analyse und Bewertung von Technikfolgen. In: Petermann, Thomas (Hg.):
Technikfolgen-Abschätzung als Technikforschung und Politikberatung. Frankfurt 1991. S. 26.
84 Armin Grunwald

Abbildung 1: Das konsequentialistische Muster der Generierung von Orientierung


durch Zukunftsbetrachtungen (modifiziert nach Grunwald 6)

wunden werden, die sich darauf verlässt, dass im Wesentlichen positive Folgen zu
erwarten sind und bei unerwarteten negativen Technikfolgen der Schaden im Nach-
hinein leicht repariert werden könnte. Zu den Basisüberzeugungen der TA gehört,
dass für Entwicklung und Einsatz vieler moderner Technologien diese Strategie
weder politisch oder ökonomisch praktikabel noch ethisch verantwortbar ist.56
Technikfolgenabschätzung ist entstanden, um speziell den Umgang mit dem
wissenschaftlich-technischen Fortschritt, seinen Resultaten und seinen Folgen unter
den Anspruch praktischer Gestaltung zu stellen und diesen Anspruch durch Folgen-
forschung einzulösen. Belastbares Zukunftswissen, vor allem also Folgenwissen,
stellt dafür eine zentrale Vorbedingung dar. Hauptsächlicher Gegenstand der Ana-
lyse ist die Erforschung von Folgen, die es noch gar nicht gibt und vielleicht auch
nie geben wird. Das Wissen über diese Folgen soll Orientierung für Gesellschaft
und Politik geben, z. B. für Entscheidungsprozesse über Forschungsförderung oder
Regulierung oder in der deliberativen Austragung von Technikkonflikten (Abb. 1).
Gleichwohl ist es nicht trivial zu verstehen, wie durch Zukunftswissen Orientie-
rung geschaffen werden kann, da Zukunftswissen erkenntnistheoretisch prekär ist.
Weil also der Prognose-Optimismus der frühen TA (Kap. 2) nicht funktioniert hat, wur-
den in der Technikfolgenabschätzung Mittel und Wege entwickelt, mit dieser prekären
Natur – anders ausgedrückt, der Offenheit der Zukunft – verantwortlich und reflektiert
umzugehen. Szenarienbasierte Ansätze (Kap. 3) sind zum Standard geworden. Für die
Situation, dass auch diese nicht mehr im Sinne eines konsequentialistischen Paradig-
mas funktionieren, wurden hermeneutische Ansätze vorgeschlagen (Teil 4). Auf diese
Weise hat Technikfolgenabschätzung erhebliche Metamorphosen und Weiterentwick-
lungen durchgemacht, die als historischer Lernprozess zu verstehen sind.

5 Jonas, Hans: Das Prinzip Verantwortung. Versuch einer Ethik für die technologische Zivilisa-
tion. Frankfurt 1979.
6 Grunwald, Armin: Modes of orientation provided by futures studies: making sense of diversity
and divergence. European Journal of Futures Studies, 2013. doi 10.1007/s40309-013-0030-5.
Von Technikfolgenprognosen zur hermeneutischen Perspektive 85

2 TECHNIKFOLGENABSCHÄTZUNG IM PROGNOSE-OPTIMISMUS

Technikfolgenabschätzung hat in ihren Anfängen hohe Erwartungen an die mehr


oder weniger genaue Prognostizierbarkeit von Technikfolgen geweckt bzw. wurde
mit solchen Erwartungen konfrontiert. Nun sind Technikfolgen nicht einfach Fol-
gen der Technik, sondern Folgen von sozio-technischen Konstellationen. Denn für
die Folgen sind nicht nur die technischen Artefakte und Systeme verantwortlich,
sondern auch die Innovationen, Wertschöpfungsketten, Geschäftsmodelle, Nut-
zungsweisen etc., in denen moderne Gesellschaften sich die Technik zu Nutze ma-
chen, man könnte auch sagen, sich aneignen oder sie inkulturieren. Die Prognose
von Technikfolgen muss also die Prognose der entsprechenden gesellschaftlichen
Anteile mit umfassen. Zu diesem Zweck wurde beispielsweise das System „Tech-
nik – Gesellschaft“ kybernetisch analog zu natürlichen Systemen, nämlich als quasi-
naturgesetzlich ablaufendes und von außen beobachtbares Geschehen betrachtet,
analog zum Wettergeschehen.7 Für ein solches kybernetisches System könne eine
„Messtheorie“ für Technikfolgen entwickelt werden, mit der eine möglichst quan-
titative Erfassung dieser Folgen erreicht werden könnte. Auf der Basis der Ver-
laufsgesetze, nach denen dieses System funktioniere, seien dann auch mehr oder
weniger exakte Prognosen möglich. Über das Hempel-Oppenheim-Schema8 seien
logisch deduktive Prognosen auf der Basis von kausalem Gesetzeswissen möglich:
„Viele technische, ökonomische und soziale Folgeerscheinungen zeigen klare Re-
gelmäßigkeiten, wenn man sie auf einem hoch aggregierten Niveau betrachtet.“9
Probleme der Realisierung dieses Idealprogramms wurden zwar anerkannt, aber
der Komplexität gesellschaftlicher Zusammenhänge, der unzureichenden Datenba-
sis und der im Vergleich mit den Naturwissenschaften bislang geringen Gesetzes-
kenntnis angelastet.10 Es bestand ein Optimismus, dass mit genügend Forschungs-
aufwand und besseren Methoden die bis dato schlechte Performanz gesellschaftli-
cher Vorhersagen deutlich verbessert werden könnte. Aktuell werden im Feld der
„Big Data“ erneut Hoffnungen auf weitgehende Prognostizierbarkeit geweckt.
Allerdings sollte sorgfältig bedacht werden, was Prognostizierbarkeit bedeuten
würde. Denn prognostizieren lässt sich nur das, was zum Zeitpunkt der Prognose
schon feststeht, wenn also gesetzesartige Verknüpfungen zwischen dem Zustand
heute und dem Zustand einer zukünftigen Welt bestehen wie etwa im Bereich der
Himmelsmechanik. Die Ausrichtung auf die Prognose der Folgen von Technik in
der frühen Technikfolgenabschätzung unterstellt implizit oder explizit einen Tech-

7 Bullinger, Hans-Jörg Technikfolgenabschätzung – wissenschaftlicher Anspruch und Wirklich-


keit. In: Kornwachs, Klaus (Hg.): Reichweite und Potential der Technikfolgenabschätzung. Stutt-
gart 1991. S. 103–114.
8 Hempel, Carl Gustav: Aspects of Scientific Explanation and other Essays in the Philosophy of
Science. New York, London 1965.
9 Renn, Ortwin: Methodische Vorgehensweisen in der TA. In: Bröchler, Stefan; Simonis, Georg;
Sundermann, Karsten (Hg.): Handbuch Technikfolgenabschätzung. Berlin 1999. S. 611.
10 Renn, Ortwin: Kann man die technische Zukunft voraussagen? In: Pinkau, Klaus; Stahlberg,
Christina (Hg.): Technologiepolitik in demokratischen Gesellschaften. Stuttgart 1996. S. 23–51.
86 Armin Grunwald

nikdeterminismus11, also die Vorstellung, dass die Technikentwicklung eigenen und


gar nicht oder nur begrenzt von außen zu steuernden Gesetzen folge. Aufgabe des
Staates und anderer gesellschaftlicher Institutionen sei, Anpassungs- oder Kom-
pensationsleistungen an die Technikfolgen vorzunehmen und genau dazu brauche
er möglichst genaue Prognosen der Technikfolgen, damit die Anpassungen daran
optimal ausgerichtet werden könnten. Es geht hier also nicht um Gestaltung der
Technik, sondern um die Gestaltung der Anpassungsleistungen an die Technik. Er-
strebenswert ist das wohl nicht.
Glücklicherweise sprechen sowohl die empirische Erfahrung12 als auch theo-
retische Argumente13 gegen eine Prognostizierbarkeit gesellschaftlicher Entwick-
lungen, zu denen nach dem oben Gesagten auch Technikfolgen gehören. Damit ist
der Prognose-Optimismus deutlich geschwunden. Objektive Verlaufsgesetze ana-
log zu den Naturwissenschaften lassen sich nicht begründen.14 Ihre Stelle nehmen
Modellbildung und Simulation unter Zuhilfenahme statistischer Verfahren mit den
entsprechenden Unsicherheiten ein. Eine radikale Abwendung vom Prognose-Op-
timismus findet sich im Rahmen eines Prognose-Skeptizismus, nach dem eine An-
tizipation der Zukunft nicht möglich sei15, sondern der Umgang mit Technikfolgen
nur in einem „Prozessieren von Nichtwissen“ bestehen könne.16

3 OFFENHEIT DER ZUKUNFT UND SZENARISCHE ORIENTIERUNG

Nichtwissen und Unsicherheit des Zukunftswissens sind abwertende Begriffe. In


einer wissenschaftlich-technischen Zivilisation mit dem Ideal der Sicherheit sind
Unwissen und Unsicherheit immer defizitär. Entsprechend wird die schlechte Vor-
hersehbarkeit von Technikfolgen häufig in einem klagend-lamentierenden Ton vor-
getragen, worin die gute Prognostizierbarkeit als Ideal durchscheint. Dahinter steht
wohl eine implizite Hoffnung, die Gesellschaft sei doch so etwas wie das Sonnen-
system, in dem sich sehr genaue Prognosen machen lassen, nur etwas komplexer.
Diese Sicht halte ich für vollständig verfehlt. Denn gute Prognostizierbarkeit
impliziert logisch einen Determinismus, der weder begründbar noch wünschens-
wert ist. Dadurch werden Gestaltungspotentiale ausgeblendet und wird gesell-
schaftliche Entwicklung als bloße Anpassung an Technikdeterminismus modelliert.
Dementsprechend sollte negativ nicht von Unsicherheit des Zukunftswissens, son-
dern positiv von der Offenheit der Zukunft geredet werden, die neben sicher auch
vorhandenen Eigendynamiken vielfältige Gestaltungsmöglichkeiten bietet.

11 Ropohl, Günter: Kritik des technologischen Determinismus. In: Rapp, Friedrich; Durbin, Paul
T. (Hg.): Technikphilosophie in der Diskussion. Braunschweig 1982. S. 3–18.
12 Leutzbach, Wilhelm: Das Problem mit der Zukunft: wie sicher sind Voraussagen? Düsseldorf 2000.
13 Schwemmer, Oswald: Theorie der rationalen Erklärung. München 1976.
14 ebd.
15 Nordmann, Alfred: Responsible Innovation, the Art and Craft of Future Anticipation. Journal
of Responsible Innovation 1 (1), 2014, pp. 87–98.
16 Bechmann, Gotthard: Frühwarnung – die Achillesferse der TA? In: Grunwald, Armin; Sax,
Hartmut (Hg.): Technikbeurteilung in der Raumfahrt. Anforderungen, Methoden, Wirkungen.
Berlin 1994. S. 88–100.
Von Technikfolgenprognosen zur hermeneutischen Perspektive 87

Szenarien sind ein Instrument, um mit der Offenheit zukünftiger Entwicklun-


gen umgehen, Gestaltungsaspekte berücksichtigen und Orientierung im konsequen-
tialistischen Modus leiten zu können.17 Wenn, und dies ist im Technikfolgenbereich
meistens der Fall, Prognosen nicht möglich sind, dient die Entwicklung alternati-
ver Szenarien dazu, den Möglichkeitsraum zukünftiger Entwicklungen auszuloten
und zu strukturieren. Wesentliches Element von Szenarien sind durch zukünftige
Entscheidungen oder eintretende Ereignisse verursachte Verzweigungen, wie sie
z. B. als Entscheidungsbäume dargestellt werden können: Ein exploratives Szenario
(normative Szenarien werden hier nicht betrachtet) ist ein Satz von Ausprägungen
verschiedener Deskriptoren, der eine zukünftige Situation, die Ereignisse auf dem
Weg dorthin und deren zeitlichen Ablauf beschreibt. Szenarien in der Technikfol-
genabschätzung müssen relevant (bedeutsam), kohärent, plausibel, anschlussfähig
und transparent sein, um ihre Funktionen zu erfüllen.18
Die Bildung von explorativen Szenarien geht vom gegenwärtigen Stand der
Entwicklung aus und versucht, treibende Faktoren (driving forces) zu identifizie-
ren, die die zukünftige Entwicklung beeinflussen könnten. Durch unterschiedliche
Annahmen bezüglich der Richtung, in der diese Faktoren wirken können, und durch
konsistente Kombination solcher Annahmen für verschiedene Faktoren können un-
terschiedliche Szenarien entwickelt werden. Im Gegensatz zu Trendextrapolationen
oder anderen prognostischen Verfahren wird nicht der Eindruck einer Zukunft er-
weckt, die man vorhersehen könne, sondern es wird – abhängig von verschiedenen
angenommenen Randbedingungen – mit mehreren Zukünften gearbeitet: Szenarien
beschreiben mögliche Zukünfte.19 Dadurch ist ihnen der Gestaltungs- und Entschei-
dungsbezug inhärent: je nach unseren heutigen oder zukünftigen Entscheidungen
wird man auf andere Szenarien und damit in andere Zukünfte geführt. Szenarien
lehren das Denken in (zumindest teilweise) offenen Gestaltungsräumen.
Szenarien sind integrative Konzeptualisierungen von Zukünften. Der Einbau
von Prognosewissen aus Trendextrapolationen oder Modellierungen bestimmter
Parameter ist dabei genauso möglich wie die Integration von Bewertungen und
Relevanzentscheidungen oder von Risikoanalysen. Szenarien können auf quan-
titativen Modellen basieren wie z. B. übliche Energieszenarien.20 „Weiche“ Be-
gründungen, z. B. durch organisatorisches Wissen zur Durchführung von Groß-
projekten, durch ingenieurwissenschaftliche Erfahrung über die zu erwartenden
Realisierungszeiträume technischer Entwicklungen, durch Expertenaussagen zu
Fragen der Realisierbarkeit oder durch betriebswirtschaftliche Erfahrung hinsicht-
lich der Kosten von Großprojekten können ebenfalls berücksichtigt werden. Auch
das Wissen um Rahmenbedingungen, Megatrends, bestimmte vorgegebene Fristen
in Planfeststellungsverfahren oder anderen Regulierungen technischer Entwick-

17 Gausemeier, Jürgen; Fink, Alexander; Schlafke, Oliver: Szenario-Management. Planen und


Führen mit Szenarien. München, Wien 1996.
18 Grunwald, Technikfolgenabschätzung, a. a. O.
19 Dieckhoff, Christian; Appelrath, Hans-Jürgen; Fischedick, Manfred; Grunwald, Armin; Höff-
ler, Felix; Mayer, Christoph; Weimer-Jehle, Wolfgang: Zur Interpretation von Energieszena-
rien. München 2014.
20 ebd.
88 Armin Grunwald

lungen kann in entsprechende Szenarien und damit in die betreffenden Entschei-


dungen eingehen. Szenarien können ebenfalls als rein narrative Formen der Zu-
kunftserzählung vorliegen.
Häufig werden sogenannte Business-as-usual-Szenarien, die im Wesentlichen
von einer Kontinuität bzw. Fortschreibung wesentlicher Trends ausgehen (s. o.),
anderen Szenarien gegenübergestellt, in die bestimmte Veränderungen der Randbe-
dingungen oder anders gewählte Annahmen eingearbeitet werden. Verbreitet ist die
Aufspaltung des Möglichkeitsraumes der Zukunft in drei Szenarien: einem „best
case“, einem „worst case“ und einem „realistischen“ Szenario. Es können dann die
Implikationen der jeweils unterschiedlichen Randbedingungen auf den zeitlichen
Verlauf des Untersuchungsgegenstands analysiert und bewertet werden, woraus
sich dann wiederum Hinweise für politischen oder gesellschaftlichen Handlungsbe-
darf der jeweiligen Gegenwart ergeben. Häufig wird nach so genannten „robusten“
Handlungsstrategien gesucht, die im gesamten Spektrum der betrachteten Szena-
rien positive Effekte erwarten lassen. Damit entspricht das Arbeiten mit Szenarien
dem konsequentialistischen Paradigma (Abb. 1), obwohl eben das Folgenwissen
nicht prognostisch vorliegt, sondern als Satz möglicher Zukünfte.
Szenarien haben sich mit ihrer Konzeptualisierung einer gestaltungsoffenen
Zukunft zum hauptsächlichen Instrument der Technikfolgenabschätzung im Um-
gang mit Zukunft entwickelt. Auch in anderen strategischen Kontexten haben sie
ganz erhebliche Bedeutung gewonnen21 und sind zu einem zentralen Tool der Nach-
haltigkeitsforschung geworden22. Auf diese Weise hat TA gelernt, mit der Offenheit
der Zukunft und der dadurch implizierten Nicht-Prognostizierbarkeit konstruktiv
umzugehen und in dieser Offenheit Orientierungsmöglichkeiten zu entwickeln,
z. B. durch die Bestimmung der genannten robusten Handlungsstrategien.

4 HERMENEUTISCHE TECHNIKFOLGENABSCHÄTZUNG

Freilich ist der Mechanismus der Orientierungsgewinnung über Szenarien daran


gebunden, dass es gelingt, plausible von unplausiblen Zukünften zu unterscheiden.
Beispielsweise wird nur der Bereich zwischen „best-“ und „worst-case“-Szenario
betrachtet, während die (zumeist wohl riesig großen) Bereiche von Zukünften au-
ßerhalb aus der Betrachtung ausgeschieden werden. Erst dadurch, durch das Aus-
scheiden der als nicht plausibel eingestuften Zukünfte wird Orientierungsleistung
im konsequentialistischen Paradigma möglich.
Etwa ab dem Jahr 2000 wurden Technikfolgenabschätzung und andere Ansätze
der Technikfolgenreflexion vor die Herausforderung der heute so genannten NEST
(new and emerging sciences and technologies) gestellt. Dort zeigte sich rasch, dass
der konsequentialistische Ansatz nicht funktioniert, weder prognostisch noch sze-

21 Gausemeier, Jürgen; Fink, Alexander; Schlafke, Oliver: Szenario-Management. Planen und


Führen mit Szenarien. München, Wien 1996.
22 z. B. Heinrichs, Dirk; Krellenberg, Kerstin; Hansjürgens, Bernd; Martínez, Francisco (Hg.):
Risk Habitat Megacity. Heidelberg 2012.
Von Technikfolgenprognosen zur hermeneutischen Perspektive 89

narienbasiert. Erste Hinweise finden sich in der Debatte zur Nanotechnologie.23


Angesichts des extremen Schwankens früher Reflexionsansätze zwischen Paradies-
erwartungen und Befürchtungen der Apokalypse24 war hier nicht nur der prognos-
tische Ansatz, sondern sogar das Denken in alternativen Zukünften in Form von
Szenarien illusorisch. Zu groß und unbestimmt erschien der Möglichkeitsraum des
Zukünftigen, als dass hier noch eine vernünftige Eingrenzung auf einige Szenarien
möglich gewesen wäre. Die Debatten zum „Human Enhancement“, zur syntheti-
schen Biologie und zum „Climate Engineering“ führten auf ähnliche Probleme der
Orientierungsleistung.25
Der Vorschlag eines „Vision Assessment“26, die Kritik an der spekulativen
Nano-Ethik27 und verschiedene, meist verstreute Hinweise auf die hermeneuti-
sche Seite der Technik- und Technikfolgenreflexion28 markieren konzeptionelle
Reaktionen auf diese Herausforderung. Gemeinsam ist ihnen eine nicht-konse-
quentialistische Perspektive. Denn wo das „Folgenwissen“ nur in epistemolo-
gisch nicht klassifizierbaren spekulativen Zukunftserwartungen, Visionen oder
Befürchtungen besteht, muss jeder Versuch misslingen, durch eine Folgenanalyse
gemäß Abb. 1 zur wissenschaftlichen, gesellschaftlichen oder politischen Orien-
tierung beizutragen.
Orientierung in Form von wissenschaftlicher Politik- und Gesellschaftsbera-
tung ist auch in diesen Fällen möglich – allerdings in anderer Form.29 Es bleibt die
Option, die teils sehr lebhaften und kontroversen Debatten um NEST oder andere
spekulative oder visionäre Wissenschafts- oder Technikfelder eben nicht als antizi-
patorische, prophetische oder quasi-prognostische Rede über Zukünftiges, sondern
als Ausdruck unserer Gegenwart zu deuten. Nicht das, was in diesen Debatten mit
völlig unklarer Berechtigung über kommende Jahrzehnte gesagt wird, sondern was
die Tatsache, dass diese Debatten heute stattfinden und wie sie aussehen, über uns
heute aussagt, wird zum Thema der Untersuchung und zur Quelle der Generierung
von Orientierung gemacht. Dies ist letztlich ein hermeneutischer Ansatz.30
Um der Möglichkeit einer hermeneutischen Orientierung31 nachzuspüren,
ist es erforderlich, die Technikzukünfte und deren Diversität und Divergenz als
„social text“ in den Blick zu nehmen, um ihre Ursachen und Quellen aufzude-

23 Zülsdorf, Torben; Coenen, Christopher; Ferrari, Arianna; Fiedeler, Ulrich; Milburn, Colin;
Wienroth, Matthias (Hg.): Quantum Engagements: Social Reflections of Nanoscience and
Emerging Technologies. Heidelberg 2011.
24 Grunwald, Armin: Nanotechnologie als Chiffre der Zukunft. In: Nordmann, Alfred; Schummer,
Joachim; Schwarz, Astrid (Hg.): Nanotechnologien im Kontext. St. Augustin 2006. S. 49–80.
25 Grunwald, Armin: The Hermeneutic Side of Responsible Research and Innovation. London 2016.
26 Grunwald, Nanotechnologie, a. a. O.
27 Nordmann, Alfred: If and Then: A Critique of Speculative NanoEthics. Nanoethics 1, 2007,
pp. 31–46.
28 z. B. Torgersen, Helge: TA als hermeneutische Unternehmung. Technikfolgenabschätzung –
Theorie und Praxis 22 (2), 2013, S. 75–80.
29 Grunwald, The Hermeneutic, a. a. O.
30 ebd.
31 nach Grunwald, Armin: Modes of orientation provided by futures studies: making sense of diver-
sity and divergence. European Journal of Futures Studies, 2013. doi 10.1007/s40309-013-0030-5.
90 Armin Grunwald

cken und nach ihrer „Bedeutung“ zu fragen. Diese Technikzukünfte sind sozi-
ale Konstrukte, erzeugt und „hergestellt“ durch Menschen, Gruppen und Orga-
nisationen zu je bestimmten Zeitpunkten.32 Zukunftsbilder entstehen aus einer
Komposition von Zutaten in bestimmten Verfahren (z. B. den Methoden der
Zukunftsforschung). Dabei gehen die je gegenwärtigen Wissensbestände, aber
auch Zeitdiagnosen, Werte und andere Formen der Weltwahrnehmung in diese
Zukunftsbilder ein. Zukünfte erzählen, wenn prognostische oder szenarische Ori-
entierungen nicht gelingen, ausschließlich etwas über uns heute. Technikzukünfte
als ein Medium gesellschaftlicher Debatten33 bergen Wissen und Einschätzungen,
die es zu explizieren lohnt, um eine transparentere demokratische Debatte und
entsprechende Entscheidungsfindung zu erlauben. Die Erwartung an hermeneu-
tische Orientierungsleistung besteht darin, aus Technikzukünften in ihrer Diver-
sität etwas über uns, unsere gesellschaftlichen Praktiken, unterschwelligen Sor-
gen, impliziten Hoffnungen und Befürchtungen lernen zu können. Diese Form
der Orientierung ist freilich weitaus bescheidener als die konsequentialistische
Erwartung, mit Prognosen oder Szenarien „richtiges Handeln“ mehr oder weniger
direkt orientieren oder gar, wie es in manchen Verlautbarungen heißt, „optimie-
ren“ zu können. Sie besteht letztlich in nicht mehr als darin, die Bedingungen
dafür zu verbessern, dass demokratische Debatten und Zukunftsentscheidungen
aufgeklärter, transparenter und offener ablaufen können.
Im Vergleich zum konsequentialistischen Paradigma mit seiner zentralen Ausrich-
tung auf Fragen der Art, welche Folgen neue Technologien haben können, wie wir diese
beurteilen und ob und unter welchen Bedingungen wir diese Folgen willkommen heißen
oder ablehnen, geraten in dieser Perspektive weitere Fragestellungen in den Blick34:
• wie wird wissenschaftlich-technischen Entwicklungen, die ja zunächst im La-
bor nichts weiter als eben wissenschaftlich-technische Entwicklungen sind,
eine gesellschaftliche, ethische, soziale, ökonomische, kulturelle etc. Bedeu-
tung zugeschrieben? Welche Rollen spielen dabei z. B. (visionäre) Technikzu-
künfte? Wer schreibt diese Bedeutungen zu und warum?
• wie werden diese Bedeutungszuweisungen kommuniziert und diskutiert?
Welche Rollen spielen sie in den großen Technikdebatten unserer Zeit? Wel-
che kommunikativen Formate und sprachlichen Mittel werden verwendet und
warum? Welche außersprachlichen Mittel (z. B. Filme, Kunstwerke) spielen
hier eine Rolle, und was sagt ihre Nutzung aus?
• warum thematisieren wir wissenschaftlich-technische Entwicklungen in der
jeweiligen Weise, mit den jeweils verwendeten Technikzukünften und mit den
jeweiligen Bedeutungszuweisungen und nicht anders? Welche alternativen
Bedeutungszuschreibungen wären denkbar und warum werden diese nicht
aufgegriffen?

32 Grunwald, Armin: Technikzukünfte als Medium von Zukunftsdebatten und Technikgestaltung.


Karlsruhe 2012.
33 ebd.
34 vgl. Grunwald, The Hermeneutic Side, a. a. O.
Von Technikfolgenprognosen zur hermeneutischen Perspektive 91

• haben nicht auch traditionelle Formen der Technikfolgenreflexion (Prognos-


tik, Szenarien) eine hermeneutische Seite? Werden vielleicht hermeneutisch
bedeutsame Konstellationen hinter schein-objektiven Zahlenreihen, Progno-
sen und in Diagrammen geradezu versteckt?
In der Beantwortung dieser Fragen erweitert sich das interdisziplinäre Spektrum
der TA. Sprachwissenschaften, hermeneutische Ansätze in Philosophie und Geis-
teswissenschaften, Kulturwissenschaften und auch die Hermeneutik in der Kunst –
insofern z. B. Technikzukünfte mit künstlerischen Mitteln erzeugt und kommuni-
ziert werden – müssen an Bord der TA kommen.
Damit wird der übliche konsequentialistische Modus der Technikfolgenab-
schätzung verlassen, in dem aus einem Wissen über mögliche, plausible oder wahr-
scheinliche zukünftige Technikfolgen Schlussfolgerungen für heutige Entscheidun-
gen orientiert werden sollen. In ganz anderer Hinsicht freilich bleibt auch hier ein
konsequentialistisches Moment. Denn die Erzeugung, Verbreitung und Diskussion
auch der spekulativsten Technikzukünfte kann Folgen generieren: Folgen für die
gesellschaftliche Debatte, Folgen für die Risiko- und Chancenwahrnehmung, Fol-
gen für die Allokation von Forschungsgeldern, Folgen durch die Motivation junger
Menschen, sich in Feldern mit hohen technologischen Erwartungen zu engagieren.
Auch komplett spekulative Zukünfte sind Interventionen in gesellschaftliche Kom-
munikation35 und können dort einiges an Folgen bewirken oder auch anrichten.
Diese Folgen freilich sind nicht erst in einer fernen Zukunft, sondern oft schon
direkt in der Gegenwart zu sehen. Entsprechend ist besondere Verantwortung im
Umgang mit diesem Typ von Zukünften verbunden.36

NACHTRAG: DANK AN KLAUS KORNWACHS

Klaus Kornwachs habe ich, jedenfalls meiner Erinnerung folgend, auf einer Tagung
zur Philosophie der Technik kennengelernt, die etwa 1993 an der Brandenburgi-
schen Technischen Universität in Cottbus stattgefunden hat. Dort hatte ich Grund-
gedanken einer Philosophie der Technik vorgetragen, wie ich sie in Anwendung
und Fortführung des Programms des Methodischen Kulturalismus sah und später
zu einem Programm entwickelte.37 Die Diskussion mit Klaus Kornwachs, der
technikphilosophische Ideen von Mario Bunge mitbrachte und weiterführte, war
durchaus kontrovers, aber oder gerade deswegen auch lehrreich.
Danach haben sich unsere Bahnen immer wieder gekreuzt. Besondere Ereig-
nisse waren, wieder aus meiner subjektiven Sicht, die Einladung zur Mitwirkung
am von Klaus Kornwachs initiierten und herausgegebenen, ambitionierten Band

35 acatech (Hg.), a. a. O.
36 Grunwald, The Hermeneutic Side, a. a. O.
37 Grunwald, Armin: Technisches Handeln und seine Resultate. Prolegomena zu einer kulturalis-
tischen Technikphilosophie. In: Hartmann, Dirk; Janich, Peter (Hg.): Methodischer Kulturalis-
mus. Zwischen Naturalismus und Postmoderne. Frankfurt 1998. S. 178–224.
92 Armin Grunwald

„Technik – System – Verantwortung“38 (2004) sowie die Mit-Diskussion und auch


Publikation von Arbeiten zur Wissenschaftstheorie der Technikwissenschaften, wie
sie sich aus einer vom VDI unterstützten Tagung in Ulm ergeben hatte (ebenfalls
2004). Die frühen Arbeiten von Klaus Kornwachs zur systemanalytischen Seite der
Technikfolgenabschätzung und der Technikgestaltung39 haben mich dabei begleitet,
eigene Ansätze zu entwickeln.
Das Projekt „Technikzukünfte“ der Deutschen Akademie der Technikwissen-
schaften (acatech), von Klaus Kornwachs 2011 initiiert (soweit ich weiß), bildete
erstmalig die Möglichkeit einer direkten Zusammenarbeit. Sie mündete im Rahmen
des Projekts in eine gemeinsame Publikation der acatech-Projektgruppe40, welche
sehr gut rezipiert wurde und Quelle weiterer Überlegungen war, z. B. im Rahmen
des Projekts „Energiesysteme der Zukunft“ (ESYS) zum Verständnis von Energie-
szenarien41.
Diese wenigen Stationen mögen die vielen Schnittstellen zwischen Klaus
Kornwachs und mir verdeutlichen. Ich nutze daher gerne diese Gelegenheit, um
ihm hierfür zu danken, ihm ganz herzlich zum 70. Geburtstag zu gratulieren und
alles Gute für sein weiteres Leben und Schaffen zu wünschen!

38 Kornwachs, Klaus (Hg.): Technik – System – Verantwortung. 2. Cottbuser Konferenz zur Tech-
nikphilosophie. Münster, London 2004.
39 z. B. Kornwachs, Klaus: Glanz und Elend der Technikfolgenabschätzung. In: ders. (Hg.):
Reichweite und Potential der Technikfolgenabschätzung. Stuttgart 1991. S. 1–22; ders.: Kom-
munikation und Information. Zur menschengerechten Gestaltung von Technik. Berlin 1993.
40 acatech (Hg.), a. a. O.
41 Dieckhoff et al., a. a. O.
Von Technikfolgenprognosen zur hermeneutischen Perspektive 93

LITERATUR

acatech (Hg.): Technikzukünfte. Vorausdenken – Erstellen – Bewerten. acatech IMPULS. Heidel-


berg u. a. 2012.
Bechmann, Gotthard: Frühwarnung – die Achillesferse der TA? In: Grunwald, Armin; Sax, Hartmut
(Hg.): Technikbeurteilung in der Raumfahrt. Anforderungen, Methoden, Wirkungen. Berlin
1994. S. 88–100.
Brown, Nik; Rappert, Brian; Webster, Andrew (Hg.): Contested Futures. A Sociology of Prospective
Techno-Science. Burlington 2000.
Bullinger, Hans-Jörg Technikfolgenabschätzung – wissenschaftlicher Anspruch und Wirklichkeit.
In: Kornwachs, Klaus (Hg.): Reichweite und Potential der Technikfolgenabschätzung. Stuttgart
1991. S. 103–114.
Dieckhoff, Christian; Appelrath, Hans-Jürgen; Fischedick, Manfred; Grunwald, Armin; Höffler, Fe-
lix; Mayer, Christoph; Weimer-Jehle, Wolfgang: Zur Interpretation von Energieszenarien.
München 2014.
Gausemeier, Jürgen; Fink, Alexander; Schlafke, Oliver: Szenario-Management. Planen und Führen
mit Szenarien. München, Wien 1996.
Grunwald, Armin: Technisches Handeln und seine Resultate. Prolegomena zu einer kulturalisti-
schen Technikphilosophie. In: Hartmann, Dirk; Janich, Peter (Hg.): Methodischer Kulturalis-
mus. Zwischen Naturalismus und Postmoderne. Frankfurt 1998. S. 178–224.
ders.: Nanotechnologie als Chiffre der Zukunft. In: Nordmann, Alfred; Schummer, Joachim;
Schwarz, Astrid (Hg.): Nanotechnologien im Kontext. St. Augustin 2006. S. 49–80.
ders.: Technikfolgenabschätzung. Eine Einführung. Berlin 2010(2).
ders.: Technikzukünfte als Medium von Zukunftsdebatten und Technikgestaltung. Karlsruhe 2012.
ders.: Modes of orientation provided by futures studies: making sense of diversity and divergence.
European Journal of Futures Studies, 2013. doi 10.1007/s40309-013-0030-5.
ders.: The Hermeneutic Side of Responsible Research and Innovation. London 2017.
Heinrichs, Dirk; Krellenberg, Kerstin; Hansjürgens, Bernd; Martínez, Francisco (Hg.): Risk Habitat
Megacity. Heidelberg 2012.
Hempel, Carl Gustav: Aspects of Scientific Explanation and other Essays in the Philosophy of Sci-
ence. New York, London 1965.
Jonas, Hans: Das Prinzip Verantwortung. Versuch einer Ethik für die technologische Zivilisation.
Frankfurt 1979.
Kornwachs, Klaus: Glanz und Elend der Technikfolgenabschätzung. In: ders. (Hg.): Reichweite und
Potential der Technikfolgenabschätzung. Stuttgart 1991. S. 1–22.
ders.: Kommunikation und Information. Zur menschengerechten Gestaltung von Technik. Berlin 1993.
ders. (Hg.): Technik – System – Verantwortung. 2. Cottbuser Konferenz zur Technikphilosophie.
Münster, London 2004.
Leutzbach, Wilhelm: Das Problem mit der Zukunft: wie sicher sind Voraussagen? Düsseldorf 2000.
Nordmann, Alfred: If and Then: A Critique of Speculative NanoEthics. Nanoethics 1, 2007, pp. 31–46.
Nordmann, Alfred: Responsible Innovation, the Art and Craft of Future Anticipation. Journal of
Responsible Innovation 1 (1), 2014, pp. 87–98.
Paschen, Herbert; Petermann, Thomas: Technikfolgenabschätzung – ein strategisches Rahmenkon-
zept für die Analyse und Bewertung von Technikfolgen. In: Petermann, Thomas (Hg.): Tech-
nikfolgen-Abschätzung als Technikforschung und Politikberatung. Frankfurt 1991. S. 19–42.
Renn, Ortwin: Kann man die technische Zukunft voraussagen? In: Pinkau, Klaus; Stahlberg, Chris-
tina (Hg.): Technologiepolitik in demokratischen Gesellschaften. Stuttgart 1996. S. 23–51.
ders.: Methodische Vorgehensweisen in der TA. In: Bröchler, Stefan; Simonis, Georg; Sundermann,
Karsten (Hg.): Handbuch Technikfolgenabschätzung. Berlin 1999. S. 609–615.
Ropohl, Günter: Kritik des technologischen Determinismus. In: Rapp, Friedrich; Durbin, Paul T.
(Hg.): Technikphilosophie in der Diskussion. Braunschweig 1982. S. 3–18.
94 Armin Grunwald

Schwemmer, Oswald: Theorie der rationalen Erklärung. München 1976.


Torgersen, Helge: TA als hermeneutische Unternehmung. Technikfolgenabschätzung – Theorie und
Praxis 22 (2), 2013, S. 75–80.
Zülsdorf, Torben; Coenen, Christopher; Ferrari, Arianna; Fiedeler, Ulrich; Milburn, Colin; Wien-
roth, Matthias (Hg.): Quantum Engagements: Social Reflections of Nanoscience and Emerging
Technologies. Heidelberg 2011.
TECHNIKFOLGENABSCHÄTZUNG:
EIN KONZEPT ZUR GESTALTUNG DER ZUKUNFT

Ortwin Renn

EINLEITUNG

Technikfolgen vorherzusagen und zu bewerten – dies ist Aufgabe und Auftrag der
Technikfolgenabschätzung (TA). Mit dem Begriff der Technikfolgenabschätzung
verbindet sich der Anspruch auf eine systematische, wissenschaftlich abgesicherte
und umfassende Identifizierung und Bewertung von technischen, umweltbezoge-
nen, ökonomischen, sozialen, kulturellen und psychischen Wirkungen, die mit der
Entwicklung, Produktion, Nutzung und Verwertung von Techniken zu erwarten
sind.1 Mit dieser Aufgabenbeschreibung ist letztlich alles angesprochen, was durch
Technik beeinflusst werden kann. Wenn Wissenschaftler und Techniker TA betrei-
ben, dann tun sie dieses mit dem erklärten Ziel, für die Gesellschaft verlässliche
und unparteiische Informationen bereitzustellen, die Auskunft über die zu erwar-
tenden Konsequenzen von technischem Handeln geben.2 Besonderes Schwerge-
wicht liegt dabei auf der Erfassung von unbeabsichtigten Folgen, seien sie Chancen
oder Risiken. Je besser die Gesellschaft im Voraus die Folgen technischer Handlun-
gen antizipieren kann, desto weniger braucht sie im Nachhinein durch Versuch und
Irrtum schmerzlich zu lernen. Ausschalten kann man den dornenreichen Weg des
Lernens über Irrtum jedoch nicht.
So sehr Technikfolgenabschätzung auf die Antizipation von möglichen Fol-
gen des Technikeinsatzes festgelegt ist, so sehr sind die Grenzen dieser Voraus-
sicht zu betonen. Diese Grenzen beziehen sich auf drei Aspekte: die Komplexi-
tät der miteinander vernetzten Ursache-Wirkungsketten, der Ungewissheit über
Chancen und Risiken einer Entwicklung und die Ambivalenz technischer Ent-
wicklungen.3 Zu diesen drei Problemen sind im Folgenden einige Überlegungen
zusammengetragen.

1 vgl. Dusseldorp, Marc: Technikfolgenabschätzung. In: Grunwald, Armin (Hg.): Handbuch


Technikethik. Stuttgart 2013. S. 394–399; Grunwald, Armin: Technikfolgenabschätzung – eine
Einführung. Berlin 2010(2). S. 54 ff.; Bullinger, Hans-Jörg: Was ist Technikfolgenabschätzung.
In: ders. (Hg.): Technikfolgenabschätzung. Stuttgart 1994. S. 3 ff.
2 Renn, Ortwin: Technikfolgenabschätzung. In: Naturwissenschaftliche Rundschau, 4 (56),
2003, S. 233–234.
3 Renn, Ortwin; Klinke, Andreas: Complexity, Uncertainty and Ambiguity in Inclusive Risk
Governance. In: Andersen, Torben J. (Hg.): The Routledge Companion to Strategic Risk Ma-
nagement. Routledge 2016. S. 13–30.
96 Ortwin Renn

KOMPLEXITÄT, UNSICHERHEIT UND AMBIVALENZ:


DIE HERAUSFORDERUNGEN DER TECHNIKFOLGENABSCHÄTZUNG

Erstes Stichwort: Ambivalenz. Die Hoffnung auf Vermeidung von negativen Tech-
nikfolgen ist trügerisch, weil es keine Technik gibt, nicht einmal geben kann, bei
der nur positive Auswirkungen zu erwarten wären. Dies klingt trivial. Ist es nicht
offensichtlich, dass jede Technik ihre guten und schlechten Seiten hat? Die Aner-
kennung der Ambivalenz besagt aber mehr, als dass sich die Menschen mit Technik
weder das Paradies noch die Hölle erkaufen können. Es ist eine Absage an alle kate-
gorischen Imperative und Handlungsvorschriften, die darauf abzielen, Techniken in
moralisch gerechtfertigte und moralisch ungerechtfertigte aufzuteilen.4 Auch die
Solarenergie hat ihre Umweltrisiken, wie auch die Kernenergie ihre unbestreitbaren
Vorteile aufweist. Ambivalenz ist das Wesensmerkmal jeder Technik.5
Gefragt ist also eine Kultur der Abwägung. Zur Abwägung gehören immer zwei
Elemente: Wissen und Bewertung. Wissen sammelt man durch die systematische,
methodisch gesicherte Erfassung der zu erwartenden Folgen eines Technikeinsatzes
(Technikfolgenforschung). Bewertung erfolgt durch eine umfassende Abwägung al-
ternativer Handlungsoptionen aufgrund der Wünschbarkeit der mit jeder Option ver-
bundenen Folgen, einschließlich der Folgen des Nichtstuns, der sogenannten Nullop-
tion (Technikfolgenbewertung). Für das erste Element, die Technikfolgenforschung,
braucht die TA ein wissenschaftliches Instrumentarium, das es erlaubt, so vollständig,
exakt und objektiv wie möglich Prognosen über die zu erwartenden Auswirkungen
zu erstellen. Für das zweite Element benötigt man allgemein gültige Kriterien, nach
denen man diese Folgen intersubjektiv verbindlich bewerten und abwägen kann. Sol-
che Kriterien sind nicht aus der Wissenschaft abzuleiten: sie müssen in einem politi-
schen Prozess durch die Gesellschaft identifiziert und entwickelt werden.6
Beide Aufgaben wären weniger problematisch, gäbe es nicht die beiden wei-
teren Probleme: Komplexität und Unsicherheit.7 Mit Komplexität ist hier der
Umstand gemeint, dass mehrere Ursache-Wirkungsketten parallel auf die Folgen
von Technikeinsatz einwirken, sich synergistisch oder antagonistisch beeinflussen
sowie durch Rücklaufsschleifen miteinander vernetzt sind. Selbst wenn die Tech-
nikforscher jede einzelne Wirkungskette kennen würden, verbleibt das Problem
der mangelnden Kenntnis der jeweils wirksamen interaktiven Effekte. Diese im
Einzelnen analytisch aufzuspüren, ist nicht nur eine kaum zu bewältigende Sisy-

4 Renn, Ortwin: Technik und gesellschaftliche Akzeptanz: Herausforderungen der Technikfol-


genabschätzung. In: GAIA Ecological Perspectives in Science, Humanities, and Economics, 2
(2), 1993, S. 72.
5 vgl. Bauman, Zygmunt: Moderne und Ambivalenz: Das Ende der Eindeutigkeit. Hamburg
2012(2).
6 vgl. Zweck, Axel: Die Entwicklung der Technikfolgenabschätzung zum gesellschaftlichen Ver-
mittlungsinstrument. Heidelberg 2013; sowie: Renn, Klinke, a. a. O.
7 vgl. Nowotny, Helga; Scott, Peter; Gibbons, Michael: Introduction. “Mode 2” Revisited: The
New Production of Knowledge. In: Minerva, 41, 2003, S. 179–194; sowie: Funtowicz, Silvio;
Ravetz, Jerome: Post-Normal Science. Science and Governance under Conditions of Comple-
xity. In: Decker; Michael (Hg.): Interdisciplinarity in Technology Assessment. Implementation
and its Chances and Limits. Heidelberg 2001. S. 16 f.
Technikfolgenabschätzung: Ein Konzept zur Gestaltung der Zukunft 97

phusarbeit, sie erfordert auch eine ganzheitliche Betrachtungsweise, für die es in


der Wissenschaft noch keine allgemein akzeptierten Kriterien der Gültigkeit und
Zuverlässigkeit im Rahmen der eingesetzten Methoden gibt.8 Die psychologische
Forschung hat eindringlich gezeigt, wie schwer es Menschen in Entscheidungssitu-
ationen fällt, mit komplexen Sachverhalten adäquat umzugehen.9
Eng gekoppelt mit dem Problem der Komplexität ist die unvermeidbare Unge-
wissheit über Inhalt und Richtung der zukünftigen Entwicklung. Wenn die Menschen
in der Tat im Voraus wüssten, welche Folgen sich mit bestimmten Technologien ein-
stellen, fiele es ihnen leichter, eine Abwägung zu treffen und auch einen Konsens über
Kriterien zur Beurteilung von Folgen zu erzielen. Doch die Wirklichkeit ist kom-
plizierter. Technikeinsatz ist immer mit unterschiedlichen und komplexen Zukunfts-
möglichkeiten verbunden, deren jeweilige Realisierungschance sich überwiegend der
Kontrolle der Gesellschaft entzieht.10 Die Frage ist, inwieweit sich die Mitglieder
einer Gesellschaft auf die Gestaltung von riskanten Zukunftsentwürfen einlassen
und sich von den nicht auszuschließenden Möglichkeiten negativer Zukunftsfolgen
abschrecken lassen wollen.11 Wie viel Möglichkeit eines Nutzens ist ihnen wie viel
Möglichkeiten eines Schadens wert? Für diese Abwägung gibt es keine Patentlösung.
Pauschal auf Technik und damit auf Risiken zu verzichten ist wohl kaum der
gesuchte Ausweg aus dem Abwägungsdilemma unter Ungewissheit. Nach wie vor
steht die Menschheit vor der Notwendigkeit, die erwartbaren positiven und negati-
ven Konsequenzen des Technikeinsatzes miteinander zu vergleichen und abzuwä-
gen, trotz der prinzipiellen Unfähigkeit, die wahren Ausmaße der Folgen jemals in
voller Breite und Tiefe abschätzen zu können. Bestenfalls lassen sich Technikfolgen
in ihrer Potentialität erfassen, aber man kann nicht die reale Zukunft vorhersagen.

VON DER FOLGENFORSCHUNG ZUR FOLGENBEWERTUNG:


NOTWENDIGKEIT DES BEWERTENS

Technikfolgenforschung ist der erste Schritt zur Verbesserung von technischen


Entscheidungen. Die Ergebnisse der Technikfolgenforschung bilden die faktische
Grundlage, d. h. die wissensgesteuerte Unterfütterung zur Folgenbewertung, um
anstehende Entscheidungen zu überdenken, negativ erkannte Folgen zu mindern

8 vgl. Mittelstrass, Jürgen: Methodische Transdisziplinarität. In: Technologiefolgenabschät-


zung – Theorie und Praxis, 2 (14), 2005, S. 18–23.
9 vgl. Kahneman, Daniel: Schnelles Denken, langsames Denken. München 2012; sowie: Dörner,
Dietrich; Schaub, Harald; Strohschneider, Stefan: Komplexes Problemlösen – Königsweg der
Theoretischen Psychologie? In: Psychologische Rundschau, 50 (4), 1999, S. 198–205.
10 vgl. Grunwald, Armin: Auf der Suche nach Orientierung: Technikzukünfte als interdisziplinä-
rer Forschungs- und Reflexionsgegenstand. In: Hilgendorf, Eric; Hötitzsch, Sven (Hg.): Das
Recht vor den Herausforderungen der modernen Technik. Baden-Baden 2015. S. 41–62.
11 vgl. Renn, Ortwin: Neue Technologien, neue Technikfolgen: Ambivalenz, Komplexität und
Unsicherheit als Herausforderungen der Technikfolgenabschätzung. In: Kehrt, Christian;
Schüßler, Peter; Weitze, Marc-Denis (Hg.): Neue Technologien in der Gesellschaft. Akteure,
Erwartungen, Kontroversen und Konjunkturen. Bielefeld 2011. S. 63–76.
98 Ortwin Renn

und mögliche Modifikationen der untersuchten Technik vorzunehmen. Die Einbin-


dung faktischen Wissens in Entscheidungen wie auch die möglichst wertadäquate
Auswahl der Optionen können im Prozess der Technikbewertung (Abwägung) nach
rationalen und nachvollziehbaren Kriterien gestaltet werden, so wie es in den ein-
schlägigen Arbeiten zur Entscheidungslogik dargelegt wird.12
Das Prinzip der Entscheidungslogik ist einfach: Kennt man die möglichen Fol-
gen und die Wahrscheinlichkeiten ihres Eintreffens (oder besser gesagt: glaubt man
sie zu kennen), dann beurteilt man die Wünschbarkeit der jeweiligen Folgen auf
der Basis der eigenen Wertorientierungen. Man wählt diejenige Variante aus der
Vielzahl der Entscheidungsoptionen aus, von der man erwartet, dass sie das höchste
Maß an Wünschbarkeit für den jeweiligen Entscheider verspricht. Die Entschei-
dung erfolgt auf der Basis von Erwartungswerten, wohl wissend, dass diese erwar-
teten Folgen aller Voraussicht nach so nicht eintreffen werden.
So intuitiv einsichtig das Verfahren der Entscheidungslogik ist, eindeutige Er-
gebnisse sind auch bei rigoroser Anwendung nicht zu erwarten. Das liegt zum
ersten daran, dass wir selber unsicher sind über die Wünschbarkeit von einzelnen
Folgen, zum zweiten daran, dass diese Folgen auch andere betreffen, die von uns
verschiedene Wertorientierungen haben und deshalb zu anderen Entscheidungen
kommen würden, und schließlich daran, dass sich Menschen in unterschiedlichem
Maße risikoaversiv verhalten.13 Aus diesem Grunde haben eine Reihe von psy-
chologisch orientierten Entscheidungstheoretikern mit suboptimalen (aber in der
Realität häufig vorfindbaren) Verfahren der Auswahl von Optionen beschäftigt.
Diese reichen von sogenannten „satisficing“-Strategien, bei denen man nur für alle
Bewertungen ein noch gerade zufriedenstellendes Abschneiden akzeptiert, über
lexikografische Verfahren, bei denen die wichtigsten Kriterien vorab die Auswahl
bestimmen, bis hin zu speziellen Formen der „bounded rationality“, bei der die
relativen Gewichte der Kriterien oder die Wahrscheinlichkeiten des Eintreffens
von erwartbaren Folgen unbeachtet bleiben.14
Festzuhalten bleibt deshalb: Technikfolgenforschung bleibt auch bei der An-
wendung der bestmöglichen Methodik ein unvollständiges Instrument der Zu-
kunftsvorsorge, denn Komplexität, Ambivalenz und Ungewissheit lassen sich nicht
durch Wissen auflösen. Technikfolgenbewertung lässt sich ebenso wenig nach in-
tersubjektiv gültigen und verbindlichen Kriterien und Vorgehensweisen durchfüh-
ren, weil auch hier Ambivalenz und Ungewissheit einer eindeutigen Selektionsre-
gel den Riegel vorschieben. Was also können wir tun?

12 vgl. Kornwachs, Klaus; König, Wolfgang; Verein Deutscher Ingenieure: Technikbewertung –


Begriffe und Grundlagen. In: Hubig, Christoph; Huning, Alois; Ropohl, Günter (Hg.): Nach-
denken über Technik. Baden-Baden 2013(3). S. 518–522.; sowie: Akademie der Wissenschaf-
ten zu Berlin: Umweltstandards. Berlin 1991. S. 345 ff.
13 vgl. Kähler, Jürgen; Weber, Christoph: Theorien der Entscheidung unter Unsicherheit. In:
WiSt-Wirtschaftswissenschaftliches Studium, 44 (10), 2015, S. 572–578.; sowie: Eisenführ,
Franz; Weber, Martin: Rationales Entscheiden. Berlin 2003(4).
14 vgl. Gigerenzer, Gert: Rationality without Optimization: Bounded Rationality. In: Macchi,
Laura; Bagassi, Maria; Viale, Riccardo (Hg.): Cognitive Unconscious and Human Rationality.
Cambridge, MA, 2016. S. 3–22.; sowie: Pfister, Hans-Rüdiger; Jungermann, Helmut; Fischer,
Katrin: Die Psychologie der Entscheidung. Eine Einführung. Heidelberg 2017(5).
Technikfolgenabschätzung: Ein Konzept zur Gestaltung der Zukunft 99

DISKURSIVE TA: EIN LÖSUNGSVORSCHLAG FÜR DEN UMGANG MIT


KOMPLEXITÄT, UNSICHERHEIT UND AMBIVALENZ

Technikfolgenabschätzung ist meines Erachtens auf einen transdisziplinären und


diskursiven Prozess der Wissensgenerierung, Wissenserfassung und Wissensbe-
wertung angewiesen.15 Auch das in den Niederlanden entwickelte Konzept einer
konstruktiven TA kommt dem Leitbild einer diskursiven TA nahe.16
Als Diskurs soll hier eine Form von Kommunikation verstanden werden, bei
der Sprechakte im gegenseitigen Austausch von Argumenten nach festgelegten Re-
geln der Gültigkeit auf ihre Geltungsansprüche hin ohne Ansehen der Person und
ihres Status untersucht werden.17 Dabei beziehen sich die im Diskurs vorgebrach-
ten Geltungsansprüche nicht nur auf kognitive Aussagen, sondern umfassen expres-
sive (Affekte und Versprechungen) ebenso wie normative Äußerungen. Letztend-
lich soll der Diskurs in der Vielfalt der Sprachakte die Vielfalt der erlebten Welt und
ihre Begrenzungen widerspiegeln.18
Transdisziplinarität bedeutet, dass nicht nur systematisches Wissen aus der
Wissenschaft, sondern auch Erfahrungswissen und lokales Wissen zur Problemi-
dentifikation und erst recht zur Problemlösung (etwa bei der Gestaltung von Tech-
nik oder ihren Einsatzbedingungen) im diskursiven Austausch stehen und integriert
werden müssen.19 Dabei liegt der Schwerpunkt der TA auf ko-kreativen Funktions-
bezügen zu Wissenschaft, Gesellschaft, Wirtschaft und Politik, die zugleich in kriti-
scher Absicht hinterfragt werden (beispielsweise Rolle der Wissenschaft, Auswahl
und Inklusivität der gesellschaftlichen Akteure, Macht, Wirkung). Auch der Wis-
senschaftsrat hat „ein berechtigtes Interesse nicht wissenschaftlicher Akteure, an
Forschungs- und Innovationsprozessen mitzuwirken“ erkannt und empfiehlt „die
Bedingungen und Möglichkeiten unterschiedlicher Beteiligungsformate zu unter-
suchen und dafür Experimentierräume zu schaffen“.20
Schaut man sich in der transdisziplinären TA-Forschung um, so führt sie in
ihrer Praxis wissenschaftliches und außerwissenschaftliches Wissen auf vieler-

15 vgl. Renn, Ortwin; Kastenholz, Hans: Diskursive Technikfolgenabschätzung. In: Stein, Ger-
hard (Hg.): Umwelt und Technik im Gleichklang. Technikfolgenforschung und Systemanalyse
in Deutschland. Heidelberg 2002. S. 33–48; sowie: Schweizer, Pia-Johanna; Renn, Ortwin:
Partizipation in Technikkontroversen: Panakeia für die Energiewende? In: Technikfolgenab-
schätzung. Theorie und Praxis, 22 (2), 2013, S. 42–47.
16 Grunwald, Armin: Technikfolgenabschätzung – eine Einführung. Berlin 2010(2). S. 145 ff.;
sowie: Rip, Ari; Misa, Thomas; Schot, Johan: Managing Technology in Society. London 1995.
17 Habermas, Jürgen: Vorbereitende Bemerkungen zu einer Theorie der kommunikativen Kompe-
tenz. In: Habermas, Jürgen; Luhmann, Niklas (Hg.): Theorie der Gesellschaft oder Sozialtech-
nologie. Was leistet die Systemforschung? Frankfurt am Main 1990(10). S. 104 ff.
18 Hubig, Christoph: Pragmatische Entscheidungslegitimation angesichts von Expertendilem-
mata. In: Grunwald, Armin; Saupe, Stephan (Hg.): Ethik in der Technikgestaltung. Praktische
Relevanz und Legitimation. Heidelberg 1999, S. 201.
19 vgl. Bergmann, Matthias; Jahn,Thomas: Methoden transdisziplinärer Forschung. Ein Über-
blick mit Anwendungsbeispielen. Frankfurt am Main 2010.
20 vgl. Wissenschaftsrat: Zum wissenschaftspolitischen Diskurs über Große gesellschaftliche He-
rausforderungen. Ein Positionspapier. Köln 2015.
100 Ortwin Renn

lei Weise zusammen.21 Transdisziplinarität ist in vielerlei Hinsicht angewiesen


auf Erkenntnisse, die in „klassischen“ Wissenschaftsformen gewonnen werden,
ebenso wie diese Wissenschaftsformen durch den Austausch mit transdisziplinä-
rer Forschung möglicherweise ihre Forschungsgegenstände und Organisations-
formen erneut auf den Prüfstand stellen. Transdisziplinarität ist aber methodisch
an den dialogischen Austausch zwischen unterschiedlichen Wissensträger gebun-
den. Hierfür sind Diskurse im Sinne der Habermas’schen kommunikativen Rati-
onalität besonders gut geeignet.22
Dazu reicht es nicht aus, alle möglichen „Stakeholder“ um einen runden Tisch
zu versammeln und darauf zu hoffen, dass sich allein aus der Tatsache des ge-
meinsamen Gespräches ein Mehrwert für die Erkenntnisfindung oder die Erarbei-
tung einer transdisziplinären Problemlösung ergeben würde. Im schlimmsten Falle
wird das methodisch abgesicherte Wissen durch interessengeleitete Vorstellungen
ersetzt und die normativen (Vor)urteile der beteiligten Wissenschaftler als kol-
lektiv verbindliche Orientierungen zur Bewertung herangezogen. Es bedarf eines
strukturierten und eines methodisch bewährten Prozessvollzugs, um die jeweili-
gen Stärken der einzelnen Wissensformen synergetisch herauszuarbeiten und die
jeweiligen Schwächen gegenseitig zu kompensieren. Das geht nicht von alleine,
sondern bedarf eines eigenen evidenz-basierten Prozesswissens. Dies muss theo-
retisch fundiert, empirisch geprüft und methodisch reproduzierbar sein. Das Me-
thodische der transdisziplinären Forschung liegt in der auf Dauer gestellten Refle-
xivität bzw. „argumentativer Erzeugung und den dabei unterscheidbaren Stufen im
Produktionsprozess“.23
Häufig enden TA-Diskurse nicht mit einem Konsens, sondern mit einem Kon-
sens über den Dissens. In diesem Falle wissen alle Teilnehmer, warum die eine
Seite für eine Maßnahme und die andere dagegen ist. Die jeweiligen Argumente
sind dann aber im Gespräch überprüft und auf Schwächen und Stärken ausgelotet
worden. Die verbleibenden Unterschiede beruhen nicht mehr auf Scheinkonflikten
oder auf Fehlurteilen, sondern auf klar definierbare Differenzen in der Bewertung
von Entscheidungsfolgen.24 Das Ergebnis eines Diskurses ist mehr Klarheit, nicht
unbedingt Einigkeit.
Es gibt eine Vielzahl von Verfahren und Möglichkeiten, solche Diskurse zu
führen.25 Geht es mehr um gemeinsame Selbstverpflichtung oder Selbstbindung,
haben sich runde Tische und spezielle Techniken wie Zukunftswerkstatt oder
„Open Space Forum“ bewährt. Für die Behandlung wissenschaftlicher Streitfra-

21 vgl. Nowotny, Helga; Scott, Peter; Gibbons, Michael: Re-thinking Science: Knowledge and the
Public in an Age of Uncertainty. Cambridge, UK, 2001.
22 vgl. Webler, Thomas: “Right” Discourse in Citizen Participation. An Evaluative Yardstick. In:
Renn, Ortwin; Webler, Thomas; Wiedemann, Peter (Hg.): Fairness and Competence in Citizen
Participation. Dordrecht, Boston 1995. S. 35–86.
23 vgl. Mittelstrass, Jürgen: Methodische Transdisziplinarität. In: Technologiefolgenabschät-
zung – Theorie und Praxis, 2 (14), 2005, S. 18–23.
24 Grunwald 2010, S. 128 f.
25 Überblick und Erläuterung in: Renn, Ortwin; Oppermann, Bettina: Mediation und kooperative
Verfahren im Bereich Planung und Umweltschutz. In: Institut für Städtebau (Hg.): Kooperative
Planung und Mediation im Konfliktfall. Heft 82. Berlin 2001. S. 13–36.
Technikfolgenabschätzung: Ein Konzept zur Gestaltung der Zukunft 101

gen sind Instrumente wie Delphi, Gruppen-Delphi, meta-analytische Werkstätten


oder Konsensuskonferenzen geeignet. Stehen dagegen Interessen- oder Wert-
konflikte im Raum, die behandelt und wenn möglich aufgelöst werden sollen,
lassen sich Mediations- und Schlichtungsverfahren einsetzen. Für eine Beteili-
gung der nicht-organisierten Bürger sind Planungszellen, Konsensuskonferenzen
oder Bürgerkomitees bzw. Bürgerforen die richtigen Instrumente. Diese unter-
schiedlichen Diskursverfahren lassen sich auch kombinieren: Die amerikanische
Akademie der Wissenschaften hat vor allem eine Kombination aus analytischen
(wie Delphi, Metaanalysen etc.) und deliberativen Verfahren für Technikdebatten
empfohlen26.

KLASSIFIKATION VON DISKURSEN

In der Literatur finden sich viele verschiedene Klassifikationssysteme für Diskur-


se.27 Man kann sich beispielsweise über Sachverhalte, über Bewertungen, über
Handlungsforderungen oder über ästhetische Urteile streiten. Für die praktische
Arbeit in der Technikfolgenabschätzung erscheint eine Klassifikation in drei Dis-
kurskategorien28 hilfreich:
Der epistemische Diskurs umfasst Kommunikationsprozesse, bei denen Ex-
perten (nicht unbedingt Wissenschaftler) um die Klärung eines Sachverhaltes
ringen. Ziel eines solches Diskurses ist eine möglichst wirklichkeitsgetreue Ab-
bildung und Erklärung eines Phänomens. Je vielschichtiger, disziplinenübergrei-
fender und unsicherer dieses Phänomen ist, desto eher ist ein kommunikativer
Austausch unter den Experten notwendig, um zu einer einheitlichen Beschrei-
bung und Erklärung des Phänomens zu kommen. Häufig können diese Diskurse
nur die Bandbreite des noch methodisch rechtfertigbaren Wissens aufzeigen, also
den Rahmen abstecken, in denen Dissens noch unter methodischen oder empiri-
schen Gesichtspunkten begründet werden können. An diesem Diskus können alle
relevanten Wissensträger mitwirken: entscheidend für die Teilnahme ist es, dass
die Parteien Einsichten und Erkenntnisse mitbringen, die ein besseres Verständ-
nis der Problemsituation versprechen oder funktional wirksame Vorschläge zur
Problemlösung enthalten.
Der Reflexionsdiskurs umfasst Kommunikationsprozesse, bei denen es um die
Interpretation von Sachverhalten, zur Klärung von Präferenzen und Werte sowie

26 US-National Research Council of the National Academies: Public Participation in Environ-


mental Assessment and Decision Making. Washington, D. C., 2008.
27 vgl. Rowe, Gene; Frewer, Lynn: Public Participation Methods: A Framework for Evaluation.
In: Science, Technology & Human Values, 225 (1), 2002, S. 3–29.; sowie: Webler, Thomas:
“Right” Discourse in Citizen Participation. An Evaluative Yardstick. In: Renn, Ortwin; Webler,
Thomas; Wiedemann, Peter (Hg.): Fairness and Competence in Citizen Participation.
Dordrecht, Boston 1995. S. 35 ff.
28 ursprünglich in: Wachlin, Klaus-Dieter; Renn, Ortwin: Diskurse an der Akademie für Technik-
folgenabschätzung in Baden-Württemberg: Verständigung, Abwägung, Gestaltung, Vermitt-
lung. In: Bröchler, Stephan; Simonis, Georg; Sundermann, Karsten (Hg.): Handbuch Technik-
folgenabschätzung. Bd. 2. Berlin 1999. S. 713–722.
102 Ortwin Renn

zur normativen Beurteilung von Problemlagen und Vorschlägen geht. Reflexions-


diskurse eignen sich vor allem als Stimmungsbarometer für technische Entwick-
lungen, als Hilfsmittel zur Entscheidungsvorbereitung und als Instrument zur an-
tizipativen Konfliktvermeidung. Sie vermitteln einen Eindruck von Stimmungen,
Wünschen und Unbehagen, ohne aber konkrete Entscheidungsoptionen im Einzel-
nen zu bewerten.
Der Gestaltungsdiskurs umfasst Kommunikationsprozesse, die auf die Bewer-
tung von Handlungsoptionen und/oder die Lösung konkreter Probleme abzielen.
Verfahren der Mediation oder direkten Bürgerbeteiligung sind ebenso in diese Ka-
tegorie einzuordnen wie Zukunftswerkstätten zur Gestaltung der eigenen Lebens-
welt oder politische bzw. wirtschaftliche Beratungsgremien, die konkrete Politik-
optionen vorschlagen oder evaluieren sollen.
Alle drei Diskursformen bilden das Gerüst für eine diskursive TA. Selbst wenn
es gelingt, alle diese Diskurse ergebnisorientiert und effizient zu führen, so werden
sie dennoch keine akzeptablen Lösungen hervorbringen, wenn die Probleme von
Ambivalenz und Unsicherheit nicht selbst zum Thema gemacht werden. Technik-
anwendern wie Technikbetroffenen muss deutlich werden, dass mit jeder Techni-
kanwendung Risiken verbunden und Schäden auch bei bester Absicht und größter
Vorsorge nicht auszuschließen sind. Erst die Bewusstmachung der verbleibenden
Risiken eröffnet neue Strategien, kreativ und vorsorgend mit Ambivalenz und Un-
gewissheit umzugehen.

AUSBLICK

Die Ausführungen in diesem Beitrag begannen mit einer Übersicht über die Aufga-
ben der Technikfolgenabschätzung, erläuterten die wesentlichen Herausforderun-
gen, die sich aus der Komplexität, Unsicherheit und Ambivalenz der Technikfol-
gen ergeben, und schlossen dann mit einer Betrachtung der transdisziplinären und
diskursiven Ausrichtung der TA. Dabei wurden folgende Erkenntnisse gewonnen:
Erstens, Technikfolgenabschätzung muss sich immer an der Komplexität,
Ambivalenz und Folgenunsicherheit der Technik orientieren. Dabei muss sie
zweitens zwischen der wissenschaftlichen Identifizierung der möglichen Folgen
und ihrer Bewertung funktional trennen, dabei jedoch beide Schritte diskursiv
miteinander verzahnen. Drittens sollte sie ein schrittweises, rückkopplungsrei-
ches und reflexives Vorgehen bei der Abwägung von positiven und negativen
Folgen durch Experten, Anwender und betroffene Bürger vorsehen. Viertens ist
sie auf eine transdisziplinäre und diskursive Form der Folgenforschung vor allem
aber der Folgenbewertung angewiesen. Eine so verstandene Technikfolgenab-
schätzung setzt eine enge Anbindung der Folgenforschung an die Folgenbewer-
tung voraus, ohne jedoch die funktionale und methodische Differenzierung zwi-
schen diesen beiden Aufgaben (Erkenntnis und Beurteilung) aufzugeben. Eine
solche Verkoppelung ist notwendig, um im Schritt der Bewertung die Probleme
der Komplexität, Ambivalenz und der Ungewissheit bei der Folgenforschung
und Folgenbewertung angemessen zu berücksichtigen. Umgekehrt müssen auch
Technikfolgenabschätzung: Ein Konzept zur Gestaltung der Zukunft 103

schon bei der Identifikation und Messung der Folgepotentiale die letztendlichen
Bewertungskriterien als Leitlinien der Selektion zugrunde gelegt werden. So
wichtig es ist, die Methoden der Erkenntnisgewinnung und der Folgenbewertung
nicht zu vermischen, so wichtig ist aber auch, die enge Verzahnung zwischen
diesen beiden Bereichen anzuerkennen, weil Technikfolgenforschung ansonsten
in einer unsicheren Welt nicht mehr leistungsfähig und wirklichkeitsnahe wäre.
Diese Notwendigkeit der Verzahnung spricht ebenfalls für eine diskursive Form
der Technikfolgenabschätzung.
Die hier beschriebene diskursive Auffassung von TA fußt auf der Vorausset-
zung, dass die Wissenschaften bei der systematischen Erforschung von Folgepo-
tentiale durchaus Fortschritte machen und viele der Probleme der Komplexität
und Ungewissheit zumindest ansatzweise in den Griff bekommen. Dies sollte
aber nicht zur Hybris verführen anzunehmen, TA-Studien seien in der Lage, mit
Hilfe einer nach bestem Wissen ausgeführten Folgeanalyse Ungewissheit so-
weit reduzieren zu können, dass eindeutige Antworten über Gestalt und Verlauf
möglicher Zukünfte vorliegen. Diese Warnung hat Kornwachs immer wieder
den TA-Forschern ins Pflichtenbuch geschrieben.29 Weder der Willenseinfluss
menschlicher Handlungen noch die Unschärfe naturgegebener Reaktionen auf
gesellschaftliche Interventionen in die natürlichen Regelkreise erlauben eine ein-
deutige Vorhersage der Folgen. Gerade weil Folgen von Handlungen weitgehend
von Entscheidungen der Handelnden ausgehen, hat sich Klaus Kornwachs für die
diskursive Ausrichtung der TA eingesetzt. Es wäre eine Illusion, so Klaus Korn-
wachs, wenn man glaubt, dass TA-Studien die Zukunft vorhersehen könnten. Sie
können allenfalls die Chancen der wirtschaftlichen, politischen und sozialen Ak-
teure für eine bewusste und wissensgestützte Gestaltung im Rahmen ihres Ent-
scheidungsraumes erweitern.30
Die wissenschaftliche Behandlung und Abschätzung von Technikfolgen
ist auch für ein diskursives Konzept von TA unerlässlich. Adäquates Folgewis-
sen ist notwendig, um die systemischen Zusammenhänge zwischen Nutzungs-
formen, Reaktionen von ökologischen und sozialen Systeme auf menschliche
Interventionen und sozio-kulturellen Bedingungsfaktoren aufzudecken. Das
Zusammentragen der Ergebnisse interdisziplinärer Forschung, die politikrele-
vante Auswahl der Wissensbestände und die ausgewogene Interpretation in ei-
nem Umfeld von Unsicherheit, Komplexität und Ambivalenz sind schwierige
Aufgaben, die in erster Linie vom Wissenschaftssystem selbst geleistet werden
müssen. Dabei werden auch innerhalb des Wissenschaftssystems neue Formen
der interdisziplinären, vor allem aber der transdisziplinären Zusammenarbeit,
der diskursiven Integration von unterschiedlichen Wissensbeständen zu einem
Gesamtbild und der akteursbezogenen Bewertung der einbezogenen Wissens-
bestände benötigt.

29 Kornwachs, Klaus: Information und Kommunikation: Zur menschengerechten Technikgestal-


tung. Heidelberg 2013. S. 11 ff.
30 Kornwachs, Klaus: Strukturen technologischen Wissens. Analytische Studien zu einer Wissen-
schaftstheorie der Technik. Berlin 2012. S. 256 ff.
104 Ortwin Renn

LITERATUR
Akademie der Wissenschaften zu Berlin: Umweltstandards. Berlin 1991.
Bauman, Zygmunt: Moderne und Ambivalenz: Das Ende der Eindeutigkeit. Hamburg 2012(2).
Bullinger, Hans-Jörg: Was ist Technikfolgenabschätzung. In: ders. (Hg.): Technikfolgenabschät-
zung. Stuttgart 1994. S. 3–32.
Bergmann, Matthias; Jahn,Thomas: Methoden transdisziplinärer Forschung. Ein Überblick mit An-
wendungsbeispielen. Frankfurt am Main 2010.
Dörner, Dietrich; Schaub, Harald; Strohschneider, Stefan: Komplexes Problemlösen – Königsweg
der Theoretischen Psychologie? In: Psychologische Rundschau, 50 (4), 1999, S. 198–205.
Dusseldorp, Marc: Technikfolgenabschätzung. In: Grunwald, Armin (Hg.): Handbuch Technikethik.
Stuttgart 2013. S. 394–399.
Eisenführ, Franz; Weber, Martin: Rationales Entscheiden. Berlin 2003(4).
Funtowicz, Silvio; Ravetz, Jerome: Post-Normal Science. Science and Governance under Condi-
tions of Complexity. In: Decker; Michael (Hg.): Interdisciplinarity in Technology Assessment.
Implementation and its Chances and Limits. Heidelberg 2001. S. 15–24.
Gigerenzer, Gert: Rationality without Optimization: Bounded Rationality. In: Macchi, Laura; Ba-
gassi, Maria; Viale, Riccardo (Hg.): Cognitive Unconscious and Human Rationality. Cam-
bridge, MA 2016. S. 3–22.
Grunwald, Armin: Technikfolgenabschätzung – eine Einführung. Berlin 2010(2).
ders.: Auf der Suche nach Orientierung: Technikzukünfte als interdisziplinärer Forschungs- und
Reflexionsgegenstand. In: Hilgendorf, Eric; Hötitzsch, Sven (Hg.): Das Recht vor den Heraus-
forderungen der modernen Technik. Baden-Baden 2015. S. 41–62.
Habermas, Jürgen: Vorbereitende Bemerkungen zu einer Theorie der kommunikativen Kompetenz.
In: Habermas, Jürgen; Luhmann, Niklas (Hg.): Theorie der Gesellschaft oder Sozialtechnolo-
gie. Was leistet die Systemforschung? Frankfurt am Main 1990(10). S. 101–141.
Hubig, Christoph: Pragmatische Entscheidungslegitimation angesichts von Expertendilemmata. In:
Grunwald, Armin; Saupe, Stephan (Hg.): Ethik in der Technikgestaltung. Praktische Relevanz
und Legitimation. Heidelberg 1999, S. 197–209.
Kähler, Jürgen; Weber, Christoph: Theorien der Entscheidung unter Unsicherheit. In: WiSt-Wirt-
schaftswissenschaftliches Studium, 44 (10), 2015, S. 572–578.
Kahneman, Daniel: Schnelles Denken, langsames Denken. München 2012.
Kornwachs, Klaus: Strukturen technologischen Wissens. Analytische Studien zu einer Wissen-
schaftstheorie der Technik. Berlin 2012.
Kornwachs, Klaus; König, Wolfgang; Verein Deutscher Ingenieure: Technikbewertung –Begriffe
und Grundlagen. In: Hubig, Christoph; Huning, Alois; Ropohl, Günter (Hg.): Nachdenken über
Technik. Baden-Baden 2013(3). S. 518–522.
Kornwachs, Klaus: Information und Kommunikation: Zur menschengerechten Technikgestaltung.
Heidelberg 2013.
Mittelstrass, Jürgen: Methodische Transdisziplinarität. In: Technologiefolgenabschätzung – Theorie
und Praxis, 2 (14), 2005, S. 18–23.
Nowotny, Helga; Scott, Peter; Gibbons, Michael: Re-thinking Science: Knowledge and the Public in
an Age of Uncertainty. Cambridge, UK, 2001.
Nowotny, Helga; Scott, Peter; Gibbons, Michael: Introduction. “Mode 2” Revisited: The New Pro-
duction of Knowledge. In: Minerva, 41, 2003, S. 179–194.
Pfister, Hans-Rüdiger; Jungermann, Helmut; Fischer, Katrin: Die Psychologie der Entscheidung.
Eine Einführung. Heidelberg 2017(5).
Renn, Ortwin: Technik und gesellschaftliche Akzeptanz: Herausforderungen der Technikfolgenab-
schätzung. In: GAIA Ecological Perspectives in Science, Humanities, and Economics, 2 (2),
1993, S. 69–83.
ders.: Technikfolgenabschätzung. In: Naturwissenschaftliche Rundschau, 4 (56), 2003, S. 233–234.
ders.: Neue Technologien, neue Technikfolgen: Ambivalenz, Komplexität und Unsicherheit als He-
rausforderungen der Technikfolgenabschätzung. In: Kehrt, Christian; Schüßler, Peter; Weitze,
Technikfolgenabschätzung: Ein Konzept zur Gestaltung der Zukunft 105

Marc-Denis (Hg.): Neue Technologien in der Gesellschaft. Akteure, Erwartungen, Kontrover-


sen und Konjunkturen. Bielefeld 2011. S. 63–76.
Renn, Ortwin; Kastenholz, Hans: Diskursive Technikfolgenabschätzung. In: Stein, Gerhard (Hg.):
Umwelt und Technik im Gleichklang. Technikfolgenforschung und Systemanalyse in Deutsch-
land. Heidelberg 2002. S. 33–48.
Renn, Ortwin; Klinke, Andreas: Complexity, Uncertainty and Ambiguity in Inclusive Risk Gover-
nance. In: Andersen, Torben J. (Hg.): The Routledge Companion to Strategic Risk Manage-
ment. Routledge 2016. S. 13–30.
Renn, Ortwin; Oppermann, Bettina: Mediation und kooperative Verfahren im Bereich Planung und
Umweltschutz. In: Institut für Städtebau (Hg.): Kooperative Planung und Mediation im Kon-
fliktfall. Heft 82. Berlin 2001. S. 13–36.
Rip, Ari; Misa, Thomas; Schot, Johan: Managing Technology in Society. London 1995.
Rowe, Gene; Frewer, Lynn: Public Participation Methods: A Framework for Evaluation. In: Science,
Technology & Human Values, 225 (1), 2002, S. 3–29.
Schweizer, Pia-Johanna; Renn, Ortwin: Partizipation in Technikkontroversen: Panakeia für die
Energiewende? In: Technikfolgenabschätzung. Theorie und Praxis, 22 (2), 2013, S. 42–47.
US-National Research Council of the National Academies: Public Participation in Environmental
Assessment and Decision Making. Washington, D. C., 2008.
Wachlin, Klaus-Dieter; Renn, Ortwin: Diskurse an der Akademie für Technikfolgenabschätzung in
Baden-Württemberg: Verständigung, Abwägung, Gestaltung, Vermittlung. In: Bröchler, Ste-
phan; Simonis, Georg; Sundermann, Karsten (Hg.): Handbuch Technikfolgenabschätzung. Bd.
2. Berlin 1999. S. 713–722.
Webler, Thomas: “Right” Discourse in Citizen Participation. An Evaluative Yardstick. In: Renn,
Ortwin; Webler, Thomas; Wiedemann, Peter (Hg.): Fairness and Competence in Citizen Parti-
cipation. Dordrecht, Boston 1995. S. 35–86.
Wissenschaftsrat: Zum wissenschaftspolitischen Diskurs über Große gesellschaftliche Herausforde-
rungen. Ein Positionspapier. Köln 2015.
Zweck, Axel: Die Entwicklung der Technikfolgenabschätzung zum gesellschaftlichen Vermittlungs-
instrument. Heidelberg 2013.
MEHR ENT-ORTUNG ERFORDERT MEHR VER-ORTUNG
Warum die digitale Transformation in den Betrieben eine Stärkung
der kommunalen Stadtentwicklungsplanung benötigt

Welf Schröter

Der Diskurs über den Wandel der Arbeitswelten durch die digitale Transformation
hat seit dem Jahr 2011 mehrere Täler und Höhen durchschritten. Von schlichten
Marketingkampagnen mit buntglänzenden Drucksachen bis hin zu Forschungs-
projekten mit dem sinnigen Namen „Käse 4.0“ erschien plötzlich alles möglich.
Mit der gedanklich unterkomplexen Formel „alles hänge mit allem zusammen“
wurde versucht, „Industrie 4.0“ und „Arbeit 4.0“ zu erklären. Doch hinter dem
vordergründigen Messe-Verkäufer-Vokabular waren ernsthafte Herausforderun-
gen zu erkennen, die einer tiefergehenden Analyse und komplexen Gestaltung
bedürfen. Schiebt man die technikzentrierte Vertrieblersprache beiseite, wird der
Blick frei auf tatsächliche, gravierende Veränderungen des Begriffes „Arbeit“
und des Begriffes „Betrieb“. Es ist Zeit, von einer Kontinentalverschiebung der
Arbeitswelt zu sprechen. Der Entgrenzung der Arbeit folgt nun die Entgrenzung
der Betriebe.
Im Beteiligungsdiskurs des aus mehr als 3700 Frauen und Männern von Be-
triebs- und Personalräten bestehenden gewerkschaftsnahen Personennetzwerks
„Forum Soziale Technikgestaltung“ (FST), das 2016 sein 25-jähriges Gründungsju-
biläum feierte, werden die laufenden Debatten in zwei große Handlungsfelder auf-
geteilt: Zum einen werden die derzeitigen, zumeist technikzentrierten und zugleich
betriebszentrierten digitalen Implementierungen als „Prozess der nachholenden Di-
gitalisierung“ bezeichnet. Rund 90 Prozent aller Einführungen von elektronischen
Werkzeugen und Endgeräten basieren auf Schlüsselanwendungen, die seit zehn und
mehr Jahren vorhanden sind, aber in den Betrieben aus Kostengründen nicht ge-
nutzt wurden. Das erste Smartphone war 1996 auf dem Markt verfügbar. Mobiles
Arbeiten wurde bereits 1996 in einem innovativen Tarifvertrag geformt. Das „Inter-
net der Dinge“ existiert seit mindestens einer Dekade. Die „Smart Glasses“ wurden
schon lange als Endgeräte der „angereicherten Virtualität“ pilotiert. Die Liste ließe
sich bruchlos lange fortführen. Neu an dieser „nachholenden Digitalisierung“, bei
dem bereits vorhandene Technik den Nutzern als geradezu frische Kost vorgeführt
wird, ist der ambitionierte Versuch, diesen großen digitalen Baukasten von isolier-
ten Einzelteilen in ein prozesshaft Ganzes zu verknüpfen.
Der zweite große Bereich, den das FST intensiv berät, lässt sich als Nutzung
„autonomer Software-Systeme“ benennen. Die Anwendung dieser „selbstlernen-
den“, „selbstbewertenden“ und „selbstentscheidenden“ Systeme – sowohl in ver-
tikalen wie auch in horizontalen Wertschöpfungsketten – steckt in den Anfängen.
108 Welf Schröter

Derzeit gibt es noch keine durchgehende betriebsübergreifende horizontale Wert-


schöpfungskette, die erfolgreich und alltagstauglich von „autonomen Software-
Systemen“ verlässlich gesteuert wird.
Aus den umfänglichen Diskursberatungen und Diskursergebnissen des FST
sollen hier zwei Aspekte zur näheren Betrachtung herausgegriffen werden. Die
strukturierten Debatten legen eine weitreichende These nahe: Die digitale Transfor-
mation der Arbeitswelten in Produktion, Dienstleistung und Verwaltung sind nicht
nur eine betrieblich und betriebsbegrenzt zu behandelnde Veränderung. Dieser
Wandel löst zugleich tiefgreifende gesellschaftliche und gesellschaftsstrukturelle
Brüche aus. Das Forum Soziale Technikgestaltung betont daher, dass eine nach-
haltige, soziale und dauerhaft belastbare digitale Transformation der betrieblichen
Arbeitswelten nur mit starken flankierenden gesellschaftlichen Reformen erreicht
werden kann. Der Ansatz, dass der Wandel zur „Arbeit 4.0“ allein von den Sozial-
und Tarifpartnern realisiert werden kann, ist hinreichend, aber nicht ausreichend.
Der komplementäre Gestaltungsort zum Betrieb ist die Kommune.
Ein Kreis von Aktiven aus dem FST, aus Kirchen und sozialen Trägern haben
sich daher zur Gründung eines neuen Netzwerkes „Sozialer Zusammenhalt in di-
gitalen Lebenswelten“ entschlossen. Dieses Netzwerk will den technikinduzierten
Wandel zu einem gesellschaftlichen Thema machen und vice versa technikgestal-
terisch agieren. Grundlage der Netzwerkgründung ist ein Thesenpapier, das die ge-
sellschaftsbezogenen Aspekte mit der digitalen Transformation bündelt.

NETZWERK „SOZIALER ZUSAMMENHALT IN DIGITALER


LEBENSWELT“ – THESEN FÜR EIN GEMEINSAMES HANDELN

These 1: Die digitale Transformation ist eine gesamtgesellschaftliche Heraus-


forderung.
Die digitale Transformation der Wirtschafts- und Arbeitswelten zieht einen ganz-
heitlichen Wandel der Lebenswelten nach sich. Dieser Wandel stellt nicht nur ein
Technik- oder Wettbewerbsthema dar. Die digitale Transformation bildet eine ge-
samtgesellschaftliche Herausforderung und benötigt eine selbstbewusste, gestal-
tende Antwort der Zivilgesellschaft. „Industrie 4.0“, „Arbeit 4.0“, „Handwerk 4.0“,
„Mittelstand 4.0“, „Verwaltung 4.0“ betreffen nicht nur Betriebe, Werkstätten und
Büros. Sie betreffen alle Bürgerinnen und Bürger. Alle Bürgerinnen und Bürger
sind einzuladen, sich an der Gestaltung dieses Wandels zu beteiligen.

These 2: Soziale Innovationen sichern die Nachhaltigkeit des Wandels.


Wirtschaft und Technik leiten einen Wandel von Beruf, Arbeit und Freizeit ein.
Dieser Wandel benötigt in demokratischer, sozialer, kultureller, rechtlicher, öko-
logischer und ökonomischer Hinsicht Nachhaltigkeit. Diese Nachhaltigkeit ist erst
zu erreichen, wenn soziale Innovationen, soziale Standards, demokratische Rechte
und gesellschaftspolitische wie auch strukturelle Maßnahmen diese Nachhaltigkeit
absichern. Schritte zur Förderung des sozialen Zusammenhalts müssen aktiv weiter
entwickelt werden.
Mehr Ent-Ortung erfordert mehr Ver-Ortung 109

These 3: Technik muss dem Menschen dienen.


Die digitale Transformation der Wirtschafts- und Arbeitswelten verändern das
Verhältnis von Mensch und Technik. Technik muss dem Menschen dienen. Der
Mensch darf nicht der bloße Assistent digitaler Technik werden. Eine durch Di-
gitalisierung und Virtualisierung sich wandelnde Zivilgesellschaft benötigt einen
öffentlichen und beteiligungsorientierten Diskurs über moderne Ethik und die Stel-
lung des Menschen in technikgestützten Lebenswelten. Die Zivilgesellschaft be-
nötigt für die positive Nutzung neuer Techniken eine vorausschauende, integrierte
und partizipative Technikbegleitforschung gegenüber dem Einsatz autonomer Soft-
ware-Systeme. Notwendig ist eine aktive präventive Technikfolgenabschätzung.

These 4: Privatheit muss geschützt werden, sie ist ein wesentlicher Baustein der
Demokratie.
Die Anwendungen neuer digitaler und virtueller Werkzeuge in Beruf, Arbeit und Le-
benswelten beeinflussen das Verhältnis von Öffentlichkeit und Privatheit. Um die Vor-
teile der Digitalisierung für die Gesellschaft absichern zu können, benötigen Bürgerin-
nen und Bürger eine Stärkung ihres Rechtes auf informationelle Selbstbestimmung, ei-
nen intensiveren Schutz der Privatheit, einen umfassenden Daten- und Identitätsschutz.
Der Schutz der Privatheit ist ein wesentlicher Baustein des Fundaments der Demokratie.

These 5: Zugänge der Bürgerinnen und Bürger zu Bildung, Beruf und sozialer In-
frastruktur sind zu bewahren.
Der Prozess der digitalen Transformation der Arbeits- und Lebenswelten verändert die
Zugänge und die Zugänglichkeit der Bürgerinnen und Bürger zu Wissen und Bildung,
Beruf und Einkommen, sozialen Dienstleistungen und Infrastrukturen. Der Wandel ver-
mindert einerseits Barrieren, lässt aber andererseits neue entstehen. Die wachsende Un-
übersichtlichkeit und Abstraktion, die zunehmende Geschwindigkeit und Komplexität
sowie die abnehmende Nachvollziehbarkeit wirken sich für viele Menschen wie neue
Zugangsbarrieren aus. Bürgerinnen und Bürger sowie die zivilgesellschaftlichen Akteure
sollen in die Findung sozialer Innovationen, in die Entwicklung und Einführung neuer
Technologien beteiligungsorientiert einbezogen werden, um Gefahren der Ausgrenzung,
der Geschlechterungerechtigkeit und der möglichen digitalen Spaltung zu vermeiden.
Frühzeitige Beteiligung können sozialen Zusammenhalt, Integration, Selbstbestimmung,
Identität in der Virtualität, persönliche Autonomie, Solidarität und Inklusion erleichtern.

These 6: Veränderte Berufsbiographien benötigen neue Regelungen der sozialen


Absicherung.
Die voranschreitende digitale Transformation verändert Berufsbiografien und führt
immer häufiger zu unfreiwilliger individueller Selbstständigkeit und Erwerbslosig-
keit. Um soziale Brüche und Gefahren prekärer Lebensphasen zu verringern, bedarf
es dringend neuer gesellschaftlicher Übereinkünfte und sozialstaatlicher Regelungen
zugunsten sozialer Standards für Freelancer und Crowdworker. Wir brauchen in einer
digital handelnden Gesellschaft neue sozialstaatliche Anstöße für die soziale Absi-
cherung von Erwerbssuchenden und Langzeitarbeitslosen. Dabei kann aus der Dis-
kussion um das bedingungslose Grundeinkommen gelernt werden.
110 Welf Schröter

These 7: Neue Lernkulturen sollten zu selbstbestimmtem Leben ermutigen.


Die zunehmende Digitalisierung und Virtualisierung der Lebenszusammenhänge
in Beruf, Lebensphasen und Freizeit stellt die Zivilgesellschaft vor die Heraus-
forderung, neue Lernkulturen zu schaffen, die sich an die Lebenslagen anpassen
und lebensphasenorientiert ausgelegt sind. Diese Lernkulturen sollten zu selbst-
bestimmtem Leben ermutigen und lernförderliche Bildungswelten in Schule und
Berufsschule sowie in der Erwachsenenbildung stärken. Dabei sollten nicht das
technische Werkzeug oder die technische Infrastruktur das Zentrum bilden, sondern
das begleitende Lernen in kollegialer Gemeinschaft, das erst im Nachhinein mit
Assistenzlösungen unterstützt wird. Der sich beschleunigenden Virtualisierung von
Bildung und Weiterbildung muss eine Aufwertung der persönlichen Begegnung
und der Wiederverortung des Lernens folgen.

These 8: Eine klimagerechte Anwendungsstrategie der Digitalisierung wird drin-


gend benötigt.
Die neuen digitalen Technologien können zu mehr Material-, Ressourcen- und
Energieeffizienz in Wirtschaft und Arbeitswelt, im städtischen Zusammenle-
ben, in Mobilität und Verkehr, in Freizeit und Wohnumgebung beitragen. Ohne
die modernsten Informationstechnologien und ohne die „intelligenten“ digita-
len Werkzeuge wird das gemeinsame Klimaschutzziel nicht erreicht werden
können. Um aber dem Ziel mit Hilfe dieser Techniken erfolgreich nahezukom-
men, bedarf es einer klimagerechten Digitalisierungs- und Anwendungsstrate-
gie. Diese ist gerade für die Entwicklung von Städten und Gemeinden unab-
dingbar.

These 9: Benötigt werden Netzwerke zivilgesellschaftlicher Akteure – nicht nur in


Baden-Württemberg.
In einer gemeinsamen Anstrengung haben die baden-württembergische Landes-
regierung, Vertreter von Wirtschaft, Gewerkschaften, Verbänden, Kammern und
Forschungseinrichtungen im Frühjahr 2015 das Netzwerk „Allianz Industrie 4.0
Baden-Württemberg“ gegründet. Diesem – vor allem auf technische Innovationen
ausgerichteten Netzwerk – sollte ein offenes und öffentliches Netzwerk zivilge-
sellschaftlicher Akteure, Kirchen, Verbände und Initiativen zur Seite stehen. Ein
solches Netzwerk soll den begonnenen Zukunftsdialog des Landes erweitern, soll
für gesellschaftliche und soziale Innovationen eintreten. Ein solches Netzwerk soll
Impulse für demokratische Beteiligungen, für Chancengleichheit und Gleichbe-
rechtigung, für Zugänglichkeit und soziale Standards, für Bildungschancen und
unterstützende Jugendarbeit, für den Schutz der Privatheit und Verbraucherschutz,
für eine Kultur der Selbstbestimmung und Autonomie, für lebensphasenorientier-
tes Lernen und den Erwerb von Komplexitätskompetenz, für Integration und In-
klusion, für Klimaschutz, Open Government und für die Stärkung des ländlichen
Raumes geben.
Mehr Ent-Ortung erfordert mehr Ver-Ortung 111

AUSWIRKUNGEN DES BEDEUTUNGSWANDELS


DES ORTES „BETRIEB“

Der zunehmenden Vernetzung als Ent-Ortung stehen Impulse aus dem Forum Sozi-
ale Technikgestaltung gegenüber, die einen Bedeutungswandel des Ortes „Betrieb“
erkennen lassen:

Impuls I: Betrieb als sozialer Ort


Der Ort Betrieb als traditionell zumeist erfolgreiche Sozialisationsinstanz, wo
sozialer Zusammenhalt und Sozialkompetenz erlernt werden, büßt seine nor-
mierend dominierende Kraft ein. Er verschwindet aber nicht. Mehr und mehr
Menschen sind nur auf Zeit im Betrieb. Sie erfahren eine mehrfach gebrochene
Berufsbiografie, in der immer mehr Phasen der neuen Selbstständigkeiten (Free-
lancer, Crowdworker etc.) gelebt werden müssen. Wo lernen „Freie“ den sozialen
Zusammenhalt?

Impuls II: Aufhebung der Fragmentierung


Unsere Gesellschaft benötigt neue Orte des öffentlichen gemeinsamen sozialen
Erlernens von Zusammenhalt. Diese neuen Orte können Verortungen jenseits
verbleibender Betriebskulturen sein: öffentliche Wissensorte in Stadtteilen und
Kommunen wie etwa geöffnete gewandelte Bibliotheken, wie etwa neue Kom-
munikationsorte wie betreute CoWorking-Cafés. Die Fragmentierung von Betrie-
ben und Arbeitswelten muss nicht-technisch als gesellschaftliche Herausforderung
verstanden werden.

Impuls III: Der sozialpsychologische Blick


Die Digitalisierung und Virtualisierung neuen Typs in Richtung „Arbeit 4.0“ löst
deutliche Prozesse der sozialen und kulturellen „Entbettung“ (disembedding)
aus. Eine wachsende Zahl von Menschen mit oder ohne Arbeit fühlt sich in den
neuen Arbeitswelten überfordert, entwertet und nicht mehr als zugehörig. Eine
gesellschaftsbezogene „innere Kündigung“ und „innere Emigration“ kann eine
Abkehr von der Gesellschaft und von der Demokratie auslösen. Die Strategie
„Arbeit 4.0“ benötigt dringend eine integrierende, inkludierende gesellschaftli-
che Strategie.

Der Sozialpsychologe Heiner Keupp schrieb schon 2003: „Wenn wir uns der Frage
zuwenden, welche gesellschaftlichen Entwicklungstendenzen die alltäglichen Le-
bensformen der Menschen heute prägen, dann kann man an dem Gedanken des
,disembedding‘ oder der Enttraditionalisierung anknüpfen. Dieser Prozess lässt
sich einerseits als tiefgreifende Individualisierung und als explosive Pluralisierung
andererseits beschreiben.“
112 Welf Schröter

PLURALISIERUNG DER SOZIALISATIONSVERORTUNG


ALS NEUE VER-ORTUNG

Die normierende Kraft des Wortes „Betrieb“ wird für die Sozialisierung der Men-
schen im Beruf abnehmen. Entortung, Entzeitlichung, Individualisierung und Ver-
einzelung, Virtualisierung und Entbetrieblichung stellen die Frage, wo dann noch
Menschen zu einem sozialen und einem demokratischen Miteinander sozialisiert
werden können. Die „Community Betrieb“ bröckelt. Die Zahl der Ein-Personen-
Selbstständigen und Freelancer steigt. Doch was, wo und wer tritt strategisch in der
Gesellschaft an die Stelle des Sozialisationsortes „Betrieb“?
Wenn die strukturelle Bedeutung des Ortes „Betrieb“ in seiner normierenden
gesellschaftlichen Funktion nachlässt, wird dies auch zu einer Pluralisierung der
Sozialisationsverortung führen. Dies kann entweder eine kulturelle Bereicherung
für alle ermöglichen oder eine verstärkte Fragmentierung und Parzellierung gesell-
schaftlicher Gruppen einläuten.
Das arbeitende Individuum wird von den kulturellen Prägungen und Regula-
tionen der Sozialpartner immer weniger erreicht. Die Kollegialkultur und deren
sozialisierende Kraft aus Betrieben, Belegschaften, Teams, Verbänden und Sozi-
alpartnern verlieren ihre Interpretationshoheit in den aufkommenden virtuellen
Einkommenswelten. Die strukturelle Ent-Integration des arbeitenden Individuums
aus den postanalogen Strukturen der Arbeitswelten zieht eine latente Tendenz zur
Ent-Sozialisation nach sich. Die Rollen der Sozialpartner als gesellschaftliche
Binde-Mittel werden geschwächt. Sie büßen Kohäsionskraft ein. Parallel zur rea-
len und virtuellen Atomisierung des Individuums vollzieht sich eine Rückbildung
des zentralen Kohäsionszentrums „Betrieb“ als formierender Ort der Vergesell-
schaftung des Individuums.
Angesichts dieses beginnenden Ent-Kohäsionsprozesses der Gesellschaft
muss die Frage nach neuen Anlässen, Orten und Kulturen formuliert werden, wie
und wo kompensatorische Kohäsionsorte und ebensolche Kohäsionskräfte wach-
sen können.

BIBLIOTHEKEN ALS NEUE BERUFSBEZOGENE SOZIALISATIONSORTE

Vor diesem Hintergrund gilt es, eine These zu prüfen: Nicht die realen und virtu-
ellen Orte des lebenslangen Broterwerbs strukturieren die postanalogen Einkom-
mens-Patchwork-Biografien, sondern es sind die realen und virtuellen Orte des
emotional-intelligenten Lernens als lebenslange Lernkultur. Die neuen emotional-
intelligenten Lernwege bzw. Lerninfrastrukturen mit ihren Social-Media-Einspie-
gelungen benötigen nicht den Ort „Betrieb“ als Konditionierungstreffpunkt. Erfor-
derlich ist der Ausbau der Orte des Wissens- und Erfahrungsaustausches, der Orte
des Lernens und innovativen Experimentierens zu strategischen Kohäsions-Naht-
stellen mit hoher emotionaler Identifizierungs- und Bindekraft.
Die gewachsenen Orte der Informations- und Wissensvermittlung müssen dem-
nach die zusätzliche Rolle der aktiven Kohäsionsstabilisierung proaktiv annehmen.
Mehr Ent-Ortung erfordert mehr Ver-Ortung 113

Die Entortung und Entzeitlichung von Arbeit sowie der Rückgang des „Prinzips
Betrieb“ eröffnen die Suche nach neuen gesellschaftlich-öffentlichen, synchronen
Orten des Face-to-Face-Austausches. Bibliotheken und insbesondere Stadtteilbib-
liotheken könnten als Bildungstreffpunkte zu neuen Drehpunkten der vernetzten
Wissensgesellschaft (kollegiale Sozialisationsorte als Ersatz für den Ort „Betrieb“)
werden: „Blended Living“.

„BLENDED LIVING“ ALS SCHWESTER VON SOCIAL MEDIA


UND ANKER SOZIALER KOHÄSION

Bibliotheken könnten sich zu berufsbezogenen Knotenpunkten der Netzwerke von


überall wachsenden sozialinnovativen „Coworking Spaces“ der Zukunft entfal-
ten. Bibliotheken werden zu Orten, wo sich neue Dienstleistungen und Services
verbinden: Wissensspeicher und Lernportal der Wissensarbeitenden, Support für
themenorientierte, tätigkeitsorientierte und wertschöpfungsorientierte Netzwerke,
proaktiver Kommunikationsort, Eingang zum Open Government, Cafeteria-Prinzip
einer Face-to-face-Community, Knotenpunkt der kommunalen Coworking Spaces,
Kooperationsbörse, Treff der anonymen Burnoutler und anderes mehr.
Das „biografische Ich“ verhält sich zu seinem „virtuellen Ich“ ungleichzei-
tig. Diese operative Ungleichzeitigkeit des prozessualen Arbeitens fordert vom
Subjekt, vom Individuum, die Ungleichzeitigkeiten des kulturellen Erfahrens und
Bewusstwerdens nicht nur als ein vorübergehendes Phänomen anzusehen, son-
dern in diesem Phänomen eine auf Dauer angelegte Identität/Nicht-Identität zu
erkennen.
Am Ort des emotional-intelligenten Lernens könnten „natürliches Ich“ und
„virtuelles Ich“ wieder zusammenfinden, weil dauerhaftes wirkliches Lernen nur
möglich ist von Angesicht zu Angesicht (face to face) und weil das „natürliche
Ich“ persönliche Kommunikation, Kooperation und Konditionierung benötigt. Dies
trägt zur „Heilung“ der „Burn-out-Seelen“ der virtuell Entfremdeten bei und eröff-
net eine Perspektive auf nachhaltiges Blended Living, eine Mischung aus Natürli-
chem und Virtuellem.
Die Digitalisierung und Virtualisierung neuen Typs in Gestalt von „Arbeit
4.0“ fordert beschäftigungspolitisch das Recht auf Arbeit, die Zugänglichkeit
zum Erwerbsleben, die soziale Struktur unserer Gesellschaft und den sozialen
Frieden massiv heraus.
Entweder gelingt mit „Arbeit 4.0“ ein neuer Job-Boom auf der Basis digitaler
Transformation oder unsere Gesellschaft benötigt neue soziale Innovationen (be-
dingungsloses Grundeinkommen?) für viele Menschen, die entweder keinen Zu-
gang zur Arbeitswelt finden oder aber im Verständnis der Arbeitsagentur „unterbe-
schäftigt“ (heute 3,5 Mio.) sind bzw. bleiben.
114 Welf Schröter

DER VORHANG AUF UND ALLE FRAGEN OFFEN

Was passiert mit dem menschlichen Subjekt im Spannungsgefüge von Realität


und Virtualität, zwischen fiktiver Realität und realer Virtualität? Erleichtert dieses
Spannungsgefüge die gesellschaftliche und individuelle Emanzipation oder stellt es
ein wachsendes Hemmnis dar?
Zur synchronen Dreigliedrigkeit des Industriearbeitsplatzes von Ort, Zeit
und Verfasstheit tritt in der wissensbasierten asynchronen Arbeitsrealität die Un-
gleichzeitigkeit des Ortes, der Zeit und der Verfasstheit von Arbeit als dauerhafte
vierte Konstante. Die Arbeitswelten der Informations- und Wissensgesellschaften
fußen unter anderem auf der Ungleichzeitigkeit des Realen mit dem Virtuellen.
Eine derartige Ungleichzeitigkeit verlangt eine strukturell andere Emanzipations-
strategie. Sie schließt eine Emanzipation mit Hilfe der Virtualität und vor allem
in der Virtualität ein.
Mit der Idee von Klaus Kornwachs einer befristeten, dauerhaften oder partiel-
len „Entnetzung“ als Mittel der Entschleunigung könnte zeitlich jener Gestaltungs-
raum entstehen, der einem Mehr an Ent-Ortung endlich ein Mehr an Ver-Ortung
bringt. Virtualisierung benötigt Lokalisierung.
ZUR ANTHROPOLOGIE DES KÖRPERLICH
AUFGERÜSTETEN MENSCHEN
Auswirkungen der technischen Aufrüstung des menschlichen Körpers
auf unser Selbst- und Weltverständnis

Klaus Wiegerling

Klaus Kornwachs beschäftigt sich in seinem Buch „Strukturen technischen Wis-


sens. Analytische Studien zu einer Wissenschaftstheorie der Technik“ u. a. mit der
Frage, wie sich die Entwicklung und Ausgestaltung einer Technik auf technische
Organisationsformen und organisatorische Rahmungen auswirkt. Technische Ent-
wicklungen stehen in einer Relation zu ökonomischen, politischen und kulturellen
Dispositionen sowie Stimmungen, die wie die Technik einem permanenten Wand-
lungsprozess unterworfen sind. Die Frage nach einem Primat kann nur stellen, wer
vergisst, dass Technik ein genuiner Ausdruck von Kultur und technisches Handeln
ein wertendes Tun ist. Letzteres ist zweckorientiert und unterscheidet sich von ei-
nem theoretischen Zugriff auf die Welt. Auch wenn der Naturforscher technische
Hilfsmittel nutzt, so ist sein Ziel zu Erkenntnissen zu gelangen, die sich in Geset-
zen fassen lassen. Es geht ihm „letztlich“ um begründbare Wahrheitsaussagen. Der
Techniker dagegen formuliert sein Ziel aus lebensweltlichen Verhältnissen, in die er
wertend verstrickt ist. Es geht um den erfolgreichen Einsatz von Mitteln, um ein Ziel
zu erreichen. Technisches Handeln beruht, wie Kornwachs ausführt, auf Kausal-
und Regelwissen. Letzteres aber ist normativ, da mit der Bestimmung des Zieles,
das erreicht werden soll, eine Wertung einhergeht1. Technik basiert auf vorgängigen
Bewertungen; und auch während des Herstellungsprozesses werden Bewertungen
vorgenommen, die zu Neubestimmungen des Zielbereichs und Neujustierungen des
eingeschlagenen Weges, ja sogar zum Abbruch von Entwicklungen führen können.
Technisches Tun ist anders als naturwissenschaftliches auf Gewolltes und Gesolltes
eingelassen. Fokussiert wird eine Zweck-Mittel-Relation.
Die Technisierung der Wissenschaft ist weit fortgeschritten. Die Zustandsbe-
schreibung der Wissenschaft, wie sie Husserl in seiner Krisis-Schrift2 vorgenom-
men hat, ist so aktuell wie 1938. Die Synthetische Biologie, die den Anspruch er-
hebt, Leben aus unbelebtem Material herzustellen, scheint nicht mehr eindeutig
der Naturwissenschaft oder der Technik zuordenbar zu sein. Immer offensichtlicher

1 vgl. Kornwachs, Klaus: Strukturen technischen Wissens. Analytische Studien zu einer Wissen-
schaftstheorie der Technik. Berlin 2012. S. 52 ff. Vgl. auch: ders.: Die Entortung der Wissen-
schaft und Universität 4.0. In: Kittowski, Frank; Kriesel, Werner (Hg.): Informatik und Gesell-
schaft. Festschrift zum 80. Geburtstag von Klaus Fuchs-Kittowski. Frankfurt am Main 2016.
2 vgl. Husserl, Edmund: Die Krisis der europäischen Wissenschaften und die transzendentale
Phänomenologie. Den Haag 1976 (1938).
116 Klaus Wiegerling

dringt in Wahrheitsansprüche Normatives bzw. Präskriptives. Dies wird nicht zu-


letzt im Feld des sogenannten „Human Enhancement“ sichtbar.
Unsere Diskussion schließt an Kornwachs’ Gedanken von der Wechselwirkung
zwischen Technikentwicklung und ihren organisatorischen Rahmenbedingungen
an. Diese Rahmung weist eine doppelte Mittelbarkeit auf, wenn technische Funk-
tionalität ins Körperinnere dringt und Interaktionen mit einer intelligenten Umge-
bung initiiert. Es findet eine doppelte Vermittlung der Technologie durch veränderte
Rahmenbedingungen einerseits und durch organische Dispositionen andererseits
statt. Der Mensch steht damit nicht nur in einer biologischen Deszendenz-, sondern
auch in einer technischen Entwicklungsreihe. Technische Konfigurationen sind in
gewisser Weise organisch und organische technisch vermittelt. Dies bedeutet, dass
eine Kohärenz zwischen technischen und naturwissenschaftlichen Theorien her-
gestellt werden muss. Zu fragen ist, inwieweit dies möglich ist. Wann und unter
welchen Bedingungen können wir von einem gemeinsamen Kern sprechen? Oder
löst sich gar der eine Theoriebereich unter der Dominanz des anderen auf?
Die Kernfrage dieses Beitrags lautet: Wie wirkt sich die technische Aufrüstung
des Menschen auf sein Selbst- und Weltverständnis aus? Nicht der Eingriff in die
menschliche Keimbahn steht im Fokus, sondern die technische Aufrüstung des
menschlichen Körpers durch Implantate und Prothesen. Genetische Eingriffe un-
terliegen den Besonderheiten biologischen Materials, das in der Regel resilienter,
aber weniger resistent als nichtorganisches ist.
Eine herstellende Wissenschaft suggeriert, dass unsere biologische, soziale
und kulturelle Existenz einem Kalkül unterworfen werden könne. Überbordende
Phantasien über grenzenlose Gestaltungspotentiale des Körpers durch technische
Eingriffe greifen zunehmend um sich. Der aufgerüstete Mensch soll der länger le-
bende, leistungs- und genussfähigere sein. Er wird seinen Körper auf- und umrüsten
können und in einer biologisch-informatischen Werkstatt warten lassen. Krankhei-
ten werden im Frühstadium erkannt und durch eine Um- oder Neuprogrammierung
intelligenter Implantate beseitigt werden können.
Man hat traditionell die physiologische Disposition des Menschen von dem
unterschieden, was unter dem Begriff „conditio humana“ gefasst wurde. Diese Dis-
position ist Teil einer technischen Verfügungsmacht geworden. Bio- und informati-
onstechnologische Möglichkeiten werden bereits zur Herstellung, Erhaltung, aber
auch Aufrüstung menschlichen Lebens genutzt. Die „conditio humana“, die sich in
sozialen bzw. kulturellen Bedingungen äußert, erfährt nun eine Unterwanderung
durch technische Verfügungsmittel, die Teil unserer körperlichen Disposition sind.
Technik wird damit Bestand unserer „Natur“.
Wann nun, ist die Frage, können wir definitiv nicht mehr von Leib bzw. Leben
im heutigen Sinne reden. Wann wären Menschen eine Species, für die es Leiber-
fahrungen, wie wir sie kennen, nicht mehr gibt und für die der Begriff des Lebens
eine Bedeutung hat, die wenig mit unserem heutigen Verständnis zu tun hat. Wie
lange können wir menschliche Organe und Gliedmaßen substituieren, ohne dass
der Mensch auch qualitativ einen Wandel erfährt? Bei der technischen Substitution
eines Organs oder einer Organfunktion werden nicht das ganze Organ, sondern
nur bestimmte, als relevant eingeschätzte Funktionen ersetzt. Es gibt keine Mög-
Zur Anthropologie des körperlich aufgerüsteten Menschen 117

lichkeit, ein Organ digital zu verdoppeln. Die Grenze, die hier von Interesse ist,
liegt da, wo ein Begriff auf etwas qualitativ Verschiedenes referiert. Schon mit der
Verschiebung der Bedeutung der Begriffe „Leib“ und „Leben“ geht ein Wandel
unseres Selbstverständnisses einher. Wir verstehen uns anders, wenn unser Leib als
kultiviertes Naturstück auf Körperlichkeit reduziert wird. Leib und Leben galten
lange als unerreichbar, weil sie sich der menschlichen Herstellungsfähigkeit entzie-
hen. Der Leib wäre „erreichbar“, wenn er völlig in einen Körper transformiert, das
Leben, wenn es vollkommen rekonstruierbar wäre – kurz, wenn sie berechenbar,
disponibel, herstellbar und steuerbar sind.
Es muss ein Grenzdiskurs geführt werden, der nicht Grenzverschiebungen,
sondern die Auflösung von Grenzen fokussiert. Es ist der Anspruch eines positi-
vistisch reduzierten Wissenschaftsverständnisses, das aufzuheben, was für Kant
Wissenschaftlichkeit auszeichnet, nämlich die Markierung des Feldes, in dem wis-
senschaftliche Aussagen Geltung beanspruchen können. Wir müssten die Rede von
einem menschlichen Wesen, das nicht nur über einen Körper, sondern auch über
einen Leib verfügt, aufgeben, wenn sich die Bedingungen seiner organischen Exis-
tenz so verändern, dass sich die Spezifika der leiblichen Existenz nicht mehr fassen
lassen. Das Überschreiten der Grenze macht den Menschen zu etwas anderem, die
Überschreitung verändert den Überschreitenden.
Disziplinär gesehen spielt der in der Alltagssprache nur vage bestimmte Be-
griff des Lebens sowohl in den Natur- als auch in den Geisteswissenschaften eine
Rolle. In seinem Gebrauch spiegelt sich die Ambivalenz, die auch den Begriff des
Leibes auszeichnet, nämlich eine Zwitterstellung, in der sich sowohl eine Relation
auf ein in der Dritten-Person-Perspektive gegebenes Naturphänomen artikuliert als
auch ein historisch-kulturelles Phänomen, das in der Ersten-Person-Perspektive zu-
gänglich ist – jedoch als etwas, das die subjektive Zugänglichkeit transzendiert und
als überindividuelles Geschehen nur in Auslegungsprozessen erfasst werden kann.
Der Begriff des Lebens weist alle Merkmale auf, die Blumenberg für eine absolute
Metapher fordert, die sich einer Übertragbarkeit in explizites Wissen entzieht, auf
Totalität verweist und eine Orientierungsfunktion hat. Eine frühe begriffliche Fas-
sung liegt in der altgriechischen Unterscheidung von βιόϛ (m.) und ζωή (f.) vor.
Während ζωή das reine Existieren eines Lebewesens bezeichnet, kommt βιόϛ nur
vernünftigen Wesen zu. Ersteres benennt die Tatsache der biologischen Existenz,
letzteres die Lebensart. Βιόϛ ist ein qualitativer Ausdruck, während ζωή nur eine
Tatsache bestimmt bzw. eine Unterscheidung zur unbeseelten Entität vornimmt.
Die neuzeitliche Benennung der Wissenschaft vom Lebendigen als Biologie ist
eigentlich ein Fehlgebrauch des Begriffs βιόϛ. Der deutsche Begriff des Lebens
kann sowohl qualitativ-werthafte Momente hervorheben als auch eine Tatsachen-
feststellung sein. Weder in der frühen Biologie noch in der Lebensphilosophie wird
er nur im Sinne einer Tatsachenfeststellung gebraucht. In der Lebensphilosophie
wird er einerseits als kultur- und wissenschaftskritische Kategorie ausgebildet, an-
dererseits, wie bei Dilthey, als Klammer zwischen Geistes- und Naturwissenschaf-
ten gesehen. Selbstbezug, Selbsterhaltungs- und Transzendierungswille des Lebens
werden hervorgehoben.
118 Klaus Wiegerling

Der Lebensdiskurs der modernen Biologie wird wesentlich vom Gegensatz zum
Vitalismus, der von der Autonomie der Lebensvorgänge und ihrer Zweckmäßigkeit
ausgeht, geprägt. Vitalisten unterscheiden Lebewesen von anderen Körpern durch
Form, Stoffwechsel und Bewegung. Leben ist ein irreduzibles Phänomen, das als
Tätigkeit aufgefasst werden muss. Es lässt sich nicht als geschlossenes System fassen
und artikuliert sich in einem permanenten Austauschprozess. Der Vitalismus verlor
an Bedeutung als es Wöhler 1824 gelang, organische Substanzen synthetisch her-
zustellen und auf physikalisch-chemische Kausalzusammenhänge zurückzuführen –
und gilt endgültig als überholt, als Miller und Urey 1959 das spontane Entstehen
von Aminosäuren nachwiesen. Insbesondere in der Molekularbiologie wird versucht,
teleologische Momente ganz aus der Sphäre des Lebens als metaphysische Dreingabe
zu bannen. Merkwürdigerweise wird die Teleologie aber im pragmatischen Anspruch
der synthetischen Biologie auf einer höheren Stufe wieder eingeführt. Die Hervor-
bringung des Lebens unterliegt ja selbst den Zwecken der „Macher“. Diese artiku-
lieren bestimmte Eigenschaften im jeweiligen Biofakt. Dabei spielen auch kulturelle
oder ästhetische Präferenzen eine Rolle. Dem deterministischen Anspruch reduktio-
nistisch-naturalistischer Konzepte entsprechend müsste aber auch diese Teleologie
aus dem wissenschaftlichen Handeln gebannt werden.3
In der Biologie hat der Begriff des Lebens, wie Toepfer feststellt, einen in-
tegrativen Charakter, der so unterschiedliche Felder wie Ethologie, Morphologie
und Genetik zusammenhält.4 Er vereinigt s. E. drei Intentionen, nämlich Leben als
Zustand, als Tätigkeit oder als Dauer zu fassen. Biologiegeschichtlich könnte man
von zwei Epochen sprechen, einer antikmittelalterlichen aristotelischen und einer
mechanistischen cartesianischen. In der mechanistischen Haltung bleiben aber viele
mit dem Begriff des Lebens verknüpfte Probleme ungelöst: Wie sollen Lebewesen,
die nach mechanistischen Prinzipien entstehen, sich reproduzieren und evolutionäre
Veränderungen aufweisen können, wie die Selbstbewegung von lebendigen Orga-
nismen verstanden werden, wie der Zusammenhang von Körper und Geist oder die
Wechselwirkung von Umwelt und Organismus gedacht werden? Toepfer bietet eine
Kriteriologie an, auf deren unterster Stufe die Organisation steht, die ein wechsel-
seitiges Verhältnisses von Ursache und Wirkung in einem geschlossenen System
formuliert. Darauf aufstufend stehen die Selbsterhaltung implizierende Regulation
und schließlich die den Rahmen der organischen Identität sprengende Evolution,
die auf Wandel und Komplexitätssteigerung verweist.5 Der lebendige Organismus
aber ist ein individueller, selbst wenn, wie bei eineiigen Zwillingen, die genetische
Anlage identisch ist. Die Erfahrung des eigenen Leibes ist nicht übertragbar. Leib-
erfahrung heißt auch Differenzerfahrung. Lässt sich aber technisch aufgerüstetes
Leben noch unter den genannten Kriterien fassen? Dass sich intrakorporal in Form
eines Implantats etwas Nichtindividuelles etabliert, das Regulierungsfunktionen
übernimmt und als realisiertes Funktionsmodell die Aufgabe eines ausgefallenen

3 vgl. Janich, Peter: Kultur und Methode – Philosophie in einer wissenschaftlich geprägten Welt.
Frankfurt am Main 2006. S. 158.
4 vgl. Toepfer, Georg: Der Begriff des Lebens. In: Krohs, Ulrich; Toepfer, Georg: Philosophie
der Biologie. Frankfurt am Main 2005. S. 157 f.
5 a. a. O., S. 166 ff.
Zur Anthropologie des körperlich aufgerüsteten Menschen 119

oder geschädigten Organs übernimmt, ist ein Problem. Eine vollständige Ersetzung
eines Organs findet nicht statt, da in einem Funktionsmodell nicht alle Momente des
Organs erfasst werden können.
Der deutsche Begriff des Leibes ist aufs Engste mit dem des Lebens verknüpft.
Etymologisch ist das althochdeutsche Wort „lip“ mit den beiden Verben leben („le-
ben“) und bleiben („pilipan“) verbunden. In seiner ursprünglichen Bedeutung stand
der Begriff im Gegensatz zu „wal“, mit dem die auf dem Schlachtfeld Gefallenen
bezeichnet wurden, die für den Heldenhimmel bestimmt waren. „Lip“ und „wal“
waren wertbesetzte Begriffe, die nicht nur einen Zustand bezeichnen, sondern zu-
gleich eine kriegerische Leistung würdigen.
Der Begriff „Körper“ drang als vom Lateinischen „corpus“ abgeleitetes Fremd-
wort über das Latein der Ärzteschaft und der Geistlichkeit ins Deutsche. In der All-
tagssprache hat sich der Begriff erst ab dem 18. Jahrhundert durchgesetzt. Körper
stand für etwas, das auch im medizinischen Sinne objektivierbar ist. Er kann zum
Gegenstand einer äußeren Betrachtung gemacht werden wie jedes andere Naturstück
auch. Der Körper wandelte sich zu einer physikalischen Kategorie, die für alle volu-
minösen Körper steht. Er wurde in einen Gegensatz zur Seele gebracht, der Leib in
einen Gegensatz zum Geist, was darauf hinweist, dass er als etwas Individuelles dem
allgemeinen Anspruch des Geistes entgegengesetzt wurde. Der Begriff des Körpers
hat schnell eine erweiterte Verwendung erfahren, wurde als etwas verstanden, das
einen Sachverhalt konkretisiert, ihm Gestalt verleiht. Zuletzt wurden Übertragungen
auf Sozialphänomene wie Lehrkörper vorgenommen. Er konnte so für alles stehen,
das sich räumlich artikuliert oder die körperlich getragene Personalität des Men-
schen übersteigt und in einen allgemeinen gesellschaftlichen Rahmen stellt.
Während sich der Körper als Gegenstand einer naturalistischen Betrachtung
fokussieren lässt, kann der Leib intuitiv erschlossen und als der eigene gespürt wer-
den. Darüber hinaus ist er auch kulturhistorisch disponiert, enthält in seiner subjek-
tiven Erfahrung allgemeine Bestände. Der ältere Begriff des Leibes ist umfassen-
der als der naturalistisch reduzierte Körper. Mit dem Leib wird Individuelles, mit
dem Körper Überindividuelles verknüpft, was sich in Komposita wie Leibgericht
einerseits oder Körperschaft andererseits artikuliert. Er ist eine Limesgestalt, ein
naturalisiertes Kulturstück bzw. kultiviertes Naturstück, also weder natural noch
kulturell zu fassen. Als historisch-kulturelle Entität ist er ein Vermittlungsprodukt
und immer wieder aufs Neue auszulegen. Er weist auch individualgeschichtliche
Komponenten auf, ist Ausdruck von Leistungen, die für unser Selbst- und Weltver-
ständnis wesentlich sind. In der Verleiblichung findet die Individualisierung eines
allgemeinen geistigen Ausdrucks statt. Erst durch das Empfinden bzw. Selbstgefühl
wird aus einer Verkörperung eine Verleiblichung. Hegel benennt die besonderen
Vermittlungseigenschaften, die dem Leib zukommen: Allgemeines und Partikula-
res, Naturales und Geistiges werden in ihm vermittelt.
Gegenstand einer Aufrüstung kann nur der Körper, nicht der Leib sein. Wenn wir
von einem neuen Typus des Menschen reden, der eine Verbesserung seiner körper-
lichen Vermögen durch eine technische Aufrüstung erfährt, dann ist es angemessen
von sekundärer Leiblichkeit zu sprechen, denn es wird neue Formen der Selbst- und
Welterfahrung geben, wenn Schmerzen und Belastungen nicht mehr spürbar, sinnli-
120 Klaus Wiegerling

che Erfahrungen und Leistungsvermögen ohne Training erweiterbar sind. Sekundäre


Leiblichkeit verweist auf die technische Transformation des Leibverständnisses. Kör-
perliche Vermögen können nicht nur kompensiert, sondern verbessert und damit neue
Möglichkeiten der Steuerung körperlicher Vorgänge sowie der Erweiterung unseres
Wirkens geboten werden. Von Leiblichkeit können wir hier nur noch in einem ana-
logen Sinne sprechen. Aber „wie“ sieht eine Selbsterfahrung auf Basis veränderter
oder substituierter organischer Dispositionen aus? Leib und Leben sind historisch-
wertende Ausdrücke, die eine biologisch-historische Verstrickung aufweisen und in
skalierenden und kalkulierenden Verfahren nicht erfasst werden können.
Betreiben wir ein Gedankenspiel um 1) Potentiale von Technologien auszulo-
ten, die bei der Aufrüstung, Umrüstung und Substitution körperlicher Vermögen
wirksam sind; um 2) anthropologische Fragen in den Blick zu bringen, die mög-
licherweise die Anthropologie zu einer historischen Disziplin transformieren; und
um 3) Auswirkungen technischer Optionen zur Steigerung körperlicher Vermögen
auf unser Selbst- und Weltbild herauszufinden. Selbst- und Weltverständnis hängen
wesentlich vom Verständnis des eigenen Leibes ab, der zum einen Ausdruck unse-
rer Verortung in der Welt, zum anderen aber auch Ausdruck eines Potentials ist, mit
dessen Hilfe wir die Welt erschließen und in ihr agieren.
Die Frage ist nun, ob sich aus der Aufrüstung des Körpers neue Aspekte für
leibliche Vermittlungsleistungen und damit neue Sichtweisen auf den Leib als Ver-
mittlungskategorie ergeben? Insbesondere ist zu fragen, ob es einen Wandel im
Verhältnis von synchroner und diachroner Vermittlung gibt? Zuletzt geht es auch
um eine elementare ethische Frage. Kants Konzept der menschlichen Würde hängt
„auch“ an der Idee der Einmaligkeit der menschlichen Existenz. Der Mensch kann
nur dann in einem ethischen Sinne praktisch werden, wenn das Sittengesetz durch
ein dem Individuationsprinzip unterstehendes Wesen, das in Raum und Zeit eine
konkrete Stelle einnimmt, in der Welt realisiert wird. Was aber bleibt vom Men-
schen, wenn die Einmaligkeit der menschlichen Existenz ins Wanken gerät?
Ein aufgerüsteter Körper könnte neue Möglichkeiten der synchronen Ver-
mittlung bieten, etwa in einer komplexer und intelligent werdenden Umwelt neue
Wahrnehmungs- und Interaktionsmöglichkeiten, die nicht mehr hirngesteuert sind.
Offen bleibt aber, wie eine erweiterte Wahrnehmung mit dem Gesamtorganismus
vermittelt ist. Es ist kaum vorstellbar, dass es möglich sein wird, wie ein gesunder
Hund zu hören, ohne dass dies Auswirkungen auf unseren psychischen Zustand
hätte. Und wie soll man sich vorstellen, dass evolutionäre Effekte, die Jahrmillio-
nen gedauert haben, im Instantverfahren eine Realisierung erfahren?
Ein grundsätzliches Problem stellt die diachrone Vermittlung dar, ohne die ein
menschliches oder menschenähnliches Wesen nicht vorstellbar ist: 1. ist die Konti-
nuität der Selbsterfahrung im Wandel der Zeit, d. h. auch im Wandel unserer körper-
lichen Disposition, eine Bedingung der Identität des Handlungssubjekts, ohne die
es keine Zuschreibung von Handlungen und keine Verantwortlichkeit gibt. 2. leistet
Historizität die Vermittlung zwischen Einmaligkeit und Allgemeinheit. Die Indivi-
dualgeschichte ist von der geteilten intersubjektiven Geschichte disponiert. 3. ist in
der Historizität auch das Ereignishafte als das Unverfügbare und sich der Berechen-
barkeit entziehende mitgedacht.
Zur Anthropologie des körperlich aufgerüsteten Menschen 121

Wie nun könnte die Kontinuität eines transformierten Körpers gedacht werden?
Engramme, Einschreibungen in die organische Materie durch die Lebenserfahrung
werden in Implantaten nicht stattfinden. Trotz unterschiedlicher Organbelastungen
altert der Organismus als ganzer. Wird dies auch beim transformierten Menschen
der Fall sein? Implantate unterliegen anderen Alterungszyklen als organische Mate-
rie. Der zur Apparatur transformierte Körper wird eine permanente Wartung erfah-
ren, in der es zu einem Austausch von Teilen und Neuprogrammierungen kommt.
Es wird selbstgesteuerte organische Entwicklungen ohne graduelle Sprünge als
auch additive Hinzufügungen bei Implantaten und Prothesen geben, die eine Steu-
erung von außen erfahren können.6
Wie könnte nun Historizität als bleibende, aber selektive Prägung des Individu-
ums bei transformierten Wesen aussehen? Natürlich könnte ein Implantat Belastun-
gen protokollieren, um seinen Verschleiß anzuzeigen und Austauschmaßnahmen zu
initiieren. Aber nach welchen Kriterien sollen Erfahrungen aufgezeichnet werden?
Das leiblich-implizite Wissen wäre im Falle transformierter Menschen reduziert,
das explizite dagegen müsste anwachsen. Ein transformierter Körper müsste histo-
rische Vermittlungen anders leisten, wenn Erfahrungen kaum physiologische Spu-
ren hinterlassen und defekte Teile einfach ersetzt werden. Zwischenleiblichkeit als
besondere leibliche Prägungen, etwa kulturell bedingte Rhythmisierungen, würde
keine Rolle spielen. Es ginge nur um die optimale Anpassung an soziale oder öko-
nomische Erfordernisse, was in unterschiedlichen Sphären unterschiedlich justiert
bzw. programmiert werden könnte. Ein leibliches Gedächtnis im Sinne eines im-
pliziten Wissens, über das ein Handwerker oder Musiker verfügt, ist beim transfor-
mierten Menschen wohl nur noch eine Marginalie. Wie sollte sich dieses Wissen in
intelligenten Implantaten sedimentieren? Technische Funktionalität besteht wesent-
lich in der Wiederholbarkeit gleicher Abläufe. Genau dies wäre aber im Falle eines
Pianisten oder Handwerkers kontraproduktiv. Der Pianist wäre ein Spielautomat,
der Handwerker ein Roboter, der die Feinmodellierung, auf die es bei gelungenen
Werkstücken ankommt, nur insofern vorzunehmen vermag, als ihm dafür Erfas-
sungs- und Ausführungsschemata zur Verfügung stehen. Implizites Wissen zeichnet
sich durch ein gewisses Spiel aus, das in der Verleiblichung seinen Ausdruck findet.
Um ein solches Wissen beim transformierten Menschen wirksam werden zu lassen,
müsste es explizit gemacht werden, also zu etwas werden, was es seinem Wesen
nach gerade nicht ist. Die diachrone Vermittlung wird also zugunsten der synchro-
nen zurückgefahren werden. Der transformierte Mensch wird ein posthistorischer
Wesen sein – ein Jetztgenosse im Sinne von Anders, kein Zeitgenosse.
Es stellt sich die Frage, ob sich aus der Diskussion der technischen Zweck-
Mittel-Relation Probleme für den ethischen Diskurs ergeben, wenn der Mensch in
Zeiten seiner Transformation eine Entindividualisierung erfährt. Ein Herzschritt-
macher ist etwas anderes als ein mit dem gesamten Organismus verbundenes Or-
gan. Bei der Schaffung eines Implantats, das eine organische Funktion ersetzen
oder regulieren soll, wird, wie bei jeder Nachbildung, etwas artikuliert und etwas
desartikuliert. Es gibt kein digitales Double des Organs, sondern nur die Ersetzung

6 vgl. Brenner, Andreas: Leben. Stuttgart 2009. S. 90.


122 Klaus Wiegerling

bestimmter organischer Funktionen. Jede Aufrüstung gründet in einer Bewertung


von Organfunktionen. Es werden also nicht alle funktionalen Beziehungen artiku-
liert, sondern nur die als wesentlich erachteten.
Es geht bei posthumanistischen Optionen zur Transformation des Menschen um
ein Verfügbarmachen der aufgrund von Krankheit, Schwäche und Verletzung entglei-
tenden menschlichen Leiblichkeit durch seine Reduzierung auf reine Körperlichkeit.
Die Historizität des menschlichen Leibes soll aus dem wissenschaftlichen Diskurs
eliminiert werden, da sie sich einem Kalkül, einer modellhaften Betrachtung und da-
mit der Herstellbarkeit entzieht. Durch die fortschreitende informatische Verknüp-
fung des aufgerüsteten menschlichen Körpers mit einer intelligenten Umwelt, die ihn
überwacht und in automatisierten Prozessen steuert, findet auch eine technische, den
jeweiligen Rollenfunktionen angepasste Taktung des Körpers statt. Ein durch intel-
ligente Implantate und Prothesen aufgerüsteter Körper und eine informationstechno-
logisch durchdrungene Lebenswelt weisen eine gemeinsame technische Disposition
und Normierung auf und sind entsprechend miteinander verknüpfbar.
Eine Entindividualisierung findet möglicherweise auch insofern statt als der
Körper des aufgerüsteten Wesens sogar im Raum verteilt gedacht werden kann.
Warum sollte dieses Wesen nicht einen zusätzlichen Arm bewegen können, der
über das Nervensystem Impulse erhält, aber nicht mehr direkt mit dem Gesam-
torganismus verbunden ist? Was bisher nur mittelbar über die Steuerung roboti-
scher Systeme möglich ist, kann dann ohne Bedienungsschnittstelle und mit einer
quasitaktilen Rückmeldung erfolgen. Die Einheit des Individuums wird dann nicht
mehr im Sinne des Individuationsprinzips, sondern nur noch über eine besondere
Integrations- und Vermittlungsleistung zu bestimmen sein, wobei bestimmte Ver-
mittlungsleistungen kein organisatorisches Zentrum mehr benötigen. Es wären neu-
artige Synthesisleistungen zu erbringen, die den kantischen Grundsatz, dass das Ich
im gesamten Organismus waltet, erweitern bzw. sprengen würden.
Wenn der Mensch auch in einer technischen Entwicklungsreihe steht, nicht nur
in einer Deszendenzreihe, dann stellt sich die Frage, bis zu welchem Punkt er seine
Einzigartigkeit und damit Selbstzweckhaftigkeit behält. Wird er in seiner organi-
schen Substanz ersetzbar, findet eine Transformation zu einem Wesen statt, das mit
dem derzeitigen Menschen nur noch bedingt etwas zu tun hat. Wird das künftige
Wesen, bei aller Komplexität seiner organisch-informatischen Bestände, noch Ein-
maligkeit und damit Würde beanspruchen können? Findet im aufgerüsteten und in
seiner organischen Disposition zunehmend substituierten Menschen eine Befreiung
der Mittel von den Zwecken statt, wenn er nicht mehr individuell gedacht und in
seinen Komponenten weitgehend ersetzbar ist? Wird dieses technisch wandelbare
Wesen, seine eigene Apparatur, eigene Zurüstung sein, ohne einen identischen
Kern? Die Zurüstung wäre von ihrem Referenzsystem abgekoppelt und selbständig
geworden. Sie böte unterschiedliche Anschluss- und Verknüpfungsmöglichkeiten
und müsste nicht in einem bestimmten Zustand bewahrt werden.
Die angestrebte Aufhebung der Leiblichkeit geht einher mit der Vision eines ver-
längerten und vitalen Lebens ohne Leid und körperliche Einschränkung. In Zeiten,
in denen der menschliche Körper eine allmähliche Umgestaltung erfährt, ist Gesund-
heit ein steigerbarer Zustand. Verlorene Potentiale sollen nicht nur wiederhergestellt,
Zur Anthropologie des körperlich aufgerüsteten Menschen 123

sondern bestehende auch verbessert werden. Die Grenze zwischen der Wiederher-
stellung von verlorenen oder eingeschränkten Vermögen und deren Verbesserung
ist fließend. Unser Körper wird eine Sache des Designs. Der Zusammenhang von
Alterung und Krankheit wird eine weitgehende Entkoppelung erfahren. Dies wird
Auswirkungen auf gesellschaftliche Erwartungen haben. Krankheit wird stärker mit
Schuld konnotiert werden. Man wird in einem Gesundheitswesen, das sich in ein
Präventionssystem transformiert, damit zu rechnen haben, dass nur noch dem unein-
geschränkt Hilfe gewährt wird, der seinen Präventionsverpflichtungen nachkommt.
Es wird in hoch technisierten Gesellschaften wohl zwei Menschentypen ge-
ben, die durch eine Kluft getrennt sind, die durch keine sozialen Maßnahmen zu
überbrücken ist. Auf der einen Seite steht ein bio- und informationstechnologisch
verbesserter Typus, der, was seine körperlichen Disposition anbetrifft, im heutigen
Sinne wohl nicht mehr als Mensch bezeichnet werden kann. Er wird nicht generell
den „alten“ Menschen ersetzen. Vielmehr wird, was bisher durch Schichtenzuge-
hörigkeit, Tradition und individuelle Leistung zur Differenzierung der Gesellschaft
beigetragen wurde, vermehrt durch körperliche Selektion geschehen. Das „transhu-
mane“ Wesens der Zukunft wird ein Hybride sein, in den jederzeit technisch ein-
gegriffen werden kann. Die Unmittelbarkeit der eigenen Leiberfahrung wird eine
Brechung erfahren. Es wird einen Wandel des individuellen Leibverständnisses
geben. Allerdings wird auch der neue Mensch seinen aufgerüsteten Leib als etwas
erfahren, das sich nicht abstreifen und vollständig objektivieren lässt. Auch er wird
noch verletzlich und sterblich sein, aber er wird anders seine Sterblichkeit erleben,
wenn auch später und in vitaleren Zustand. Seine Leiberfahrung wird noch immer
eine unmittelbare sein, die aber in einer spontanen Koordinations- und Integrations-
leistung erfahren wird und weniger in leiblichem Spüren.
Bereits heute haben sich die rechtlichen Verhältnisse in Bezug auf den eigenen
Leib durch die Tatsache, dass der menschliche Körper zur biologischen Ressource
geworden ist, geändert. Umso mehr ist mit einem beschleunigten Wandel dieser
Verhältnisse zu rechnen, wenn es um austauschbare nichtorganische Implantate und
Prothesen geht. Die Unverletzlichkeit des Körpers und damit der Eingriff in ihn
wird anders bewertet werden, wenn er auf informatischer Basis erfolgt und keine
Spuren im organischen Teil des Körpers hinterlässt.
Die Exterritorialisierung von Körperfunktionen, die Überprüfung von Vitalda-
ten und die informatische Verknüpfung mit Apparaturen inner- und außerhalb des
Körpers sind bereits möglich. Die permanente Überwachung von Vitalfunktionen
und die damit verbundene Fixierung unserer Existenz auf Gesundheit werden nicht
nur Auswirkungen auf ein transformiertes Gesundheitswesen, sondern auch auf die
menschliche Psyche haben. Unweigerlich führt die Aufrüstung des Körpers zu ei-
ner Anmessung der Gesundheit an technische und ökonomische Kategorien wie
Effizienz und Funktionalität.
Welche Auswirkungen wird die Verschaltung von Körper und Umwelt auf
das Verhältnis von Leib und Lebenswelt haben? Nur der historisch disponierte,
gespürte und sich positionierende Leib steht in einem Vermittlungsverhältnis zur
Lebenswelt, nicht der Körper, der nur eine Umwelt hat. Der Organismus muss sich
auf neue Weisen der Interaktion mit der Umwelt einstellen, wenn diese intelligent
124 Klaus Wiegerling

geworden ist und die Komplexität von Umwelt und Gesellschaft eine unsere Auf-
merksamkeit übersteigende Interaktion erfordert. Das Anwachsen automatisierter
Interaktionsprozesse erscheint wahrscheinlich, aber auch mit Entmündigungsten-
denzen verbunden. Es wird wohl ein neuartiger gesellschaftlicher Normierungs-
druck bezüglich der Funktionalität des Körpers geben. Die von Husserl gestellte
Frage nach der Lebenswelt als intersubjektive Normalwelt ist unter dem Aspekt
technischer Normierungen neu zu diskutieren. Normalität wird verstärkt an techni-
schen und ökonomischen Abläufen gemessen werden.
Technisch erschließen kann man nur einen der Dritten-Person-Perspektive zu-
gänglichen skalierbaren Körper, nicht einen spürbaren und historisch disponierten
Leib, der immer wieder aufs Neue ausgelegt werden muss. Die allmähliche Ankün-
digung von Krankheit, die Einstellung des Körpers auf die Möglichkeit einer Selbst-
heilung wird nur noch „ein“ Erfahrungstyp von Erkrankung sein. Wahrscheinlich
werden wir von Systemen, die unsere Körperfunktionen überwachen, Hinweise auf
Störungen bekommen. Wir werden den Leib als etwas Äußerliches erfahren. Die Me-
dizin wird sich als „Body-Engineering“ verstehen. Gesundheit ist dann in erhebli-
chem Maße eine Sache der Verschaltung intelligenter Implantate und Prothesen.
Mit der fortschreitenden Substitution des Leibes geht auch dessen technisch
bedingte Reduzierung einher. Ein herstellbarer Körper kann in seiner Funktionalität
auf Kultur- und Umweltbedingungen eingestellt werden. Körperliche Widerstands-
erfahrungen im Sinne der Anzeige körperlicher Belastungen werden zugunsten
der Ausschöpfung körperlicher Potentiale eingeschränkt. Auch wenn durch solche
„Ausblendungstechniken“ Schäden entstehen können, werden wir Steigerungen
unserer körperlichen Leistungsfähigkeit erreichen, ohne dass Training und Ge-
wöhnung die zentrale Rolle spielen. Und gewiss ist auch mit der Definition neuer
Krankheiten zu rechnen, die sich aus dem Verlust apparativ hergestellter Vermögen
ergeben. Krankheiten werden sich vermehrt als technische Probleme darstellen, für
die technische Lösungen gefunden werden müssen.
Basis der gegenwärtigen Transformationsbestrebungen ist ein positivistisches
Wissenschaftsverständnis, das dazu neigt, Modelle mit der Wirklichkeit zu ver-
wechseln. Das zugrunde liegende Menschenbild ist das eines utilitaristisch und
pragmatisch agierenden Wesens, das bereit ist, für eine erhöhte Leistungsfähigkeit
viel zu tun. Wir gesunden quasi spontan durch das Umlegen eines Schalters und
steigern unsere Leistungsfähigkeit durch technische Manipulation. Gesundheit,
Wohlbefinden und Leistungsfähigkeit sollen lebensunabhängig und ohne Umweg
erreicht werden.
Die technische Durchdringung und Aufrüstung der biologischen Disposition
des Menschen lässt sich in einen Zusammenhang stellen, den der späte Heidegger
erörterte, als er die moderne Technik als Endgestalt des thetischen, also stellenden
metaphysischen Denkens bestimmte, das versucht alles verfügbar zu machen. Alles
soll berechenbar und das Ereignishafte als das nicht Voraussehbare zum Verschwin-
den gebracht werden. Der menschliche Körper soll jederzeit gestaltet, verbessert
und repariert werden können. Allerdings erfährt die menschliche Verfügungsgewalt
eine Art Unterwanderung durch seine Hervorbringungen. Informatische System-
konfigurationen können bereits heute nur noch bedingt kontrolliert und gesteuert
Zur Anthropologie des körperlich aufgerüsteten Menschen 125

werden. Es ist eine Konsequenz des stellenden Denkens, dass es sich selbst un-
terwandert, wenn es uns einem Kalkül zu unterwerfen versucht. Als das Denken
totaler Berechenbarkeit arbeitet es an seiner eigenen technischen Substitution. Ge-
rade weil es keine Grenzen des Berechenbaren kennt, begrenzt es das prinzipiell
transzendierende Denken selbst.
Das eigene Leben wird als etwas Konstruierbares bzw. Nachkonstruierbares
verstanden. Als solches hat es aber seine Einzigartigkeit und prinzipielle Schutz-
würdigkeit verloren. Was veränderbar ist, kann nicht den Anspruch erheben, als
solches bewahrt zu werden. Die Versachlichung des eigenen Leibes äußert sich in
dessen Transformation in eine skalierbare und unter Laborbedingungen isolierbare
Entität. Die Welt mitsamt menschlichem Körper wird zum Gestaltungsmaterial.
Der künftige Mensch steht in einer Entwicklungslinie, zu der auch die zweckgelei-
tete Technik gehört. Technische Zwecke sind aber keine Selbstzwecke. Die Selbst-
zweckhaftigkeit der leiblichen Existenz ist aber die conditio sine qua non unseres
heutigen Selbstverständnisses, nicht zuletzt unserer Würdevorstellung.
126 Klaus Wiegerling

LITERATUR

Brenner, Andreas: Leben. Stuttgart 2009.


Janich, Peter: Kultur und Methode – Philosophie in einer wissenschaftlich geprägten Welt. Frankfurt
am Main 2006.
Kornwachs, Klaus: Strukturen technischen Wissens. Analytische Studien zu einer Wissenschaftsthe-
orie der Technik. Berlin 2012.
ders.: Die Entortung der Wissenschaft und Universität 4.0. In: Kittowski, Frank; Kriesel, Werner
(Hg.): Informatik und Gesellschaft. Festschrift zum 80. Geburtstag von Klaus Fuchs-Kittow-
ski. Frankfurt am Main 2016.
Krohs, Ulrich; Toepfer, Georg: Philosophie der Biologie. Frankfurt am Main 2005.
DAS PROMETHEUS-PROJEKT
UND DIE MITGIFT DER PANDORA

Heinz–Ulrich Nennen

Alles geben Götter, die unendlichen, ihren Lieblingen ganz,


Alle Freuden, die unendlichen,
Alle Schmerzen, die unendlichen, ganz.1

PROLOG

Es ist nicht nur unangebracht sondern gefährlich, noch immer zu glauben, Technik
sei nichts weiter als ein Werkzeug, dessen man sich nach Lust und Laune bedienen
kann. Technik dient nicht, sie herrscht: Wir sind es, die sich anpassen müssen, wenn
wir uns, unser Leben, unsere Lebens- und Arbeitswelten, unsere Personalität und
Intimität immer weiter adaptieren lassen.– Das Entscheidende an der Technik ist
nichts Technisches. Darauf hat Klaus Kornwachs vielfach hingewiesen: Jede Tech-
nik braucht eine Hülle, ohne die sie gar nicht arbeiten kann.
„Die organisatorische Hülle einer Technik (…) enthält die Anteile an Organisation und
deren Regeln (…), die erforderlich sind, um die Geräte adäquat interagieren zu las-
sen. Dabei kann ein Gerät immer mehr Funktionen realisieren, als in ihm angelegt sind.“2
„Die organisatorische Hülle einer Technik umfasst alle Organisationsformen, die notwendig
sind, um die Funktionalität eines technischen Artefakts überhaupt ins Werk setzen zu können.“3

Aber so sehen, erfahren und erleben wir es nicht. Wir glauben vielmehr, uns im
Alltag der Technik nur zu bedienen und meinen allen Ernstes, ihre Dienstbarkeit
sei etwas, das wie ein Flaschengeist hinzukommt. Wir rufen sie nur, um ihr zu
befehlen, uns zu Diensten zu sein, tatsächlich aber verhält es sich anders: „Wir
erleben Technik meist unbewusst, sie ist oft unsichtbar, sie funktioniert fast selbst-
verständlich. Wir halten sie für eine Errungenschaft der Naturwissenschaft und der
Zivilisation und beginnen unsere Fragen erst zu stellen, wenn sie eben nicht oder
nicht mehr funktioniert. Dabei stellen wir fest, dass wir meist gar nicht wissen, wie
und warum Technik funktioniert, wer sie in die Welt gestellt hat, wer damit etwas
vorhat und wer damit welche Interessen verfolgt. Und wir stellen auch fest, dass
Technik, so gut sie gemeint sein mag, zuweilen gar nicht funktioniert, weil das, was
sie zum Funktionieren braucht, gar nicht gegeben ist. Dieses Etwas ist (…) nichts
Technisches, sondern eher etwas Organisatorisches (…)“4

1 Goethe, Johann Wolfgang von: Gedichte. Nachlese. Berliner Ausgabe. Berlin 1960 ff. Bd. 2. S. 74.
2 Kornwachs, Klaus: Strukturen technologischen Wissens. Analytische Studien zu einer Wissen-
schaftstheorie der Technik. Berlin 2012. S. 118.
3 ders.: Philosophie der Technik. Eine Einführung; München 2013. S. 22 f.
4 a. a. O., S. 10.
128 Heinz–Ulrich Nennen

Sobald eine neue, revolutionäre Technik aufkommt, verändert sich die Kul-
tur, die Weltanschauung, das Reden und auch das Empfinden. Mit jeder tech-
nischen Revolution kommen neue Götter und neue Menschenbilder auf, weil
sich die Lebensumstände sehr schnell fundamental wandeln: neue Zeiten, neue
Götter.
Mit der Götterdämmerung ist zuletzt die Reihe an den Menschen gekommen.
Aber anders als diese beherrschen wir die göttliche Scheidekunst nicht, das Gute
vom Übel abzutrennen, um dann alles Unerwünschte einfach auf Flaschen zu zie-
hen. Wir beherrschen weder die Fähigkeit, allein durch Sehen bereits zu wissen,
noch können wir uns nonverbal einfach durch Blicke verständigen. Wir müssen
Worte machen und sind dabei auf langwierige Diskurse verwiesen, in denen es erst
allmählich gelingen kann, komplexe Konstellationen aus den unterschiedlichsten
Perspektiven nach und nach in den Blick zu bekommen. Schon gar nicht ist es uns
als Menschen gestattet, nach Art der Götter in unseren Ratschlüssen unergründlich
zu sein, ohne mit dem Gesetz in Konflikt zu kommen.
Zudem müssen wir immer dann, wenn es wirklich wichtig wird, eine selbst fast
göttliche Vernunft bemühen, die es uns erst ermöglicht, alle erdenklichen Perspekti-
ven der Reihe nach zu würdigen, nicht nur den Verstand reiner Rationalität, sondern
auch Gefühle, Sehnsüchte, Hoffnungen, die Wonnen von Kunst und Erotik und vor
allem auch die Erfordernisse einer Psyche, die selbst immer komplexer wird. Also
müsste sich eine umfassende Vernunft mit dem Anspruch, den Pantheon aller Göt-
ter tatsächlich zu verkörpern, dann auch auf wirklich alles verstehen, was diese nun
einmal repräsentieren. Das wahrhaft Göttliche am Menschen dürfte allerdings darin
liegen, gar nicht erst Gott zu spielen, weil wir es nicht wirklich könnten. Was bleibt,
ist der Trost, dass die Götter ohnehin unsere Erfindungen sind, aus guten Gründen,
denn wir müssen immer wieder Maß nehmen, an und mit ihnen. „Der Mensch ist
das Maß aller Dinge, der seienden, dass (wie) sie sind, der nicht seienden, dass
(wie) sie nicht sind.“5

ARBEIT AM MYTHOS6

Mythen betreiben selbst bereits Aufklärung, daher ist die Arbeit an ihnen so inspi-
rierend. Jeder Zeitgeist erwartet schließlich ureigenste Antworten auf drängende
Fragen von epochaler Bedeutung. Und solange es einem dieser Plots gelingt, immer
wieder neue Orientierungsmuster zu liefern, wird er weiterhin von überzeitlicher
Bedeutung bleiben.

5 „Er [Protagoras] sagt nämlich, der Mensch sei das Maß aller Dinge, der seienden, wie sie sind,
der nichtseienden, wie sie nicht sind.“ (Platon: Theaitetos 152 a. In: Werke in acht Bänden.
Darmstadt 1990. S. 31.)
6 Siehe hierzu: Nennen, Heinz-Ulrich: Der Mensch als Maß. Über Protagoras, Prometheus und
Pandora. Hamburg 2018; ders.: Die Urbanisierung der Seele. Über Zivilisation und Wildnis.
Hamburg 2018; ders.: Pandora: Das schöne Übel. Über die dunklen Seiten der Vernunft. Ham-
burg 2017; ders.: Die Masken der Götter. Anthropologie der modernen Welt. Hamburg 2018;
ders.: Das erschöpfte Selbst. Erläuterungen zur Psychogenese. Hamburg 2018.
Das Prometheus-Projekt und die Mitgift der Pandora 129

Zwischen Mythos und Logos herrscht eine Dialektik, die sich kreativ in Dienst
nehmen lässt, so wie auch Metaphern nicht selten das Verstehen erst möglich ma-
chen. Aber die Spekulation, es gebe so etwas wie eine Höherentwicklung vom
Mythos zum Logos, entbehrt jeder Grundlage. Beide Weisen der Welterklärung
kommen einander gar nicht in die Quere, sie operieren auf völlig anderen Ebenen.
Sie können einander aber wechselseitig aufhelfen, wenn sie nur geschickt genug
arrangiert werden.
Gängige Theorien sind in der Regel ein mixtum compositum aus Mythos und
Logos. Irgendwoher muss schließlich die Zuversicht kommen, einer Modellvor-
stellung und der darauf gegründeten Theorie zuzutrauen, tatsächlich auch leisten
zu können, was man sich von ihr verspricht. Genesis und Geltung lassen sich daher
zurückführen auf Narrative von überzeitlicher Bedeutung.
Die Fundamente aller dieser Meistererzählungen gründen tief im kollektiven
Unbewussten. Sie stehen im Bunde mit mächtigen Motiven aus der Welt der Arche-
typen, Mythen, Metaphern, Symbole und Allegorien. So gelingt es, auf höchstem
Niveau immer wieder neue Modellvorstellungen, aber auch Heils- und Unheilssze-
narien zu generieren, in denen die entscheidenden Momente, Kräfte und Prinzipien,
die im Spiel sind oder sein könnten, mustergültig „personalisiert“ werden.– Wir
sind in Geschichten verstrickt und darauf angewiesen, die Welt einzuspinnen in
Begebenheiten, die oft phantastische Motive bemühen, was nicht bedeuten muss,
dass alles das Phantasterei ist.
Götter, Helden, Halbgötter und mythische Figuren sind zwar Projektionen, was
aber keineswegs bedeutet, dass sie nichts sind, denn sie stehen als Allegorien im-
merhin für ganz entscheidende Perspektiven. Als solche lassen sie sich in Dienst
nehmen. Sobald solche Plots generiert worden sind, lassen sich ganze Szenarien
darstellen, deuten und bewerten. Ob wir damit tatsächlich die Wirklichkeit tref-
fen und nicht vielmehr einfach nur beliebige Vor-Stellungen generieren, das ist die
Frage.
Nicht von ungefähr betreiben manche Mythen selbst bereits Aufklärung, etwa
so wie der Zentralmythos des Abendlandes: In der Frage, ob die Idealzeit in der
Vergangenheit oder aber in der Zukunft liegt, kann es der Mythos von Prometheus
mit dem Utopischen ohne weiteres aufnehmen.– Das Unheil, dem vormalige My-
then noch entgegen traten, ist längst eingetreten, wenn der Halbgott als Allegorie
für den Fortschritt die Bühne betritt, um nach dem Feuerraub in der Frage nach den
Folgen und dem Schicksal der Menschheit ganz neue Erklärungsmodelle zu liefern.
Als dieser Mythos aufkam, war der Prozess der Zivilisation initialisiert, der
„Point of no return“ bereits überschritten und der ungeheure Paradigmenwechsel
vom Mythos zur Utopie längst vollzogen. Seither ist jede noch so große Vergan-
genheit auch nur von gestern und jede verheißungsvolle Zukunft einfach nur un-
gewiss.– Was Schamanen und Priester über Epochen hinweg noch kompensieren
konnten, ist inzwischen zur Gewissheit geworden, die transzendentale Obdachlo-
sigkeit wird zur Grundbefindlichkeit. Und sogar die anonymen Mächte, denen sich
die Menschen in vormythischen Zeiten ausgesetzt sahen, kehren inzwischen wieder
und feiern fröhliche Urständ als alles umfassende, anonyme System-Gottheiten.
130 Heinz–Ulrich Nennen

Mythen schreiben Geschichte auf ihre Weise, und mit etwas Phantasie lassen
sich die Begebenheiten „dahinter“ noch ahnen: Innerhalb weniger Generationen
haben sich seinerzeit die Verhältnisse ebenso radikal wie fundamental geändert.
Hesiod fabuliert noch vom ehedem einvernehmlichen Verhältnis zwischen Men-
schen und Göttern, wenn er die vormalige Mühelosigkeit mit der neuerdings auf-
kommenden Mühseligkeit konfrontiert.– Für ihn ist der ganze Prozess eine einzige
Verfallsgeschichte.
Der Mythagoge gibt sich untröstlich, tatsächlich demonstriert er aber das noto-
rische Hadern utopischen Ungenügens, etwa wenn er das fünfte Geschlecht derer,
die sich vom Acker ernähren, als das von Zeus geschaffene identifiziert und ausruft:
„Wäre ich selbst doch nie zu den fünften Männern gekommen,
sondern zuvor schon gestorben oder danach erst geboren!
Jetzt das Geschlecht ist nämlich das eiserne. Niemals bei Tage
werden sie ausruhn von Not und von Arbeiten, nie auch zur Nachtzeit,
völlig erschöpft. Und die Götter bescheren drückende Sorgen.“7

Der eigentliche Auslöser für den Prozess der Zivilisation war die Metallurgie: Zu-
nächst Kupfer, dann Bronze und schließlich Eisen.– Nicht von ungefähr spielt der
hinkende Erfindergott Hephaistos eine so entscheidende Rolle. Daher auch ist das
von Prometheus geraubte Feuer ganz gewiss kein einfaches Herdfeuer. Es handelt
sich vielmehr um das Schmiedefeuer, „die“ Allegorie „der“ Technik.
Die neue Metallurgie kam um 3500 v. u. Z. auf. Und Hesiod weiß, worauf es
ankommt, wenn er hervorhebt, welches der Menschengeschlechter bereits über
„schwärzliches Eisen“ verfügt. Tatsächlich geht es dabei um Metall-Legierungen
mit neuen Eigenschaften, also um „Stahl“. Es ist eine technische Revolution sonder-
gleichen.– Prometheus steht bei alledem Pate, ursprünglich ein Töpfergott, erschuf
er die Menschen aus Ton und seine Freundin, die Stadtgöttin Athene haucht ihnen
die Seele ein. Aber der „Mensch“, den Prometheus erschafft, entspricht nicht dem
„alten Adam“, sondern einer gänzlich neue Menschentypologie: Die Geschöpfe des
Prometheus sind Zivilisationsmenschen in ihrer zuvor nie gesehenen Vielfalt als
Herrscher, Priester, Krieger, Beamte, Gutsbesitzer, Bürger, Städter, Händler, Ma-
tronen, Hetären, Handwerker, Untertanen und eben auch Bauern, Leibeigene und
Sklaven.
Zuvor gab es nur zwei „Menschentypen“, abhängig von ihrer stets nomadischen
Subsistenz- und Erscheinungsweise, einerseits Hirten und andererseits Sammler
und Jäger. Dann aber „schuf“ Prometheus die neuen Menschentypen aus vielen
verschiedenen Ethnien, Clans und Geschlechtern in den multikulturellen Schmelz-
tiegeln neuer urbaner Welten, die als naturenthobene, künstliche Lebensräume bis-
her ungeahnte Möglichkeiten der Arbeitsteilung aber eben auch der Entfremdung
boten. Und der sagenumwobene Gilgamensch, König von Uruk im Zweistromland
zwischen Euphrat und Tigris, errichtete etwa 3000 Jahre v. u. Z. die vielleicht erste
Stadt-Mauer der Welt.8

7 Hesiod: Werke und Tage. In: Werke in einem Band. Berlin, Weimar 1994. S. 52 f.
8 vgl. Maul, Stefan: Das Gilgamesch-Epos. München 2014(6); sowie: Schrott, Raoul; Rollinger,
Robert; Schretter, Manfred: Gilgamesh: Epos. Darmstadt 2001.
Das Prometheus-Projekt und die Mitgift der Pandora 131

METALL: LUXUS, REICHTUM UND KRIEG

Mit dem Metall kommt nicht nur ein neuer Werkstoff – es kommt das Geld in die
Welt: Metall ist universell konvertierbar, das ist, was zählt. Erstmals gibt es die
Möglichkeit, Vermögen zu horten, um damit zu spekulieren und allein durch Geld
zu Macht und Einfluss zu kommen. Das war vorher so nicht möglich, weil sich
nämlich mit verderblichen Gütern nur schwer spekulieren lässt und weil es per se
gar kein Eigentum gab.– Das Märchen von Hans im Glück führt vor Augen, was es
damit auf sich hat: Ein Goldklumpen so groß wie sein Kopf, den Hans von seinem
Meister für geleistete Dienste erhält, drückt ihm unangenehm auf die Schulter, au-
ßerdem kann er seinen Kopf nicht mehr grade halten. Süffisanter kann subtile Kritik
am Privateigentum kaum ausfallen.
Metall verdirbt nicht, es lässt sich im Verborgenen horten und beizeiten hervor-
holen. Allein das Gerücht, jemand verfüge über Metall, erzeugt noch immer Kre-
ditwürdigkeit erster Güte. Erstmals in der Geschichte der Menschheit stand damit
ein universell konvertierbares und zugleich waffenfähiges Material zur Verfügung:
Metall ist Geld und Geld ist Metall.– Die soziokulturellen Folgen dieser Tech-
nik sind einschneidend, umfassend und radikal. Das ist „die“ Wendestelle in der
Menschheitsgeschichte, denn von nun an wurde Macht verfügbar, disponibel und
gewissermaßen käuflich. So wurde der Prozess der Zivilisation in Gang gesetzt. Es
entstand eine historische Dynamik, die nie zuvor geherrscht hat.
Metall, das bedeutet Schmuck, aber auch Waffen, Geld und Macht. Man kann
sich gegebenenfalls die Freiheit damit erkaufen oder sich alle erdenklichen Freihei-
ten herausnehmen – in diesen frühen Zeiten allemal. Metall ist universell konver-
tierbar, damit lässt sich Handel betreiben und spekulieren. Waffen können erworben
werden für Raubzüge, mit denen Söldner bezahlt werden für Beutezüge, um Reich-
tümer an sich zu raffen, mit denen wiederum Waffen gekauft werden können …
Geld schafft Distanz, es erlaubt, sich die Umwelt tatsächlich vom Leibe zu
halten. Reichtum verschafft Möglichkeiten, sich weder der Natur noch der Gesell-
schaft anpassen zu müssen, sondern vielmehr Verhältnisse zu schaffen, die den
eigenen Wünschen, Bedürfnissen und Vorstellungen entsprechen.– Schon seit Ur-
zeiten verstehen es Menschen, sich souverän abzusetzen von der Natur. Es ist eine
im Übrigen recht erfolgreiche Anpassungsstrategie, sich nicht wirklich anpassen
zu müssen, sondern das Spiel nach eigenen Regeln zu spielen. Urbanisierung ist
die ultimative Steigerung menschlicher Kultur. Wildnis wird endgültig ausgegrenzt
und „Natur“ als solche wird nur noch möglichst „perfekt“ reinszeniert. Aber im In-
neren dieser hochzivilisierten Gesellschaften kommt eine neue Art von Wildnis auf.
Mit dem Aufkommen von Metall wird dieser Ablösungsprozess von der Natur
wirklich perfekt, denn das Geld macht den universellen Tausch möglich. Alles wird
von Stund an konvertierbar, disponibel und käuflich. Wer über Geld verfügt, kann
die eigene Binnenwelt gegen alle widrigen Umstände abschotten. Mit Geld lassen
sich Wünsche erfüllen, die man zuvor nicht nur nicht zu träumen gewagt hätte,
sondern die schlichtweg noch gar nicht geträumt werden konnten.– Städte kommen
auf, mit Luxus, Kunst und Schönheit und einer zuvor unvorstellbaren Lebensweise
nach Art der Götter, fernab jeglicher Notwendigkeit.
132 Heinz–Ulrich Nennen

Städte, Königreiche, unermesslicher Reichtum ebenso wie politische Unterdrü-


ckung, großangelegte kriegerische Raubzüge, die Versklavung ganzer Völkerschaf-
ten, Zwangsarbeit, Ausbeutung in großem Stil und auch die Finanzierung von Pries-
terschaften, die all das als vom Himmel befohlen auslegten, konnte sich leisten, wer
in diesen Zeiten über Metall und damit über uneingeschränkt konvertierbare Macht
verfügte.– Was die Metallurgie seinerzeit ausgelöst hat, ist unermesslich. Die Fol-
gen sind weitreichend, sie erfassen bald schon ganze Länder. Es ist die Frage, ob es
sich mit der Digitalisierung, mit dem Internet und der Globalisierung dieser Tage
nicht ähnlich verhält. Auch gegenwärtig reichen die Folgen einer neuen Technolo-
gie weit über die Technik hinaus, sie stürzen sämtliche vormaligen Verhältnisse um
und erschaffen sie neu – nach ihrem Bilde.
Mit dem Metall kommt urplötzlich eine vollkommen neue Machtfülle, verbun-
den mit irrsinnigem Reichtum in die vormals so wohlgeordnete, vor allem doch mehr
oder minder sozial ausgewogene Welt. In dieser Szenerie ist daher auch die Pandora
nicht etwa eine Allegorie für die Frau als solche. Sie ist keineswegs wie Eva die
mythisch erste Frau überhaupt, obwohl der Plot etwas von einem Paradiesmythos
hat.– Die Pandora ist ein ungemein eindrucksvolles Kind dieser neuen Zeit. Sie ist die
mondäne Städterin, vielleicht auch die sündhaft teure, hochgebildete Kurtisane, denn
sie verkörpert, was fortan möglich werden wird in diesen ersten Städten: Menschen,
die wie Götter auftreten, die mitunter wohl auch wie solche verehrt werden.

DIE ZWEI SEITEN DES FORTSCHRITTS

Prometheus und Epimetheus verkörpern die beiden Seiten des Fortschritts. Das
Brüderpaar ist eine Allegorie für das Phänomen, dass es am Ende anders kommt als
gedacht. Erst wenn sich nach der Promethie allmählich die Epimethie abzuzeichnen
beginnt, mit allen Folgen und Nebenwirkungen, an die man immer erst hinterher
denkt, dann wird sich zeigen, dass der technische, der humane und der kulturelle
Fortschritt nur äußerst selten gemeinsame Sache machen.
Die Arbeit am Mythos hat sich im Verlauf der Zeiten an beiden Figuren zu schaf-
fen gemacht. Die vormalige Tadellosigkeit des angeblich so menschenfreundlichen
und gegen die Götter so rebellischen Feuerbringers wurde allmählich relativiert,
denn dahinter verbergen sich historisch einschlägige Erfahrungen von katastropha-
lem Ausmaß. Aber noch immer ist, neben dem schillernden Bruder, die Figur des
angeblich so unterbelichteten Epimetheus nicht entsprechend aufgewertet worden.
Wenn Pro-Metheus bereits seinem Namen nach alles im Voraus bedenkt und
der so minderbemittelte Bruder Epi-Metheus immer erst hinterher denkt, eben
wenn es zu spät ist, warum sieht der so weit vorausdenkende Feuereiferer dann
nicht besser in die Zukunft und begreift die Risiken der eigenen Hyperaktivität?
Der Mythos zeigt, was zu tun ist: Wir sollten auch die Perspektiven des Bruders
wahrnehmen. Mögen die Projektplanungen der Macher noch so hochtrabend sein,
es gilt die Vorhaben von ihrem Ende her zu beurteilen. Erst nachdem Epimetheus
die Abschlussbilanz aufgemacht hat, wird man Näheres wissen: Ob wieder nur
Hoffnungen, Illusionen und leere Versprechen ins Kraut geschossen sind.
Das Prometheus-Projekt und die Mitgift der Pandora 133

Ist Prometheus nicht einer, der immer wieder einen neuen Plan hat, stets aber
scheitert? Einer, der mit besten Absichten größtmögliche Katastrophen nicht nur für
sich, sondern auch für die von ihm so geliebten Menschenkinder heraufbeschwört?
Wäre es nicht besser, er wäre angekettet geblieben, auf dass ihn in der Tat kein
Mensch jemals wieder zu Gesicht bekommt?– Es scheint, als ginge es diesem Hel-
den des Fortschritts ganz im Sinne der zweiten Strophe aus der „Ballade von der
Unzulänglichkeit menschlichen Planens“ aus der „Dreigroschenoper“:
„Ja, mach nur einen Plan
Sei nur ein großes Licht!
Und mach dann noch ’nen zweiten Plan
Geh’n tun sie beide nicht.“9

DAS SCHÖNE ÜBEL UND DIE BÜCHSE DER PANDORA

Aus Sorge um die Menschheit warnt Prometheus den Bruder, niemals ein Geschenk
der Götter anzunehmen. Das lässt die Differenzen erahnen, die sich nunmehr zwi-
schen Menschen und Göttern auftun. Der Mythos schildert diese Götterdämme-
rung, wie es zur Demission der glücklichen Götter Athens kam: Aufgrund der Er-
findung immer neuer Technologien entstand unter Städtern der Eindruck, gar nicht
mehr so sehr auf Gedeih und Verderb vom Wohlwollen der Götter abhängig zu sein.
Es blieb daher nicht aus, dass man sehr viel selbständiger und auch selbstbewuss-
ter auftrat. Ein neuer Zeitgeist kam auf, Philosophen betraten die Bühne, weil die
Götter immer schlechter gedacht wurden. Nur zu oft wurden sie einfach nur noch
lächerlich gemacht, in dieser Phase der griechischen Antike, einer Sternstunde der
Menschheitsgeschichte.
Wenn wir den Mythos um die Entsendung der ebenso geheimnisvollen wie
schwermütigen Luxusgöttin Pandora ernst nehmen, dann waren himmlische Güter
zuvor samt und sonders den Göttern zu verdanken. Mit dem Prometheusfeuer der
Technik wird der Mensch aber nun selbst zum Produzenten. Fortan wurden mehr
und mehr dieser göttlichen Güter selbst produziert, allerdings viel zu oft mit Pfer-
defuß: Das von Menschen geschaffene Bonum ist stets mit einem Malum behaftet.
Sämtliche vom Menschen selbst produzierten himmlischen Güter sind nur zu oft
mit exorbitanten Übeln verknüpft.
Um diesen unheilvollen Nexus ins Bild zu setzen, wurde im Mythos die schil-
lernde, umfassend göttlich begabte Pandora ersonnen. Die Götter gaben ihr die
hochgefährliche Mitgift mit auf den Weg, ein hermetisch versiegeltes Gefäß als
böse Morgengabe an die junge, reichlich übermütige Zivilisation.
Das war keine Rache, denn zugleich zeigt sich, wie wohlwollend die Götter
eigentlich sind. Sie treten wie Mentoren auf, sind weder rachsüchtig noch neidisch,
sondern eher wohlwollend, ja sogar konziliant. Und schließlich, beim Aufkommen
der Zivilisation, leiten sie mit einer imposant honorigen Geste selbst die Götterdäm-

9 Brecht, Bertolt: Dreigroschenoper. In: Werke. 30 Bd. Frankfurt am Main 1988–2000. Bd. 11.
S. 145.
134 Heinz–Ulrich Nennen

merung ein und übergeben dem Menschen, was zuvor in ihrer Obhut lag. Bevor sie
aber endgültig abtreten, demonstrieren sie noch ein letztes Mal ihre ultimative Kunst,
das Gute vom Üblen zu trennen.– Genau diese Kunst hatte schließlich auch die Para-
diesschlange in Aussicht gestellt, das Gute vom Bösen unterscheiden zu können. Es
geht also eigentlich um die göttliche Scheidekunst, eine „Alchemie“, die sich darauf
versteht, das Üble gar nicht erst aufkommen zu lassen, es zu konzentrieren, auf jeden
Fall abzusondern, einzuschließen, um es ganz auszuschließen vom Sein.
Betrachten wir daher sämtliche dieser Errungenschaften aus der Perspektive
des Epimetheus, dann hat alles seinen Preis, alle vom Olymp auf die Erde herunter-
geholten Schätze: Reichtum, Luxus, Schönheit, nicht zuletzt Hochkultur, Wissen-
schaft und Technik, Kunst, Literatur, Musik und Theater. Alles Erdenkliche über-
brachte Pandora im Zuge der Zivilisation, aber zugleich hatte sie als Mitgift die
Büchse der Pandora mit im Gepäck und damit auch das, was bei allen himmlischen
Gütern offenbar einfach mit dazugehört, das mitproduzierte Übel.
Pandora steht allegorisch für den ungeheuren Reiz, der vom urbanen Luxus-
leben ausgeht. Sie ist eigentlich nicht von dieser Welt, ebenso wie das Glück der
Götter nicht wirklich von dieser Welt sein kann. Alles muss teuer erkauft werden,
denn das mitproduzierte Elend ist wie ein Fluch, mit dem die menschlich produ-
zieren Göttergaben belegt sind. Pandora setzt nun diesen unglückseligen Nexus ins
Bild: Als schönes Übel verkörpert sie den Teufelspakt, dass Technik nicht einfach
nur funktioniert, sondern auf nichttechnischen Voraussetzungen beruht, die selbst
wiederum problematisch sein können.
Die schillernde schöne Pandora repräsentiert den gediegenen Anspruch auf
exorbitanten Luxus. Die Quellen geben aber viel zu wenig über sie her, so dass
wir uns fragen, was wohl in ihr vorgehen mag, wo sie doch nun wirklich umfas-
send göttlich begabt ist.– Hier wäre eine weiterführende Arbeit an ihrem Mythos
vonnöten: Es kann nicht sein, dass sie so farblos ist bei diesen Talenten. Es kann
ebensowenig sein, dass die Welt nicht schon sehr viel weiter fortgeschrittener ist,
bei diesen göttlichen Gaben. Vermutlich soll uns diese Figur genau das vor Au-
gen führen, dass jeder Fortschritt auch mit Rückschritten einhergeht, dass mancher
„Fortschritt“ viel zu teuer erkauft wird.
Einstweilen sehen wir die göttliche Schöne als Allegorie für den Luxus und für
jene unerklärliche Melancholie inmitten perfekter künstlicher Paradiese, wie sie
nicht selten gerade Ausnahmekünstler befällt. Bei allen Talenten ist sie von einer
ungeheuerlichen Empfindsamkeit, eine labile Diva, die an ihrer eigenen Inspiration
leidet. Rein äußerlich ist sie begehrt aufgrund ihrer Kunst, ihrer Schönheit und ihrer
Prominenz, so dass sich erfolgreiche Jäger nur zu sehr gern mit ihr schmücken. Mit-
unter ist sie nicht ganz bei sich, das lässt sie passiv werden und macht sie zu einer
Trophäe, wie auch die Helena kaum mehr ist als ein Zeichen des Erfolgs. Wer die
Schönste aller Frauen in seinen Besitz brachte, war König unter den Königen und
damit der Mächtigste unter den Jägern.
Ihrer ganzen Erscheinung nach entspricht die Pandora einer erst mit Zivilisa-
tion und Eigentum aufkommenden, zuvor nie dagewesenen, völlig neuen sozialen
Rolle der Frau im Spektrum zwischen Heilige und Hure. Auf der einen Seite ist da
die im Hause eingeschlossene Matrone: eine Frau von hohem Stand, die gewisse
Das Prometheus-Projekt und die Mitgift der Pandora 135

Ansprüche hat, die als Ehefrau, Hausherrin und Mutter durch legitime Erben ihrem
Gatten die Nachkommenschaft sichert, auf dass dieser seinen Reichtum über die
männliche Linie weiter vererben kann. Und auf der anderen Seite ist da die öffent-
liche Person der hoch begehrten, begabten und gebildeten Hetäre, die sich nicht nur
auf Kunst und Erotik, sondern eben auch auf Philosophie versteht.
Eines der Übel, die sich in der Büchse der Pandora befunden haben müssen,
ist neben Herrschaft und Versklavung ganz gewiss auch das Eigentum. Das alles
sind Übel, weil sie die höchsten Kosten und das größte Elend verursachen, bei ei-
ner geringen Rate von Glück für nur einige Wenige. Eigentum zieht den Anspruch
auf Erbschaft nach sich, unterminiert aber das Prinzip der vormaligen Solidarität.
Anders als unter Jägern, wo der Bessere das höhere Ansehen hatte, untergräbt der
Nepotismus fortan die Prinzipien der angeblichen Leistungsgesellschaft. Es sind
eben keineswegs die Besten, denen die hohen Ämter zufallen, wollte man das an-
ders haben, dürfte man wie im mustergültigen Staat von Platon die Kinder nicht
mehr den Familien, sondern müsste sie dem Staat überantworten.
Gleichsam als Gegengewicht zur privatisierenden Matrone entsteht wie aus der
Retorte ein gänzlich neuer Frauentyp im Herzen der Städte, auf den öffentlichen
Plätzen, in den Metropolen der frühen Reiche. Dafür steht die Pandora Modell: Es
ist die Femme fatale, die sündhaft teure Kurtisane, die Lola aus dem Blauen Engel.–
Sie ist eine Person des öffentlichen Lebens, ein Luxusobjekt par excellence, ein
Status-Symbol, eine Kunst-Identität, eine Phantasmagorie. Hesiod ist kein Veräch-
ter der Frauen, er warnt aber vor diesen Verführungen: Pandora verkörpert die neue
urbane Lebensweise der Reichen und Schönen. Sie ist eben auch eine mitbedingte
Nebenfolge des neuen Reichtums, der mit dem Metall, dem Geld und dem Eigen-
tum in die Welt gekommen ist. Sie ist der Anfang vom Ende, eben nicht selten der
soziale, psychische und finanzielle Ruin ihrer Verehrer.
Dort also, in den neuen Städten, wo Öffentlichkeit erstmals entsteht, wo ein
zuvor ungeahnter Luxus und eine neue urbane Oberschicht aufkommt, dort konnte
man reich werden und es den Göttern an Lebensqualität, Wonnen des Glücks und
vor allem in der sozialen Wertschätzung gleichtun.– Das Leben ist ein Kampf um
Heu, so hat der geheimnisvolle niederländische Maler Hieronymus Bosch in sei-
nem Triptychon Der Heuwagen den Kampf ums Sozialprestige gespenstisch in
Szene gesetzt.10
Die Klage gegen die Götter, sie hätten die Pandora aus purer Rachsucht entsannt
und mit allen erdenklichen Übeln ausgestattet, lenkt davon ab, dass ein Zusammen-
hang besteht zwischen Luxus und Elend, Gütern und Übeln, Licht und Schatten –
Pandora ist die Allbeschenkte, als Allegorie verkörpert sie umfassend alles, was
mit der Zivilisation in die Welt gekommen ist: Nie dagewesene Möglichkeiten im
Guten wie im Schlechten, wovon man zuvor nicht einmal zu träumen gewagt hätte.
Wir deuten den Mythos von Prometheus immer nur von der prometheischen
Seite, sehen immer nur die Vorzüge der Zivilisation, die Schönheit, die Attraktivität
und das Verführerische an der Pandora und ihren Gaben. Wir ignorieren dagegen
oder sehen zu spät, was uns die epimetheische Sicht derselben Angelegenheit früh

10 Hieronymus Bosch: Der Heuwagen (ca. 1515). Prado, Madrid.


136 Heinz–Ulrich Nennen

bereits auch hätte vor Augen führen können, dass eben alles, wirklich alles seinen
Preis hat, alle erdenklichen Folgen und Nebenwirkungen. Daher sind die tatsächli-
chen Preise für neue Errungenschaften oft viel zu hoch, weil sich und ganz und gar
nicht rechtfertigen lässt, was dabei alles mit auf dem Spiel steht.
Die Fesselung des Prometheus am Felsen im Kaukasus und seine spätere Be-
freiung durch Herakles, könnte ein Hinweis sein darauf, dass der Gott des Fort-
schritts den Menschen längere Zeit verborgen gewesen sein muss. Sie bekamen ihn
offenbar geraume Zeit nicht wieder zu Gesicht – was als Anspielung auf eine län-
gere Phase der Agonie verstanden werden kann. Und tatsächlich dürften die frühen
Städte und Gesellschaften äußerst instabil gewesen sein.
Es genügt eben nicht, nur über die Technik des Städtebaus zu verfügen. Das
ist das Credo des Protagoras im gleichnamigen Dialog bei Platon, wo dieser seine
Variation des Mythos vom Prometheus vorbringt, um damit zu demonstrieren, dass
Technik allein nicht genügt. Man muss darüber hinaus auch die Staatskunst beherr-
schen, ein Gemeinwesen politisch zu stabilisieren, weil ansonsten alles bald schon
wieder im Chaos versinkt.– Die Gründe, warum die frühen Städte immer wieder in
sich zerfielen, liegen eigentlich auf der Hand, denn die Verhältnisse in diesen frühen
Stadtstaaten dürften abenteuerlich gewesen sein.
„So versuchten sie denn, sich zu vereinigen und zu erhalten, indem sie Städte gründeten. Aber
als sie zusammengetreten waren, da taten sie wieder einander Unrecht und Schaden an, weil
sie eben die Kunst, den Staat zu verwalten, noch nicht besaßen, so dass sie sich von neuem
zerstreuten und umkamen.“11

11 Platon: Protagoras. In: Sämtliche Werke. Berlin [1940]. Bd. 1. S. 74.


Das Prometheus-Projekt und die Mitgift der Pandora 137

LITERATUR

Brecht, Bertolt: Werke. Große kommentierte Berliner und Frankfurter Ausgabe in 30 Bänden. Ber-
lin, Weimar, Frankfurt am Main 1988–2000.
Goethe, Johann Wolfgang von: Berliner Ausgabe. Berlin 1960 ff.
Hesiod: Werke in einem Band. Berlin, Weimar 1994.
Kornwachs, Klaus: Strukturen technologischen Wissens. Analytische Studien zu einer Wissen-
schaftstheorie der Technik. Berlin 2012.
ders.: Philosophie der Technik. Eine Einführung. München 2013.
Maul, Stefan: Das Gilgamesch-Epos. München 2014.
Nennen, Heinz-Ulrich: Der Mensch als Maß. Über Protagoras, Prometheus und Pandora. Hamburg
2018.
ders.: Die Urbanisierung der Seele. Über Zivilisation und Wildnis. Hamburg 2018.
ders.: Pandora: Das schöne Übel. Über die dunklen Seiten der Vernunft. Hamburg 2017.
ders.: Die Masken der Götter. Anthropologie der modernen Welt. Hamburg 2018.
ders.: Das erschöpfte Selbst. Erläuterungen zur Psychogenese. Hamburg 2018.
Platon: Werke in acht Bänden. Darmstadt 1990.
Schrott, Raoul; Rollinger, Robert; Schretter, Manfred: Gilgamesh: Epos. Darmstadt 2001.
III. ETHIK DER TECHNIK:
KÖNNEN WIR WOLLEN, WAS WIR TUN?
HINWEISE ZUR TECHNIK FÜR EINE WELT
MIT ZWÖLF MILLIARDEN MENSCHEN1

Franz Josef Radermacher

Ist für zwölf Milliarden Menschen eine balancierte, auskömmliche, friedliche und
reichhaltige Welt denkbar? Und was sind die Alternativen? Welche Rolle hat in
diesem Kontext die Technik? Und wie könnte eine Technik aussehen, die für eine
solche Welt geeignet ist?

DIE LAGE IST SCHWIERIG

Die Welt sieht sich vor der Herausforderung, eine nachhaltige Entwicklung zu er-
reichen. Es ist eine große Aufgabe, die dominierenden gesellschaftlichen Subsys-
teme der modernen Zeit und ein nachhaltigkeitskonformes Wachstum zu gestalten.
Dabei soll gleichzeitig ein (welt-)sozialer Ausgleich, ein Schutz der ökologischen
Systeme und die Lösung des Klimaproblems erfolgen. Dies ist allenfalls dann er-
reichbar, wenn sich die Wechselwirkung zwischen den Staaten in Richtung einer
Weltinnenpolitik bewegt, eine Forderung, die auf Carl Friedrich von Weizsäcker
zurückgeht. In diesem Rahmen könnten Forderungen eines Weltethos und des inter-
kulturellen Humanismus lebenspraktisch realisiert werden.2 Eine adäquate Regel-
setzung würde bewirken, dass es sich ökonomisch nicht lohnt, systematisch gegen
vereinbarte Regeln und legitime Interessen anderer zu operieren. Und unter solchen
Regeln könnte der Innovationsprozess diejenigen Technologien hervorbringen, die
zwölf Milliarden Menschen eine lebenswerte Zukunft eröffnen. Das Hervorbrin-
gen geeigneter Innovationen – und die Probleme in der Folge der Durchsetzung
weniger geeigneter Innovationen – hat Klaus Kornwachs in seiner Arbeit vielfach
beleuchtet.3 Jetzt erforderliche Innovationen müssen im Besonderen ein neues

1 Ich danke Frau Prof. Dr. E. Herlyn für die vielfältige Unterstützung bei der Erarbeitung dieses
Textes. Der Text basiert wesentlich auf einem Beitrag zur Publikation: Kreibich, Rolf; Lietsch,
Fritz (Hg.): „Zukunft gewinnen! Die sanfte (R)evolution für das 21. Jahrhundert – inspiriert
vom Visionär Robert Jungk. München 2015. S. 122–132.
2 vgl. Bummel, Andreas: Internationale Demokratie entwickeln. Für eine Parlamentarische Ver-
sammlung bei den Vereinten Nationen. Ein Strategiepapier des Komitees für eine demokrati-
sche UNO. Stuttgart 2005; Held, David: Soziale Demokratie im globalen Zeitalter. Berlin
2007; Köhler, Horst: Für eine neue Kultur der Zusammenarbeit mit Afrika. Rede von Bundes-
präsident a. D. Horst Köhler beim Afrika-Kongress der CDU/CSU-Fraktion. Berlin, Deutscher
Bundestag, 16. März 2016; Piketty, Thomas: Das Kapital im 21. Jahrhundert, München 2014.
3 vgl. Kornwachs, Klaus: Technikfolgenabschätzung – Reichweite und Potential. Ein Sympo-
sium im Amerika Haus Stuttgart 1988. Stuttgart 1991; ders.: Bedingungen und Triebkräfte
technologischer Innovationen. Beiträge aus Wissenschaft und Wirtschaft. Reihe „achtech dis-
142 Franz Josef Radermacher

Energiesystem beinhalten, dass den Bedingungen „überall verfügbar“, „umwelt-


freundlich“, „klimaneutral“ und „bezahlbar“ erfüllt. Auf der Ressourcenseite wäre
gleichzeitig der Übergang zu einer stärkeren Nutzung erneuerbarer Ressourcen er-
forderlich. Die Chancen zur Erreichung dieses Ziels sind bedauerlicherweise alles
andere als gut, da sich das weltökonomische System als Folge der Globalisierung
in einem Prozess zunehmender Entfesselung und Entgrenzung befindet und dies
im Rahmen einer „explosiven Beschleunigung“ und unter teilweise inadäquaten
weltweiten Rahmenbedingungen.

DIE UMWELT- UND RESSOURCENFRAGE –


DIE BEWÄLTIGUNG DER AKTUELLEN KNAPPHEITSPROBLEME

Im Kontext der Globalisierung erweist sich der Zugriff auf Ressourcen und das
Recht auf Erzeugung von Umweltbelastungen als großes Thema. Ohne Ressour-
cenzugriff kein Wohlstand, doch bei übermäßigem Zugriff droht ein Kollaps. Wer
kann bzw. wer darf auf Ressourcen in welchem Umfang zugreifen? Das kann eine
Frage von Krieg und Frieden werden. Das rasche Wachstum der Weltbevölkerung
verschärft die Situation signifikant. Die Menschheit bewegt sich mit Blick auf 2050
in Richtung von zehn Milliarden Menschen und, wenn die Weltgemeinschaft nicht
aufpasst, für 2100 in Richtung von zwölf Milliarden Menschen, davon allein vier
Milliarden in Afrika. Hinzu kommt das Hineinwachsen von hunderten Millionen
weiterer Menschen in ressourcenintensive Lebensstile. Es könnte deshalb in den
nächsten Jahrzehnten trotz massiver Steigerung der Nahrungsmittelproduktion
hinsichtlich der Ernährung der Weltbevölkerung eng werden. Hier drohen massive
Probleme und Konflikte. Die anhaltenden Konflikte und damit zunehmende Migra-
tionsbewegungen aus Afrika und dem Nahen Osten geben einen Vorgeschmack auf
das, was passieren könnte.4

KOLLAPS ALS MÖGLICHE ZUKUNFT

Ein Kollaps hängt mit den Möglichkeiten der Aushebelung der Demokratie über
Globalisierung zusammen, mit den absehbar gefährlichen Möglichkeiten techni-
scher Intelligenz und technischer Systeme zur Substituierung auch anspruchsvoller
Tätigkeit und der Gefahr einer über Technik verwirklichte Totalkontrolle über den
Menschen, vielleicht verbunden mit einem Programm vom Typ „Brot und Spiele“.
Andere Risiken resultieren aus einer eventuellen Klimakatastrophe, aber auch aus

kutiert“. München Berlin 2007; ders.: Strukturen technologischen Wissens. Analytische Stu-
dien zu einer Wissenschaftstheorie der Technik. Berlin 2012; ders.: Einführung in die Philoso-
phie der Technik. München 2013.
4 vgl. Radermacher, Franz Josef: Balance oder Zerstörung. Ökosoziale Marktwirtschaft als
Schlüssel zu einer weltweiten nachhaltigen Entwicklung. Wien 2002; sowie: Radermacher,
Franz Josef; Beyers, Bert: Welt mit Zukunft – Überleben im 21. Jahrhundert. Hamburg 2007;
überarbeitete Neuauflage: Welt mit Zukunft – die ökosoziale Perspektive. Hamburg 2011.
Hinweise zur Technik für eine Welt mit zwölf Milliarden Menschen 143

dem sogenannten „Trilemma der Globalisierung“.5 Sollen Verhältnisse wie nach


dem 30-jährigen Krieg oder heute in Indien für die unteren Kasten oder in Brasilien
oder Südafrika für eine Großzahl der Menschen vermieden werden, brauchen wir
die gleichzeitige Verwirklichung von Markt und Nachhaltigkeit, eine Globalisie-
rung der Demokratie und des Finanzausgleichs und ausreichende ökologisch-so-
ziale Regulierungsvorgaben für die Märkte – national und weltweit. Wenn wir das
alles erreichen wollen, wird das wahrscheinlich nur als Reaktion auf große Krisen
in der richtigen Dosierung und in der richtigen Reihenfolge gelingen.

DIE ROLLE VON INNOVATIONEN: WAS BRINGT DIE ZUKUNFT?

Das in Europa erfundene „Betriebssystem der modernen Welt“ entwickelte sich


zur globalen „Wohlstandsmaschine“. Technische Innovationen sind der Schlüssel
für immer mehr Wohlstand. Die Märkte sind dabei im Sinne von Schumpeter6
der stärkste Mechanismus zur Schaffung von Innovationen und ein zentrales und
unübertroffenes Element zur Hervorbringung von Wohlstand. Ohne ein weltweites
Marktsystem ist eine Zukunft in Wohlstand für die ganze Welt nicht vorstellbar.
Abhängig von der spezifischen Regulierung sind enorm vielfältige Marktausprä-
gungen möglich: in Form eines Manchester-Kapitalismus, einer sozialen Markt-
wirtschaft, eines Casino-Kapitalismus, eines Merkantilismus oder eines Staatska-
pitalismus (wie er heute in China besteht). Natürlich kann auch eine stärkere Ge-
meinwohlorientierung und/oder ein soziales Unternehmertum7 realisiert werden.
Als Ergebnis und Voraussetzung für eine bessere Welt gilt die Hoffnung wichtigen
Innovationen im Bereich Ressourcen, im Besonderen das oben beschriebene neue
Energiesystem, das eine zentrale Bedeutung besitzt.

WIESO IST DER MARKT SO WICHTIG?

Markt bedeutet immer Wettbewerb unter Regeln, hier besteht eine Analogie zum
Sport. Der Wettbewerb bringt jeweils die Leistung, d. h. die Effizienz, hervor. Die
Folgen: ein gutes Input-Output-Verhältnis, niedrige Kosten, schnelle Prozessierung
und große Volumina. Die Regeln geben dem jeweiligen Markt mit seinen spezifi-
schen Merkmalen die Effektivität – genauso wie in einer Sportart.

5 vgl. Radermacher, Franz Josef: Das Trilemma der modernen Welt. FAW/n Report. Ulm 2013;
Rodrik, Dani: Globalization Paradox: Democracy and the Future of the World Economy. New
York 2012.
6 vgl. Schumpeter, Josef: Theorie der wirtschaftlichen Entwicklung. Berlin 1912; Neuauflage:
Berlin 2006.
7 vgl. Radermacher, Franz Josef; Spiegel, Peter; Obermüller, Marianne: Global Impact – der
neue Weg zur globalen Verantwortung. München 2009; Yunus, Muhammad: Building Social
Business. The New Kind of Capitalism that Serves Humanity’s Most Pressing Needs. New
York 2011.
144 Franz Josef Radermacher

Die marktschaffenden Regeln bilden somit ein erstes marktstrukturieren-


des Restriktionssystem und sind von wesentlicher Bedeutung dafür, dass ein
Markt seine Leistung hervorbringen kann. Zu den marktstrukturierenden Re-
geln zählen die sogenannten vier großen Freiheiten von Individuen und Un-
ternehmen die vernünftigerweise um Elemente der Gemeinwohlorientierung
anzureichern sind.8
1. Freiheit des Eigentums
2. Vertragsfreiheit
3. Freiheit zur Innovation
4. Freiheit zur Kreditaufnahme bzw. zur Kreditgewährung
Innovationen sind der wohl wichtigste Beitrag von Märkten, denn durch sie konnte
und kann der Wohlstand in der Breite erhöht werden. Staaten fördern mittlerweile
in Konkurrenz zueinander Innovationen und die entsprechenden Wissenschaften.
Sie geben technische Standards vor, etwa bezüglich der Abgasnormen bei Automo-
bilen, und beeinflussen so wesentlich die technische Entwicklung und die umwelt-
relevanten Parameter. Sie treten als Einkäufer mit sehr großem Einkaufsvolumen
und damit Nachfragemacht auf. Über die Finanzierung der Militäretats treiben sie
Innovationen in vielen High-Tech-Segmenten voran.

WACHSTUM: VERÄNDERUNG DER WIRTSCHAFTSLEISTUNG

Wachstum (sei es positiv, null oder negativ) bezeichnet die (jährliche) Veränderung
einer in Geld (bei Inflationsausgleich) ausgedrückten gemeinsamen Kennzahl für
die Gesamtwirtschaftsleistung. Aus der Theorie der Märkte folgt nicht – wie oft
behauptet wird –, dass positives Wachstum unbedingt erforderlich ist, damit der
Markt funktioniert. Es ist jedoch so, dass das „politische Geschäft“ bzw. die Kom-
promissfindung unter Menschen mit unterschiedlichen Zielvorstellungen unter po-
sitiven Wachstumsbedingungen wesentlich einfacher möglich ist als im gegentei-
ligen Fall. Hinzu kommt: Bei der heutigen Ausgestaltung der Märkte ist eine hohe
Beschäftigung wahrscheinlich eher mit positivem als ohne Wachstum zu erreichen,
obwohl es auch bzgl. dieser Aussage Fragezeichen gibt. Das in unheilvoller Form
um sich greifende Phänomen nicht-auskömmlicher Beschäftigungsverhältnisse
(sogenannte „Working Poor“) könnte sich bei der immer schnelleren Verbesserung
technischer Intelligenz im Umfeld von Big Data und dem Internet der Dinge sowie
weiterer technischer Durchbrüche noch dramatisch verschärfen.9 Verteilungsfragen

8 vgl. Kay, John: The truth about markets. Why some nations are rich but most remain poor.
London 2004.
9 vgl. Herlyn, Estelle; Kämpke, Thomas; Radermacher, Franz Josef; Solte, Dirk: Reflections on
the OECD-Project “The Role of Data in Promoting Growth and Well-Being”, BIG DATA and
Analytics – What are the perspectives? 2015; Radermacher, Franz Josef: Die Zukunft der digi-
talen Maschine: Was kommt auf uns zu? Lang- und Kurzvariante. FAW/n-Report. Ulm, Juli
2015; Radermacher, Franz Josef: Algorithmen, maschinelle Intelligenz, Big Data: Einige
Grundsatzüberlegungen. In: Schwerpunktheft „Big Data contra große Datensammlungen.
Hinweise zur Technik für eine Welt mit zwölf Milliarden Menschen 145

sind im Falle eines „wachsenden Kuchens“ in der Regel einfacher zu adressieren,


wenn auch die landläufige Behauptung, dass bei Wachstum alle gleichermaßen pro-
fitieren, kritisch und differenziert zu betrachten und letztlich falsch ist.10 In indivi-
dueller Perspektive kommt dem eigenen Einkommen eine viel größere Bedeutung
zu als dem Bruttoinlandsprodukt (BIP) bzw. dem volkswirtschaftlichen Gesamt-
einkommen.11 Trotz moderater Wachstumsraten war es in den vergangenen Jahren
in Deutschland so, dass nur die Einkommen des reichsten Dezils wahrnehmbar
stiegen. Die mittleren Einkommen blieben weitgehend unverändert, während die
niedrigsten Einkommen sogar sanken.12 In Großbritannien verlief die Entwicklung
dramatischer, und besonders eklatant verlief sie in den USA.13 Brexit und „Trump“
haben hier einige Wurzeln.
Wachstum drückt gegenwärtig nur die Veränderung der geeignet quantifizier-
ten (monetären) Wirtschaftsleistung unter dem marktstrukturierenden Restriktions-
system aus. Es besteht zunächst kein unmittelbarer sachlicher Zusammenhang zur
Nachhaltigkeit. Die aktuelle Herausforderung besteht darin, die Nachhaltigkeit in
das bestehende System zu integrieren, denn das jetzige System ist trotz aller Debat-
ten und Aktivitäten nicht nachhaltig. Wichtige Parameter, z. B. der weltweite CO2-
Ausstoß oder die Anzahl der Menschen, die akut vom Hunger bedroht sind, deuten
ganz im Gegenteil auf eine Verschlechterung des Status quo hin. Nicht besser ist
die Lage hinsichtlich der Ressourcen- und Energiefrage, der Entwicklung der Welt-
bevölkerungsgröße, der „Plünderung“ der Realökonomie und der Staaten über ein
unzureichend reguliertes Weltfinanzsystem und die resultierende Schuldenkrise.14
An diesen Stellen müssen jetzt entscheidende Weichenstellungen erfolgen, sonst
„endet“ die Menschheit in einem ökologischen Kollaps. Die Durchsetzung ökologi-
scher „Constraints“ bedeutet, dass gewisse Dinge nicht gemacht werden dürfen oder
teuer werden, z. B. CO2-Emissionen.
Die Durchsetzung von sozialen Constraints bedeutet auskömmliche Finanzie-
rung über Arbeit für möglichst alle Bürger und da, wo es diese Arbeitsplätze nicht
gibt, über Transfers. Das in einer Weise, dass Wachstumsstärke stimuliert wird,
sonst ist eine lebenswerte Zukunft für zwölf Milliarden Menschen undenkbar.

Chancen und Risiken für die Gesundheitsforschung“, Bundesgesundheitsblatt, Bd. 58. Heft 8.
Berlin Heidelberg 2015. S. 859–865.
10 ebd.
11 vgl. Herlyn, Estelle: Einkommensverteilungsbasierte Präferenz- und Koalitionsanalysen auf
der Basis selbstähnlicher Equity-Lorenzkurven. Ein Beitrag zu Quantifizierung sozialer Nach-
haltigkeit. Laufendes Dissertationsverfahren zur Erlangung des akademischen Grades Dr. rer.
pol. an der wirtschaftswissenschaftlichen Fakultät der RWTH Aachen, 2012.
12 vgl. Heitmeyer, Wilhelm: Die rohe Bürgerlichkeit. In: Die Zeit, Nr. 39, 2011. http:/www.zeit.
de/20111/39/Verteilungsdebatte-Klassenkampf.
13 vgl. Stiglitz, Joseph: Der Preis der Ungleichheit. Wie die Spaltung der Gesellschaft unsere
Zukunft bedroht. München 2012.
14 vgl. Radermacher, Franz Josef: Zukunft gestalten – Potentiale und Gegenkräfte. In: Kreibich,
Rolf; Lietsch, Fritz (Hg.): „Zukunft gewinnen! Die sanfte (R)evolution für das 21. Jahrhun-
dert – inspiriert vom Visionär Robert Jungk. München 2015. S. 122–132.
146 Franz Josef Radermacher

MARKT UND NACHHALTIGKEIT

Ein erfolgversprechender Ansatz, mit dem eine Kombination beider Konzepte ge-
lingen kann, ist das etwa 35 Jahre alte Konzept einer ökosozialen Marktwirtschaft15,
die – um erfolgreich zu sein – eine weltweite Implementierung ohne Schlupflöcher
erfahren muss. Eine solche Marktwirtschaft etabliert erforderliche Leitplanken.
Dieses ist, wie ausgeführt, auch erforderlich, wenn eine lebenswerte Zukunft für
zwölf Milliarden Menschen das Ziel ist.
Eine ökosoziale Marktwirtschaft (genauer: eine ökologisch und sozial adäquat
regulierte Marktwirtschaft) ist per Definition eine Marktwirtschaft die neben einem
Restriktionssystem, durch das sie ihre spezifische ökonomische Ausprägung im Be-
reich der Hervorbringung von Gütern und Dienstleistungen erhält, unbedingt und
prioritär einem Restriktionssystem 2 der oben beschriebenen Art genügt, das Nach-
haltigkeit nicht nur sicherstellt, sondern erzwingt.16 Im angelsächsischen Raum
spricht man heute von „green and inclusive markets“ und „green and inclusive
growth“. Alle großen internationalen Organisationen, vor allem die OECD, treten
massiv dafür ein – die alte marktfundamentale Position ist endlich überwunden.
Die OECD, die Organisation der reichen Länder, argumentiert für balancierte Ein-
kommensverteilungen, Einhegung von Steuerparadiesen, Verhinderung aggressiver
Steuervermeidungsstrategien und Durchsetzung einer adäquaten Besteuerung ho-
her Einkommen. Dies alles ist eine Folge der internationalen Probleme wie neuen
Einsichten seit der großen Weltfinanzkrise 2007/2008.

GRÜNES UND INKLUSIVES WACHSTUM FÜR WELTWEITEN


WOHLSTAND IST MÖGLICH

Die bisherigen Erörterungen machen deutlich, dass „grünes“ und zusätzlich „in-
klusives“ Wachstum möglich ist, allerdings negativ sein kann. Dass die Wachs-
tumsraten auf Dauer selbst im positiven Fall kontinuierlich fallen werden, ist in
einer endlichen Welt anzunehmen, schließt aber konstanten absoluten Zuwachs und
bei irgendwann vielleicht sinkender Weltbevölkerung sogar eine weitere relative
Zunahme pro Jahr nicht aus. Die Vermeidung des Bumerang-Effekts ist dabei ein
zentrales Thema.17

15 vgl. Radermacher, Franz Josef; Beyers, Bert: Welt mit Zukunft – Überleben im 21. Jahrhun-
dert. Hamburg 2007; überarbeitete Neuauflage: Welt mit Zukunft – die ökosoziale Perspektive.
Hamburg 2011; 27. Radermacher, Franz Josef; Riegler, Josef; Weiger, Hubert: Ökosoziale
Marktwirtschaft – Historie, Programm und Perspektive eines zukunftsfähigen globalen Wirt-
schaftssystems. München 2011.
16 vgl. Herlyn, Estelle; Radermacher, Franz Josef: Ökosoziale Marktwirtschaft: Wirtschaften un-
ter Constraints der Nachhaltigkeit. In: Rogall, Holger (Hg.): Jahrbuch Nachhaltige Ökonomie.
Marburg 2012.
17 vgl. Neirynck, Jacques: Der göttliche Ingenieur. Renningen 1994.
Hinweise zur Technik für eine Welt mit zwölf Milliarden Menschen 147

WELCHE TECHNIK KANN MAN SICH ALS ERGEBNIS


DER INNOVATIONSPROZESSE VORSTELLEN?

Es ist grundsätzlich schwierig, Innovationsprozesse vorwegzunehmen. Wie ausge-


führt ist aber ein anderes Energiesystem das absolute Schlüsselthema. Energie ist
die entscheidende Ressource für Reichtum, während Essen und Trinken das ent-
scheidende Thema für Arme ist. Energie lässt sich sehr weitgehend „übersetzen“ in
Essen und Trinken, aber auch in sehr viel mehr. Nahrung kann heute auch an Häu-
serfronten produziert werden und über Meerwasserentsalzung und klimaneutralen
Pipeline-Transport kann Wasser in beliebiger Menge überall hingebracht werden,
Voraussetzung dafür ist preiswerte klimaneutrale Energie.
Das Energiethema ist wesentlich getrieben durch die Klimafrage. Wenn wir den
Klima-Kollaps verhindern wollen, müssen wir uns tendenziell von den fossilen Ener-
gieträgern verabschieden, wir brauchen dafür dann Alternativen. Gleichzeitig müssen
wir CO2 aus der Atmosphäre herausholen. Daraus resultieren zwei Stoßrichtungen:
einerseits erneuerbare Energien, andererseits massive Aufforstprogramme, potentiell
auf einer Milliarde Hektar degradierter Flächen in den Tropen. Wenn auf einer sol-
chen Fläche neu aufgeforstet wird, entzieht das der Atmosphäre etwa zehn Milliarden
Tonnen CO2 pro Jahr, das ist ein erhebliches Volumen und erlaubt es uns, „Zeit zu
kaufen“. Das Holz muss in einem etwa 40-jährigem Rhythmus geerntet werden, es ist
eine erneuerbare Ressource, die für unterschiedlichste Verwendungszwecke, etwa im
Hausbau (mittlerweile auch mehrstöckig) genutzt werden kann. Das gilt insbesondere
für innovative Holzmaterialien, die aus Verleimung von Holzstreifen entstehen und
ein großes Potential haben, auch für den Haushochbau.
Die erneuerbaren Energien stehen insbesondere im Sonnengürtel der Erde zur Ver-
fügung, die Sahara und die arabische Wüste bieten hier ein großes Potential, sowohl für
Wind als auch für Photovoltaik, Solarthermie, Aufwindkraftwerke etc. Der Autor hat in
jüngerer Zeit eine Denkschrift für den Club of Rome und den Senat der Wirtschaft für
die Bundesregierung koordiniert unter der Überschrift „Ein Marshall Plan für Afrika“.18
Das Bundesministerium für wirtschaftliche Zusammenarbeit und Entwicklung
(BMZ) hat einen Plan dieser Art zwischenzeitlich ebenfalls vorgelegt.19 Hier sind die
Technologien absehbar, auf die man hinzielen muss. Es geht bei diesem Marshall Plan
für Afrika um Wohlstandsentwicklung in der MENA-Region. Hier müssen über die
nächsten Jahrzehnte jedes Jahr viele Millionen neue Arbeitsplätze geschaffen werden.20
Die wesentlichen Ideen kombinieren die enormen Potentiale an solarer Ener-
gie mit Kohlekraftwerken, die über massive Aufforstprogramme klimaneutral
gestellt werden. Bei diesen wird das CO2 abgefangen, genauso wie bei Stahlpro-

18 Club of Rome, Senat der Wirtschaft (Koordination: Prof. Radermacher, FAW/n): Migration,
Nachhaltigkeit und ein Marshall Plan mit Afrika. Denkschrift für die Bundesregierung. http://
www.faw-neu-ulm.de/portfolio-item/denkschrift-bundesregierung (Zugriff am: 26. Januar 2017).
19 Bundesministerium für wirtschaftliche Zusammenarbeit und Entwicklung: Afrika und Eu-
ropa – neue Partnerschaft für Entwicklung, Frieden und Zukunft. Eckpunkte für einen Mar-
shallplan mit Afrika. http://www.bmz.de/marshallplan_pdf sowie unter http://www.
marshallplan-mit-afrika.de (Zugriff am: 26. Januar 2017).
20 vgl. Club of Rome, Senat der Wirtschaft, a. a. O.
148 Franz Josef Radermacher

duktion und in Zementwerken. Über den Einsatz erneuerbarer Energie für Elek-
trolyse zur Erzeugung von Wasserstoff kann das CO2 dazu genutzt werden, ein
methanolartiges Benzin zu produzieren, mit dem Autos, Heizungen, etc. bei uns
klimaneutral betrieben werden können.21 Dieser Ansatz hat ein großes Potential
für Nordafrika, aber sicherlich auch für Europa, und ist eine Alternative zu der um
sich greifenden „Klima-Planwirtschaft“, bei der alle Häuser zu unglaublich hohen
Kosten und mit nur geringen Klimabeiträgen verpackt werden, ebenso alle Autos
durch Elektroautos ersetzt, die bisherigen Heizungen abgeschafft werden etc.
Nähere Informationen zu diesem Aspekt des Themas liefert die Studie „Die
soziale Dimension des Klimaschutzes und der Energieeffizienz im Kontext von Bau-
und Wohnungswirtschaft“, die im Auftrag des GdW Bundesverband deutscher
Wohnungs- und Immobilienunternehmen vom Forschungsinstitut für anwendungs-
orientierte Wissensverarbeitung (FAW/n) erstellt wurde.22 Kernpunkt der Studie ist
die Frage der sozialen Balance, behandelt werden die Rahmenbedingungen und
deren mögliche Folgen auf z. B. Segregationsprozesse.
Das alles könnte man sich sparen, wenn eine vernünftige Methanol-Lösung,
wesentlich getrieben über erneuerbare Energien und die Nutzung von nicht ver-
meidbaren CO2-Emmissionen, in ein neues Energiesystem transformiert würden,
bei dem über große Aufforstflächen Klimaneutralität hergestellt wird. Entspre-
chende Aufforstungen sind im Übrigen auch im Umfeld der früheren Regenwälder
entscheidend dafür, deren Austrocknen zu verhindern (siehe hierzu auch den aktu-
ellen Bericht an den Club of Rome von Claude Martin „On the Edge“23).
All das lässt sich mit forcierter Humusbildung und mit neuen Methoden in der
Landwirtschaft koppeln. Afrika könnte die heutigen 30 Milliarden Dollar Nahrungs-
importe vermeiden und zum Nahrungsexporteur werden, selbst bei weiter wachsen-
der Bevölkerung. Das Export-Potential von Methanol, die vielfältigen Möglichkei-
ten von Holz deuten auf die Art von Ökonomie für Afrika hin, mit der die interna-
tional in 2016 verabschiedete Agenda 2030 vielleicht umgesetzt werden kann. Das
Ziel ist eine wohlhabende Welt für viel mehr Menschen als heute bei gleichzeitiger
Verbesserung der Lage im Bereich der Klima- und Umweltthematik.

DER BUMERANG-EFFEKT

Technische Entwicklung ist kein Selbstläufer. Sehr oft erlaubt sie zwar die Steige-
rung der Effizienz, d. h. sie leistet es, aus weniger Ressourcen mehr Output zu ma-
chen. Es kann aber ohne weiteres so sein, dass – als Folge zum Beispiel der dadurch

21 vgl. Offermanns, Heribert; Effenberger, Franz X.; Keim, Willi; Plass, Ludolf: Solarthermie und
CO2: Methanol aus der Wüste. Chem. Ing. Tech 89, No. 3, 2017, S. 1–5.
22 Forschungsinstitut für anwendungsorientierte Wissensverarbeitung: Die soziale Dimension des
Klimaschutzes und der Energieeffizienz im Kontext von Bau- und Wohnungswirtschaft. Studie
im Auftrag des GdW Bundesverband deutscher Wohnungs- und Immobilienunternehmen.
http://web.gdw.de/energie-und-klimaschutz/gutachten/489-studie-zur-sozialen-dimension-
des-klimaschutzes-und-der-energieffizienz (Zugriff am: 26. Januar 2017).
23 Martin, Claude: On the edge: The state and fate of the world’s tropical rainforests. Report to the
Club of Rome. Vancouver 2015.
Hinweise zur Technik für eine Welt mit zwölf Milliarden Menschen 149

häufig bewirkten Preissenkungen oder des durch den technischen Fortschritt erleich-
terten Zugriffs auf Ressourcen – es zum Schluss dazu kommt, dass unter den ver-
besserten Effizienzbedingungen mehr Ressourcen verbraucht werden als vorher. Das
ist insbesondere auch eine Folge der wachsenden Bevölkerung, die selber wiederum
eine Technik-Folge ist. Weil wir immer mehr Menschen ernähren können, weil wir
für immer mehr Menschen ein vernünftiges Leben organisieren können existieren
eben auch immer mehr Menschen und immer mehr Erwartungen, sodass in der
Summe immer mehr Ressourcen und nicht weniger Ressourcen verbraucht werden,
trotz einer ständig erhöhten Ökoeffizienz der technischen Prozesse. Klar ist in einer
Situation wie unserer heutigen, dass wir zehn oder zwölf Milliarden Menschen auf
einem hohen Wohlstandsniveau nur erreichen können, wenn sich die Technologien
wesentlich weiter verändern, wir also insbesondere mit sehr viel weniger kritischen
Ressourcen auskommen. Heute liegt der ökologische Fußabdruck der Menschheit
schon bei etwa 1,5 Globus, wobei allerdings 0,7 davon letztlich das Klimaproblem
sind. Der letzte Punkt bedeutet buchhalterisch, dass wir auf der Erde nicht die Flä-
chen haben, um das CO2 bei heutiger Nutzung fossiler Energieträger „einzufangen“
und so den Klimawandel zu vermeiden. Neue Technologie heißt also insbesondere
ein neues Energiesystem, und zwar dergestalt, dass wir die Erzeugung von Klimaga-
sen vermeiden. Dieses Ziel muss allerdings erst einmal erreicht werden, davon sind
wir noch weit entfernt. Sicher geht das nur mit adäquater Regulierung. Regulierung
und Governance werden, wie oben beschrieben, das entscheidende Instrument sein,
um Leitplanken ökologischer und sozialer Art zu verankern, die dann die Nachhal-
tigkeit der ökonomischen Prozesse durchsetzen und insbesondere auch die Innova-
tionsprozesse induzieren, die dafür Voraussetzung sind. Viele Informationen zu dem
Thema finden sich in dem Buch „Der göttliche Ingenieur“ von Jacques Neirynck.24

WAS BRINGT DIE KÜNSTLICHE INTELLIGENZ?

Es ist erstaunlich, was wir aktuell wieder an Veränderungen im Bereich „künstliche


Intelligenz, Big Data, Industrie 4.0“ erleben. Maschinen machen immer mehr, Ma-
schinen operieren immer intelligenter. Viele erhoffen sich davon wesentliche Durch-
brüche für eine bessere Zukunft, zum Beispiel weniger Ressourcenverbrauch, da
gleich das Richtige produziert und unter Umständen viel weniger Transportaufwand
erforderlich wird, zum Beispiel wenn über „Printing“ von Gütern der Transport ein-
gespart wird. Andere Lösungen betreffen ein konsequentes, technisch geregeltes
Umwelt-Monitoring oder auch die Hilfe für ausbildungsmäßig Schwache, denen ein
persönlicher IT-Assistent das Leben sehr erleichtern kann und der dann auch in Rich-
tung von mehr sozialer Balance wirken würde. So positiv das aber alles aussieht, so
sehr sind aber auch andere Entwicklungen denkbar. Es könnte auch so kommen, dass
diese Technologie vielen Menschen den heute noch auskömmlichen Arbeitsplatz
nimmt.25 Wir beobachten auch, dass wir im Bereich soziale Medien viele Freiheiten

24 Neirynck, a. a. O.
25 Radermacher, Franz Josef: Algorithmen, maschinelle Intelligenz, Big Data: Einige Grundsatz-
überlegungen. In: Schwerpunktheft „Big Data contra große Datensammlungen. Chancen und
150 Franz Josef Radermacher

verlieren, dass wir gläsern werden, dass der Druck über soziale Netzwerke zunimmt,
von den politischen In-Group-Bildungen gar nicht zu reden. Wir sind außerdem mit
disruptiven Marktmodellen des sogenannten Plattformkapitalismus konfrontiert und
mit Unternehmen, die sehr viel Geld verdienen, aber kaum Steuern bezahlen und
generell sehr gerne zu Lasten von anderen operieren. Parallel dazu erleben wir poli-
tische Prozesse der Abschottung von In-Groups, die sich im Netz nur noch mit sich
selber beschäftigen. Wir sind insgesamt mit einer großen Gefahr für die Freiheit ei-
nerseits und für die politischen Prozesse andererseits (Entwicklungen wie Brexit und
Trumps Wahl) konfrontiert und wir wissen noch nicht, wie sich die Situation mit den
Arbeitsplätzen entwickeln wird. Es liegt ohne Zweifel in IT ein enormes Potential
für eine lebenswerte Welt mit zwölf Milliarden Menschen, aber leider kann es auch
genau auf das Gegenteil, nämlich die „Brasilianisierung“ der Welt, hinauslaufen.

ZUSAMMENFASSUNG

Nachhaltigkeit und Wohlstand für zwölf Mrd. Menschen sind zu erreichen durch
ein grünes und inklusives Wachstum im Sinne der Rio+20 Konferenz und des Post-
millenniumsprozesses auf UN-Ebene. Voraussetzung ist allerdings eine adäquate
Global Governance, damit Preise in Märkten die Wahrheit sagen und erforderliche
Querfinanzierungen und die Besteuerung der Nutzung von Weltgemeingütern durch-
gesetzt werden können. Dabei geht es letztlich um eine sogenannte „Moralisierung
der Märkte“26. Zugleich ist zu erwarten, dass unter diesen Bedingungen die richti-
gen Innovationen technischer Art hervorgebracht werden. Diese sind ein absolutes
Schlüsselthema. Dies betrifft u. a. ein neues Energiesystem und eine andere Art von
Ressourcenzugriff. In der Global Governance Frage liegen dabei aus Sicht des Au-
tors heute die eigentlichen Engpässe für die Erreichung von Nachhaltigkeit, also in
der unzureichenden internationalen politischen Koordination. Es fehlt der Wille und
die Fähigkeit zu supranational fairen Lösungen. Und mit den aktuell zu beobach-
tenden Prozessen in Richtung Re-Nationalisierung verschärft sich der Druck, dem
wir ausgesetzt sind, und nimmt die internationale Koordinierungsfähigkeit ab. Die
Weltgemeinschaft muss deshalb im Bereich Governance mehr leisten. Ist sie an dieser
Stelle nicht erfolgreich, werden „Brasilianisierung“ oder ein Ökokollaps unsere Zu-
kunft bestimmen.27 Auch das wäre nicht das Ende der Welt. Aber ein „Desaster“ und
ein extremer – zudem vermeidbarer – Verlust an zivilisatorischer Qualität. Potentiale
ringen hier mit starken Gegenkräften. Die Auseinandersetzung muss geführt werden.

Risiken für die Gesundheitsforschung“, Bundesgesundheitsblatt, Bd. 58. Heft 8. Berlin Heidel-
berg 2015. S. 859–865.
26 s. Stehr, Nico; Adolf, Marian: Sozio-ökonomischer Wandel: Der Konsum der Verbraucher. In:
Meffert, Heribert; Kenning, Peter; Kirchgeorg, Manfred: Sustainable Marketing Management.
Wiesbaden 2014.
27 Radermacher, Franz Josef; Riegler, Josef; Weiger, Hubert: Ökosoziale Marktwirtschaft – Histo-
rie, Programm und Perspektive eines zukunftsfähigen globalen Wirtschaftssystems. München
2011; Randers, Jorgen: 2052: A Global Forecast for the Next Forty Years. White River Junction,
USA, 2012; Rockström, Johan: Planetary Boundaries. In: Nature 461, 2009, S. 472–475.
Hinweise zur Technik für eine Welt mit zwölf Milliarden Menschen 151

LITERATUR
Bummel, Andreas: Internationale Demokratie entwickeln. Für eine Parlamentarische Versammlung
bei den Vereinten Nationen. Ein Strategiepapier des Komitees für eine demokratische UNO.
Stuttgart 2005.
Bundesministerium für wirtschaftliche Zusammenarbeit und Entwicklung: Afrika und Europa –
neue Partnerschaft für Entwicklung, Frieden und Zukunft: Eckpunkte für einen Marshallplan
mit Afrika. http://www.bmz.de/marshallplan_pdf sowie unter http://www.marshallplan-mit-
afrika.de (Zugriff am: 26. Januar 2017)
Club of Rome und Senat der Wirtschaft: Migration, Nachhaltigkeit und ein Marshall Plan mit Af-
rika. Denkschrift für die Bundesregierung (Koordination: Prof. Radermacher, FAW/n), 2016
http://www.faw-neu-ulm.de, http://www.senat-deutschland.de/, http://www.senatsinstitut.de/,
http://www.clubofrome.de/ und http://www.clubofrome.org/ (Zugriff am: 26. Januar 2017)
Forschungsinstitut für anwendungsorientierte Wissensverarbeitung: Die soziale Dimension des Kli-
maschutzes und der Energieeffizienz im Kontext von Bau- und Wohnungswirtschaft. Studie im
Auftrag des GdW Bundesverband deutscher Wohnungs- und Immobilienunternehmen. http://
web.gdw.de/energie-und-klimaschutz/gutachten/489-studie-zur-sozialen-dimension-des-
klimaschutzes-und-der-energieffizienz (Zugriff am: 26. Januar 2017)
Heitmeyer, Wilhelm: Die rohe Bürgerlichkeit. In: Die Zeit, Nr. 39, 2011. http:/www.zeit.de/20111/39/
Verteilungsdebatte-Klassenkampf
Held, David: Soziale Demokratie im globalen Zeitalter. Berlin 2007.
Herlyn, Estelle: Einkommensverteilungsbasierte Präferenz- und Koalitionsanalysen auf der Basis
selbstähnlicher Equity-Lorenzkurven. Ein Beitrag zu Quantifizierung sozialer Nachhaltigkeit.
Laufendes Dissertationsverfahren zur Erlangung des akademischen Grades Dr. rer. pol. an der
wirtschaftswissenschaftlichen Fakultät der RWTH Aachen, 2012.
Herlyn, Estelle; Kämpke, Thomas; Radermacher, Franz Josef; Solte, Dirk: Reflections on the
OECD-Project “The Role of Data in Promoting Growth and Well-Being”, BIG DATA and
Analytics – What are the perspectives? 2015.
Herlyn, Estelle; Radermacher, Franz Josef: Ökosoziale Marktwirtschaft: Wirtschaften unter Cons-
traints der Nachhaltigkeit. In: Rogall, Holger (Hg.): Jahrbuch Nachhaltige Ökonomie. Marburg
2012.
Kay, John: The truth about markets. Why some nations are rich but most remain poor. London 2004.
Köhler, Horst: Für eine neue Kultur der Zusammenarbeit mit Afrika. Rede von Bundespräsident
a. D. Horst Köhler beim Afrika-Kongress der CDU/CSU-Fraktion. Berlin, Deutscher Bundes-
tag, 16. März 2016.
Kornwachs, Klaus: Technikfolgenabschätzung – Reichweite und Potential. Ein Symposium im
Amerika Haus Stuttgart 1988. Stuttgart 1991.
ders.: Bedingungen und Triebkräfte technologischer Innovationen. Beiträge aus Wissenschaft und
Wirtschaft. Reihe „achtech diskutiert“. München Berlin 2007.
ders.: Strukturen technologischen Wissens. Analytische Studien zu einer Wissenschaftstheorie der
Technik. Berlin 2012.
ders.: Einführung in die Philosophie der Technik. München 2013.
Martin, Claude: On the edge: The state and fate of the world’s tropical rainforests. Report to the Club
of Rome. Vancouver 2015.
Neirynck, Jacques: Der göttliche Ingenieur. Renningen 1994.
Offermanns, Heribert; Effenberger, Franz X.; Keim, Willi; Plass, Ludolf: Solarthermie und CO2:
Methanol aus der Wüste. Chem. Ing. Tech 89, No. 3, 2017, S. 1–5.
Piketty, Thomas: Das Kapital im 21. Jahrhundert, München 2014.
Radermacher, Franz Josef: Balance oder Zerstörung. Ökosoziale Marktwirtschaft als Schlüssel zu
einer weltweiten nachhaltigen Entwicklung. Wien 2002.
ders.: Das Trilemma der modernen Welt. FAW/n Report. Ulm 2013.
ders.: Kann die 2 °C-Obergrenze noch eingehalten werden? Ansätze für einen neuen Klimavertrag.
FAW/n-Bericht. Ulm 2014.
152 Franz Josef Radermacher

ders.: Die Zukunft der digitalen Maschine: Was kommt auf uns zu? Lang- und Kurzvariante. FAW/n-
Report. Ulm, Juli 2015
ders.: Zukunft gestalten – Potentiale und Gegenkräfte. In: Kreibich, Rolf; Lietsch, Fritz (Hg.): „Zu-
kunft gewinnen! Die sanfte (R)evolution für das 21. Jahrhundert – inspiriert vom Visionär Ro-
bert Jungk. München 2015. S. 122–132.
ders.: Algorithmen, maschinelle Intelligenz, Big Data: Einige Grundsatzüberlegungen. In: Schwer-
punktheft „Big Data contra große Datensammlungen. Chancen und Risiken für die Gesund-
heitsforschung“, Bundesgesundheitsblatt, Bd. 58. Heft 8. Berlin Heidelberg 2015. S. 859–865.
Radermacher, Franz Josef; Beyers, Bert: Welt mit Zukunft – Überleben im 21. Jahrhundert. Ham-
burg 2007; überarbeitete Neuauflage: Welt mit Zukunft – die ökosoziale Perspektive. Hamburg
2011.
Radermacher, Franz Josef; Riegler, Josef; Weiger, Hubert: Ökosoziale Marktwirtschaft – Historie,
Programm und Perspektive eines zukunftsfähigen globalen Wirtschaftssystems. München
2011.
Radermacher, Franz Josef; Spiegel, Peter; Obermüller, Marianne: Global Impact – der neue Weg zur
globalen Verantwortung. München 2009.
Randers, Jorgen: 2052: A Global Forecast for the Next Forty Years. White River Junction, USA,
2012.
Rockström, Johan: Planetary Boundaries. In: Nature 461, 2009, S. 472–475
Rodrik, Dani: Globalization Paradox: Democracy and the Future of the World Economy. New York
2012.
Schumpeter, Josef: Theorie der wirtschaftlichen Entwicklung. Berlin 1912; Neuauflage: Berlin
2006.
Stehr, Nico; Adolf, Marian: Sozio-ökonomischer Wandel: Der Konsum der Verbraucher. In: Meffert,
Heribert; Kenning, Peter; Kirchgeorg, Manfred: Sustainable Marketing Management. Wiesba-
den 2014.
Stiglitz, Joseph: Der Preis der Ungleichheit. Wie die Spaltung der Gesellschaft unsere Zukunft be-
droht. München 2012.
Yunus, Muhammad: Building Social Business. The New Kind of Capitalism that Serves Humanity’s
Most Pressing Needs. New York 2011.
VERANTWORTUNG ANGESICHTS
DER UNVOLLKOMMENHEIT DER TECHNIK

Peter Jan Pahl

Die Technik befindet sich in dauerhaftem Wandel. Fortlaufend veränderte Anforde-


rungen an die Technik führen zu neuen Aufgaben. Neues Wissen und neue Techno-
logien ermöglichen neue technische Lösungen, die das bisher Übliche verbessern.
Die technische Gemeinschaft beobachtet und bewertet die Auswirkungen ihrer Ta-
ten und Unterlassungen in der Vergangenheit, erkennt Fehler und erreicht einige
der notwendigen Verbesserungen. Durch technischen Wandel wird die ungünstige
Entwicklung im Verhältnis der Bevölkerungszahl zu Art und Umfang der verfügba-
ren Ressourcen teilweise kompensiert.
Der Drang nach Veränderung ist nicht zwangsläufig. Die Grundeinstellung der
Menschen hat zeitweise die Erhaltung des Bestehenden gegenüber dem Wandel
zum Neuen bevorzugt, beispielsweise zum Schutz bestehender Machtverhältnisse.
Verhindert wurde der Wandel aber nicht. Die Veränderung des Bestehenden ist
zwangsläufig, nur die Intensität des Wandels ist beeinflussbar. Bereits das unver-
meidliche Altern der Menschen und der Objekte ihrer Umgebung führt zwangs-
läufig zu Wandel. Es liegt in der Natur des Menschen, nicht nur das durch Altern
Verlorene zu ersetzen, sondern Besseres zu schaffen. Die Jungen wollen sich selbst
und den Alten beweisen, dass sie es besser können. Die Abgrenzung zum Vorange-
gangenen, Neugier, Wissensdurst sowie Freude an der Entdeckung des Neuen sind
starke Motive für andauernden Wandel.
Bei Urteilen über die Haftung für Schäden stellt sich die Frage, ob die betrach-
teten Objekte und Prozesse hätten verbessert werden können. Ein Objekt oder einen
Prozess, die nicht mehr verbessert werden können, nennt man vollkommen. Um
mögliche Verbesserungen beurteilen zu können, müssen die an das Objekt oder den
Prozess gestellten Anforderungen bekannt sein. Diese Anforderungen bestehen aus
der vollständigen Menge der Attribute eines vollkommenen Objektes oder Prozes-
ses, und aus den Werten, die diese Attribute bei Vollkommenheit besitzen.
Betrachtet man Vollkommenheit als die Menge an Attributen und Werten, die
das Ergebnis einer endlichen Menge von Schritten zur Verbesserung eines Objektes
oder Prozesses sind, so hat der Begriff Vollkommenheit die Bedeutung von Voll-
endung: die Verbesserung ist zum Abschluss gekommen. Betrachtet man Vollkom-
menheit als Übereinstimmung der vorhandenen Werte der Attribute des Objektes
oder Prozesses mit den in den Anforderungen festgelegten Werten, so hat der Be-
griff Vollkommenheit die Bedeutung von Makellosigkeit oder Schadensfreiheit.
Vollkommenheit ist mehr als Optimalität, da Optimalität für ein festgelegtes Modell
des Objektes oder Prozesses angestrebt wird, während Vollkommenheit auch die
möglichen Alternativen bei der Abbildung des Originals auf das Modell beinhaltet.
154 Peter Jan Pahl

Aus dem Wandel in der Technik ergibt sich zwangsläufig die Unvollkommen-
heit der Technik. Für die Technik der Zukunft gibt es keine gesicherten und voll-
ständigen Prognosen. Daher sind die in der Zukunft erforderlichen Eigenschaften
vollkommener technischer Objekte und Prozesse nicht bekannt. Weder die Voll-
ständigkeit der Attributmenge noch die Attributwerte, die in der Zukunft nicht ver-
bessert werden können, sind in der Gegenwart bekannt. Die Menge der möglichen
Verbesserungen ist nicht endlich.
Es besteht breites Einvernehmen darüber, dass technische Objekte und Pro-
zesse nicht nur zum Zeitpunkt ihres Entstehens, sondern über den vollen Zeitraum
ihres Bestehens vollkommen sein sollen. Wegen mangelnden Wissens ist es nicht
möglich, den heute geschaffenen Objekten und Prozessen alle für Vollkommenheit
in der Zukunft erforderlichen Attributwerte zu geben. Die Objekte und Prozesse der
Technik sind in Vergangenheit, Gegenwart und Zukunft unvollkommen.
Der Wandel in der Technik ist nicht die einzige Ursache für die Unvollkommen-
heit der Technik. Die Ereignisse in der Natur und ihre Zusammenhänge sind dem
Menschen nur zum Teil bekannt und verständlich. Deshalb wäre die Vollständigkeit
des Wissens über die Technik auch dann nicht nachweisbar, wenn die Technik sta-
tisch wäre. Mit unvollständigem Wissen können keine vollständigen Attributlisten
aufgestellt und Attributwerte zugeordnet werden.
Die Natur ist nicht deterministisch. Mehrfache Messungen desselben Attributs
unter anscheinend gleichen Bedingungen führen zu verschiedenen Werten. Daher
kann der Einfluss von Naturereignissen auf technische Objekte und Prozesse nur
stochastisch beschrieben werden. Werden die Werte der Attribute aber statistisch
festgelegt, so ist Vollkommenheit nicht mehr eindeutig definierbar.
Selbst wenn es möglich wäre, Attributmenge und Attributwerte vollkommener
Objekte und Prozesse deterministisch zu spezifizieren, so könnte man diese Ob-
jekte und Prozesse doch nicht realisieren. Technik wird von Menschen geschaffen.
Menschen machen Fehler. Diese Fehler sind in der technischen Praxis unvermeid-
bar, nur die Fehlerrate ist beeinflussbar. Fehlerbehaftete Objekte und Prozesse sind
nicht vollkommen.
Obwohl die Technik unvollkommen ist, wird sie in immer stärkerem Maße
eingesetzt, um den Menschen ein gutes und glückliches Leben zu ermöglichen.
Bei der Entwicklung und dem Einsatz von Technik ist zwischen vielen potentiellen
Handlungen und Unterlassungen zu wählen, die voneinander abhängen. Wie kann
diese unvermeidbare Wahl rational vorgenommen werden, wenn das Vollkommene
nicht bekannt ist? Was ist messbar, und wie kann es zur Bewertung von Alterna-
tiven eingesetzt werden? Auf welcher Grundlage werden Entscheidungen gefällt?
Obwohl das Vollkommene dem Menschen nicht bekannt ist, kann doch der
Prozess des Strebens nach Vollkommenheit untersucht werden. Der durch eine Ver-
besserung geänderte Zustand kann erkannt und gemessen sowie mit dem Zustand
vor der Verbesserung verglichen werden. Mit diesem inkrementellen Ansatz wird
Vollkommenes als Maßstab durch Bestmögliches ersetzt. Grundlagen des best-
möglichen Handelns zu einem gegebenen Zeitpunkt sind das Wissen und Können
der beteiligten Personen zu diesem Zeitpunkt. Das Bestmögliche ist eine relative
Größe, da Zwischenzustände auf dem Weg zum unbekannten Vollkommenen ver-
Verantwortung angesichts der Unvollkommenheit der Technik 155

glichen werden. Der vollkommene Zustand geht nicht in die Beurteilung ein. Das
Bestmögliche ist eine zeitgebundene Größe, da der dauerhafte Wandel der Technik
die jeweils vorhandene Näherung der Attributmengen und Attributwerte der ange-
strebten Vollkommenheit verändert.
Die Bestimmung des Bestmöglichen für gegebene Objekte und Prozesse ist
eine Optimierungsaufgabe. Die zu betrachtende Attributmenge der Objekte und
Prozesse sowie die Werte einer Teilmenge dieser Attribute werden vorab festgelegt.
Auch die Relationen der Attribute werden als bekannt vorausgesetzt. Die Optimie-
rung besteht darin, die Werte der freien Attribute so zu bestimmen, dass die Rela-
tionen wahr sind und vorab festgelegte Attribute vorab festgelegte Optimalitätskri-
terien erfüllen. Zur Durchführung der Optimierung kann auf ein breites Spektrum
an mathematischen und nicht-mathematischen Verfahren zurückgegriffen werden.
Das heute bestimmte Bestmögliche mag aber schon morgen nicht mehr das Best-
mögliche sein.
Wie kann in möglichst hohem Maße sichergestellt werden, dass zu jedem Zeit-
punkt die bestmögliche Technik verfügbar ist und nützlich eingesetzt wird? Dies
wird angestrebt, indem die Attributmenge und die Wertemenge der vollkommenen
Lösung fortlaufend besser angenähert werden und das zu jedem Zeitpunkt vorhan-
dene Wissen über Attributmengen, Relationen und Werte optimal eingesetzt wird.
Ein gutes Konzept für die Verfügbarkeit und Nutzung optimaler Technik ist sehr
wichtig, da Technik infolge ihrer Unvollkommenheit nicht nur Nutzen, sondern
auch Schaden verursachen kann, der vermieden werden soll.
Die Aufgabe, das Materielle im Lebensraum der Menschen zu optimieren, zeigt
große Ähnlichkeit mit der Aufgabe, das Geistige im Leben der Menschen zu op-
timieren. Auch im Geistigen gibt es dauerhaften Wandel ohne Vollkommenheit.
Dennoch strukturieren die Menschen das Geistige im Leben individuell und als Ge-
meinschaft. Es ist eine der großen Leistungen der Philosophen des Altertums, dass
sie nicht nur Gesetzgebung und Machtausübung der Gesellschaft oder ihrer Reprä-
sentanten als Mittel zur Optimierung im geistigen Bereich erkannt haben, sondern
auch die natürliche Veranlagung des Menschen als Individuum zur Selbstkontrolle.
Diese Einsicht wurde in der Ethik gewonnen, als Philosophen im Menschen die
Fähigkeit zur Verantwortung erkannten, die beispielsweise in folgendem Ansatz
zum Ausdruck kommt:
• Der Mensch besitzt den Drang zum Handeln und zum Unterlassen mit dem
Ziel, ein gutes Leben zu führen und Glück zu erwerben.
• Die Sinne und das Denken versetzen den Menschen in die Lage, sein eigenes
Handeln und Unterlassen zu beobachten und zu verstehen.
• Der Mensch bewertet die Ursachen, Inhalte und Ergebnisse seines Handels
und Unterlassens, um die Güte und den Nutzen seines Wirkens zu beurteilen.
• Der Mensch kennt das Vollkommene nicht und lässt als Ersatz eine Instanz
(beispielsweise Gott oder sein Gewissen) das Bestmögliche vorgeben. Er-
reicht er das vorgegebene Bestmögliche nicht, so fühlt er sich vor der Instanz
schuldig und sucht Verbesserung.
156 Peter Jan Pahl

Dieser Ansatz für eine Verantwortungstheorie besitzt offensichtliche Schwä-


chen. Er berücksichtigt nicht, ob der Mensch zu Handlungen oder Unterlassungen
fähig und in seinen Entscheidungen frei ist oder nicht. Der Ursprung des Bestmög-
lichen ist nicht bekannt. An Stelle des Menschen könnte die Instanz die Aufgabe
haben, das Erreichen des Bestmöglichen zu beurteilen und als Schiedsrichter zu
wirken. Wie werden dem Menschen das Urteil und seine Folgen mitgeteilt? An die
Stelle des Schuldgefühls des Menschen kann eine Strafe der Instanz treten. Philo-
sophen haben diese und viele andere offene Fragen erkannt und in der Ethik eine
Fülle von Verantwortungstheorien geschaffen. Die Ansätze dieser Theorien stehen
teilweise im Widerspruch zueinander, ohne dass feststellbar wäre, ob der eine bes-
ser ist als der andere. Auch in der Philosophie ist Vollkommenheit nicht erreichbar.
Die Entwicklung der Ethik im Geistigen ist weiter fortgeschritten als ihre Ent-
wicklung im Materiellen. Dies ist darauf zurückzuführen, dass sich viele Menschen
seit dem Altertum intensiv mit Religion, Staatswesen und Krieg befassen, allen
voran die Philosophen. Die Erforschung der Verantwortung blieb nicht auf diese
Gebiete beschränkt. So rückte mit der Demokratie die politische Verantwortung in
den Fokus der Forschung, mit der Industrialisierung die soziale Verantwortung, mit
der Globalisierung die ökonomische Verantwortung und mit dem zunehmenden Po-
tential biologischer Eingriffe die medizinische Verantwortung für das Leben selbst.
Die Technik hat ihre heutige Bedeutung durch Verwissenschaftlichung in ei-
nem Zehntel des Zeitraums gewonnen, in dem die Ethik die Verantwortungstheorie
für das Geistige entwickelt hat. Das Verständnis für Verantwortung in der Technik
beschränkte sich ursprünglich vorwiegend auf die Sicherheit und Gebrauchsfähig-
keit von Bauwerken und Maschinen. Die Unvollkommenheit der Technik wurde
durch Einführung von Sicherheitsfaktoren und Prüfverfahren berücksichtigt. Im
Vordergrund stand am Anfang die Begeisterung für neue Theorien, Erfindungen
und Technologien, die Dinge möglich machten, von denen Menschen vorher nur
geträumt hatten, und die mit der Zeit den Lebensraum und die Lebensweise der
Menschen geprägt haben. Brücken und Hallen mit großer Spannweite, Mobilität
mit Fahrzeugen, Massenproduktion mit Maschinen, Beleuchtung mit Elektrizität
und Kommunikation über weite Strecken waren einige der großen Errungenschaf-
ten und Gegenstand internationalen Wettbewerbs.
Erst große Katastrophen wie der Einsatz von Giftgas1 und Atombomben2 haben
die Menschen dazu gebracht, ernsthaft über die Auswirkungen der Naturwissen-
schaften, der Technikwissenschaften und der Technik nachzudenken. Mit der Zeit
wuchs die Erkenntnis, dass der gewünschte Nutzen ohne unvermeidbare schädliche
Nebenwirkungen nicht zu erzielen ist. Heute ist das Abwägen zwischen Nutzen und
Schaden ein integraler Bestandteil von Wissenschaft und Technik, beispielsweise

1 vgl. Lenk, Hans: Zur Verantwortungsfrage in den Naturwissenschaften. In: Maring, Matthias
(Hg.): Fallstudien zur Ethik in Wissenschaft, Wirtschaft, Technik und Gesellschaft. Karlsruhe
2011. S. 62–70.
2 vgl. Gleitsmann, Rolf-Jürgen: Über die Verantwortbarkeit wissenschaftlicher Erkenntnis: das
Fallbeispiel Kernforschung und Atombombe 1938–1945. In: Maring, a. a. O., S. 36–45.
Verantwortung angesichts der Unvollkommenheit der Technik 157

bei Themen wie Energie, Mobilität und Umwelt3. Die Menschen haben gelernt, die
Technik nicht nur zu lieben, sondern auch zu fürchten.
Die Entwicklung, Erkenntnisse und offenen Fragen der Verantwortungstheorie
sind in dem Band „Technikwissenschaften. Erkennen – Gestalten – Verantworten“4
dargestellt, der unter dem Vorsitz von Klaus Kornwachs erarbeitet wurde. Kapi-
tel 6 der Schrift behandelt Verantwortung in Technikwissenschaft und Technik aus
heutiger Sicht. Verantwortung wird als eine Relation verstanden, deren Attribute
die Struktur der Verantwortung festlegen.5 Besitzt eine Belegung der Relation den
Wert „wahr“, so beschreiben die Attributwerte eine Form der Verantwortung. Es
gibt verschiedene Auffassungen über zutreffende und vollständige Strukturen der
Verantwortung sowie eine Vielfalt an Formen der Verantwortung.
Ein Beispiel für die Struktur von Verantwortung ist das Tupel: (Subjekt, Objekt,
Grund, Instanz, Norm, Zeitraum). Ein Beispiel für eine Form dieser Verantwortung
ist folgende Belegung des Tupels: (Ingenieur, Maschine, Sicherheit, Gericht, Ge-
setz, Alter). Der Ingenieur ist das Subjekt, das die Verantwortung wahrnimmt. Die
Maschine ist das Objekt, für das der Ingenieur die Verantwortung trägt. Die Sicher-
heit der Maschine ist der Grund, weshalb der Ingenieur Verantwortung trägt. Das
Gericht ist die Instanz, vor der sich der Ingenieur verantworten muss, wenn an der
oder durch die Maschine ein Schaden entsteht. Das Gericht entscheidet über die
Schuld des Ingenieurs und verhängt eine Strafe, wenn der Ingenieur schuldig ist.
Gesetze legen technische Regelwerke und Verfahren fest, die das Gericht als Nor-
men bei der Urteilsfindung verwendet. Das Alter ist der Zeitraum, der beim Betrieb
der Maschine verstreicht, bis die Verantwortung des Ingenieurs für die Maschine
erlischt.
Besonders nachteilige Auswirkungen der Unvollkommenheit der Technik sind
große Schwierigkeiten bei der Festlegung der Strukturen und Formen der Verant-
wortung für die Technik. Selbst wenn man voraussetzt, dass das im vorangehenden
Beispiel gewählte Tupel für einen bestimmten Aufgabenbereich geeignet ist und
keine weiteren Strukturen zu untersuchen sind, so erweist sich doch die bestmögli-
che Belegung des Tupels mit Attributwerten als äußerst komplexe Aufgabe.
Das Subjekt der Verantwortung ist nicht zwangsläufig ein Individuum. Ist das
Objekt der Verantwortung ein technisches Projekt mit mehreren Aufgaben, so muss
für jede dieser Aufgaben sowie für die Schnittstellen zwischen den Aufgaben das
Bestmögliche festgelegt und angestrebt werden. Wegen des Umfangs und der Viel-
artigkeit der Aufgaben und der für ihre Bearbeitung erforderlichen Fähigkeiten ist
selten ein Individuum fähig und vom Arbeitsaufwand her in der Lage, allein die
Verantwortung für alle Aufgaben und Schnittstellen des Projekts zu übernehmen.
Das Subjekt der Verantwortung wird dann zu einer Personengruppe erweitert, die in
der Regel hierarchisch strukturiert ist. Ist das Objekt der Verantwortung ein Produkt
oder eine Technologie, so tritt an die Stelle der Personengruppe eine juristische Per-

3 vgl. Grunwald, Armin: Der ingenieurtechnische Blick auf das Weltklima. In: Maring, a. a. O.,
S. 219–226.
4 acatech (Hg.): Technikwissenschaften: Erkennen – Gestalten – Verantworten. Heidelberg 2013.
5 Ropohl, Günter: Das Risiko im Prinzip Verantwortung. In: Ethik und Sozialwissenschaften, 5
(1994), S.109–120.
158 Peter Jan Pahl

son. Mit diesem Schritt entsteht eine große Distanz zum ursprünglichen Konzept
der moralischen Verantwortung des Individuums vor seinem Gewissen.
Eine hierarchisch strukturierte Personengruppe ist ein problematisches Verant-
wortungssubjekt.6 In der Gruppe besteht Weisungsrecht, sodass ein Teil der Perso-
nengruppe auf Anweisung handelt und in ihren Entscheidungen nicht frei ist.7 We-
gen der Unvollkommenheit der Technik können Meinungsverschiedenheiten in der
Gruppe bezüglich des Bestmöglichen bestehen. Einige Mitglieder handeln dann im
Gegensatz zu ihrer freien Entscheidung. Bleibt die Verantwortung der Betroffenen
gegenüber der Instanz in diesem Fall bestehen, wird sie eingeschränkt, oder wird sie
aufgehoben? Im juristischen Sinne mögen Konstrukte gefunden werden, welche die
Betroffenen von der Verantwortung gegenüber der Instanz entlasten. Es können je-
doch auch Handlungen zustande kommen, die gegen das Gewissen der Betroffenen
verstoßen, sodass eine Entlastung nicht möglich ist. Bei wesentlichen Themen darf
nicht verlangt werden, dass Personen gegen ihr Gewissen handeln oder an einem
Projekt mitwirken, in dem die Handlungen Anderer dagegen verstoßen. Es muss
also eine Umbesetzung des Subjektes ohne Nachteile für die Betroffenen möglich
sein. Die in diesem Zusammenhang auftretenden Schwierigkeiten sind absehbar.
Fehler weisungsgebundener Personen sind nicht immer von diesen allein zu
verantworten, sondern auch von den Weisungsberechtigten. In der Regel ist mit der
Weisungsberechtigung auch eine Aufsichtspflicht verbunden. Wegen der Fülle der
Handlungen und der Anzahl der ihm zugeordneten Personen kann der Weisungs-
berechtigte die Aufsichtspflicht aber nur stichprobenartig wahrnehmen. Stichpro-
ben führen unabhängig von der Sorgfalt, mit der sie durchgeführt werden, nicht zu
deterministischer Fehlerkontrolle. Aus dem Auftreten von Fehlern weisungsgebun-
dener Personen allein kann nicht auf Verletzung der Aufsichtspflicht geschlossen
werden. Dennoch wird bei gravierenden Fehlern weisungsgebundener Personen in
der Technik, wie in der Politik, häufig der Rücktritt des Weisungsbefugten von der
Verantwortung auch dann verlangt, wenn er seiner Aufsichtspflicht gerecht wurde
und ihn keine direkte Schuld trifft. Er hatte leider keine Fortune.
Die vorangehenden Beispiele zeigen, dass es notwendig sein kann, mit der Zeit
das Verantwortungssubjekt zu ändern. In dem betrachteten Beispiel ist die Ände-
rung des Subjekts nicht als Verantwortungsobjekt erfasst. Es besteht aber eine Ver-
antwortung, deren Objekt die Besetzung und Änderung des Subjekts einer anderen
Verantwortung ist. So gibt es in vielen Unternehmen einen Aufsichtsrat und einen
Vorstand. Auf den unteren Ebenen der Hierarchie fehlt häufig eine vergleichbare
Struktur.
Wegen der Unvollkommenheit der Technik mag das Objekt einer Verantwor-
tung nur schwer definierbar und von anderen Objekten oder Prozessen in der Welt
abgrenzbar sein. Die Attributmenge des Bestmöglichen und die Attributwerte am
Optimum mögen in solchen Fällen erst durch Handlungen (Untersuchungen und

6 Lenk, Hans: Einige Technik-Katastrophen im Lichte der Ingenieurethik. In: Maring, Matthias
(Hg.): Fallstudien zur Ethik in Wissenschaft, Wirtschaft, Technik und Gesellschaft. Karlsruhe
2011. S. 149–154.
7 Ropohl, Günter: Verantwortungskonflikte in der Ingenieurarbeit. In: Maring, a. a. O., S. 133–
148.
Verantwortung angesichts der Unvollkommenheit der Technik 159

Beurteilungen) im Rahmen der zu definierenden Verantwortung bestimmbar sein.


Beispielsweise mag erst nach Vorstudien die Entscheidung möglich sein, ob für
eine bestimmte Verkehrsverbindung eine Brücke oder ein Tunnel besser ist. Das
Verantwortungssubjekt und die Normen für die alternativen Lösungen sind ver-
schieden. Der Prozess der Anpassung der ursprünglichen Verantwortung an die ge-
troffene Objektwahl ist selbst Objekt einer weiteren Verantwortung. Verantwortung
erzeugt Verantwortung, so entsteht ein Verantwortungsgeflecht.
Die Unvollkommenheit der Technik verhindert die Vollständigkeit der Spezifi-
kation des Objektes einer Verantwortung. Änderungen des Objektes, beispielsweise
zusätzliche Wünsche eines Bauherrn oder Änderungen wegen nachträglich erkann-
ter schlechter Bodenverhältnisse, sind eine häufige Ursache von Kostensteigerun-
gen und Verzögerungen bei der Fertigstellung des Objektes.
Das Objekt einer Verantwortung kann heterogen sein. Es kann beispielsweise
aus einer Menge von Maschinen und baulichen Anlagen bestehen, zwischen denen
Abhängigkeiten zu berücksichtigen sind. Bei solchen Verantwortungsobjekten mag
es nicht ausreichend sein, bestimmte Objektteile bestimmten Teilen des Subjekts zu-
zuordnen. Vielmehr erfordern die Abhängigkeiten Handlungen und Unterlassungen
von Personen des Subjekts an den Schnittstellen zwischen den Objektteilen. In die-
sem Bereich der Technik sind wir besonders weit von der Vollkommenheit entfernt.
Wegen der Unvollkommenheit der Technik kann der Grund einer Verantwor-
tung nicht eindeutig angegeben werden. Beispielsweise führt die Unvollkommen-
heit dazu, dass es keine vollständige Sicherheit in Gebäuden oder beim Einsatz
von Maschinen gibt. Wird Sicherheit als Grund einer Verantwortung angegeben,
so handelt es sich dabei um bestmögliche Sicherheit. Die Definition der bestmögli-
chen Sicherheit ist abhängig vom Objekt.
Wie es mehrere Personen als Subjekt einer Verantwortung gibt, so gibt es auch
mehrere Gründe einer Verantwortung. So soll ein Gebäude nicht nur sicher sein, son-
dern auch brauchbar, funktionsgerecht und wirtschaftlich. Zwischen diesen Zielen
kann es Konflikte geben. Beispielsweise kann häufig die Sicherheit eines Objektes
erhöht werden, indem mehr Ressourcen eingesetzt werden. Geringere Sicherheit
setzt also Mittel frei, die für andere Zwecke verwendbar sind. Die Balance zwischen
Sicherheit und Wirtschaftlichkeit ist eine ethische Aufgabe der Gemeinschaft, da die
verfügbaren Ressourcen begrenzt sind und der Nutzen verschiedener Verwendungen
der verfügbaren Ressourcen zu messen und zu vergleichen ist. Hierfür sind Verant-
wortungen festzulegen, die nicht auf einzelne Vorhaben beschränkt sind.
Die Aufgaben der Instanz einer Verantwortung werden durch die Unvollkom-
menheit der Technik besonders erschwert. Da das Bestmögliche nicht eindeutig
ist und wegen des erforderlichen Kompromisses zwischen verschiedenen Zielen
auch nicht für jede Eigenschaft angestrebt wird, werden neben den gesetzlich vor-
gegebenen Mindestanforderungen in Verträgen zwischen Auftraggebern und Auf-
tragnehmern weitere Anforderungen vereinbart. Mit diesen Vorgaben wägt die
Instanz Schaden, Schuld, Sorgfalt und Haftung. Häufig verfügt die Instanz nicht
über eigene Expertise bezüglich des Objekts der Verantwortung und muss ihr Urteil
zwangsläufig auf Gutachten gründen. Selbst wenn man die Neutralität, Sorgfalt und
Gewissenhaftigkeit der Gutachter voraussetzt, sind Schwierigkeiten unvermeidbar,
160 Peter Jan Pahl

da beim jeweiligen Stand der Technik mehrere Auffassungen über die Mindestan-
forderungen bestehen können. Die Instanz muss nicht nur die vorliegenden Gutach-
ten verstehen, sondern auch zwischen den Gutachten abwägen.
Die Instanz einer Verantwortung für ein bestimmtes Objekt kann aus mehreren
Elementen bestehen, beispielsweise einem Gericht und der öffentlichen Meinung.
Bei der juristischen Beurteilung der Verantwortung für das Objekt sind die gesetzli-
chen oder vertraglichen Mindestanforderungen maßgebend. Die Öffentlichkeit for-
dert das Bestmögliche, das mit wesentlich höheren Anforderungen verbunden sein
kann. Über die Medien ist die Öffentlichkeit in der Lage, ihrer Forderung Gewicht
zu verleihen. Individuen werden durch ihr Gewissen veranlasst, sich selbst zu Ins-
tanzen einer Verantwortung zu machen, auch wenn es bereits andere Instanzen gibt.
In technischen Normen wird technisches Wissen als eine strukturierte Menge
von Regeln formuliert. Normen enthalten Mindestanforderungen der Gemeinschaft
an die Handlungen der Verantwortungssubjekte, sind also keine Beschreibung des
Bestmöglichen in der Technik. Dennoch sind beispielsweise europäische Normen
ein wichtiger Beitrag zur Technik, da sie Maßstäbe setzen, die von allen Betroffe-
nen einzuhalten sind. Bei der Entwicklung von Normen muss das Bestmögliche
bekannt sein, damit die Regeln der Technik formuliert werden können.
Neben den Normen haben auch die digitalen Modelle die Technik standardi-
siert. Verbreitete Anwendungspakete wirken wie Normen, sind es aber nicht. Die
Softwareunternehmen sind weder beauftragt, Normen zu setzen, noch sind sie im-
mer dazu in der Lage. Trotzdem handeln Ingenieure oft so, wie es die Funktionalität
der Anwendungspakete erlaubt. Dies ist nicht immer die bestmögliche Handlung.
Die festgelegten Strukturen der Pakete, beispielsweise ihre Datenstruktur, schrän-
ken die fortlaufende Anpassung der Pakete an den Stand der Technik ein. Neuent-
wicklungen sind wegen des hohen finanziellen Aufwands selten.
Innere Abläufe in Anwendungspaketen werden häufig nicht offengelegt, um so
das Eigentum an der Software zu schützen. Gebrauchsanweisungen und allgemein
gehaltene Beschreibungen der Theorie können aber nicht die vollständige Kenntnis
der eingesetzten Verfahren ersetzen. Der Ingenieur trägt die Verantwortung für die
Verwendung der mit den Paketen erarbeiteten Ergebnisse, auch wenn er die Abläufe
und verwendeten Parameter nicht vollständig feststellen und bewerten kann. Der
Vergleich der Ergebnisse zweier unabhängiger Anwendungspakete löst das Pro-
blem nicht vollständig, da beide zwangsläufig nicht vollständig sind. Insbesondere
bei Innovationen mag ein wesentliches Phänomen in keinem der beiden Pakete
erfasst sein. Der Ingenieur kann seine Sorgfaltspflicht in der Praxis nicht vollstän-
dig erfüllen. Dieses Problem ist zur Zeit ungelöst, da der Einsatz der vorhandenen
suboptimalen Software notwendig ist.
Der Zeitraum einer Verantwortung wird durch die Unvollkommenheit der
Technik beeinflusst, weil der zeitliche Verlauf vieler Prozesse der Technik nicht
zuverlässig bekannt ist. Beispielsweise wird das Altern von Gebäuden und Städten
nicht beherrscht, weil dieser komplexe Prozess nicht mit vertretbarem Aufwand
messbar ist. Die lange Dauer der Prozesse erschwert ihre Erforschung.
Die Ingenieure von heute tragen gegenüber der Gesellschaft von Berufs wegen
die Verantwortung für die in der Vergangenheit geschaffene materielle Infrastruk-
Verantwortung angesichts der Unvollkommenheit der Technik 161

tur, obwohl sie an deren Entstehen nicht beteiligt waren. Berufsbezogene Verant-
wortung für Technik ist zeitlich nicht begrenzt. Schuld kann in diesem Zusammen-
hang aber nur bei Überwachungs- und Änderungsaufgaben entstehen.
Ingenieure tragen die Verantwortung für die Ausrichtung der Technik auf die
Zukunft, obwohl diese Verantwortung kaum beurteilt und sanktioniert werden
kann. Beispielsweise sollen Ingenieure die Entscheidungsträger der Gesellschaft
dabei unterstützen, den materiellen Zustand von Städten so zu beurteilen, dass
quantitative Aussagen zu den erforderlichen Ressourcen und zeitlichen Abläufen
von Betrieb, Instandhaltung, Renovierung und Modernisierung des Bestehenden
möglich sind und der Umfang von Neubauten den Ressourcen der Zukunft ange-
passt werden kann.
Die vorliegende Betrachtung der Verantwortung angesichts der Unvollkommen-
heit der Technik ist nicht vollkommen und nicht die bestmögliche. Viele der ange-
sprochenen Themen entstammen der Erfahrung beim Prüfen von Bauvorhaben. In
anderen Bereichen der Technik liegen vermutlich auch andere Erfahrungen vor. Ver-
treter aller Bereiche der Technik sollten gemeinsam mit Philosophen versuchen, der
Vollkommenheit der Verantwortung für die Technik näher zu kommen. Klaus Korn-
wachs hat diesen Prozess gefördert und wichtige eigene Beiträge dazu geleistet.8

8 s. acatech (Hg.), a. a. O.; sowie: Kornwachs, Klaus: Technik – System – Verantwortung. Eine
Einleitung. In: Kornwachs, Klaus (Hrsg.): Technik – System – Verantwortung. Reihe Technik-
philosophie, Bd.10. Münster, London 2004. S. 23–41.
162 Peter Jan Pahl

LITERATUR

acatech (Hg.): Technikwissenschaften: Erkennen – Gestalten – Verantworten. Heidelberg 2013.


Gleitsmann, Rolf-Jürgen: Über die Verantwortbarkeit wissenschaftlicher Erkenntnis: das Fallbei-
spiel Kernforschung und Atombombe 1938–1945. In: Maring, Matthias (Hg.): Fallstudien zur
Ethik in Wissenschaft, Wirtschaft, Technik und Gesellschaft. Karlsruhe 2011. S. 36–45.
Grunwald, Armin: Der ingenieurtechnische Blick auf das Weltklima. In: Maring, Matthias (Hg.):
Fallstudien zur Ethik in Wissenschaft, Wirtschaft, Technik und Gesellschaft. Karlsruhe 2011.
S. 219–226.
Kornwachs, Klaus: Technik – System – Verantwortung. Eine Einleitung. In: Kornwachs, Klaus
(Hrsg.): Technik – System – Verantwortung. Reihe Technikphilosophie, Bd.10. Münster, Lon-
don 2004. S. 23–41.
Lenk, Hans: Zur Verantwortungsfrage in den Naturwissenschaften. In: Maring, Matthias (Hg.): Fall-
studien zur Ethik in Wissenschaft, Wirtschaft, Technik und Gesellschaft. Karlsruhe 2011.
S. 62–70.
ders.: Einige Technik-Katastrophen im Lichte der Ingenieurethik. In: Maring, Matthias (Hg.): Fall-
studien zur Ethik in Wissenschaft, Wirtschaft, Technik und Gesellschaft. Karlsruhe 2011.
S. 149–154.
Ropohl, Günter: Das Risiko im Prinzip Verantwortung. In: Ethik und Sozialwissenschaften, 5
(1994), S.109–120.
ders.: Verantwortungskonflikte in der Ingenieurarbeit. In: Maring, Matthias (Hg.): Fallstudien zur
Ethik in Wissenschaft, Wirtschaft, Technik und Gesellschaft. Karlsruhe 2011. S. 133–148.
ZUR ZUKUNFT VON „TECHNOLOGY PUSH“
UND „MARKET PULL“

Hans-Jörg Bullinger, Rainer Nägele

COMPUTER INTEGRATED MANUFACTURING UND INDUSTRIE 4.0 –


VON DER UTOPIE ZUR REALITÄT

Computer Integrated Manufacturing (CIM) als Utopie zu bezeichnen, ist keine Be-
leidigung, sondern eine Auszeichnung des weitsichtigen Blicks ihrer Protagonisten.
August Wilhelm Scheer, einer der Protagonisten des Computer Integrated Manu-
facturing selbst bezeichnete CIM bereits 1990 als eine Utopie, deren Verwirkli-
chung viel Zeit und Ausdauer erfordere. Genauso wenig sollte Industrie 4.0 als die
umfassende Realisierung der CIM-Idee verstanden werden.
Utopien stehen immer auch Argumente gegenüber, die diese als nicht machbar
deklassieren. Hierbei handelt es sich immer um ein Duell zwischen „zu visionär“
und „zu wenig visionär“. Die goldene Mitte sind „die Langweiler“, die im alltägli-
chen Arbeitsleben an der Umsetzung und Gestaltung der Zukunft beharrlich arbei-
ten und häufig nicht wissen, in welchem Applikationskontext ihre Arbeit bahnbre-
chende Innovationen ermöglicht.
Dabei steht Industrie 4.0 als wahrgewordene Utopie nicht alleine. Die In-
novationshistorie ist voll von entsprechenden Beispielen. Leonardo da Vinci
zeichnete und konstruierte Fluggeräte, die hunderte Jahre später alltäglich gewor-
den sind. Apple stellte bereits 1993 den ersten Tabletcomputer vor, der grandios
floppte. 16 Jahre später hielt das iPad mit Spitzengeschwindigkeit Einzug in das
Alltagsleben der Menschen.
„Verlogen“ war keine dieser Utopien – eher zu unrealistisch oder zu optimis-
tisch gedacht. Warum? Hier gilt es, auf die technischen Entwicklungen und das
Timing zu schauen, die diese Utopien Wirklichkeit werden ließen. Da Vinci fehlte
eine performante Antriebskomponente. Apple fehlten die erforderlichen Displays,
Batterien, Speichermedien, Contents und Konnektivität. Und CIM? 1987 war vom
Internet noch nicht viel zu sehen. Die Rechenleistung der damals eingesetzten Sys-
teme war, im Vergleich zu heute, minimal. Sensoren und Aktuatoren waren zu groß,
viel zu teuer oder noch nicht vorhanden. Produktionssoftware war nicht performant
genug und die notwendige Konnektivität nicht gegeben.
Utopien beschreiben nicht das aktuell technisch Machbare, sondern skizzie-
ren die Zukunft. Wie lange der Weg dorthin dauert, hängt damit zusammen wie
schnell die Technologieentwicklung in den einzelnen Disziplinen des erforderli-
chen Technologiesystems voran geht und wie weit die Möglichkeit zur technischen
Umsetzung von den latenten Bedürfnissen zur Lösung einer Problemstellung po-
tenzieller Kunden entfernt liegt. Dieses sogenannte „Chasm of Innovation“ wurde
164 Hans-Jörg Bullinger, Rainer Nägele

bereits 1991 von Geoffrey Moore aufgezeigt und beschreibt den Punkt innerhalb
einer Technologieadaptionskurve, an der jeweils kritische Mengen eines „Techno-
logy Push“ auf eine kritische Menge an „Market Pull“ stößt, um eine technische
Innovation in der Breite erfolgreich zu machen.

VON DER GESELLSCHAFT DES SELBERMACHENS


ZUR DEMOKRATISIERUNG DER WISSENSCHAFT

Der Wandel in unserer Arbeits- und Lebenswelt ist durch eine zunehmende Kom-
plexität geprägt. Globalität, Nachhaltigkeit, Flexibilität, Diversität, Dezentralität
und neue Lebensstile sind Schlagworte und Entwicklungen, die bestehende Märkte
und Systeme an ihre Grenzen bringen und hinter denen sich eine Vielzahl von He-
rausforderungen verbergen, die es im Sinne systemischer Lösungen optimal und
zum Wohle aller zu lösen gilt. Vor diesem Hintergrund gilt es, die Fragen zu stellen,
wie unser Forschungs- und Innovationssystem der Zukunft aussehen und wie sich
die Rollen von „Technology Push“ und „Market Pull“ als die bisher maßgeblichen
Grundmechanismen von Innovation verändern werden.
Innovationen beruhen in der Regel auf den beiden Grundmechanismen „Tech-
nology Push“ und „Market Pull“. Dabei sind technologiegetriebene Innovationen
das Ergebnis eines dynamischen wissenschaftlichen Fortschritts, der häufig auf
Erfolgen der Grundlagenforschung, die bewusst nicht auf die Entwicklung markt-
fähiger Anwendungen abzielt, beruht. Das Leitprinzip des „Technology Push“ ist
daher nicht die Nützlichkeit sondern die Möglichkeit. Das Risiko von „Technology-
Push“-Ansätzen besteht darin, dass Inventionen keine vorhandenen oder latent vor-
handenen Bedürfnisse erfüllen, während die Chancen, aus einer angebotsorientier-
ten Perspektive gesehen, in der Entwicklung radikaler Innovationen liegen, die die
Grundlage für völlig neue Märkte und neue gesellschaftliche Entwicklungen bilden.
Daher steht neben der eigentlichen Forschungs- und Entwicklungsarbeit die Iden-
tifikation von Funktionen und der dadurch möglichen Anwendungen innovativer
Technologien im Mittelpunkt eines „Technology-Push“-Ansatzes. Im Gegensatz
dazu bildet der „Market-Pull“-Ansatz die Perspektive der Nachfrageseite ab. Leit-
prinzip ist dabei die Suche nach innovativen Lösungen für ein gegebenes Problem,
wodurch Innovationen folglich als Reaktionen auf spezifische Marktbedürfnisse zu
verstehen sind.
Zukünftige Entwicklungen basieren immer auf dem Wunsch nach Verbesse-
rung bestehender Situationen in Kombination mit der Adaption übergeordneter
Entwicklungen, die Einfluss auf das Betrachtungssystem nehmen. Im hier betrach-
teten Fall ist somit die Frage zu stellen, wie die beschriebenen Risiken minimiert
und die skizzierten Chancen optimal genutzt werden können. Diese Betrachtung
führt aber lediglich zu inkrementellen Verbesserungen im Sinne der Optimierung
des bestehenden Forschungs- und Innovationssystems. Daneben gilt es, sich in Zu-
kunftsbetrachtungen die Frage zu stellen, welche disruptiven Elemente auf das Be-
trachtungssystem einwirken können. Derartige Elemente können in Form technolo-
gischer Entwicklungen, vielmehr aber in Form von grundlegenden Veränderungen
Zur Zukunft von „Technology Push“ und „Market Pull“ 165

der Rahmenbedingungen den entsprechenden Einfluss auf den Betrachtungsgegen-


stand nehmen. Gerade den letzten Punkt halten wir für die Fragen, wie sich die be-
stehenden Grundmechanismen für Innovationen zueinander verhalten werden und
wie ein zukünftiges Innovationssystem gestaltet sein wird, für entscheidend. So
halte ich die Frage, wer künftig den wissenschaftlichen Fortschritt vorantreibt, für
eine der entscheidenden Fragen mit einem enormen Disruptionspotenzial für unser
bestehendes Innovationssystem.
Wirft man einen Blick in einschlägige Veröffentlichungen, wie beispiels-
weise die Forsight-Studien des Bundesministeriums für Bildung und Forschung
(BMBF) und der japanischen Regierung oder in Veröffentlichungen unabhängi-
ger Thinktanks, so lassen sich unter den Schlagworten „Verwissenschaftlichung
der Gesellschaft“, „Bürgerforschung“ und „Gesellschaft des Selbermachens“
viele Ansatzpunkte erkennen, die unseres Erachtens radikal Einfluss auf unser
bisheriges Innovationssystem nehmen werden. Grundlage für all die genannten
Schlagwörter bildet dabei die gerechtfertigte Annahme, dass in einer zukünftigen
Wissensgesellschaft jegliche Information frei verfügbar sein wird. Open Source
ist bereits heute Realität, und Open Access, also der kostenlose Zugriff auf wis-
senschaftliche Veröffentlichungen, sowie Open Data werden mittelfristig vermut-
lich selbstverständlich. Zudem wurde mit Crowdfunding bereits eine Finanzie-
rungsmöglichkeit geschaffen, deren weitere Entwicklung es zu einer maßgebli-
chen und konkurrierenden alternativen Finanzierungsquelle für Forschung und
Entwicklung jeglicher Art und Ausgestaltung werden lässt. Was macht nun aber
Wissenschaftlerinnen und Wissenschaftler zu dem, was sie sind? In der Regel
sind sie neugierig und wissbegierig. Sie hinterfragen, stellen Vermutungen auf
und überprüfen diese. Der Erkenntnisgewinn ist die treibende Motivation. Um
diesen zu befriedigen, arbeiten sie mit wissenschaftlichen Methoden und setzen
ihre gewonnenen Erkenntnisse der Kritik anderer aus. Verfügt ein Individuum
über dieses beschriebene „Set an Eigenschaften“, so wird es ihm zukünftig vor
dem Hintergrund der allgegenwärtigen Verfügbarkeit von Wissen und Informa-
tion, den technischen Möglichkeiten zum Aufbau von virtuellen Expertennetz-
werken sowie den erforderlichen monetären Mitteln möglich sein, Forschung,
Entwicklung, Innovation zu leisten und den erzielten Erkenntnisgewinn zu kom-
munizieren. Diese „Demokratisierung der Wissenschaft“ in Kombination mit den
Strömungen einer „Gesellschaft des Selbermachens“ führt schlussendlich dazu,
dass die etablierten Pfade des „Technology Push“ durch alternative Pfade ergänzt,
hybridisiert, wenn nicht gar zurückgedrängt werden. Die inhaltliche Basis wird
weiterhin durch eine exzellente Grundlagenforschung gebildet, da der oben be-
schriebene Dreiklang aus Kompetenz, Netzwerk und Finanzierung für diese Art
der Forschung nicht oder kaum auf individueller Ebene leistbar sein wird.
Betrachtet man „Market-Pull“ wie bereits erwähnt als die Suche nach inno-
vativen Lösungen für ein gegebenes Problem und Innovationen als Reaktionen
auf spezifische Marktbedürfnisse, so schafft die Digitalisierung bereits jetzt und
zukünftig noch verstärkt gänzlich neue Kunden-Anbieter-Beziehungen, die den
Nährboden für marktgetriebene Innovationen bilden. Ville Tikka, einer der Gründer
des Thinktanks „Wevolve“, beschreibt einen zukünftigen möglichen Lebensstil als
166 Hans-Jörg Bullinger, Rainer Nägele

„Augumented and programmed lives“. Darunter versteht er, dass wir zukünftig in
einer Welt des allgegenwärtigen Internets und der allgegenwärtigen Information
leben werden, die es uns ermöglichen wird, alle Aspekte unseres Lebens im Aus-
tausch und in Kommunikation mit Menschen und Dingen zu gestalten. Wenn nur
ein Bruchteil dieser Vision Realität werden wird, so erscheint es naheliegend, dass
die Ermittlung spezifischer Marktbedürfnisse, ja sogar individueller Kundennutzen
nicht nur machbar, sondern zum Standard wird. Big Data, immer leistungsfähigere
Data Analytics in Kombination mit Aspekten der virtuellen Kundenintegration und
der künstlichen Intelligenz sind dafür die Wegbereiter. Im Umkehrschluss bedeu-
tet dies aber auch, dass die Anforderungen an Innovationen immer individueller
werden und der oben erwähnten „Gesellschaft des Selbermachens“ damit der Weg
bereitet wird. Neben dem Menschen als Kunden werden sich zudem Maschinen
und/oder Systeme als weitere Kundengruppen etablieren, und die Vorstellung, dass
Maschinen für Maschinen entwickeln werden, erscheint nicht mehr abwegig.
Zusammenfassend lassen sich die beschriebenen Überlegungen daher in den
folgenden vier Hypothesen zusammenfassen:
1. „Forschung und Innovation“ sind wir alle, die in einer Wissensgesellschaft
leben.
2. Wissenschaft im engeren (klassischen) Sinne findet auf Grundlagenniveau statt
und ist der Treibstoff der Wissensgesellschaft.
3. „Technology Push“ und „Market Pull“ rücken immer näher zusammen und
werden eins.
4. Disruptive Inventionen und Innovationen sind weiterhin nur durch „Techno-
logy Push“ möglich.
Die Frage nach der Zukunft ist zutiefst menschlich und von dem Bedürfnis moti-
viert, sich auf das, was kommt, vorzubereiten. Der Versuch einer Antwort auf diese
Fragen ist jedoch gleich in doppelter Hinsicht trügerisch: Einerseits lassen sich die
Entwicklungen in einer sich schnell verändernden Welt nicht präzise vorhersagen.
Andererseits vermochte der Umstand, dass man den Wandel nicht konkret vorher-
sagen kann, das menschliche Fortschrittstreben bislang nicht zu lähmen. Seit jeher
bewältigte die Menschheit den Wandel, indem sie sich an veränderte Arbeits- und
Lebensbedingungen anpasste. Es scheint, dass die Gestaltungskraft der Menschen
groß genug ist, alle Herausforderungen anzunehmen und Lösungen zu deren Be-
wältigung umsetzen zu können. Dies scheint für die großen Themen wie das welt-
weite Bevölkerungswachstum und dem damit verbundenen Nahrungsbedarf oder
dem Klimawandel und dem Energiebedarf genauso zu gelten wie für die kleinen
Dinge der menschlichen Existenz.
Auf eine ungewisse Zukunft bereitet man sich idealerweise vor, indem man
diese versucht aktiv mitzugestalten – und zugleich dort anpassungsfähig zu blei-
ben, wo die eigenen Gestaltungsmöglichkeiten enden. Die Beherrschung von Un-
gewissheiten wird daher zu einer existenziellen Aufgabe von Institutionen und
Individuen.
Zur Zukunft von „Technology Push“ und „Market Pull“ 167

LITERATUR

Bundesministerium für Bildung und Forschung (2014): Gesellschaftliche Entwicklungen 2030, on-
line verfügbar unter http://www.vditz.de/meldung/bmbf-foresight-berichte-so-sieht-die-welt-
im-jahr- 2030-aus (Zugriff am: 2.2.2018).
Moore, Geoffrey A. (1991): Crossing the Chasm – Marketing and Selling High- Tech Products to
Mainstream Customers, HarperCollins Publishers.
National Institute of Science and Technology Policy (2010): Contribution of Science and Techno-
logy to Future Society, online verfügbar unter http://data.nistep.go.jp/dspace/bitstream/11035/
1183/1/NISTEP-NR145- FullE.pdf (Zugriff am: 2.2.2018).
Scheer, August-Wilhelm (1990): CIM im Mittelstand, Tagungsband zur Fachtagung CIM im Mittel-
stand 14. bis 15.2.1990, Springer-Verlag, Berlin, Heidelberg.
Tikka, Ville (2014): Future Lifestyles in EU and the US, online verfügbar unter http://espas.eu/orbis/
sites/default/files/generated/document/en/10%20EFFLA%20Study%20%20Tikka%20%20
Wevolve%20%20Life%20styles.pdf (Zugriff am: 2.2.2018).
NACHHALTIGKEIT – TOTGERITTEN
UND LEBENDIGE NOTWENDIGKEIT

Christian Berg

Für Sonntagsreden und Festschriften ist der Begriff Nachhaltigkeit geradezu präde-
stiniert. Denn einerseits ist er positiv besetzt, scheint einen für alle erstrebenswerten
Zustand zu beschreiben und ist als politisches Ziel festgeschrieben. Wer Nachhal-
tigkeit für sich reklamiert, kann kaum jemanden gegen sich haben. Andererseits –
und auch als Folge daraus – wird der Begriff in einer Weise ge- und zum Teil miss-
braucht, dass alles und nichts damit gesagt zu sein scheint. Nachhaltigkeit changiert
in seiner Verwendung zwischen Allquantor und Leerformel, in ihm schlägt quasi
das Sein in das Nichts um. So mag man sich dem Urteil Frank Uekötters anschlie-
ßen: „Zur Nachhaltigkeit ist, so scheint es, alles Sinnvolle gesagt und auch ein guter
Teil des Sinnlosen.“1 Warum ist das so? Warum ist der Begriff so schillernd, so
verbreitet und anscheinend so bedeutungs- oder zumindest folgenlos?
Im Folgenden soll gezeigt werden, warum „Nachhaltigkeit“ ein so ambiva-
lentes Schicksal erfährt – warum es ad nauseam strapaziert wird und trotz aller
Schwierigkeiten unverzichtbar ist.

1 WARUM TOTGERITTEN? NACHHALTIGE SCHWIERIGKEITEN


1.1 Spannung zwischen Begriffssemantik und Begriffsverwendung

Dass mir mit dem Titel dieses Beitrags die Aufgabe gegeben wurde, der Ambivalenz
des Begriffs bzw. des Konzepts Nachhaltigkeit nachzuspüren, ist insofern kurios,
als ich einer sehr ähnlichen Frage bereits vor 15 Jahren in einer anderen Festschrift,
für Michael F. Jischa, nachgegangen bin.2 Schon damals gab es hinreichend Anlass,
sich über diesen strapazierten Begriff Gedanken zu machen – und was ist seitdem
nicht alles über Nachhaltigkeit geschrieben und gesagt worden! Wie ich damals
argumentierte, hängt die Proliferation der Verwendung des Nachhaltigkeitsbegriffs
mit der nicht aufzulösenden Spannung zwischen Wortsemantik und Wortverwen-
dung zusammen bzw. zwischen Wortsemantik und dem normativen Konzept einer
nachhaltigen Entwicklung3. Dem Wortsinne nach ist „nachhaltig“ wertneutral und

1 Uekötter, Frank: Ein Haus auf schwankendem Boden: Überlegungen zur Begriffsgeschichte
der Nachhaltigkeit. In: Aus Politik und Zeitgeschichte, 31–32, 2014, S. 9–15.
2 Berg, Christian, Nachhaltigkeit oder Futerumanum? Zur Kritik eines Begriffs zehn Jahre nach
„Rio“. In: Berg, Christian; Charbonnier, Ralph; Tulbure, Ildiko (Hg.): Folgenabschätzungen.
Resonanzen zum 65. Geburtstag von Michael F. Jischa. Clausthal-Zellerfeld 2002. S. 69–80.
3 a. a. O., S. 72 ff.
170 Christian Berg

bedeutet lediglich, „sich auf längere Zeit stark auswirkend“4. Im Sinne der Wortse-
mantik könnte man sagen, dass die Menschheit derzeit dabei ist, ihre Lebensgrund-
lagen auf längere Zeit hin massiv zu beeinträchtigen, die Menschheit betreibt eine
sehr nachhaltige Schädigung ihrer natürlichen Lebensgrundlagen, also eine nach-
haltige Umweltzerstörung. Im Sinne des Konzepts „Nachhaltigkeit“ wäre dies aber
geradezu eine contradictio in adjecto, denn die Bedürfnisse künftiger Generationen
werden ohne natürliche Lebensgrundlagen nicht zu befriedigen sein.5
Zur Lösung dieser Spannung schlug ich damals vor, anstelle des semantisch nur
formal bestimmten, inhaltlich aber leeren Begriffs der Nachhaltigkeit einen neuen
Begriff zu schaffen, der nicht die (momentan messbare) Wirkung einer Maßnahme
oder Handlung als vielmehr das Ziel derselben formuliert. Das Ziel sollte sein, die
Zukunft der Erde und des Menschlichen zu erhalten: futurum terrae et humanorum,
Futerumanum. Da dieser Vorschlag nicht wirklich realistisch ist, werden wir wohl
mit der genannten Spannung leben müssen, die zu ambivalenten Verwendungen
geradezu einlädt. „Nachhaltig“ wird dann zu einer Bestärkungs-Leerformel, zu ei-
nem adjektivischen Ausrufungszeichen! Das ist der erste, semantische Grund für
die Sprachverwirrung.

1.2 Nachhaltigkeit wirkt (nur) als regulative Idee

Wenn nachhaltige Entwicklung beansprucht, die Bedürfnisse der gegenwärtigen


Generationen zu befriedigen, ohne die der künftigen Generationen zu gefährden,
dann setzt das ein Wissen darüber voraus, wie denn künftige Generationen ihre
Bedürfnisse befriedigen – was naturgemäß nur in Umrissen und für nahe Zukünfte
möglich ist und letztlich immer von unseren heutigen Prämissen ausgeht. Ein Aus-
weg aus diesem Dilemma wird versucht, indem die Bewältigung von Herausfor-
derungen nicht in die Zukunft verlagert werden darf, wie es die Grundregel der
deutschen Nachhaltigkeitsstrategie verlangt: „Jede Generation muss ihre Aufgaben
selbst lösen und darf sie nicht den kommenden Generationen aufbürden. Zugleich
muss sie Vorsorge für absehbare zukünftige Belastungen treffen.“6
Wann aber eine Generation wirklich die „eigenen Aufgaben“ löst und für „ab-
sehbar zukünftige Belastungen“ ausreichend Vorsorge getroffen hat, wann also ein
Zustand als nachhaltig bezeichnet zu werden verdient, lässt sich nie wirklich sagen.
Deswegen ist das Konzept Nachhaltigkeit im Sinne einer „regulativen Idee“ zu ver-

4 Dudenredaktion (Hg.): Duden – Deutsches Universalwörterbuch. Mannheim, Leipzig, Wien,


Zürich 2001(4). S. 1116.
5 In der berühmten „Brundtland“-Definition ist ja nachhaltige Entwicklung „a development that
meets the needs of the present without compromising the ability of future generations to meet
their own needs”, zitiert nach Wikisource: https://en.wikisource.org/wiki/Brundtland_Report/
Chapter_2._Towards_Sustainable_Development (Zugriff am: 28.3.2017). Vgl. die deutsche
Ausgabe: Hauff, Volker (Hg.): Unsere gemeinsame Zukunft. Der Brundtland-Bericht der Welt-
kommission für Umwelt und Entwicklung. Greven 1987.
6 Bundesregierung der Bundesrepublik Deutschland: Deutsche Nachhaltigkeitsstrategie. Neu-
auflage 2016. Berlin 2016. S. 33.
Nachhaltigkeit – totgeritten und lebendige Notwendigkeit 171

stehen.7 Als regulative Idee bleibt Nachhaltigkeit notgedrungen eine abstrakte For-
derung. Was im Konkreten wirklich nachhaltig ist, lässt sich wegen der diachronen,
intergenerationellen Perspektive und der Berücksichtigung der natürlichen Umwelt
noch weniger bestimmen als im Falle des verwandten Begriffs der Gerechtigkeit.
Und schon bei der Frage, was gerecht ist, scheiden sich die Geister.

1.3 Herausforderungen bei der Operationalisierung

Der Operationalisierung des Leitbilds Nachhaltigkeit stehen sodann eine ganze


Reihe von Schwierigkeiten entgegen, die ebenfalls dazu beitragen, dass die Forde-
rung nach Nachhaltigkeit leerformelhaft ist, weil sie folgenlos bleibt. Diese Schwie-
rigkeiten zu bestimmen, ist eine wichtige Voraussetzung für die Übersetzung der
regulativen Idee in konkretes (politisches) Handeln. Aus meiner Sicht lassen sich
dabei zwei grundsätzlich verschiedene Kategorien von Schwierigkeiten unterschei-
den, kontingente und strukturelle (bzw. akzidentelle und notwendige). Während
erstere ihren Grund in Bedingungen haben, die mit dem Konzept der Nachhaltigkeit
nicht notwendig verbunden sind, die also grundsätzlich auch anders denkbar und
gestaltbar wären, haben letztere ihren Grund im Konzept der Nachhaltigkeit selbst,
sie sind strukturell mit dem Konzept verbunden – und lassen sich daher auch nicht
grundsätzlich beseitigen, will man das Konzept selbst nicht aufgeben.

1.3.1 Kontingente Herausforderungen


Rahmenbedingungen des Marktes
Der obengenannte Grundregel, wonach jede Generation ihre eigenen Aufgaben lö-
sen muss und sie nicht künftigen Generationen aufbürden darf, könnte im Markt-
geschehen durch die konsequente Umsetzung des Verursacherprinzips entsprochen
werden, was bedeutet, dass soziale und ökologische Kosten internalisiert werden.8
Mit dem besseren Verständnis globaler Umweltveränderungen und ihren anthropo-
genen Ursachen wird auch die Berechnung der damit verbundenen Kosten ermög-
licht (vgl. „Stern-Report“). Das gegenwärtige Marktsystem, genauer gesagt: die
politischen Rahmenbedingungen desselben, stehen an vielen Stellen einer Interna-
lisierung negativer ökologischer Externalitäten entgegen. Schlimmer noch, anstatt
beispielsweise Kosten für den Klimaschutz in die Nutzung fossiler Brennstoffe zu
integrieren, wird die Nutzung fossiler Energieträger jedes Jahr weltweit mit mehr
als 500 Milliarden Dollar subventioniert9!

7 So schon in: Deutscher Bundestag (Hg.): Konzept Nachhaltigkeit. Vom Leitbild zur Umset-
zung. Abschlussbericht der Enquete-Kommission „Schutz des Menschen und der Umwelt –
Ziele und Rahmenbedingungen einer nachhaltig zukunftsverträglichen Entwicklung“ des 13.
Deutschen Bundestages. Bonn 1998. S. 28.
8 vgl. Gabler Wirtschaftslexikon: Stichwort „Verursacherprinzip“. http://wirtschaftslexikon.
gabler.de/Archiv/1852/verursacherprinzip-v7.html (Zugriff am: 20.3.2017).
9 International Energy Agency: World Energy Outlook 2014. Paris 2014, S. 313. http://www.iea.
org/publications/freepublications/publication/WEO2014.pdf (Zugriff am: 29.3.2017).
172 Christian Berg

Da es keine global einheitlichen Marktbedingungen gibt, können global ope-


rierende Unternehmen die Unterschiede zwischen nationalen Gesetzgebungen
geschickt nutzen, um Kostenvorteile zu erzielen – was in der Regel mit der Ex-
ternalisierung sozialer und ökologischer Kosten verbunden ist. Man sieht dies an
Standards des Arbeitsschutzes und der Arbeitssicherheit in Asiens Textil- und Elek-
troindustrie, an der Elektroschrott-Verbrennung auf afrikanischen Müllhalden oder
der Luftverschmutzung in chinesischen Großstädten.
Diese Externalitäten haben noch einen weiteren ökologischen Nachteil. Da die
fehlende Internalisierung externer Kosten den Verbrauch von Rohstoffen gleich-
sam subventioniert, sind Kosten für Rohstoff-Beschaffung wie auch für Produkt-
entsorgung vergleichsweise niedrig. Unternehmen konkurrieren deshalb darum,
möglichst viel ihrer Produkte zu einem möglichst günstigen Preis (ceteris paribus)
an die Kunden zu verkaufen, was u. a. kurze Produktlebenszeiten, schlechte Auf-
und Nachrüstbarkeit, schlechte Demontagepfade bis hin zu geplanter Obsoleszenz
führt. Das dringend erforderliche Wirtschaften in Kreisläufen ist so in weiter Ferne.
Dass für globale Umweltveränderungen eine verursachergerechte Kostenallo-
kation wiederum global zu erfolgen hätte, erschwert die technische Umsetzung.
Dies ist eine zweite kontingente Herausforderung für die Operationalisierung von
Nachhaltigkeit.

Fehlende bzw. unzureichende globale Institutionen


Im nationalen Alleingang ließe sich das Verursacherprinzip nur auf Kosten der
eigenen Wettbewerbsfähigkeit durchsetzen, was politisch schwer umsetzbar ist.
Außerdem wäre die Frage, ob beispielsweise Nachfragerückgänge, die durch ver-
ursachergerechte Kostenallokation bedingt wären, nicht andernorts zu entsprechen-
den Zuwächsen der Nachfrage führen würden, da ein Rückgang der Nachfrage den
Preis senkt.
Globalen Herausforderungen lässt sich nur mit globalen Maßnahmen begeg-
nen. Eine wirksame Operationalisierung des Nachhaltigkeitsleitbilds erfordert des-
halb zumindest ein kohärentes Vorgehen der wichtigsten globalen Akteure. Wie
schwierig es aber ist, ein solch kohärentes Vorgehen zu erzielen, internationale
Übereinkünfte zu verabschieden oder wirksame globale Institutionen zu errichten,
zeigt sich an den zahllosen Verhandlungen der Conference of the Parties (COP), der
fehlenden weltweiten Anerkennung des Internationalen Strafgerichtshofs oder der
von vielen beklagten Ineffektivität der Vereinten Nationen.

Wirkmächtigkeit der Technik


Die Mächtigkeit technischer Wirkungen in Raum und Zeit potenziert die mit der
Forderung nach Nachhaltigkeit gegebene Herausforderung. Das Endlager für radio-
aktiven Müll, für das bis 2031 ein Standort gesucht und das bis 2050 fertiggestellt
werden soll, muss den radioaktiven Müll über eine Million (!) Jahre sicher verwah-
ren. Die Neandertaler sind vor etwa 40 000 Jahren ausgestorben, vor einer Millio-
nen Jahre war die Gattung Homo sapiens gerade erst im Entstehen. Keine menschli-
che Hochkultur hat mehr als maximal wenige tausend Jahre überdauert. Wie sollen
Nachhaltigkeit – totgeritten und lebendige Notwendigkeit 173

die Folgewirkungen von Technik über Zeiträume beherrschbar bleiben, die tausend
Mal länger sind als die Existenz der dauerhaftesten menschlichen Zivilisationen?10
Es gibt noch eine Reihe weiterer Herausforderungen für die Operationalisie-
rung von Nachhaltigkeit, die wir hier nur kurz nennen können, wie etwa wie Re-
bound-Effekte, fehlerhafte Anreizsysteme oder die durch technischen Wandel und
globalen Wettbewerb beschleunigte Kurzfristorientierung in vielen Bereichen.

1.3.2 Strukturelle Herausforderungen

Ziel- und Interessenkonflikte


Die wohl größte Herausforderung bei der Operationalisierung von Nachhaltig-
keit ist die Frage, wie die Interessenkonflikte unterschiedlicher Akteure und die
Zielkonflikte zwischen verschiedenen Teilzielen in einem fairen Prozess ausge-
handelt und gelöst werden können. Soll der Regenwald geschützt oder ein ver-
hungerndes Kind ernährt werden? Schon bei der Forderung nach Gerechtigkeit
sind solche Güterabwägungen schwer genug zu realisieren – wenn nun noch die
Perspektive einer gerechten Berücksichtigung der Interessen künftiger Generati-
onen hinzukommt und die Berücksichtigung der natürlichen Lebensgrundlagen,
wird diese Aufgabe in der Praxis fast unlösbar. Sie erfordert jedenfalls bestmögli-
che Transparenz über Ziel- und Interessenkonflikte, um diese einem öffentlichen
Prozess zugänglich zu machen.

Komplexität der Wirkungsketten


Viele natürliche Zusammenhänge entziehen sich mathematisch-analytischer Be-
schreibung, weil sie in nicht-linearen dynamischen Systemen auftreten. Schon für
einfachste Beispiele aus der Mechanik (z. B. Bewegung eines Doppelpendels) oder
Ökologie (z. B. Räuber-Beute-Systeme) lassen sich Lösungen nur noch numerisch,
das heißt näherungsweise angeben. Je komplexer die Wirkungsketten werden, desto
schwieriger wird auch deren Modellierung. Angesichts weltweiter Vernetzung wirt-
schaftlicher, gesellschaftlicher und kultureller Aktivitäten und der Wirkmächtigkeit
heutiger Technik befinden wir uns quasi in einem Reallabor für Mensch-Umwelt-
Interaktionen.11 Hinreichend viele Beispiele belegen, dass gutgemeinte Aktionen
gegenteilige Effekte erzielen können – wie zum Beispiel die 1935 als natürliche
Schädlingsbekämpfung nach Australien eingeführten Aga-Kröte, die aufgrund feh-

10 An dieser Stelle, bei der Technik, treffen sich unsere Überlegungen zum Thema Nachhaltig-
keit mit den Arbeiten von Klaus Kornwachs, dem es stets um eine „menschengerechte Tech-
nikgestaltung“ geht (so der Untertitel von: Kornwachs, Klaus: Information und Kommunika-
tion. Zur menschengerechten Technikgestaltung. Berlin, Heidelberg 1993.). Zwar nicht ex-
pressis verbis, de facto jedoch sehr wohl auf Nachhaltigkeit ausgerichtet, ist z. B. Kornwachs’
Prinzip der Bedingungserhaltung: „Handle so, dass die Bedingungen der Möglichkeit des
verantwortlichen Handelns für alle Beteiligten erhalten bleiben.“ (ders.: Das Prinzip der Be-
dingungserhaltung. Eine ethische Studie. Reihe „Technikphilosophie“. Bd. 1. Münster, Ham-
burg, London 2000. S. 60.)
11 Zur weltweiten Vernetzung vgl. Berg, Christian: Vernetzung als Syndrom. Risiken und Chan-
cen von Vernetzungsprozessen für eine nachhaltige Entwicklung. Frankfurt am Main 2005.
174 Christian Berg

lender natürlicher Feinde im neuen Habitat mittlerweile auf eine Population von ca.
200 Millionen Exemplare angewachsen ist, sich mit 25 % pro Jahr vermehrt und die
einheimischen Tiere und Pflanzen bedroht.12
Dass schon eine einzige gutgemeinte Aktion solch verheerenden Wirkungen zeiti-
gen kann, verdeutlicht die Komplexität ökologischer Zusammenhänge, die eine einmal
aus dem Ruder gelaufene Entwicklung schwer beherrschbar werden lässt. Wie sollen
angesichts dessen die langfristigen Folgen heutiger Maßnahmen eingeschätzt werden?

Komplizierte Analysen und Betrachtungsweisen


Nicht nur sind die realen Wirkungsketten sehr komplex. Auch die Frage der Analyse-
bzw. Betrachtungsperspektive herrscht aufgrund der Multidimensionalität des Kon-
zepts der Nachhaltigkeit eine sehr unübersichtliche Situation. Um diese Komplexität
der Nachhaltigkeitsforderung für die Praxis in Unternehmen, beim Konsum, in der
Politik zu reduzieren, sind verschiedene Methoden entwickelt worden – wie zum
Beispiel der „Carbon Footprint“. Abgesehen davon, dass es bis heute nicht trivial ist,
den Carbon Footprint eines Produktes entlang der gesamten Wertschöpfungskette
genau zu berechnen, geschieht diese Berechnung naturgemäß unter Ausblendung
vieler anderer Effekte. Der Carbon Footprint eines Produktes macht, zum Beispiel,
keinerlei Aussagen zur Toxizität, zum Wasserverbrauch oder zu den Standards für
Arbeitsschutz und Arbeitssicherheit entlang der Lieferkette – was bei einer Beurtei-
lung der „Nachhaltigkeit“ eines Produktes allerdings unabdingbar wäre.
So kommt es, dass lang geglaubte Selbstverständlichkeiten plötzlich in Frage
gestellt werden. Wegen des hohen Ressourceneinsatzes (vor allem von Wasser,
Energie und Dünger) sowie der ökologischen Belastungen (Treibhausgasemissio-
nen, Bodendegradation, Verlust an Biodiversität etc.) gilt vegetarische Ernährung
meist als nachhaltiger als eine tierische Diät. Misst man allerdings den Energiebe-
darf, den Wasserbedarf und die Treibhausgasemissionen und folgt den Ernährungs-
empfehlungen des US-Landwirtschaftsministeriums, dann weist eine vegetarische
Diät laut einer Studie von 2015 eine Verschlechterung der ökologischen Indikato-
ren gegenüber der heutigen Standard-Ernährung in den USA auf!13 Entscheidend
ist nämlich, womit der Kalorienbedarf des Fleisches kompensiert wird – wird im
selben Maße mehr Obst konsumiert, kann sich der gutgemeinte Schritt zum Vege-
tarismus ökologisch negativ auswirken.

Nachhaltigkeit als permanente Überforderung


Angesichts der genannten Operationalisierungs-Herausforderungen birgt die For-
derung nach einem nachhaltigen Handeln die Gefahr einer permanenten Überfor-
derung. Denn wenn jede Handlung nicht nur die je angestrebten Zwecke, sondern
auch noch der Erhalt der Lebensgrundlagen und das Wohl künftiger Generationen

12 vgl. Artikel „Aga-Kröte“. In: Wikipedia, https://de.wikipedia.org/wiki/Aga-Kr%C3%B6te


(Zugriff am: 28.3.2017).
13 Tom, Michelle S.; Fischbeck, Paul S.; Hendrickson, Chris T.: Energy use, blue water footprint,
and greenhouse gas emissions for current food consumption patterns and dietary recommenda-
tions in the US. In: Environment Systems and Decisions, 2016, 36: 92. https://doi.org/10.1007/
s10669-015-9577-y.
Nachhaltigkeit – totgeritten und lebendige Notwendigkeit 175

mitbedacht werden soll, wird das Handeln unmöglich. Obwohl die Forderung nach
mehr Nachhaltigkeit in der Sache begründeter ist denn je, könnte es daher sogar
kontraproduktiv sein, wenn sie zu alarmistisch vorgetragen wird. Zumindest wird
sie aber folgenlos bleiben, wenn nicht für konkretes Handeln erkennbar wird, wel-
che Implikationen diese Forderung mit sich bringt.
Was dem geltenden Recht und allgemein anerkannten Wertmaßstäben entspricht
und was moralisch angemessen, kurz: was gerecht ist, ist weitgehend kodifiziert durch
Sitte und Gesetz. Dass auch Sitte und Gesetz permanentem Wandel unterliegen und
immer nur Annäherungen an eine gerechte Ordnung darstellen können, ändert nichts
an ihrer komplexitätsreduzierenden, das Handeln erleichternden Funktion.
Für die Frage, was nachhaltig ist, lässt sich (noch?) nichts Entsprechendes an-
geben – und vermutlich ist das auch nicht in derselben Weise möglich wie bei der
Frage nach Gerechtigkeit. Solange eine solche Komplexitätsreduktion fehlt, bleibt
die Forderung nach Nachhaltigkeit abstrakt. Sie wird zur Leerformel für Sonntags-
reden und Festschriften.

2 NACHHALTIGKEIT ALS LEBENDIGE NOTWENDIGKEIT

Es gibt Dinge, die müsste man erfinden, wenn es sie nicht schon gäbe. Die Verein-
ten Nationen gehören dazu. Man kann Ineffizienz, Bürokratie, Vetternwirtschaft
und Korruption und vieles andere mehr beklagen, aber dass es einen Ort gibt, an
dem die Völker dieser Welt gemeinsam nach Lösungen für ihre geteilten Herausfor-
derungen suchen, ist für ein friedliches, solidarisches und kooperatives Miteinander
zwischen den Völkern unverzichtbar.
Ähnlich ist es mit dem Konzept „Nachhaltigkeit“. Auch wenn es schwer ope-
rationalisierbar ist, oft unkonkret bleibt, immer mit Zielkonflikten verbunden ist,
die Gefahr ständiger Überforderung mit sich bringt und auch die Begriffswahl des
deutschen Wortes „Nachhaltigkeit“ ihre Tücken hat – das Konzept der nachhaltigen
Entwicklung müsste man erfinden, wenn es es nicht schon gäbe. Als normatives Kon-
zept ist es buchstäblich notwendig – denn die Grundbedürfnisse der gegenwärtigen
Generation sind noch nicht befriedigt, wenn immer noch mehr als eine halbe Milli-
arde Menschen hungern und keinen Zugang zu sauberem Trinkwasser haben. Und
angesichts der globalen Umweltveränderungen, von denen der Klimawandel nur das
prominenteste Beispiel ist, steht auch zu befürchten, dass künftige Generationen es
immer schwerer haben werden, ihre Bedürfnisse zu befriedigen. In den Worten des
UN-Generalsekretärs Ban Ki-moon: „We are the first generation that can put an end
to poverty and we are the last generation that can put an end to climate change …“14
Nachhaltigkeit ist nicht nur eine normatives Konzept, eine moralische Forde-
rung, sondern auch Ausdruck aufgeklärten Eigeninteresses. Kein Land kann auf
Dauer seine Probleme alleine lösen – und kein Land wird es sich auf Dauer leisten
können, nicht solidarisch zu sein. Der Wohlstand der reichen Länder hängt auch am
Fortbestand der Regenwälder, die Entwicklungschancen der armen Länder werden

14 Ki-moon, Ban: Rede vor der Katholischen Universität Leuven am 28.5.2015. https://www.
un.org/press/en/2015/sgsm16800.doc.htm (Zugriff am: 24.3.2017).
176 Christian Berg

auch durch Subventionspolitik des Nordens erschwert, der daraus entstehende Mi-
grationsdruck gefährdet die gesellschaftliche Stabilität der Industrieländer.
Schon die vergleichsweise wenigen Flüchtlinge, die durch die Auseinander-
setzungen im Nahen Osten nach Europa und Deutschland drängen, führen zum
Erstarken des Rechtspopulismus – obwohl selbst in Deutschland im Mittel auf je
50 Einwohner nur ein Flüchtling kommt. Bangladesh, eines der am dichtesten be-
siedelten Länder weltweit, liegt zu weiten Teilen des Landes nur ein bis zwei Meter
über dem Meeresspiegel. Indien ist mit einem 3000 km langen Grenzzaun schon
gerüstet gegen den Migrationsdruck. Wo sollen die fast 160 Millionen Menschen
leben, wenn der Meeresspiegel steigt? Jeder, der Kinder hat, wird auch seinen Kin-
dern und Enkeln wünschen, dass auch sie Kinder und Enkel haben können. Damit
eröffnet sich ein Zeithorizont, der leicht bis ins Jahr 2200 reicht. Bis dahin könnte
der Meeresspiegel um 1,5 bis 3,5 Meter steigen. Dann werden dutzende Millionen
von Menschen eine neue Heimat suchen, mit sozialen Verwerfungen, die man sich
jetzt wohl noch nicht wirklich vorstellen kann.
Mit der Agenda 2030 und den 17 Nachhaltigkeitszielen mit ihren 169 Unterzie-
len ist die Operationalisierung insofern vorangekommen, als es konkrete Ziele gibt
und jeder Staat in der Pflicht ist, sie für sich zu konkretisieren und zu kontextuali-
sieren. Insofern ist zwischen der Erklärung von „Rio“ 1992 und der Agenda 2030
von 2015 ein wichtiger Fortschritt zu verzeichnen. Das Problem der Zielkonflikte
bleibt aber bestehen. Die 17 Nachhaltigkeitsziele beschreiben fast eine Utopie: kein
Hunger, keine Armut, gesunde Umwelt, Gleichberechtigung und Zusammenarbeit
zwischen den Völkern. Es bestehen allerdings ernste Zweifel, dass sich die 17 Ziele
gleichzeitig erreichen lassen. Es gibt erhebliche Zielkonflikte, zum Beispiel im Be-
reich der Biomasse. Eine Studie des Institute for Advanced Sustainability Studies
kommt zu dem Ergebnis bzgl. dieser 17 Ziele: „they cannot be met sustainably.“15
Gleichwohl, die Millenium Development Goals (MDGs) haben gezeigt, dass
globale Zielvorgaben viel bewirken können, weil sie für alle Akteure Orientierung
geben. Nicht alle MDGs wurden erreicht, aber der Fortschritt im Bereich Kinder-
sterblichkeit, Armutsbekämpfung und verbesserten Lebensbedingungen in den Ent-
wicklungsländern ist bemerkenswert.
Nachhaltigkeit ist letztlich eine hochkomplexe und multidimensionale Opti-
mierungsaufgabe. „People, Planet, Prosperity, Partnership, and Peace“ gehören
zusammen, wie es die Agenda 2030 ausdrückt – auf den Begriff gebracht ist es die
Forderung nach einer nachhaltigen Entwicklung. Dass die Reichen dieser Welt die
Ökosysteme für ihre Kinder und Enkel nicht schützen können, wenn vielen Armen
immer noch die Mittel fehlen, heute ihre Kinder zu ernähren – dieser Gedanke
entspricht sowohl aufgeklärtem Eigeninteresse als auch moralischem Imperativ.
Wenn Nachhaltigkeit tatsächlich ein Thema für Festschriften ist, dann werde ich
vielleicht in 15 Jahren wieder über dieses Thema nachdenken – und dann werden
wir hoffentlich feststellen, dass die Nachhaltigkeitsziele uns auf dem Weg zur Um-
setzung einer nachhaltigen Entwicklung trotz allem ein wenig nähergebracht haben.

15 Institute for Advanced Sustainability Studies (IASS): The Role of Biomass in the Sustainable
Development Goals: A Reality Check and Governance Implication. IASS Working Paper. Pots-
dam 2015. S. 4.
Nachhaltigkeit – totgeritten und lebendige Notwendigkeit 177

LITERATUR

Artikel „Aga-Kröte“. In: Wikipedia, https://de.wikipedia.org/wiki/Aga-Kr%C3%B6te (Zugriff am:


28.3.2017).
Berg, Christian, Nachhaltigkeit oder Futerumanum? Zur Kritik eines Begriffs zehn Jahre nach
„Rio“. In: Berg, Christian; Charbonnier, Ralph; Tulbure, Ildiko (Hg.): Folgenabschätzungen.
Resonanzen zum 65. Geburtstag von Michael F. Jischa. Clausthal-Zellerfeld 2002. S. 69–80.
ders.: Vernetzung als Syndrom. Risiken und Chancen von Vernetzungsprozessen für eine nachhal-
tige Entwicklung. Frankfurt am Main 2005.
Bundesregierung der Bundesrepublik Deutschland: Deutsche Nachhaltigkeitsstrategie. Neuauflage
2016. Berlin 2016.
Deutscher Bundestag (Hg.): Konzept Nachhaltigkeit. Vom Leitbild zur Umsetzung. Abschlussbe-
richt der Enquete-Kommission „Schutz des Menschen und der Umwelt – Ziele und Rahmenbe-
dingungen einer nachhaltig zukunftsverträglichen Entwicklung“ des 13. Deutschen Bundesta-
ges. Bonn 1998.
Dudenredaktion (Hg.): Duden – Deutsches Universalwörterbuch. Mannheim, Leipzig, Wien, Zürich
2001(4).
Gabler Wirtschaftslexikon: Stichwort „Verursacherprinzip“. http://wirtschaftslexikon.gabler.de/
Archiv/1852/verursacherprinzip-v7.html (Zugriff am: 20.3.2017).
Hauff, Volker (Hg.): Unsere gemeinsame Zukunft. Der Brundtland-Bericht der Weltkommission für
Umwelt und Entwicklung. Greven 1987.
Institute for Advanced Sustainability Studies (IASS): The Role of Biomass in the Sustainable Deve-
lopment Goals: A Reality Check and Governance Implication. IASS Working Paper. Potsdam
2015.
International Energy Agency: World Energy Outlook 2014. Paris 2014, S. 313. http://www.iea.org/
publications/freepublications/publication/WEO2014.pdf (Zugriff am: 29.3.2017).
Ki-moon, Ban: Rede vor der Katholischen Universität Leuven am 28.5.2015. https://www.un.org/
press/en/2015/sgsm16800.doc.htm (Zugriff am: 24.3.2017).
Kornwachs, Klaus: Information und Kommunikation. Zur menschengerechten Technikgestaltung.
Berlin, Heidelberg 1993.
ders.: Das Prinzip der Bedingungserhaltung. Eine ethische Studie. Reihe „Technikphilosophie“.
Bd. 1. Münster, Hamburg, London 2000.
Tom, Michelle S.; Fischbeck, Paul S.; Hendrickson, Chris T.: Energy use, blue water footprint, and
greenhouse gas emissions for current food consumption patterns and dietary recommendations
in the US. In: Environment Systems and Decisions, 2016, 36: 92. https://doi.org/10.1007/
s10669-015-9577-y.
WARUM MEDIZINTECHNIK NICHT FÜR ALLE
DA SEIN KANN

Thomas Bschleipfer

Medizintechnik, auch als biomedizinische Technik bezeichnet, wird von Wikipedia


als „Anwendung von ingenieurwissenschaftlichen Prinzipien und Regeln auf dem
Gebiet der Medizin“ definiert. „Sie kombiniert Kenntnisse aus dem Bereich der
Technik, besonders dem Lösen von Problemen und der Entwicklung, mit der medi-
zinischen Sachkenntnis der Ärzte, der Pflegefachleute und anderer Berufe, um die
Diagnostik, Therapie, Krankenpflege, Rehabilitation und Lebensqualität kranker
oder auch gesunder Einzelpersonen zu verbessern.“1
Diese Definition verdeutlicht, dass sich Medizintechnik nicht nur auf techni-
sche Instrumente beschränkt. Medizintechnik umfasst mehr: Sie bedarf zunächst
der Verfügbarkeit und Funktionsfähigkeit von technischen Instrumenten, ferner das
Know-how des bedienenden Personals, die medizinische Expertise zur Indikations-
stellung, Anwendung und im Falle von diagnostischen Verfahren der Interpretation
möglicher Befunde. Zur Medizintechnik können auch Wearables gezählt werden,
die eine tragbare Datenverarbeitung ermöglichen und während der Anwendung
am Körper des Benutzers befestigt sind.2 Diese Wearable Computers „verfolgen
und dokumentieren“ die tägliche Aktivität des Benutzers und registrieren die un-
terschiedlichsten Körperparameter. Der breiten medizinischen Anwendung dürfte
künftig nichts im Wege stehen, sobald die Qualität der erfassten Daten noch weiter
verbessert wird. „Sie integrieren dann ausgefeilte Sensortechnologien, leisten ent-
sprechende Konnektivität und können dazu führen, dass mehr Patienten mit chroni-
schen Leiden zuhause überwacht und medizinisch behandelt werden.“3 Schließ-
lich muss auch das Internet als Medizintechnik im weitesten Sinne gesehen werden.
Während das World Wide Web in der Medizin ursprünglich als wissenschaftliches
Netzwerk genutzt wurde, gewinnen Telemedizin und Internetmedizin immer mehr
an Bedeutung. In vielen Ländern ist die Telemedizin bereits gängige Praxis. In
Deutschland gilt jedoch (noch) ein Fernbehandlungsverbot.4

1 Artikel „Medizintechnik“. In Wikipedia, https://de.wikipedia.org/w/index.php?title=Medizintechnik


&oldid=158229517 (Zugriff am: 8.11.2016).
2 Artikel „Wearable Computing“. In: Wikipedia, https://de.wikipedia.org/w/index.php?title=
Wearable_Computing&oldid=154601583 (Zugriff am: 14.11.2016).
3 Imec, Jan Provoost: Wearables für die Gesundheit. In: Medizin und Technik, 8.6.2015, http://
medizin-und-technik.industrie.de/allgemein/wearables-fuer-die-gesundheit/ (Zugriff am:
14.11.2016).
4 Trumpf, Steffen: Ärzte streiten über Verbot von Online-Diagnosen. Spiegel online, 12.11.2013,
http://www.spiegel.de/gesundheit/diagnose/telemedizin-aerzte-streiten-ueber-verbot-von-
online-diagnosen-a-933059.html (Zugriff am: 14.11.2016).
180 Thomas Bschleipfer

Bei der Frage „Medizintechnik für alle?“ muss nicht nur die Begrifflichkeit
Medizintechnik präzisiert und definiert werden, sondern auch die Gruppe aller Ak-
teure. Im Mittelpunkt steht unbestritten der Patient. Ferner von Bedeutung sind
dessen Angehörige oder Betreuer, der Arzt, das Ärzteteam und das betreuende Pfle-
gepersonal. Hinzu kommen das technische Personal und die Industrie. Der durch
die Industrie geleistete Support ermöglicht erst eine längerfristige Funktion der
Medizintechnik. Schließlich sind die Krankenkassen, sei es die gesetzliche Kran-
kenkasse (GKV) oder die privaten Krankenkassen (PKV) und damit die Solidarge-
meinschaft, welche Medizintechnik zu finanzieren hat, involviert.
Bei der philosophischen Betrachtung der Verfügbarkeit und Verwendung einer
Ressource wie Medizintechnik muss neben den Beteiligten auch der Aktionsspiel-
raum definiert werden. Hier sind mehrere Szenarien denkbar: Soll ausschließlich die
Situation in einer Industrienation wie Deutschland betrachtet, eine weltweite Be-
trachtung anstrebt oder Sondersituationen betrachtet werden, wie beispielsweise die
Verfügbarkeit limitierter Ressourcen in Krisensituationen? Die beiden letzten Punkte
sollen in dieser Ausarbeitung nicht diskutiert werden. Hinsichtlich der Allokations-
problematik lebenswichtiger, aber begrenzter Ressourcen in Krisensituationen sei
auf meine Dissertation mit dem Thema „Ethik einer Krisenmedizin“ verwiesen.5
Medizintechnik „Made in Germany“ genießt einen exzellenten Ruf und ist welt-
weit gefragt.6 Grundüberzeugung in den allermeisten Köpfen ist daher, dass uns in
Deutschland eine Medizintechnik auf höchstem Niveau zur Verfügung steht – immer,
überall und für jedermann. Zu diesem Denken trägt sicherlich die gesteigerte Portabi-
lität von Medizintechnik aber auch die Point-of-care (POC) Diagnostik bei. Ein Bild,
welches trügt. Im Folgenden soll geklärt werden, warum auch in einer Industrienation
eine hochmoderne Medizintechnik nicht für jedermann zugänglich sein kann.
Zunächst und augenscheinlich dürfte der räumliche Aspekt sein. Es lassen sich
mobile und immobile Medizintechnik unterscheiden. Mobile Medizintechnik findet
sich beispielsweise in Notarzt- oder Rettungswägen, bei der immobilen Medizin-
technik handelt es sich unter anderem um Operationssäle oder Computertomogra-
phen. Mobile Medizintechnik kommt somit in der Regel zum Patienten, im Falle
immobiler Medizintechnik muss der Patient den Weg zur Medizintechnik finden.
Sicherlich gibt es auch Zwischenlösungen, wie z. B. eine mobile extrakorporale
Stoßwellenlithotripsie (ESWL), die möglicherweise zwischen mehreren Zentren
„pendelt“. Doch auch hier muss der Patient zumindest den für ihn nächsten Ort
aufsuchen. Medizintechnik ist somit nicht ubiquitär verfügbar. Lebensbedrohlich
Verletzte oder Erkrankte sind darauf angewiesen, dass der Rettungsdienst rechtzei-

5 Bschleipfer, Thomas: Ethik einer Krisenmedizin. Kritische Analyse bereichsspezifischer Di-


lemmata: Ressourcenallokation, Instrumentalisierung und Doppelloyalität. BTU Cottbus,
25.10.2007, https://opus4.kobv.de/opus4-btu/frontdoor/index/index/docId/346 (Zugriff am:
16.11.2016); sowie: Bschleipfer, Thomas; Kornwachs, Klaus: Militärische Einsatzmedizin –
Ethische Dilemmata. In: Deutsches Ärzteblatt 2010; 107(30): S. 1448–1450.
6 Krüger-Brand, Heike E.: Medizintechnik: „Made in Germany“ ist gefragt. In: Deutsches
Ärzteblatt 2007; 104(45): S. 10; sowie: Wallenfels Matthias: Medizintechnik – Große Ex-
portchancen in Asien. In: Ärzte Zeitung, 5.8.2014, http://www.aerztezeitung.de/praxis_
wirtschaft/medizintechnik/article/866174/medizintechnik-grosse-exportchancen-asien.html
(Zugriff am: 14.11.2016).
Warum Medizintechnik nicht für alle da sein kann 181

tig sein Ziel erreicht. Hierauf muss aber auch der Patient zeitnah in einem nächst-
gelegenen und für ihn geeigneten Zentrum ankommen. Sicherlich konnte durch die
Einführung des Rettungsdienstes mit Rendezvous-System und die Einrichtung von
Rettungshubschraubern ein Maximum an Zeitersparnis gewonnen werden. Den-
noch bedarf es eines Patientenzustandes, der das Erreichen der Rettungskräfte und
die entsprechende Weiterbehandlung ermöglicht. Ein limitierender Faktor ist somit
zunächst der Patientenzustand, die Schwere der akuten Erkrankung oder Verlet-
zung. Doch auch in der Palliativsituation bei Tumorpatienten scheint die Nähe zum
Hausarzt, zum behandelnden Facharzt und zur Klinik als nächstes Zentrum mit
medizintechnischer Ausstattung und Versorgungsmöglichkeit von entscheidender
Bedeutung zu sein. Dies zeigen erste Ergebnisse einer Versorgungsstudie bei Pa-
tienten mit fortgeschrittenem, metastasierten Prostatakarzinom, welche derzeit am
Klinikum Weiden der Kliniken Nordoberpfalz AG durchgeführt wird.
Zu diskutieren ist, wie es zu werten ist, dass Personen, die fern von Zentren
wohnen, systematisch benachteiligt sind. Zum einen ist die Wahl des Lebensmittel-
punktes unbestritten eine persönliche Entscheidung. Die Folgen hinsichtlich einer
etwaigen Benachteiligung wären somit dem jeweiligen Individuum zuzuschreiben.
Die Wahl des Wohnortes wird jedoch aus unterschiedlichsten Gründen und Beweg-
gründen gefällt. Die Priorisierung obliegt dem Einzelnen und wird häufig in einer
Situation vorgenommen, in welcher ärztliche bzw. medizintechnische Unterstüt-
zung (noch) nicht oder kaum benötigt wird. Wird jedoch eine bewusste Entschei-
dung für ein Leben in für den Rettungsdienst schwer zu erreichenden Regionen
trotz bekanntem, erhöhtem Erkrankungsrisiko (z. B. nach stattgehabtem Herzin-
farkt, Stentimplantation oder anderen Risikofaktoren für akute lebensgefährliche
Erkrankungen) getroffen, so ist dies als klare Akzeptanz einer möglichen Benach-
teiligung bei Notwendigkeit medizinischer Hilfe zu werten.
Problematisch in diesem Zusammenhang scheint der Wille von Politik und
Krankenkassen, Medizin mehr und mehr zu zentralisieren7, um „durch strukturelle
Reformen Effektivität und Qualität der medizinischen Versorgung zu verbessern
und gleichzeitig alle Beteiligten maßvoll in Sparmaßnahmen einzubeziehen“8. So-
mit wird bewusst eine Benachteiligung verschiedener Personengruppen in Kauf
genommen, um zentral hochwertige, teure Medizin oder Medizintechnik vorhal-
ten zu können. Verfügbarkeit und Ökonomie stehen klar in Konkurrenz. Ubiquitär
verfügbare Medizin muss preisgünstig sein, wohingegen hochpreisige Technik nur
zentralisiert zur Verfügung gestellt werden kann. Gerade letztere wird sicherlich
einigen Patienten verwehrt bleiben.

7 Werner, Markus: Planwirtschaft auf die Spitze getrieben. In: eigentümlich frei, 6.3.2015,
http://ef-magazin.de/2015/03/06/6525-versorgungsstaerkungsgesetz-im-gesundheitsbereich-
planwirtschaft-auf-die-spitze-getrieben (Zugriff am: 15.11.2016); sowie: dpa / aerzteblatt.de:
Niedersachsen: Techniker Krankenkasse will Zentralisierung von Krankenhäusern. Veröffent-
lichung: 29.10.2014, http://www.aerzteblatt.de/nachrichten/60667 (Zugriff am: 15.11.2016).
8 Deutscher Bundestag – 15. Wahlperiode: Entwurf eines Gesetzes zur Modernisierung der ge-
setzlichen Krankenversicherung (GKV-Modernisierungsgesetz – GMG). Drucksache 15/1525,
8.9.2003, http://dipbt.bundestag.de/doc/btd/15/015/1501525.pdf.
182 Thomas Bschleipfer

In diesem Zusammenhang ist interessant, dass sich die medizinischen Leitli-


nien nicht nur nach den bestmöglichen Verfahren richten, sondern wesentlich auch
nach der meistverfügbaren. Am Beispiel der europäischen Leitlinien für maligne
Hodentumore9 sei dies erörtert. Patienten mit malignem Hodentumor werden zu-
nächst mittels Semikastratio (einseitige inguinale Hodenentfernung) operativ sa-
niert und anschließend einem langjährigen Follow-up zugeführt. Die regelmäßige
Bildgebung von Abdomen und Becken stellt hierbei eine der wichtigsten Nach-
untersuchungen dar. Es ist bekannt, dass wiederholte Computertomographie eine
nicht unerhebliche Strahlenbelastung bedeutet10, welche nach längerer Latenzzeit
zu Zeittumoren führen kann11. Diese kann durch den Einsatz der Kernspintomo-
graphie vermieden werden. Die europäischen Leitlinien empfehlen nun, sowohl
für die Nachsorge des nicht-seminomatösen als auch des seminomatösen malignen
Hodentumors die Durchführung des CTs. Lediglich in der Langversion der Leitlinie
ist an einer Stelle unter der Rubrik „General considerations“ vermerkt: „CT can be
substituted by MRI however, MRI is a protocol-dependent method and should be
performed in the same institution with a standardised protocol.“12 Eine klare Emp-
fehlung für das MRT besteht nicht. Hintergrund für diese Tatsache ist, dass sich die
Leitlinie nicht nur nach dem bestmöglichen und risikoärmsten Verfahren richtet,
sondern auch nach deren Verfügbarkeit.13 Als weiterer Aspekt sind sicherlich die
Kosten anzuführen, welche für das MRT im Vergleich zum CT mehr als doppelt
so hoch sind.14 Das CT ist zudem um ein Vielfaches schneller durchgeführt als ein
MRT, was dessen Praktikabilität im Klinikalltag nochmals unterstreicht.
Philosophisch stellt sich die Frage, ob aus Verfügbarkeits-, Praktikabilitäts- und
Kostengründen ein Verfahren dem anderen vorgezogen werden darf, wenn dabei
ein überschaubares, aber dennoch erhöhtes Risiko für den Patienten einhergeht,
an malignen Zweittumoren zu erkranken. Da es sich bei Hodentumorpatienten um
eine sehr kleine Patientenzahl mit einer Inzidenz von 3–10 Neuerkrankungen /
100 000 Männern pro Jahr15 und einer 5-Jahres-Prävalenz von 19 500 Patienten in
Deutschland16 handelt, dürfte der Kostenaspekt für die Solidargemeinschaft und
der zeitliche Aspekt für die Durchführung der Untersuchung keine wesentliche

9 s. Albers, P.; Albrecht, W.; Algaba, F.; Bokemeyer, C.; Cohn-Cedermark, G., Fizazi, K.; Hor-
wich, A.; Laguna, M. P.; Nicolai, N.; Oldenburg, J.: EAU Guidelines on Testicular Cancer.
European Association of Urology, 2016; S. 1–48.
10 s. Sullivan, C. J.; Murphy, K. P.; McLaughlin, P. D.; Twomey, M.; O’Regan, K. N.; Power,
D. G.; Maher, M. M.; O’Connor, O. J.: Radiation exposure from diagnostic imaging in young
patients with testicular cancer. European Radiology, April 2015; 25, 4, pp. 1005–1013.
11 s. Su, Danial; Faiena, Izak; Tokarz, Robert; Bramwit, Mark; Weiss, Robert E.: Comparative
analysis of the risk of radiation exposure and cost of reduced imaging intensity for surveillance
of early-stage nonseminomatous germ cell tumors. Urology 2015; 85, 1: pp. 141–146.
12 s. Albers u. a., a. a. O.
13 Albrecht, Walter: Vortrag „Hodenkarzinom: Neues in der Leitlinienorientierten Therapie“. 11.
Uroonkologisches Symposium, Benediktinerabtei Weltenburg, Kelheim, 11.–12.11.2016.
14 vgl. Su u. a., a. a. O.
15 s. Albers u. a., a. a. O.
16 Zentrum für Krebsregisterdaten, Robert Koch Institut: Hodenkrebs (Hodenkarzinom),
17.12.2015, http://www.krebsdaten.de/Krebs/DE/Content/Krebsarten/Hodenkrebs/hodenkrebs_
node.html (Zugriff am: 29.11.2016).
Warum Medizintechnik nicht für alle da sein kann 183

Rolle spielen. Es bleibt also der Praktikabilitätsaspekt aufgrund von Verfügbarkeit.


Ist einer größeren Zahl von Patienten der Zugang zu einer Untersuchung möglich,
so resultiert im gesamten eine bessere Nachsorge für das Gesamtkollektiv der Er-
krankten (sozialethischer Aspekt), was dem gering erhöhten Risiko der Zweittu-
more (individualethischer Aspekt) entgegengesetzt werden muss. Insgesamt wäre
die Entscheidung für das CT versus MRT somit als „größere Sicherheit“ für die Ge-
samtzahl der Patienten als statistische Größe zu werten. Diese Betrachtung unter-
scheidet jedoch nicht die (gegebene) Nicht-Praktikabilität für ein Gesamtkollektiv
von der (fehlenden, nicht-existenten) Nicht-Praktikabilität für das Individuum. Der
einzelne Patient kann sich sehr wohl für eine längere Wegstrecke, Eigenfinanzie-
rung etc. entscheiden. Da jedoch das MRT in der (praxiskonformen Kurzversion
der Leitlinie) keine Erwähnung findet, entsteht ein bewusstes Informationsdefizit
für Ärzte und Patienten. In diesem Fall wurde meines Erachtens von den Leitlini-
enautoren gegen das Prinzip der Bedingungserhaltung verstoßen, da den Akteuren
(Ärzten und Patienten) ein eigenverantwortliches Entscheiden nur eingeschränkt
möglich ist: „Handle so, daß die Bedingungen der Möglichkeit des verantwortli-
chen Handelns für alle Beteiligten erhalten bleiben.“17
Die Verfügbarkeit von Medizintechnik ist neben der räumlichen Komponente
streng assoziiert mit dem zeitlichen Aspekt. Technische Entwicklung unterliegt ei-
nem zeitlichen Verlauf. Bleibt man am Beispiel der Bildgebung, so erfolgte 1880
die Entdeckung des piezoelektrischen Effekts durch Marie und Pierre Curie, wel-
cher erstmals 1938 als Ultraschalldiagnostik genutzt wurde. 1895 entdeckte Wil-
helm Conrad Röntgen die X-Strahlen, welche bereits 1896 medizinisch-diagnos-
tisch genutzt wurden. 1964 nutzte Allen Cormack die Rotation der Röntgenröhre,
was schließlich 1971 zum ersten CT-Scan von G. Hounsfield führte. 1946 wurden
die physikalischen Prinzipien der Magnetresonanz dargelegt und 1977 die ersten
Bilder des menschlichen Körpers mittels Kernspintomographie angefertigt. Posi-
tronen-Emissions-Tomographie (PET) und die Single-Photon-Emissions-Compu-
tertomographie (SPECT) sind aktuell die neuesten Entwicklungen.18 In den 50er
und 60er Jahren war somit das CT und die MRT noch „Zukunftsmusik“. Auch ein
Ultraschallbild, wie wir es heute kennen, existierte noch nicht. Erste Graustufenbil-
der waren erst ab 1972 möglich.19 Erkrankten in dieser Zeit war somit der Zugang
zu unserer heutigen modernen Medizintechnik per se verwehrt – ein „Problem der
frühen Geburt“. Nach Einführung medizintechnischer Verfahren in den klinischen
Alltag nimmt jedoch die Verbreitung rasant zu. „Die Anzahl der CT-Geräte hat sich
allein von 1990 bis 1997 – in nur sieben Jahren mehr als verdoppelt – im Jahr 2009
waren es schon vier Mal so viele: jetzt 2 600 Geräte. Noch dramatischer war die
Entwicklung bei den MRT-Geräten (…) Deren Zahl hat sich in den gleichen sieben
Jahren – 1990 bis 1997 – mehr als vervierfacht! Im Jahr 2009 waren es gleich sieb-

17 Kornwachs, Klaus: Das Prinzip der Bedingungserhaltung. Eine ethische Studie. Münster 2000.
S. 47 ff. u. S. 60 ff.
18 Pachner, A.: Bildgebende Verfahren in der Medizin. Veröffentlichung: 22.4.2004, http://www.vis.
uni-stuttgart.de/plain/vdl/vdl_upload/102_33_v1-medBildgebung.pdf (Zugriff am: 16.11.2016).
19 ebd.
184 Thomas Bschleipfer

zehn Mal so viele wie 1990.“20 Die Zeit bringt somit ein Mehr an Verfügbarkeit,
obwohl (nach eigenen Recherchen) derartige Großgeräte nicht billiger wurden.
Auch änderte sich die Vergütung (abgebildet in der Gebührenordnung für Ärzte)
für CT- und MRT-Untersuchungen über die Jahrzehnte hinweg nicht wesentlich.
Vom zeitlichen Aspekt ist auch die Indikationsstellung zur Anwendung von Medi-
zintechnik betroffen. Vielfach existieren bereits medizintechnische Verfahren, wohin-
gegen Studien für den Wirksamkeitsnachweis bei speziellen Erkrankungen noch feh-
len. Diese Verfahren können somit Patienten, welche von derartigen Erkrankungen be-
troffen sind, nicht zur Verfügung gestellt werden. Als Lösung wird häufig angeboten,
Patienten in Studien einzuschließen, sofern diese bereits initiiert wurden. Ein- oder
Ausschlusskriterien für die Studienteilnahme und die häufig weite Entfernung zu Stu-
dienzentren erschweren jedoch vielen Patienten den Zugang zu neuartigen Verfahren.
Die Verfügbarkeit von Medizintechnik ist ferner hochgradig an den Kosten-
faktor gebunden. Auch hier zeigen sich wesentliche zeitliche Veränderungen. Als
Beispiel sei die Genomsequenzierung genannt. Das National Human Genome Re-
search Institute veröffentlichte Daten über die Kosten im zeitlichen Verlauf. Wäh-
rend sich die Kosten für eine Gesamt-Genomanalyse im Jahre 2001 auf 100 Mio.
Dollar beliefen, betrugen diese in 2015 „nur“ noch 1000 Dollar.21 Dies ist wesent-
lich der medizintechnischen Weiterentwicklung zu verdanken, wodurch die Auto-
matisierung zahlreicher Prozesse ermöglicht wurde.
Insbesondere in der Onkologie mag dies von großer Bedeutung sein. Durch
die Genomanalyse aus im Blut zirkulierenden Tumorzellen (Liquid Biopsy) wird
es möglich sein, einen malignen Tumor besser klassifizieren und therapieren zu
können. Erfolgversprechende Daten liegen bereits für das Prostatakarzinom vor.22
In Anbetracht der Kosten wäre eine solche Untersuchung trotz ihrer Verfügbar-
keit vor zehn Jahren nicht oder nur sehr schwerlich denkbar gewesen. Die Belastung
einer Solidargemeinschaft, welche für die Kosten des Gesundheitssystems aufzu-
kommen hat, muss daher in gleicher Weise berücksichtigt werden, wie die tatsäch-
liche Verfügbarkeit von Medizintechnik bzw. deren Vorhandensein in „adäquater“
Nähe zum Patienten, was die „realistische“ Erreichbarkeit im klinischen Alltag meint.
Wichtigste Einflussgröße (als limitierender Faktor) ist schließlich der Patient
selbst. Ich möchte dieses Kapitel unter folgenden Aspekten betrachten: Der Patient will
nicht, kann nicht, und/oder soll bzw. darf nicht Nutznießer von Medizintechnik werden.

20 Hentschel, Klaus: Kostenfalle Apparatemedizin. In: Die freie Welt, 6.8.2014, http://www.
freiewelt.net/blog/kostenfalle-apparatemedizin-10038603/ (Zugriff am: 16.11.2016).
21 National Human Genome Research Institute. DNA Sequencing Costs: Data. Veröffentlichung:
24.5.2016, http://www.vis.uni-stuttgart.de/plain/vdl/vdl_upload/102_33_v1-medBildgebung.
pdf (Zugriff am: 16.11.2016).
22 vgl. Schlomm, Thorsten: Vortrag „Welche Bedeutung hat die Genetik bei urologischen Tumo-
ren, Schwerpunkt PCa“. 11. Uroonkologisches Symposium, Benediktinerabtei Weltenburg,
Kelheim, 11.–12.11.2016; sowie: Xia, Shu; Kohli, Manish; Du, Meijun; Dittmar, Rachel L.;
Lee, Adam; Nandy, Debashis; Yuan, Tiezheng; Guo, Yongchen; Wang, Yuan; Tschannen, Mi-
chael R.; Worthey, Elizabeth; Jacob, Howard; See, William; Kilari, Deepak; Wang, Xuexia;
Hovey, Raymond L.; Huang, Chiang Ching; Wang, Liang: Plasma genetic and genomic abnor-
malities predict treatment response and clinical outcome in advanced prostate cancer. Oncotar-
get 2015; 6: pp. 16411–16421.
Warum Medizintechnik nicht für alle da sein kann 185

A) DER PATIENT WILL NICHT

Der formulierte Wille eines Patienten, eine medizintechnische Leistung nicht in


Anspruch nehmen zu wollen, regelt klar, dass auch bei Vorliegen einer Indikation
die entsprechende Medizintechnik nicht zum Einsatz kommen darf. Typisches
Beispiel dürfte eine entsprechend formulierte Patientenverfügung sein, in der aus-
drücklich eine intensivmedizinische Therapie, eine Intubation oder der Einsatz ei-
ner kardiopulmonalen Reanimation abgelehnt werden. § 630d (Einwilligung) des
Gesetzes zur Verbesserung der Rechte von Patientinnen und Patienten vom 20. Fe-
bruar 201323 – kurz: Patientenrechtegesetz – regelt dies eindeutig:
„(1) Vor Durchführung einer medizinischen Maßnahme, insbesondere eines Eingriffs in den
Körper oder die Gesundheit, ist der Behandelnde verpflichtet, die Einwilligung des Patienten
einzuholen. Ist der Patient einwilligungsunfähig, ist die Einwilligung eines hierzu Berechtigten
einzuholen, soweit nicht eine Patientenverfügung nach § 1901a Absatz 1 Satz 1 die Maßnahme
gestattet oder untersagt. Weitergehende Anforderungen an die Einwilligung aus anderen Vor-
schriften bleiben unberührt. Kann eine Einwilligung für eine unaufschiebbare Maßnahme nicht
rechtzeitig eingeholt werden, darf sie ohne Einwilligung durchgeführt werden, wenn sie dem
mutmaßlichen Willen des Patienten entspricht.

(2) Die Wirksamkeit der Einwilligung setzt voraus, dass der Patient oder im Fall des Absatzes 1
Satz 2 der zur Einwilligung Berechtigte vor der Einwilligung nach Maßgabe von § 630e Absatz
1 bis 4 aufgeklärt worden ist.

(3) Die Einwilligung kann jederzeit und ohne Angabe von Gründen formlos widerrufen
werden.“24

B) DER PATIENT KANN NICHT

Zunächst ist es denkbar, dass Patienten eine bestimmte Medizintechnik nicht in An-
spruch nehmen können, da die Grunderkrankung ihren Einsatz nicht zulässt. Es gibt
Situationen, in denen im individuellen Fall die entsprechende medizinische Indika-
tion nicht vorliegt. So kann beispielsweise bei Patienten mit einem bösartigen Tumor
der Nieren (Nierenzellkarzinom) keine Strahlentherapie des Primärtumors angeboten
werden. Der Tumor zeigt keine Strahlensensibilität, so dass der Einsatz dieser hoch-
modernen Technik für diesen Tumor ungeeignet ist. Allzu häufig stellen sich auch
Patienten – „vorgebildet“ durch das Internet – vor und formulieren den detaillierten
Wunsch für eine bestimmte Medizin- oder Operationstechnik (explizierter Patien-
tenwille). Nicht wenige Patientinnen mit Harninkontinenz äußern beispielswiese die
Bitte zur Implantation eines suburethralen Bandes (Inkontinenzbandes) oder (selte-
ner) eines künstlichen Schließmuskels. Nach gründlicher Evaluation und Untersu-

23 Deutscher Bundestag: Gesetz zur Verbesserung der Rechte von Patientinnen und Patienten
vom 20. Februar 2013. Bundesgesetzblatt, Jahrgang 2013, Teil I, Nr. 9, ausgegeben zu Bonn
am 25. Februar 2013. http://www.bundesaerztekammer.de/fileadmin/user_upload/downloads/
Patientenrechtegesetz_BGBl.pdf
24 ebd.
186 Thomas Bschleipfer

chung stellt sich jedoch häufig heraus, dass nicht wie angenommen eine Belastungs-
inkontinenz (Urinverlusten beim Husten, Niesen …), sondern eine Dranginkontinenz
(unwillkürliche Kontraktionen der Blase mit Urinverlust) vorliegt. Die Implantation
eines Bandes bzw. eines artifiziellen Sphinkters würde demnach zu einer Befundag-
gravation und nicht zu einer Besserung führen. Durch Darlegung der Pathophysiolo-
gie und durch ausführliche Besprechung von Befunden und Indikationen muss den
Patienten erklärlich gemacht werden, dass sie einer bestimmten Technik nicht zuge-
führt werden können. In diesen Fällen fehlt die medizinische Indikation und Sinnhaf-
tigkeit für ein Verfahren. Meist existieren jedoch entsprechende Alternativen.
Bestimmte medizintechnische Verfahren können bei Patienten auch nicht zur
Anwendung kommen, sofern Kontraindikationen vorliegen. Liegt bei einer Patientin
beispielsweise ein lokal weit fortgeschrittenes Zervixkarzinom (maligner Tumor des
Gebärmutterhalses) vor (FIGO IV A) mit bestehenden Infiltrationen der Harnblase
oder des Rektums, so kann diesen Patienten keine Strahlentherapie mehr angeboten
werden. Die Gefahr von rekto- oder zystovaginalen Fisteln ist deutlich erhöht, so dass
der Einsatz einer Radiotherapie als kontraindiziert anzusehen ist.25 Ein weiteres Bei-
spiel sei die Implantation eines Blasenschrittmacher (sakrale Neuromodulation S3)
bei Patienten mit multipler Sklerose und der Notwendigkeit zu regelmäßigen Kern-
spinuntersuchungen des zentralen Nervensystems, insbesondere des Rückenmarks.
Aktuell existieren keine Schrittmacher, welche kernspintauglich sind. Somit bleibt
Patienten, die zwingend oben genannte Bildgebung zur Verlaufsdiagnostik ihrer Er-
krankung benötigen, die Implantation eines solchen Blasenschrittmachers verwehrt.
Neben der Grunderkrankung ist häufig eine schwere Nebenerkrankung oder die
Multimorbidität (insbesondere älterer Patienten) limitierender Faktor für den Ein-
satz moderner Medizintechnik. In den letzten Jahren hat die „roboter-assistierte“
Chirurgie (DaVinci®, Fa. Intuitive Surgical) in zahlreichen Fachgebieten und bei
zahlreichen Indikationen Einzug gehalten. Operationen im kleinen Becken sind
häufig mit einer Trendelenburg-Lagerung (Kopftieflage) verbunden. Für die robo-
ter-assistierte Prostatektomie beim Mann werden hierbei 25°–35°, für Beckenbo-
denrekonstruktionen der Frau (z. B. Sakrokolpopexie) 30–40° gewählt. Bisweilen
wurden auch Lagerungen bis 45° beschrieben. Diese Kopftielflagerung ist assozi-
iert mit einem Anstieg des Hirndrucks und des Augeninnendrucks. Ferner zeichnet
sich eine erschwerte Belüftung der Lungen ab. Die Lungencompliance (Weitbar-
keit) wird z. T. bis zur Hälfte reduziert. Ebenfalls wird eine Ischämie der unteren
Extremitäten beschrieben mit dem Risiko eines Kompartmentsyndroms.26 „Most

25 Klinik für Strahlentherapie und Radioonkologie, Universitätsklinikum Leipzig: Zervixkarzi-


nom. Veröffentlichung: 2.5.2016. http://radioonkologie.uniklinikum-leipzig.de/radioonko.
site,postext,therapiekonzepte,a_id,1043.html (Zugriff am: 18.11.2016).
26 vgl. Rosenblum, Nirit: Robotic approaches to prolapse surgery. Current Opinion in Urology:
July 2012, 22, 4, pp. 292–296; sowie: Tomescu, Dana Rodica; Popescu, Mihai; Dima, Simona
Olimpia; Bacalbașa, Nicolae; Bubenek-Turconi, Șerban: Obesity is associated with decreased
lung compliance and hypercapnia during robotic assisted surgery. J Clin Monit Comput (2017)
31: pp. 85–92. DOI 10.1007/s10877-016-9831-y; sowie: EZSurgical, Clinical Intro: Risks of
Trendelenburg Position in Surgery. Veröffentlichung: 2016. http://www.ezsurgical.com/Files/
Trendelenburg%20Risks_Short%20Intro.pdf; sowie: Kaye, Alan D.; Vadivelu, Nalini; Ahuja,
Warum Medizintechnik nicht für alle da sein kann 187

vulnerable to the head-down extreme position are the cardiac, respiratory, and cen-
tral nervous systems.“27
Aus diesem Grund bestehen für verschiedene Patienten (relative) Kontraindi-
kationen für den Einsatz eines Roboters bei Operationen mit notwendiger Tren-
delenburg-Lagerung. Hierzu zählen beispielsweise Patienten mit deutlicher Adi-
positas (BMI > 30), Lungenerkrankungen, gastroösophagealem Reflux, erhöhtem
Aspirationsrisiko und Augenerkrankungen mit Gefahr der Retinaablösung.28
Die Liste weiterer Beispiele ist lang und betrifft somit zahlreiche Patienten und In-
dikationen. Patienten mit Kontrastmittelallergie oder Niereninsuffizienz können häu-
fig keiner Bildgebung mit Kontrastmittelgabe (KM-CT, KM-MRT) zugeführt werden.
Patienten, denen es nicht möglich ist, für längere Zeit zu liegen, können nicht bestrahlt
werden. Bei Patienten mit Koagulopathien, unbehandelten Gerinnungsstörungen,
Schwangerschaft oder unbehandeltem Hypertonus besteht für die Durchführung einer
ESWL (extrakorporalen Stoßwellentherapie von Nierensteinen) eine Kontraindika-
tion. Vielfach handelt es sich jedoch um relative Kontraindikationen, so dass Nutzen,
Risiko und Praktikabilität für jeden Patienten individuell abgewogen werden müssen.
Vorstellbar sind auch Szenarien, bei welchen ein Eingriff nicht durchgeführt
werden kann, da die (peri- und) postoperative Nachbehandlung bzw. Nachsorge
nicht gewährleistet ist. Man stelle sich vor, ein Patient mit Parkinsonerkrankung
oder Epilepsie wird vorgestellt zur Implantation einer tiefen Hirnstimulation (THS).
Der Patient sei asylsuchend, jedoch ohne vorliegende Aufenthaltsgenehmigung mit
der Gefahr der Abschiebung. In diesem Falle könnte – abgesehen von allen kosten-
technischen Aspekten – auch bei korrekter Indikationsstellung obiger Eingriff nicht
durchgeführt werden, da die Nachsorge des Patienten nicht gewährleistet ist: „In den
ersten Monaten nach dem operativen Eingriff muss der Patient im Normalfall häufig
seinen Arzt aufsuchen, um die Stimulation zu optimieren und die Medikamenten-
einnahme zu titrieren. Später wird ein Wiedervorstellungsschema (alle 3–6 Monate)
gewählt, das regelmäßige Vorstellungen beim behandelnden Arzt vorsieht, um den
Status der Erkrankung zu überwachen und die Stimulation bei Bedarf anzupassen.“29
Der Erfolg eines medizintechnischen Verfahrens hängt somit nicht allein vom
Vorhandensein, der Machbarkeit und korrekten Indikation ab, sondern auch von der
häufig damit unabdingbar verbundenen Nachkontrolle und Nachsorge.
Zuletzt seien nicht-medizinische Gründe genannt, weshalb Patienten möglicher-
weise ein medizintechnisches Verfahren nicht in Anspruch nehmen können. Hierzu

Nitin; Mitra, Sukanya; Silasi, Dan; Urman, Richard D.: Anesthetic considerations in robotic-
assisted gynecologic surgery. The Ochsner Journal 2013; 13, pp. 517–524.
27 Sener, Alp; Chew, Ben H.; Duvdevani; Mordechai; Brock, Gerald B.; Vilos, George A.; Pautler:
Stephen E.: Combined transurethral and laparoscopic partial cystectomy and robot-assisted
bladder repair for the treatment of bladder endometrioma. Journal of Minimally Invasive Gyne-
cology, June 2006; 13, 3, p. 245.
28 vgl. Rosenblum, a. a. O.; sowie: Gilfrich, Christian; Brookman-May, Sabine; May, Matthias;
Lebentrau, Steffen: Die roboterassistierte radikale Prostatektomie. Urologie Scan 2014; 1:
S. 49–68.
29 Medtronic. Tiefe Hirnstimulation. Veröffentlichung: 26.03.2013, http://www.medtronic.de/
fachkreise/produkte-therapien/neurologie-schmerztherapie/therapien/tiefe-hirnstimulation/
nachsorge/index.htm (Zugriff am: 19.11.2016).
188 Thomas Bschleipfer

gehören insbesondere finanzielle Aspekte. Es gibt zahlreiche Untersuchungen und/


oder Interventionen, welche nicht zum Regelleistungsvolumen der Krankenkassen
zählten bzw. zählen. Lange Zeit wurde das PET-CT bei Verdacht auf ein metasta-
siertes Prostatakarzinom nicht von (allen) Krankenkassen übernommen. Eigenleis-
tungen oder Zuzahlungen vom Patienten waren notwendig.30 Diese beliefen sich
auf mehrere 100 Euro. Es bestand jedoch die Möglichkeit, eine Kostenübernahme
bei der zuständigen Krankenkasse zu beantragen, was als „kompliziertes Verfahren“
beschrieben wurde und für jede Untersuchung separat erfolgen musste.31
Auch für die roboter-assistierte Prostatektomie mit DaVinci® (Fa. Intuitive Sur-
gical) mussten lange Zeit von den Patienten Zuzahlungen in Höhe von mehreren
tausend Euro in Kauf genommen werden.32 Glücklicherweise ist dies zum jetzigen
Zeitpunkt nicht mehr nötig und die Krankenkassen übernehmen den Eingriff zumeist
komplett (siehe oben zeitlicher Aspekt und Kostenentwicklung). Es ist nachvollzieh-
bar, dass für zahlreiche Patienten und deren Familien eine Kostenbelastung von derart
hohen Beträgen nicht immer zu leisten war. Aus diesem Grund blieb zahlreichen Pati-
enten der Einsatz moderner Medizintechnik für ihre Operation verwehrt.
Zu den nicht-medizinischen Gründen zählt auch die fehlende Verfügbarkeit von
Ressourcen, Utensilien, Verbrauchsgütern, die für ein medizintechnisches Verfahren
vonnöten sind. Beispielhaft sei dies am PSMA-PET-CT erörtert, ein hochmodernes
Verfahren zur Detektion von Metastasen eines Prostatakarzinoms. Die Durchfüh-
rung dieser Diagnostik erfordert einen Tracer auf der Basis des künstlich erzeugten
Radionukleids 68Gallium (68Ga) oder Technetium-99m (99mTc), dessen Herstellung
bislang nur in bestimmten Zentren erfolgt. Dieser Tracer stand unserer Klinik auf-
grund von Herstellungs- und Lieferproblemen temporär nicht zur Verfügung, wes-
halb das PSMA-PET-CT nicht zum Einsatz kommen konnte. Medizintechnik ist so-
mit nur in einem Netzwerk zu betrachten, zu welchem neben materiellen Ressourcen
auch die entsprechenden personellen und räumlichen Ressourcen zählen.

C) DER PATIENT SOLL / DARF NICHT

Warum sollte ein Patient eine medizintechnische Leistung nicht erhalten dürfen?
„Nicht zu dürfen“ bedeutet, keine Erlaubnis zu haben. Somit liegt vor, dass an-
dere Personen als der Patient eine Erlaubnis für den Zugang zu medizintechnischen
Leistungen verwehren. Vorstellbar ist dies bei Patienten mit weit fortgeschrittenem
Tumorleiden „am Ende ihres Weges“. Bei Eintreten eines Herzstillstandes oder an-

30 Prostatakrebs – Diskussionsforum. PET/CT Kostenübernahme Techniker Kasse. Veröffentli-


chung: 29.–30.8.2008, http://forum.prostatakrebs-bps.de/showthread.php?3847-PET-CT-
Kosten%FCbernahme-Techniker-Kasse (Zugriff am: 20.11.2016).
31 PET-CT Zentrum Hamburg. Wer übernimmt die Kosten einer PET/CT-Untersuchung? Veröf-
fentlichung: 2009, http://www.petct-zentrum-hamburg.de/patienteninformationen_05.php (Zu-
griff am: 20.11.2016).
32 Fink, Hans-Juergen: Roboter im Einsatz: Da Vinci operiert in 3-D. Hamburger Abendblatt,
19.4.2011, http://www.abendblatt.de/ratgeber/gesundheit/article108002567/Roboter-im-Einsatz-
Da-Vinci-operiert-in-3-D.html (Zugriff am: 19.11.2016).
Warum Medizintechnik nicht für alle da sein kann 189

derer lebensbedrohlicher Notfallsituationen verzichtet man auf Wiederbelebungs-


maßnahmen oder weiterer umfangreicher Intensivbehandlung mit Intubation etc.
(„do not resuscitate“ (DNR), keine Wiederbelebung). Man könnte argumentieren
„es lohnt sich nicht“, den Patienten einer weiteren (medizintechnischen) Interven-
tion zuzuführen. Hintergrund ist jedoch vielmehr, dass man dem Patienten einen
unaufhaltsam fortschreitenden Leidensweg ersparen möchte. Die medizinische
Entscheidung basiert somit auf einem angenommen Patientenwillen und der klaren
Erkenntnis des Betroffenen, dass eine Wiederbelebung bzw. ein Intensivaufenthalt
quoad vitam keinen Sinn machen. Denkbar ist somit, dass sich Behandler und/oder
Angehörige bei der Einschätzung des Patientenwillens täuschen und somit dem
Patienten den Zugang zu einem (medizintechnischen) Verfahren sinnvoll, jedoch
unrechtmäßig verwehren.
An dieser Stelle wären auch Allokationsprobleme medizintechnischer Leistun-
gen anzuführen, sofern diese lebensnotwendig sind und nur begrenzt zur Verfü-
gung stehen. Derartige Szenarien sind in unserer Zeit und in der westlichen Welt
kaum vorstellbar, sofern es sich nicht um Krisensituationen wie Großkatastrophen
handelt33. In der Regel können Patienten in umliegende Krankenhäuser verlegt
werden und limitierte Ressourcen (wie beispielsweise Erythrozytenkonzentrate mit
seltener Blutgruppe) von extern angefordert werden. Dennoch gibt es auch in unse-
rem klinischen Alltag Situationen, in denen mehrere Patienten um eine Ressource
ringen. Zählt man Organtransplantationen im weitesten Sinne zu den medizinisch-
technischen Verfahren, so ist auch hier (exemplarisch für die Nierentransplantation)
festgelegt, dass Patienten mit z. B. unkontrolliertem Malignom, HIV-Positivität, ak-
tiven systemischen Infektionen und/oder einer Lebenserwartung kleiner zwei Jahre
kein Organ erhalten können (absolute Kontraindikation). Nach stattgehabten und
behandelten Tumoren wird je nach Tumor eine Wartezeit von ein bis fünf Jahren
empfohlen. Erst hiernach sollen oder dürfen die Patienten einer Organtransplanta-
tion zugeführt werden.34
Auch im täglichen klinischen Alltag finden sich Situationen, in denen Pa-
tienten der Zugang zur Medizintechnik (zumindest temporär) verwehrt wird.
Häufigste Ursache dürfte die limitierte OP-Kapazität sein. Durch Priorisierung
nach Dringlichkeit (z. B. malignancy first) müssen zahlreiche Patienten trotz
Behandlungsbedürftigkeit ihren Anspruch auf medizintechnische Leistung zu-
rückstellen. Sicherlich stünde diesen Patienten offen, sich an eine andere Klinik
zu wenden. Nicht zuletzt der ökonomische Aspekt lässt uns jedoch erfinderisch
werden, diese Patienten an der eigenen Klinik zu halten. Beispielsweise könnte
die Erkrankung zwischenzeitlich noch mit weiteren medizintechnischen Verfah-
ren abgeklärt werden.

33 vgl. Bschleipfer, a. a. O., 2007; sowie: Bschleipfer, Kornwachs, a. a. O., 2010.


34 s. European Renal Association – European Dialysis and Transplant Association. Evaluation,
selection and preparation of the potential transplant recipient. Nephrology Dialysis Transplan-
tation, 2000; 15 [Suppl. 7]: pp. 3–38.
190 Thomas Bschleipfer

MEDIZINTECHNIK UND ETHIK: VIER FRAGEN

Die ethischen Aspekte zum Thema „Medizintechnik“ umfassen deutlich mehr als
die alleinige Betrachtung von deren Verfügbarkeit und Zugänglichkeit. Im Folgen-
den werfe ich vier Fragen auf, über die es sich kritisch nachzudenken lohnt:
• Machen wir mehr, als wir können sollten?
Eine Frage nach der Anwendung von Medizintechnik über das Notwendige
hinaus im Spannungsfeld Medizin versus Ökonomie.
• Wir machen, was wir können, aber können wir auch, was wir machen?
Eine Frage nach der Qualität und den Limitationen in Medizin und Medizin-
technik.
• Müssen wir machen, was wir können? Brauchen wir all die Medizintechnik,
die wir haben?
Die Frage nach der Notwendigkeit der zur Verfügung stehenden Medizin-
technik und ihres Mehrwerts für Patienten, Gesundheitssystem und Industrie
• Müssen wir immer mehr machen?
Die Frage nach dem Leistungsprinzip in der Marktwirtschaft, Stichwort
„Zum Wachstum und technischen Fortschritt verdammt“.
Warum Medizintechnik nicht für alle da sein kann 191

LITERATUR

Albers, P.; Albrecht, W.; Algaba, F.; Bokemeyer, C.; Cohn-Cedermark, G., Fizazi, K.; Horwich, A.;
Laguna, M. P.; Nicolai, N.; Oldenburg, J.: EAU Guidelines on Testicular Cancer. European
Association of Urology, 2016; S. 1–48.
Albrecht, Walter: Vortrag „Hodenkarzinom: Neues in der Leitlinienorientierten Therapie“. 11.
Uroonkologisches Symposium, Benediktinerabtei Weltenburg, Kelheim, 11.–12.11.2016.
Artikel „Medizintechnik“. In Wikipedia, https://de.wikipedia.org/w/index.php?title=Medizintechnik
&oldid=158229517 (Zugriff am: 8.11.2016).
Artikel „Wearable Computing“. In: Wikipedia, https://de.wikipedia.org/w/index.php?title=Wearable_
Computing&oldid=154601583 (Zugriff am: 14.11.2016).
Bschleipfer, Thomas: Ethik einer Krisenmedizin. Kritische Analyse bereichsspezifischer Dilem-
mata: Ressourcenallokation, Instrumentalisierung und Doppelloyalität. BTU Cottbus,
25.10.2007, https://opus4.kobv.de/opus4-btu/frontdoor/index/index/docId/346 (Zugriff am:
16.11.2016).
Bschleipfer, Thomas; Kornwachs, Klaus: Militärische Einsatzmedizin – Ethische Dilemmata. In:
Deutsches Ärzteblatt 2010; 107(30): S. 1448–1450.
Deutscher Bundestag: Gesetz zur Verbesserung der Rechte von Patientinnen und Patienten vom
20. Februar 2013. Bundesgesetzblatt, Jahrgang 2013, Teil I, Nr. 9, ausgegeben zu Bonn am
25. Februar 2013. http://www.bundesaerztekammer.de/fileadmin/user_upload/downloads/
Patientenrechtegesetz_BGBl.pdf
Deutscher Bundestag – 15. Wahlperiode: Entwurf eines Gesetzes zur Modernisierung der gesetzli-
chen Krankenversicherung (GKV-Modernisierungsgesetz – GMG). Drucksache 15/1525,
8.9.2003, http://dipbt.bundestag.de/doc/btd/15/015/1501525.pdf.
dpa / aerzteblatt.de: Niedersachsen: Techniker Krankenkasse will Zentralisierung von Krankenhäu-
sern. Veröffentlichung: 29.10.2014, http://www.aerzteblatt.de/nachrichten/60667 (Zugriff am:
15.11.2016).
European Renal Association – European Dialysis and Transplant Association. Evaluation, selection
and preparation of the potential transplant recipient. Nephrology Dialysis Transplantation,
2000; 15 [Suppl. 7]: pp. 3–38.
EZSurgical, Clinical Intro: Risks of Trendelenburg Position in Surgery. Veröffentlichung: 2016.
http://www.ezsurgical.com/Files/Trendelenburg%20Risks_Short%20Intro.pdf.
Fink, Hans-Juergen: Roboter im Einsatz: Da Vinci operiert in 3-D. Hamburger Abendblatt, 19.4.2011,
http://www.abendblatt.de/ratgeber/gesundheit/article108002567/Roboter-im-Einsatz-Da-Vinci-
operiert-in-3-D.html (Zugriff am: 19.11.2016).
Gilfrich, Christian; Brookman-May, Sabine; May, Matthias; Lebentrau, Steffen: Die roboterassis-
tierte radikale Prostatektomie. Urologie Scan 2014; 1: S. 49–68.
Hentschel, Klaus: Kostenfalle Apparatemedizin. In: Die freie Welt, 6.8.2014, http://www.freiewelt.
net/blog/kostenfalle-apparatemedizin-10038603/ (Zugriff am: 16.11.2016).
Imec, Jan Provoost: Wearables für die Gesundheit. In: Medizin und Technik, 8.6.2015, http://
medizin-und-technik.industrie.de/allgemein/wearables-fuer-die-gesundheit/ (Zugriff am:
14.11.2016).
Kaye, Alan D.; Vadivelu, Nalini; Ahuja, Nitin; Mitra, Sukanya; Silasi, Dan; Urman, Richard D.:
Anesthetic considerations in robotic-assisted gynecologic surgery. The Ochsner Journal 2013;
13, pp. 517–524.
Klinik für Strahlentherapie und Radioonkologie, Universitätsklinikum Leipzig: Zervixkarzinom.
Veröffentlichung: 2.5.2016. http://radioonkologie.uniklinikum-leipzig.de/radioonko.site,postext,
therapiekonzepte,a_id,1043.html (Zugriff am: 18.11.2016).
Kornwachs, Klaus: Das Prinzip der Bedingungserhaltung. Eine ethische Studie. Münster 2000.
S. 47 ff. u. S. 60 ff.
Krüger-Brand, Heike E.: Medizintechnik: „Made in Germany“ ist gefragt. In: Deutsches Ärzteblatt
2007; 104(45): S. 10
192 Thomas Bschleipfer

Medtronic. Tiefe Hirnstimulation. Veröffentlichung: 26.03.2013, http://www.medtronic.de/fachkreise/


produkte-therapien/neurologie-schmerztherapie/therapien/tiefe-hirnstimulation/nachsorge/
index.htm (Zugriff am: 19.11.2016).
National Human Genome Research Institute. DNA Sequencing Costs: Data. Veröffentlichung:
24.5.2016, http://www.vis.uni-stuttgart.de/plain/vdl/vdl_upload/102_33_v1-medBildgebung.
pdf (Zugriff am: 16.11.2016).
Pachner, A.: Bildgebende Verfahren in der Medizin. Veröffentlichung: 22.4.2004, http://www.vis.
uni-stuttgart.de/plain/vdl/vdl_upload/102_33_v1-medBildgebung.pdf (Zugriff am: 16.11.2016).
PET-CT Zentrum Hamburg. Wer übernimmt die Kosten einer PET/CT-Untersuchung? Veröffentli-
chung: 2009, http://www.petct-zentrum-hamburg.de/patienteninformationen_05.php (Zugriff
am: 20.11.2016).
Prostatakrebs – Diskussionsforum. PET/CT Kostenübernahme Techniker Kasse. Veröffentlichung:
29.–30.8.2008, http://forum.prostatakrebs-bps.de/showthread.php?3847-PET-CT-Kosten%FC
bernahme-Techniker-Kasse (Zugriff am: 20.11.2016).
Rosenblum, Nirit: Robotic approaches to prolapse surgery. Current Opinion in Urology: July 2012,
22, 4, pp. 292–296.
Schlomm, Thorsten: Vortrag „Welche Bedeutung hat die Genetik bei urologischen Tumoren,
Schwerpunkt PCa“. 11. Uroonkologisches Symposium, Benediktinerabtei Weltenburg, Kel-
heim, 11.–12.11.2016.
Sener, Alp; Chew, Ben H.; Duvdevani; Mordechai; Brock, Gerald B.; Vilos, George A.; Pautler:
Stephen E.: Combined transurethral and laparoscopic partial cystectomy and robot-assisted
bladder repair for the treatment of bladder endometrioma. Journal of Minimally Invasive Gyne-
cology, June 2006; 13, 3, pp. 245–248.
Su, Danial; Faiena, Izak; Tokarz, Robert; Bramwit, Mark; Weiss, Robert E.: Comparative analysis
of the risk of radiation exposure and cost of reduced imaging intensity for surveillance of early-
stage nonseminomatous germ cell tumors. Urology 2015; 85, 1: pp. 141–146.
Sullivan, C. J.; Murphy, K. P.; McLaughlin, P. D.; Twomey, M.; O’Regan, K. N.; Power, D. G.; Ma-
her, M. M.; O’Connor, O. J.: Radiation exposure from diagnostic imaging in young patients
with testicular cancer. European Radiology, April 2015; 25, 4, pp. 1005–1013.
Tomescu, Dana Rodica; Popescu, Mihai; Dima, Simona Olimpia; Bacalbașa, Nicolae; Bubenek-
Turconi, Șerban: Obesity is associated with decreased lung compliance and hypercapnia during
robotic assisted surgery. J Clin Monit Comput (2017) 31: pp. 85–92. DOI 10.1007/s10877-016-
9831-y.
Trumpf, Steffen: Ärzte streiten über Verbot von Online-Diagnosen. Spiegel online, 12.11.2013,
http://www.spiegel.de/gesundheit/diagnose/telemedizin-aerzte-streiten-ueber-verbot-von-
online-diagnosen-a-933059.html (Zugriff am: 14.11.2016).
Wallenfels Matthias: Medizintechnik – Große Exportchancen in Asien. In: Ärzte Zeitung, 5.8.2014,
http://www.aerztezeitung.de/praxis_wirtschaft/medizintechnik/article/866174/medizintechnik-
grosse-exportchancen-asien.html (Zugriff am: 14.11.2016).
Werner, Markus: Planwirtschaft auf die Spitze getrieben. In: eigentümlich frei, 6.3.2015, http://
ef-magazin.de/2015/03/06/6525-versorgungsstaerkungsgesetz-im-gesundheitsbereich-
planwirtschaft-auf-die-spitze-getrieben (Zugriff am: 15.11.2016).
Xia, Shu; Kohli, Manish; Du, Meijun; Dittmar, Rachel L.; Lee, Adam; Nandy, Debashis; Yuan,
Tiezheng; Guo, Yongchen; Wang, Yuan; Tschannen, Michael R.; Worthey, Elizabeth; Jacob,
Howard; See, William; Kilari, Deepak; Wang, Xuexia; Hovey, Raymond L.; Huang, Chiang
Ching; Wang, Liang: Plasma genetic and genomic abnormalities predict treatment response and
clinical outcome in advanced prostate cancer. Oncotarget 2015; 6: pp. 16411–16421.
Zentrum für Krebsregisterdaten, Robert Koch Institut: Hodenkrebs (Hodenkarzinom), 17.12.2015,
http://www.krebsdaten.de/Krebs/DE/Content/Krebsarten/Hodenkrebs/hodenkrebs_node.html
(Zugriff am: 29.11.2016).
SOZIOTECHNISCHER SYSTEMANSATZ
IN DER ATOMAUFSICHT

Walter Glöckle

Die Habilitationsschrift „Offene Systeme und die Frage nach der Information“ von
Klaus Kornwachs befasst sich mit dem Systembegriff, der Beschreibung von Systemen
und dem Zusammenhang von System und Information. Zum Systembegriff wird dort
einleitend ausgeführt: „Zunächst ist festzuhalten, daß das ‚System‘ kein Gegenstand
der Erfahrung ist, sondern eine Konstruktion, und zwar in der Form einer Beschrei-
bung, deren Regeln im allgemeinen stark mathematisiert sind. Das System besteht in
der Systematisierung bestimmter Sachverhalte, darunter fallen auch Eigenschaften von
Gegenständen, im Rahmen einer dem Gegenstandsbereich adäquaten Theorie ange-
sichts bestimmter Probleme und Interessen. Daraus folgen zwei wichtige Unterschei-
dungen. Erstens: Die Beschreibung eines Problems im Rahmen der Systemtheorie er-
setzt weder das empirische Wissen um, noch die Theorie über den Gegenstandsbereich.
Zweitens: Was noch zum System gehört und was nicht, d. h. die Abgrenzung zwischen
‚Umwelt‘ und ‚System‘, ist nicht theorieimmanent ableitbar, sondern ausschließlich an
das Erkenntnis- und Verwertungsinteresse des Systemdefinierers gebunden.“1
In Vorträgen und Vorlesungen zur allgemeinen Systemtheorie hat Klaus Korn-
wachs die beiden Grundsätze oftmals folgendermaßen prägnant ausgedrückt:
1. Die Systemtheorie erfindet nichts, sie plaudert nur aus.
2. Jedes System hat einen Autor.
Dieser Beitrag hat den soziotechnischen Systemansatz in der atomrechtlichen Auf-
sicht, d. h. bei der staatlichen Überwachung der Atomkraftwerke und anderen kern-
technischen Anlagen, zum Thema. Dabei wird besonders auf die Intension (Was
will der Autor bezwecken? Warum wird der Systemansatz gewählt?) und den Nut-
zen (Was wird deutlich? Was „plaudert“ der Systemansatz aus?) eingegangen.

SOZIOTECHNISCHES SYSTEM

Studien des Londoner Travistock Institute befassten sich Anfang der 1960er Jahre
mit technischen und arbeitsorganisatorischen Verbesserungen im britischen Kohle-
bergbau. Sie analysierten, warum Verbesserungen nicht die erwarteten Wirkungen
erzielten.2 So nahm trotz verbesserter Technologie die Produktivität ab. Die Ursache

1 Kornwachs, Klaus: Offene Systeme und die Frage nach der Information. Stuttgart 1987. S. 17.
2 Trist, Eric; Bamforth, Ken: Some Social and Psychological Consequences of the Longwall
Method of Coal-Getting. An Examination of the Psychological Situation and Defences of a
194 Walter Glöckle

hierfür sahen die Autoren darin, dass bei der technischen Verbesserung die sozialen
Aspekte nicht beachtet worden waren, beispielsweise wie die Bergleute in Gruppen
zusammenarbeiten, wie Verantwortung wahrgenommen wird oder wie die Arbeit von
der Gruppe selbst organisiert wird. Die Autoren prägten den Begriff „soziotechni-
sches System“, um deutlich zu machen, dass die Interaktionen zwischen Personen
und Technik an Arbeitsplätzen eine entscheidende Rolle spielen. Die grundlegende
Erkenntnis war: Eine Anpassung im Sinne einer Optimierung der Mensch-Maschine-
Schnittstelle ist in komplexen Organisationen unzureichend. Vielmehr ist die wech-
selseitige Abhängigkeit von sozialen und technischen Aspekten zu beachten.
In der Kerntechnik wurden seit der Errichtung von kommerziellen Atomkraft-
werken Anforderungen an die Technik (mehrfache Barrieren, spezielle mehrfach
vorhandene Sicherheitssysteme zur Störfallbeherrschung u. a.), an die Beschäftig-
ten (Fachkunde, Zuverlässigkeit u. a.) und an die Organisation (Betriebsvorschrif-
ten, Verantwortlichkeiten u. a.) zur Gewährleistung einer hohen Sicherheit gestellt.
Die Teil-Systeme Mensch, Technik und Organisation wurden jedoch relativ un-
abhängig voneinander betrachtet. Erst der katastrophale Unfall im Atomkraftwerk
Tschernobyl 1986 hat bewirkt, dass ein Atomkraftwerk als soziotechnisches Sys-
tem verstanden wurde – ein soziotechnisches System, das als „offenes System“
in Wechselwirkung mit dem politischen, wirtschaftlichen und gesellschaftlichen
Umfeld steht. Die vertiefte Analyse auch kleinerer Vorfälle gewann in der Folgezeit
zunehmend an Bedeutung. In diesen Ereignisanalysen werden das Zusammenwir-
ken von Technik, Individuum, Gruppe, Organisation und Organisationsumfeld de-
tailliert untersucht und Verbesserungen abgeleitet.3
Nach dem Reaktorunfall in Tschernobyl hat sich der Begriff „Sicherheits-
kultur“ eingebürgert. Dieser Begriff erlaubte zunächst die dort zutage getretenen
Schwächen wie mangelnde hinterfragende Grundhaltung und mangelndes sicher-
heitsgerichtetes Vorgehen mit einem Schlagwort zu versehen. Später verdeutlichte
die Verbindung der Sicherheitskultur mit der Organisationskultur, dass über die
personell-organisatorischen Vorkehrungen hinaus Werte und Grundeinstellungen
eine Organisation und das Verhalten der Personen in ihr prägen.4
Im Hinblick auf die personell-organisatorischen Vorkehrungen und Maßnahmen
sind die regulatorischen Anforderungen in Deutschland schrittweise ausgebaut wor-
den. Ursprüngliche Anforderungen an die Qualitätssicherung wurden durch Anfor-
derungen an ein Qualitätsmanagementsystem ersetzt. Später traten Anforderungen
an ein Sicherheitsmanagementsystem hinzu. Mit der Regel 1402 sind im Jahr 2012
schließlich Anforderungen an ein prozessorientiertes integriertes Managementsys-
tem im Regelwerk des Kerntechnischen Ausschusses (KTA)5 festgelegt worden. Das
Wechselspiel zwischen Managementsystem, das eine ausgeprägte Sicherheitskultur

Work Group in Relation to the Social Structure and Technological Content of the Work System.
In: Human Relations,1951 (4), S. 3.
3 Fahlbruch, Babette; Miller, Rainer; Wilpert, Bernhard: Sicherheit durch organisationales Ler-
nen. Das Lernen aus Ereignissen und Beinahe-Ereignissen. In: atw, Internationale Zeitschrift
für Kernenergie, 43. Jg., November 1998, S. 699.
4 vgl. Schein, Edgar H.: Organizational culture and leadership. New York 2004(3).
5 Kerntechnischer Ausschuss: Bekanntmachung von sicherheitstechnischen Regeln des Kern-
Soziotechnischer Systemansatz in der Atomaufsicht 195

unterstützen soll, und Sicherheitskultur, die das Managementsystem mit Leben füllt,
ist Gegenstand aktueller wissenschaftlicher Arbeiten und Fachdiskussionen.6

ATOMAUFSICHT

Die Bedeutung des Zusammenwirkens von sozialem und technischem System für die
Sicherheit einer kerntechnischen Anlage muss sich auch in der Überwachung dieser
Anlagen widerspiegeln. Die atomrechtliche Aufsichtsbehörde in Baden-Württemberg
hat mit der in den Jahren 1997 und 1998 entwickelten Aufsichtskonzeption den sozio-
technischen Systemansatz konsequent in ihre Aufsicht einbezogen.7 Die Aufsichts-
konzeption legt dar, wie und in welchen Feldern sich die Untersysteme „Mensch“,
„Technik“ und „Organisation“ im Hinblick auf die Sicherheit gegenseitig beeinflus-
sen und wie die Aufsichtsbehörde das Zusammenwirken und die Schnittstellen ange-
messen überwachen kann. Sie lenkt zudem den Blick auf die äußeren Einflüsse, die
auf das soziotechnische System „Atomkraftwerk“ einwirken. Neben dem Mutterkon-
zern, Lieferanten, Politik und Öffentlichkeit ist die Atomaufsicht selbst ein wichtiger
Einflussfaktor. Dieses Einflusses sollte sich die Aufsichtsbehörde bewusst sein. Sie
sollte bei ihrem Handeln darauf zu achten, dass sie ihren Einfluss soweit wie möglich
zur Aufrechterhaltung und weiteren Verbesserung der Sicherheit einsetzt.
Aufbauend auf der Aufsichtskonzeption hat die Aufsichtsbehörde die verschiede-
nen bereits praktizierten Kontroll- und Prüfverfahren überarbeitet. Sie wurden dahin-
gehend erweitert, dass die Schnittstellen zwischen den Untersystemen angemessen
einbezogen sind. Vor allem bei den stärker technisch orientierten Kontrollen, sei es
im Bereich des Strahlenschutzes oder der Anlagentechnik, hat die Aufsichtsbehörde
die organisatorischen Regelungen sowie das Personalverhalten bei Bedienung, In-
standhaltung oder Überwachung in die Kontrollen integriert. Darüber hinaus hat sie
ergänzende Prüfverfahren entwickelt und implementiert, die sich beispielsweise mit
der Ereignisanalyse, der Personalausstattung, der Personalplanung und dem Manage-
mentsystem befassen. Die Reflexion des behördlichen Einflusses auf den Anlagen-
betreiber wurde als ein Inhalt des Prüfverfahrens „Gespräche auf Führungsebene“
und somit als behördliche Aufgabe verankert. Auch die Sicherheitskultur wurde aus-
drücklich als Gegenstand der behördlichen Aufsicht festgelegt. Mit verschiedenen
Methoden achtet die Aufsichtsbehörde seitdem auf Erkenntnisse und Eindrücke, die
als Indizien für eine nachlassende Sicherheitskultur gewertet werden können, und
gibt Impulse zur Weiterentwicklung und Stärkung der Sicherheitskultur.8

technischen Ausschusses – Integriertes Managementsystem zum sicheren Betrieb von Kern-


kraftwerken (KTA 1402). In: Bundesanzeiger Amtlicher Teil, 23.1.2013, B5, S. 1.
6 vgl. Ritz, Frank: Betriebliches Sicherheitsmanagement. Aufbau und Entwicklung widerstands-
fähiger Arbeitssysteme. Stuttgart 2015.
7 s. Ministerium für Umwelt, Klima und Energiewirtschaft Baden-Württemberg: Konzeption für
die staatliche Aufsicht über die baden-württembergischen Kernkraftwerke. URL: http://um.
baden-wuerttemberg.de/fileadmin/redaktion/m-um/intern/Dateien/Dokumente/3_Umwelt/
Kernenergie/Managementsystem_Abteilung/Konzeption_f%C3%BCr_die_staatliche_
Aufsicht_%C3%BCber_die_ba-w%C3%BC_KKW.pdf (Zugriff am: 28.1.2017).
8 Keil, Dietmar; Glöckle, Walter: Sicherheitskultur im Wettbewerb – Erwartungen der Aufsichts-
196 Walter Glöckle

Eine zusätzliche Vertiefung hat die Aufsicht über die Sicherheitskultur beim
AKW-Betreiber durch die Einführung des in der baden-württembergischen Aufsichts-
behörde entwickelten „Katalogs zur Erfassung organisationaler und menschlicher
Faktoren bei der Aufsicht vor Ort“ (KOMFORT) im Jahr 2005 erfahren.9 Mit diesem
Tool sammelt die Behörde während ihrer Aufsichtstätigkeiten in den Atomkraftwer-
ken „nebenbei“ Eindrücke zu verschiedenen Aspekten der Sicherheitskultur wie „Be-
folgen von Vorschriften“, „Sauberkeit, Ordnung und Pflege der Anlage“, „Kenntnisse
und Kompetenzen“, „Arbeitsbelastung“, „Wahrnehmen von Führungsaufgaben“,
„Umgang mit der Behörde“, „Betriebsklima“ u. a. Die Eindrücke werden in einer
vierstufigen Skala („vorbildlich“, „in Ordnung“, „nicht in Ordnung“, „mangelhaft“)
bewertet. Da Einzelwahrnehmungen keine Rückschlüsse auf die Sicherheitskultur als
Ganzes erlauben, erfolgt eine jährliche Auswertung der vielen, über das Jahr hinweg
vorgenommenen Bewertungen: Lassen sich Häufungen erkennen, die eine gemein-
same Ursache haben können? Gibt es über mehrere Jahre betrachtet Trends, die auf
eine Veränderung der „Kultur“ hindeuten? Solche übergeordnete Feststellungen oder
Hinweise greift die Aufsichtsbehörde auf, indem sie ihre Erkenntnisse und Bewertun-
gen den Verantwortlichen auf der Betreiberseite „zurückspiegelt“, mit deren Erkennt-
nissen und Bewertungen vergleicht und ggf. Maßnahmen einfordert.
Die rechtliche Grundlage für eine verstärkte Aufsicht im personell-organisato-
rischen Bereich bilden in Baden-Württemberg nachträgliche Auflagen, die im Jahr
2003 erlassenen wurden. Diese legen Pflichten des Genehmigungsinhabers im Hin-
blick auf die Einführung und Weiterentwicklung eines Sicherheitsmanagementsys-
tems, die Förderung und Selbstbewertung der Sicherheitskultur, die Berichterstattung
zur Personalausstattung und Personalplanung sowie die Anforderungen an Organi-
sationsänderungen fest. In der Folge wurden mit der Regel 1402 des KTA derartige
Anforderungen an den Betrieb von Atomkraftwerken bundesweit detailliert festge-
schrieben. Damit wurden zugleich eine Basis und ein Bewertungsmaßstab für die be-
hördlichen Kontrollen des soziotechnischen Systems „Atomkraftwerk“ geschaffen.

ZIELSETZUNG

Die einer Systembeschreibung zugrundeliegende Intension lässt sich mit den Ver-
ben „betrachten“, „prognostizieren“ und „steuern“ umschreiben. Mit dem sozio-
technischen Systemansatz in der Atomaufsicht legt die Behörde das Aufsichtsobjekt
„Atomkraftwerk“ fest. Sie definiert, was der atomrechtlichen Aufsicht unterliegt
und was nicht. Nicht alles, was sich auf dem Betriebsgelände befindet oder dort
stattfindet, ist sicherheitsrelevant. Daher sind z. B. der Betrieb einer Kantine oder
eines Infozentrums, aber auch Systeme wie der Kühlturm nicht in das Aufsichtspro-
gramm aufgenommen. Umgekehrt wird die Aufteilung von Aufgaben und Verant-
wortlichkeiten in verschiedene Organisationseinheiten inzwischen als sicherheits-

behörde. In: atw Internationale Zeitschrift für Kernenergie, 45. Jg., Oktober 2000, S. 588.
9 Stammsen, Sebastian; Glöckle, Walter: Erfassen von Sicherheitskultur bei Anlageninspektionen.
Das KOMFORT-Aufsichtsinstrument der baden-württembergischen atomrechtlichen Aufsichts-
behörde. In: atw Internationale Zeitschrift für Kernenergie, 52. Jg., November 2007, S. 731.
Soziotechnischer Systemansatz in der Atomaufsicht 197

und damit als aufsichtsrelevant angesehen, was noch vor 20 Jahren als der Organi-
sationsfreiheit des Unternehmens vorbehalten betrachtet wurde. Die Aufbauorgani-
sation unterliegt inzwischen der Atomaufsicht, wodurch der Organisationsfreiheit
des Betreibers gewisse Schranken gesetzt sind. Die Einflüsse des Mutterkonzerns
und der Öffentlichkeit liegen außerhalb des Zugriffs durch die Aufsichtsbehörde, so
dass nicht diese Einflüsse selbst, sondern der Umgang des Genehmigungsinhabers
mit ihnen der atomrechtlichen Kontrolle unterliegt. Die präzise Umschreibung des
Aufsichtsgegenstandes dient der Transparenz des Behördenhandelns und ist zudem
eine Grundvoraussetzung für die erwünschte weitreichende Öffentlichkeitsbeteili-
gung in atomrechtlichen Verfahren.
Neben der Definition der Systemgrenzen nimmt die Aufsichtsbehörde mit der Sys-
tembeschreibung auch eine Gliederung des Systems in Subsysteme, Sub-Subsysteme
usw. vor. Darüber hinaus betrachtet sie auch die Schnittstellen zwischen den verschie-
denen Untersystemen und deren Zusammenwirken. Mit dem „Verstehen des System-
aufbaus“ bezweckt sie eine Systematisierung der behördlichen Kontrolle. Diese soll
möglichst passgenau die sicherheitsrelevanten Objektbereiche (Systemelemente) abde-
cken und „blinde Flecken“ vermeiden. Zugleich soll bei aller Differenzierung das Ganze
nicht aus dem Blick geraten und eine ganzheitliche Sichtweise zum Tragen kommen.
Die Aufsicht über ein Atomkraftwerk darf sich nicht darauf beschränken,
Abweichungen von Anforderungen, die in der Genehmigung oder in technischen
Regelwerken festgelegt sind, zu identifizieren. Vielmehr ist ein fachkundiges Be-
werten von festgestellten Sachverhalten nötig. Bedeutsam sind dabei insbesondere
das Prognostizieren des Systemverhaltens und das „Verstehen der Systemdyna-
mik“. Welche Konsequenzen für die Sicherheit ergeben sich, wenn der Betreiber
ein Beinahe-Ereignis nicht genügend tief analysiert, wenn er bei einer technischen
Änderung die Rückwirkung auf eine bestehende Komponente nicht ausreichend
betrachtet oder wenn er seine Betriebsvorschriften nicht an die in einer anderen
Anlage gewonnenen Erkenntnisse anpasst? Das fachkundige („prognostizierende“)
Verstehen erlaubt zudem, die beschränkten Ressourcen der staatlichen Aufsicht so
einzusetzen, dass sie möglichst wirkungsvoll sind.
Die dritte Stufe, das „Steuern“, kommt dann zum Tragen, wenn behördliches Ein-
greifen erforderlich ist. Die behördlichen Maßnahmen sollen entweder im Sinne von
Gefahrenabwehr unterbinden, dass Zustände mit erhöhter Gefährdung eintreten, oder im
Sinne der weiteren Erhöhung der Sicherheit dazu beitragen, dass Verbesserungen vorge-
nommen werden. Wie das oben angeführte Beispiel aus dem britischen Kohlebergbau
zeigt, ist dabei das gesamte soziotechnische System zu beachten. Sehr leicht können
sich punktuelle Verbesserungen im Gesamtsystem als „kontraproduktiv“ herausstellen.
Zum Betrachten, Prognostizieren und Steuern des soziotechnischen Systems
„Atomkraftwerk“ sind Fachkompetenzen nötig, die über ingenieur-technische
Kenntnisse hinausgehen. Mit ihren Bediensteten und Sachverständigen muss die
Aufsichtsbehörde auch arbeitswissenschaftliche, organisationswissenschaftliche,
juristische, psychologische und soziologische Themenfelder und speziell deren
Schnittstellen zu technischen Gegebenheiten kompetent abdecken. Das erfordert
entsprechend ausgebildetes Fachpersonal. Das bedingt aber auch, dass Fachleute
verschiedener Disziplinen eng zusammenarbeiten, offen sind für die Themen und
198 Walter Glöckle

Ansatzpunkte der anderen Fachbereiche und sich Kompetenzen über ihr eigenes
Spezialgebiet hinaus aneignen. Insofern zielt der soziotechnische Systemansatz
auch auf eine multidisziplinäre Aufsicht mit entsprechend kompetentem Personal.
Zusammenfassend liegt die Intension des „System-Autors“ darin, die Atomauf-
sicht zu stärken. Die mit dem soziotechnischen Systemansatz verbundene Systema-
tisierung und Neuausrichtung gab und gibt der Aufsichtsbehörde entscheidende Im-
pulse zur Erhöhung der Transparenz, Intensivierung der Wachsamkeit, Steigerung
der Durchsetzungsfähigkeit und Erweiterung der Kompetenz.

NUTZEN

Was „plaudert“ der Systemansatz aus? Allem voran steht die Grundaussage: Ein Atom-
kraftwerk ist keine Maschine – auch nicht eine sehr große. Die Anlagentechnik al-
lein wird dem komplexen System nicht gerecht. Ein Atomkraftwerk ist vielmehr ein
komplexes Gebilde, bei dem Mensch, Technik und Organisation zusammenwirken.
Dementsprechend ist bei der Sicherheitsüberwachung eine ganzheitliche Betrachtung
unerlässlich. Eine Aufsichtsbehörde und ihre Sachverständigenorganisationen müssen
sich mit technischen, psychologischen, arbeits- und organisationswissenschaftlichen
Gesichtspunkten befassen. Sie brauchen ingenieurtechnisches Personal, das die ver-
schiedenen Schnittstellen bei der Aufsicht abdeckt. Sie benötigen ebenso kompetentes
nicht-technisches Personal, das keine Berührungsängste mit der Technik hat und sich
der technischen Spezifika, insbesondere des hohen Gefährdungspotenzials, bewusst ist.
Eine zweite zentrale Aussage ist: Wie jedes komplexe System zeigt ein Atom-
kraftwerk Selbstorganisation und Autonomie. Lineare Reiz-Reaktion-Schemata
reichen nicht aus, um das Verhalten gegenüber äußeren Einflüssen zu verstehen.
Das System reagiert nicht bloß auf seine Umwelt, vielmehr besitzt es viele innere
Freiheitsgrade. Will die Aufsichtsbehörde Sicherheitsverbesserungen erreichen, tut
sie gut daran, die internen Potenziale und Kräfte des Systems zu nutzen. Anstatt
konkrete Maßnahmen zu fordern, sollte sie Ziele vorgeben und die Betreiberorga-
nisation selbst die Verbesserungsmaßnahmen entwickeln lassen. Damit wird der
größere Wissenspool des Betreiberpersonals genutzt. Zudem sind die Widerstände,
die sich jeder Neuerung entgegenstellen, geringer, wenn möglichst viele Beteiligte
bei der Entwicklung der Neuerung einbezogen sind.
Gezielt lässt sich das Potenzial der Betreiberorganisation nutzen, indem die Auf-
sicht die betreiberinternen Prozesse der Eigenüberwachung, Selbstüberprüfung und
Verbesserung nutzt. Die Kontrolle der Strahlenschutz-Organisation im Atomkraftwerk
ist effektiver als die Kontrolle einzelner Strahlenschutzmaßnahmen. Die behördliche
Vergewisserung über die Wirksamkeit des internen Auditsystems erlaubt eine breitere
Kontrolle als punktuelle behördeneigene Audits. Eine behördliche Fachdiskussion
beispielsweise mit dem Verantwortlichen für die Reaktorphysik kann bereits dadurch
Sicherheitsverbesserungen auslösen, dass die Position dieser Person mit seinen eige-
nen Verbesserungsvorschlägen innerhalb des Betreiberunternehmens gestärkt wird.
Das soziotechnisches System „Atomkraftwerk“ ist, wie schon mehrfach betont,
ein offenes System. Es steht im Austausch mit seiner Umwelt, mehr noch – und das
Soziotechnischer Systemansatz in der Atomaufsicht 199

ist die dritte zentrale Aussage – es passt sich dieser Umwelt an. Die politisch-ge-
sellschaftliche Diskussion um die Atomenergie beispielsweise geht nicht spurlos an
den Beschäftigten vorbei. Je mehr die Beschäftigten den Eindruck gewinnen, dass
sich diese Diskussion von einer rationalen Argumentation entfernt oder ihre Argu-
mente kein Gehör finden, umso mehr besteht die Gefahr des Rückzugs in internes
Gruppendenken. Abgrenzung und Feindbilder sind Folgen eines solchen Rückzugs.
Vergleichbares gilt in Bezug auf Strategien der Mutterkonzerne, denen zufolge die
Atomsparte als „schlechtes“ Geschäftsfeld ausgegliedert werden soll. Auch dies
kann von den Beschäftigten als Stigmatisierung empfunden werden und sich auf
deren Motivation und Arbeitsverhalten auswirken.
Eine andere Form der Adaption an die Umwelt kann die nur oberflächliche Er-
füllung einer Erwartungshaltung sein. Davor ist auch das Aufsichtsverhältnis nicht
gefeit. Eine Aufsichtsbehörde, die die Einhaltung von Vorschriften ins Zentrum ihres
Handelns stellt, muss damit rechnen, dass der Beaufsichtigte darauf angepasst re-
agiert. Er wird bei seinen Informationen jeweils die Sachverhalte in Verbindung mit
den einzuhaltenden Vorschriften bringen. Über seine Beurteilung der Sachverhalte
erfährt die Behörde dadurch wenig. Ein Streben nach Exzellenz, ein Streben, welches
über die Erfüllung der Anforderungen hinausgeht, wird damit nicht gefördert. Die
Aufsichtsbehörde kann das Sich-Einstellen des Systems auf die behördlichen Anfor-
derungen jedoch auch so gestalten, dass es der Sicherheitsverbesserung dient, z. B. in-
dem sie die Aufmerksamkeit auf entsprechende Fragestellungen lenkt oder bestimmte
Entwicklungen unterstützt. Zu solchen wünschenswerten Entwicklungen gehört auch
die Ausbildung und Aufrechterhaltung einer ausgeprägten Sicherheitskultur.
Komplexe Systeme zeigen Emergenzen. Die Organisationskultur, und als
Spezialfall davon die Sicherheitskultur, ist eine emergente Qualität eines sozio-
technischen Systems. Dieser weiteren Grundaussage entsprechend lässt sich die
Organisationskultur nicht an einzelnen Bestandteilen des Systems, seien es Einzel-
personen oder Gruppen, ablesen. Sie lässt sich schwer aus isolierten Beobachtun-
gen, Aussagen, Unterlagen etc. erschließen. Zudem ist Vorsicht geboten, wenn aus
einzelnen negativen Befunden auf Sicherheitskultur-Probleme geschlossen werden
soll. Dasselbe gilt auch für die umgekehrte Richtung: nicht jede Beseitigung einer
organisatorischen Schwäche ist zugleich eine Stärkung der Sicherheitskultur.
Wesentliche Änderungen einer Organisationskultur geschehen nicht von heute
auf morgen. Sie erfordern einen Zeitraum von Jahren, wenn nicht Jahrzehnten.
Die Entwicklung einer Kultur, in der wichtige Informationen und insbesondere Si-
cherheitsbedenken offen kommuniziert werden, die Fehler und Fehlleistungen als
Chance für Verbesserungen sieht und die die eigene Betriebserfahrung wie auch Er-
kenntnisse aus anderen Anlagen und Industrien für Optimierungen nutzt, ist für das
System „Atomkraftwerk“ nicht zum Nulltarif zu haben. Nicht selten ist eine Krise,
die bisherige, nicht mehr hinterfragte Auffassungen, Normen, Vorgehensweisen
u. a. in Frage stellt, zugleich eine Chance für eine Kulturänderung. Auf jeden Fall
sind Anstrengungen zur Entwicklung einer ausgeprägten Sicherheitskultur nötig,
die nicht nachlassen dürfen. Die jahrzehntelange Befassung hat in den deutschen
Atomkraftwerken zu einer Sicherheitskultur geführt, zu der andere soziotechnische
Systeme, beispielsweise im Gesundheitswesen, erst allmählich aufschließen.
200 Walter Glöckle

Als abschließende wichtige Aussage der Systemtheorie über das soziotechnische


System „Atomkraftwerk“ sei nochmals ein wesentlicher Gedanke aus Kornwachs’
Arbeiten zur Systemtheorie aufgegriffen: die Komplementaritäten bzw. Unschär-
ferelationen in nicht klassischen Systemen. Eine solche Komplementarität besteht
zwischen Struktur und Verhalten des Systems. Je detaillierter die Beschreibung in
Subsysteme und Sub-Subsysteme erfolgt, umso weniger lässt sich damit über das
Systemverhalten, d. h. die zeitliche Entwicklung des Systems, erfahren. Umgekehrt
lässt sich aus einer Beschreibung des Systemverhaltens nur begrenzt auf die Beiträge
von Subsystemen zu diesem Verhalten schließen. Übertragen auf die Atomaufsicht
heißt das: je stärker diese sich auf technische Komponenten, Anlagenteile, Regelun-
gen und andere Strukturen konzentriert, umso weniger kann sie über die „Perfor-
mance“ des Systems aussagen. Und je mehr sie die Entwicklung von Performance-In-
dikatoren in den Blick nimmt, umso weniger vermag sie die strukturellen Gründe für
diese Entwicklungen zu benennen. Zur Wirklichkeit des soziotechnischen Systems
gehören beide Seiten der Medaille – Struktur und Verhalten. Mit beidem muss sich
die Atomaufsicht befassen. Dabei ist konkretes Wissen um den Gegenstandsbereich
nötig. Der soziotechnische Ansatz in der Atomaufsicht, d. h. die systemtheoretische
Betrachtung, kann solches Wissen nicht ersetzen. Er plaudert es nur aus.
Soziotechnischer Systemansatz in der Atomaufsicht 201

LITERATUR

Fahlbruch, Babette; Miller, Rainer; Wilpert, Bernhard: Sicherheit durch organisationales Lernen.
Das Lernen aus Ereignissen und Beinahe-Ereignissen. In: atw, Internationale Zeitschrift für
Kernenergie, 43. Jg., November 1998.
Keil, Dietmar; Glöckle, Walter: Sicherheitskultur im Wettbewerb – Erwartungen der Aufsichtsbe-
hörde. In: atw Internationale Zeitschrift für Kernenergie, 45. Jg., Oktober 2000.
Kerntechnischer Ausschuss: Bekanntmachung von sicherheitstechnischen Regeln des Kerntechni-
schen Ausschusses – Integriertes Managementsystem zum sicheren Betrieb von Kernkraftwer-
ken (KTA 1402). In: Bundesanzeiger Amtlicher Teil, 23.1.2013.
Kornwachs, Klaus: Offene Systeme und die Frage nach der Information. Stuttgart 1987.
Ministerium für Umwelt, Klima und Energiewirtschaft Baden-Württemberg: Konzeption für die staat-
liche Aufsicht über die baden-württembergischen Kernkraftwerke. URL: http://um.baden-
wuerttemberg.de/fileadmin/redaktion/m-um/intern/Dateien/Dokumente/3_Umwelt/Kernenergie/
Managementsystem_Abteilung/Konzeption_f%C3%BCr_die_staatliche_Aufsicht_%C3%BC
ber_die_ba-w%C3%BC_KKW.pdf (Stand: 28.1.2017).
Ritz, Frank: Betriebliches Sicherheitsmanagement. Aufbau und Entwicklung widerstandsfähiger
Arbeitssysteme. Stuttgart 2015.
Schein, Edgar H.: Organizational culture and leadership. New York 2004(3).
Stammsen, Sebastian; Glöckle, Walter: Erfassen von Sicherheitskultur bei Anlageninspektionen.
Das KOMFORT-Aufsichtsinstrument der baden-württembergischen atomrechtlichen Auf-
sichtsbehörde. In: atw Internationale Zeitschrift für Kernenergie, 52. Jg., November 2007.
Trist, Eric; Bamforth, Ken: Some Social and Psychological Consequences of the Longwall Method
of Coal-Getting. An Examination of the Psychological Situation and Defences of a Work Group
in Relation to the Social Structure and Technological Content of the Work System. In: Human
Relations,1951 (4).
VERANTWORTLICH FÜR DAS WISSEN
Ernst Peter Fischer

„Es gibt eine moralische Einsicht, der ich mich nicht habe entziehen können“, ver-
kündete der Physiker und Philosoph Carl Friedrich von Weizsäcker 1980 in einem
Vortrag, mit dem er „Rechenschaft über die eigene Rolle“ abgeben wollte, die er
bei der Entwicklung sowohl der Kernphysik als auch der Atombombe gespielt
hatte. Er betonte, nur um dieser moralischen Einsicht wegen „halte ich die heutige
Rede. Sie heißt in einem Satz zusammengedrängt: Die Wissenschaft ist für ihre
Folgen verantwortlich.“1
Ich vermute, dass dieser Satz die allgemeine Zustimmung des damaligen Pu-
blikums gefunden hat und dass er auch an dieser Stelle von vielen Lesern bereit-
willig und ohne Zögern akzeptiert wird. Mir erscheint die Formulierung trotzdem
fragwürdig, und ich stehe ihrer unverbindlichen Allgemeinheit eher skeptisch ge-
genüber. Auf der einen Seite ist der Satz trivial. Denn wenn die Folgen der Wissen-
schaft Luxus und Wohlergehen sind, wird niemand nach der Verantwortung fragen.
Und wenn die Folgen der Forschung Schäden und Probleme mit sich bringen, wie
kann eine Gesellschaft dann anders als mit wissenschaftlichen Mitteln darauf re-
agieren? Zur Wissenschaft gibt es – in abendländischen oder europäischen Kultur-
kreis jedenfalls – keine Alternative, und wenn überhaupt, dann kann man nur aus
ihren Reihen auf eine Antwort rechnen und damit von Verantwortung reden.
Auf der anderen Seite ist von Weizsäckers Formulierung genau genommen un-
zutreffend. Denn „die Wissenschaft“ – das ist keine Person, und nur Menschen kön-
nen moralische Verantwortung übernehmen. Sie tun dies – allgemein ausgedrückt
–, wenn sie erstens so gut wie möglich beurteilen, was die Konsequenzen ihrer
Handlungen sind, und wenn sie zweitens nach den dabei gewonnenen Einsichten
handeln. Da aber alle Wissenschaftler, die diesen Namen verdienen und keine Ver-
brechen im Sinn haben, wenigstens im Prinzip so vorgehen, wird von Weizsäckers
moralisch wirkender Satz wieder völlig selbstverständlich, und das eigentliche
Problem, die Bewertung der konkreten wissenschaftlichen Befunde und der daraus
sich ergebende Entschluss zum Handeln, kommt gar nicht erst in den Sinn.
Es bleibt zudem unklar, was „die Folgen“ sein sollen, für die „die Wissen-
schaft“ zuständig sein soll. Die Folgen der Tatsache, dass eine christlich-abend-
ländische Gesellschaft sich seit Hunderten von Jahren bei ihrem wirtschaftlichen
Schaffen auf die Wissenschaft verlässt, die spätestens im 19. Jahrhundert für Milli-
onen Menschen zum Beruf geworden ist, zeigen sich in den Möglichkeiten, die auf
diese Weise in die Welt gesetzt und dort kräftig umgesetzt werden. Bäcker liefern
Brötchen, und Wissenschaftler liefern Möglichkeiten, deren Nutzung weitgehende

1 Weizsäcker, Carl Friedrich von: Wahrnehmung der Neuzeit. München 1983.


204 Ernst Peter Fischer

Veränderungen nach sich ziehen, und zwar Veränderungen der Bedingungen, unter
denen Menschen in Gesellschaften leben, wie sie etwa in der europäischen Welt zu
finden sind, in der die moderne Wissenschaft im frühen 17. Jahrhundert geboren
wurde. Mit anderen Worten, die Folgen der Wissenschaft zeigen sich in der Ge-
schichte, und für die sind alle Menschen gemeinsam verantwortlich, auch wenn
sich viele Politiker und Ethiker an diesen Gedanken erst noch gewöhnen müssen
Dabei ist diese Einsicht nicht neu und spätestens seit dem Beginn des 19. Jahr-
hunderts bekannt, als verstanden wurde, dass Geschichte nicht etwas ist, das Men-
schen zustößt, sondern etwas, das sie zustande bringen. Wer bedenkt, dass im Jahre
1800 die erste Batterie Strom lieferte und 100 Jahre später die Haushalte elektri-
fiziert wurden, erkennt leicht, wie sehr die Folgen der Wissenschaft zum Leben
der Menschen gehören und es beeinflussen. Dieses Wissen gehört aber nicht zur
Bildung im Lande der Dichter und Denker, im dem viele Intellektuelle nur dann
von Technik und Naturwissenschaft reden, wenn sie davor warnen dürfen – ent-
weder im Fernsehen oder auf ihrem Laptop, die sie beide ebenso wenig wie die
Drucktechnik und das Papier hätten, wenn Ingenieure oder andere wissenschaftlich
tätige Menschen sie nicht ersonnen und angefertigt hätten. Dass Disziplinen wie
Physik, Chemie und Biologie etwas mit der Geschichte der menschlichen Gesell-
schaft zu tun haben, wirkt bis heute für viele Historiker verstörend oder fremd.
Sie kümmern sich lieber um militärische Aktionen oder geopolitische Strategien,
lassen den wissenschaftlichen Hintergrund unbeachtet und kommen gar nicht auf
die Idee zu fragen, warum man im 19. Jahrhundert damit begonnen hat, nach Öl zu
bohren und warum seitdem so viel von Energie die Rede ist. Tatsächlich wird in
den Geschichtsbüchern so getan, als ob die moderne Welt sowohl ohne die Fächer
auskommt, für die Nobelpreise vergeben werden – warum eigentlich dafür? –, als
auch ohne ihre Mitwirkung so geworden ist, wie wir sie erleben.
Mir scheint hier ein doppeltes Ungleichgewicht nach Ausgleich zu verlangen.
Geschichte kann man nicht ohne Beitrag der Wissenschaft verstehen, und die Wis-
senschaft kann viele ihrer Fragestellungen nicht in Angriff nehmen, wenn sie die
Geschichte ihrer Gegenstände nicht zur Kenntnis nimmt. Die Geschichte formt
die Wissenschaft, und die Wissenschaft formt die Geschichte. Solch eine doppelte
Sicht ist charakteristisch für die Epoche, die Fachleute mit dem verlockenden Wort
„Romantik“ bezeichnen und in der auch der Philosoph Georg Wilhelm Friedrich
Hegel lebte, der in der Geschichte mehr als eine Folge von Ereignissen sah, die in
Chroniken festgehalten werden. Geschichte findet nicht statt, Geschichte wird ge-
macht, und zwar in Europa mit den Mittel der Wissenschaft, für die dann alle Men-
schen zusammen verantwortlich sind, und nicht nur ein Teil von ihnen. Indem von
Weizsäcker die Gruppe der Forscher unter allen heraushebt, um ihnen die Schuld an
Fehlentwicklungen aufladen zu können, fällt er erstens hinter die Romantik zurück
und entbindet er zweitens die Nicht-Wissenschaftler – die Öffentlichkeit und die
Medien – von jeder Verantwortung. Er erteilt dem Publikum und seinen Bericht-
erstattern die Absolution. Das Ozonloch, das Wald- und Artensterben, der saure
Regen, der Unfall im Atomkraftwerk, die übereilten Versuche bei der Gentherapie –
dafür ist nun allein „die Wissenschaft“ verantwortlich. Die Öffentlichkeit kann sich
beruhigt zurücklehnen und mit dem Finger auf die Verantwortlichen zeigen, ohne
Verantwortlich für das Wissen 205

zu merken, dass drei Finger der ausgestreckten Hand auf sie selbst zurückweisen.
Man hat trotzdem nichts mit dem Klimawandel zu tun. Den machen die anderen
in Fabriken oder fernen Ländern. Man fühlt sich wohl bei dem Gedanken und ap-
plaudiert dem populistischen Satz des populären Philosophen, der den Menschen
die Verantwortung für das Wissen abnimmt und sie einer ungeliebten und schwer
verständlichen Instanz aufbürdet.

EINZELNE WISSENSCHAFTLER

Carl Friedrich von Weizsäcker hätte seinen gefährlich einlullenden Satz anders fas-
sen und sagen können: „Die Wissenschaftler sind für die Folgen ihres Tuns verant-
wortlich.“ Dann hätte sich am Einverständnis seiner Zuhörer nichts geändert. Aber
hätte die Behauptung damit mehr Bedeutung bekommen? Was ist im Einzelfall
gemeint, wenn gesagt wird, Forscher sind für die Folgen ihrer Entdeckung verant-
wortlich? Wofür soll zum Beispiel ein Astronom, der Sterne beobachtet und Him-
melskarten anfertigt, verantwortlich sein, außer für die Zuverlässigkeit und Voll-
ständigkeit seiner Protokolle? Und wieviel mehr Verantwortung übernimmt dem-
gegenüber eine Genetikerin, die nach einer Genvariante sucht, die für ihre Trägerin
mit großer Wahrscheinlichkeit Brustkrebs zur Folge hat? Ist sie zugleich auch für
die Hilflosigkeit verantwortlich, mit der die Öffentlichkeit auf das dann mögliche
Angebot reagiert, einen prädiktiven Gentest für Brustkrebs durchzuführen? Bleibt
ihr überhaupt eine Wahl? Lädt sie nicht mehr Verantwortung auf sich, wenn sie sich
entschließt, die Suche nach dem Brustkrebsgen einzustellen, weil sie meint, die
Gesellschaft könne mit diesem Wissen noch nicht umgehen?
War zum Beispiel Albert Einstein für seine weltberühmte Formel E = mc2 ver-
antwortlich, die preisgab, wieviel Energie in der Materie steckt? Die Gültigkeit
von Einsteins Formel wurde unübersehbar, als die erste Atombombe zündete. War
Einstein dafür verantwortlich? Immerhin hat er dem amerikanischen Präsidenten
Roosevelt geraten, sie zu bauen, bevor es die Deutschen für Hitler tun. Oder ist
vielmehr die westliche Gesellschaft für die Bombe verantwortlich, denn es waren
schließlich demokratisch gewählte Regierungen, die sie in Auftrag gegeben haben,
und es waren Angehörige der amerikanischen Armee, die das ganze Geschehen
organisiert und überwacht haben.
Die von Einstein abgeleitete Beziehung zwischen Masse und Energie war die
Folge seines Handelns, das ein Nachdenken über die Frage war, wie der Energie-
gehalt eines Körpers von seiner Trägheit abhängt. Es waren weltferne Fragen, mit
deren Hilfe Einstein seine berühmte Formel nicht gesucht, wohl aber gefunden hat,
und zwar zu einer Zeit, als er 26 Jahre alt und Angestellter an einem Patentamt
war. Niemand wird einen heutigen oder künftigen Einstein daran hindern können,
über esoterisch anmutende und meilenweit von jeder Anwendung entfernt schei-
nende Fragestellungen nachzudenken, und niemand kann garantieren, dass dabei
nicht ähnlich tiefgreifende Zusammenhänge erkennbar werden, die neben ihren
großen Einsichten auch große Risiken mit sich bringen. Als jüngstes Beispiel aus
dem 21. Jahrhundert kann die Arbeit zweier Genetikerinnen – Jennifer Doudna und
206 Ernst Peter Fischer

Emmanuelle Charpentier – erwähnt werden, die eigentlich untersuchen wollten,


wie man Joghurt haltbarer macht, und dabei auf eine Fähigkeit von Bakterien stie-
ßen, das Erbmaterial ihrer biologischen Gegner, der Viren, zu manipulieren. Wie
sich herausstellte, kann der dazugehörige molekulare Mechanismus nicht nur bei
Viren, sondern bei allen möglichen Kreaturen eingesetzt werden, und inzwischen
sprechen die Biologen davon, damit „Human Editing“ betreiben zu können, also in
der Lage zu sein, das menschliche Genom so zu edieren und einzurichten, wie es
einem Auftraggeber gefällt.
Diese Möglichkeit konnte erstens niemand voraussehen, als es um Joghurt
ging, und kann zweitens niemand unterdrücken, wenn es um die Zukunft von Men-
schen geht. Tief in der Natur von Homo sapiens – nicht unbedingt in seinen Ge-
nen – steckt sein Wunsch, wissen zu wollen. Selbst Sokrates hat gewusst, dass er
wissen wollte, nämlich was hinter dem Horizont des Nichtwissens liegt. „Der wis-
senschaftliche Mensch ist (…) eine ganz unvermeidlich Tatsache“, wie es in Robert
Musils Roman „Mann ohne Eigenschaften“ heißt: „ Man kann nicht nicht wissen
wollen.“ Man kann nur nicht sagen, was dabei letztlich herauskommt, selbst wenn
man anfänglich nur an Joghurt interessiert ist oder den Zusammenhang von Energie
und Trägheit verstehen möchte.

DAS BÖSE UND DIE BOMBE

Die Entwicklung der Atombombe gehört zu den maßgeblichen Erfahrungen der


modernen Welt, in deren Verlauf die Menschheit aus einem alten Traum aufge-
wacht ist. Sie hatte sich so schön vorgestellt, dass die Welt mit zunehmender Ra-
tionalität nur besser und das Böse nur weniger werden kann. Mit der Atombombe
war das anders geworden, und seit dieser Zeit werden mindestens zwei Fragen
gestellt, die in diesem Zusammenhang erwähnt werden sollen. Auf der einen Seite
versucht der Blick auf die Geschichte zu erkunden, ob es eine Stelle gegeben hat,
an der die Entfesselung der atomaren Energien hätte gestoppt oder an der die Ent-
wicklung in eine andere Richtung hätte umgeleitet werden können. Auf der ande-
ren Seite fragt die philosophische Analyse, über welche Fähigkeiten oder Instan-
zen die Menschen verfügen, um einen Missbrauch der Mittel zu verhindern, die
der Sachverstand produziert.
Die Antwort auf die historische Frage ist schöner, weshalb mit ihr begonnen
werden soll. Sie stammt nämlich von einem Dichter, der die historischen Voraus-
setzungen genau studiert hat. Sie lassen sich rasch rekapitulieren:
Um eine Atombombe bauen zu können, muss zum einen die Relation zwischen
Energie und Masse gegeben sein, die Einstein 1905 als Nebenprodukt seiner Bemü-
hungen um die Relativitätstheorie gefunden hatte. Weiter muss es die theoretische
Physik der Atome geben, die unter der Bezeichnung „Quantentheorie“ in den zwan-
ziger Jahren aufgestellt werden konnte. Darüber hinaus muss man wissen, dass es
neben den Elektronen und Protonen noch eine dritte Sorte von Kernteilchen gab,
die Neutronen heißen, weil sie elektrisch neutral sind. Diese Qualität erlaubt es, mit
ihnen auf Atomkerne zu schießen und sie auch zu treffen. Dies wurde in der Mitte
Verantwortlich für das Wissen 207

der dreißiger Jahre gemacht, wobei als Ziel vor allem Uran diente. Die Physiker
hofften dabei, die Neutronen würden eingefangen und auf diese Weise Elemente
herstellen, die größer als Uran waren („Transurane“). Sie wollten sehen, ob sol-
che künstlichen Produkte stabil bleiben. Es waren dann Chemiker wie Otto Hahn,
die zur allgemeinen Verblüffung feststellten, dass eher das Gegenteil passierte: Die
Neutronen zerteilten das Uran. Die Kernspaltung war entdeckt, und es war Lise
Meitner, die als erste verstand, woher die Energie kam, die für diesen Vorgang nötig
war, nämlich aus der Materie selbst, wie Einstein ganz zu Beginn und ganz ohne
Absicht gefunden hatte.
Die Geschichte wird jetzt schneller und gezielter entwickelt, vor allem, weil in-
zwischen Krieg herrscht – wofür ganz sicher kein Naturwissenschaftler verantwort-
lich ist. Wo könnte nun eine Stelle stecken, an der die skizzierte Entwicklung hätte
abbrechen können? Oder lässt sich nur sagen, wodurch sich das Böse endgültig
durchsetzte? Ich denke, dass die Antwort in dem Gedicht von Eugen Roth zu finden
ist, das die Überschrift „Das Böse“ trägt und zum Beispiel in der Sammlung zu fin-
den ist, in der all seine Verse enthalten sind, die erzählen, was „Ein Mensch“ macht:
Ein Mensch – was noch ganz ungefährlich –
Erklärt die Quanten (schwer erklärlich).
Ein zweiter, der das All durchspäht,
Erforscht die Relativität.

Ein dritter nimmt, noch harmlos, an,


Geheimnis stecke im Uran.
Ein vierter ist nicht fernzuhalten,
von dem Gedanken, kernzuspalten.

Ein fünfter – reine Wissenschaft! –


Entfesselt der Atome Kraft.
Ein sechster, auch noch bonafidlich,
Will sie verwerten, doch nur friedlich.

Unschuldig wirken sie zusammen:


Wen dürfen, einzeln, wir verdammen?
Ist’s nicht der siebte oder achte,
Der Bomben dachte und dann machte?

Ist’s nicht der Böseste der Bösen,


Der’s dann gewagt, sie auszulösen?
Den Teufel wird man nie erwischen:
Er steckt von Anfang an dazwischen.

Es ist schwierig, etwas Gescheites über den Teufel zu sagen, und es ist erst recht
schwierig, etwas Vernünftiges über ihn zu schreiben. Zu groß sind die entsprechen-
den Figuren, die uns in der Literatur entgegentreten, bei Thomas Mann etwa oder
bei Goethe. Sein Teufel aus dem „Faust“ mit Namen Mephistopheles wird uns in
Kürze begegnen, und dabei wird auffallen, was ihn und seine Anhänger in den Tex-
ten auszeichnet, nämlich der hohe Grad von Rationalität. Teufel besitzen offenbar
eine Menge Verstand, und dieser Hinweis bringt die philosophische Frage wieder
208 Ernst Peter Fischer

auf den Tisch, die wissen will, wie die Menschen die Hervorbringungen ihrer ratio-
nalen Fähigkeiten – also ihre teuflischen Seiten – unter Kontrolle bekommen? Was
ist das Gegengewicht der Intelligenz, die in der Entwicklung von Wissenschaft und
Technik waltet?
Die bekannteste Antwort hat der Philosoph Karl Jaspers in seinem Buch „Die
Atombombe und die Zukunft des Menschen“ versucht, dessen erste Auflage 1958
erschienen ist. Er setzt voll und ganz auf die Vernunft: „An ihr hängt die Rettung“,
schreibt er, um hinzuzufügen, „ist die Vernunft im ganzen unwirksam und versagt
ihre Durchschlagskraft, dann scheint heute der Untergang die Folge“.2
Die meisten Menschen haben Jaspers damals Beifall gespendet, und die meis-
ten Menschen werden heute genau so handeln. Wir müssen wohl auf die Vernunft
setzen, obwohl wir oft und wiederholt von ihr enttäuscht worden sind. Aber ist
dies wirklich die einzige Instanz, die den Menschen bleibt? Oder hat jemand einen
anderen Vorschlag gemacht?
Die Antwort heißt „Ja“, auch wenn sie kaum zur Kenntnis genommen worden
ist. Sie stammt von dem Physiker Wolfgang Pauli, der zwar 1945 mit dem Nobel-
preis für seine Disziplin ausgezeichnet worden, der aber außerhalb seiner Wissen-
schaft bis heute ein Unbekannter geblieben ist. Dabei hat Pauli als einziger der gro-
ßen Physiker seiner Zeit die Mitwirkung am Bau der Atombombe verweigert, und
zwar mit dem Hinweis auf die Rationalität des Bösen, die dabei praktiziert wird.
Pauli hat schon früh auf die Tatsache hinzuweisen versucht, dass es mindestens
zwei Motive für den Wissenschaftler gibt. Es geht nicht nur um die Ausnutzung
oder Ausbeutung von Natur – nach dem bekannten Motto „Wissen ist Macht“. Es
geht auch – und wahrscheinlich sogar vor allem – um eine Erfüllung im Denken
und Fühlen. (Es geht um Bildung, wie in diesem Zusammenhang auch gesagt wer-
den kann.) Erfüllung erlaubt – wörtlich genommen – keine Einseitigkeit, weder
die des Verstandes noch die der Vernunft. Wenn die Rationalität erst einmal eine
Schieflage produziert hat – damals die Bombe, heute die Umweltzerstörung und die
Genmanipulationen –, kann ich das Gleichgewicht nur dadurch herstellen, dass ich
etwa Ergänzendes einsetze, etwas Komplementäres in dem eingeführten Sinne des
Wortes. In Paulis Worten: „Wenn die Rationalität Schiffbruch erleidet, hilft nicht
der Rückgriff auf Vernunft, sondern die Besinnung auf komplementäre Gegensatz-
paare. Die in Frage kommenden komplementäre Gegensatzpaare sind für mich:
Bewusstsein – Unbewußtes, Denken – Fühlen, Vernunft – Instinkt, Logos – Eros.“3
Pauli vermutet, dass „nur eine chthonische, instinktive Weisheit (…) die
Menschheit vor den Gefahren der Atombombe retten“ kann, und ich vermute, dass
er da sehr recht hat, selbst wenn dies bislang allzu wenige bemerkt haben. An dieser
Stelle zeigt sich besonders deutlich der Schaden, den ein Mangel an naturwissen-
schaftlicher Bildung mit sich bringen kann. Zwar kennt hierzulande nahezu jeder
den Namen Jaspers, aber wer wüßte etwas über Pauli zu sagen, der doch ähnlich
viel – und vielleicht in dem konkreten Fall sogar viel mehr – zu sagen hat? Es nützt
nichts, in weihevollen Tönen Vernunft und Humanität zu preisen, wenn man die

2 Jaspers, Karl: Die Atombombe und die Zukunft des Menschen. München 1982. S. 554.
3 zitiert nach: Fischer, Ernst Peter: An den Grenzen des Denkens – Wolfgang Pauli und die
Nachtseite der Physik. Freiburg im Breisgau 2000.
Verantwortlich für das Wissen 209

teuflische Seite menschlichen Handelns übersieht, die Mark Twain durch „the dark
side of the moon“ angesprochen hat. Es gehört doch zur Idee der humanistischen
Bildung, die im 14. Jahrhundert aufgekommen ist, sich vom feierlichen Ton des
Mittelalters abzusetzen und auch die Tiefen der menschlichen Seele zu berück-
sichtigen. Diesen Schritt gilt es immer noch zu vollziehen. Pauli, ein Naturwis-
senschaftler, hat dazu aufgerufen und geraten, das vom Christentum als ungeistig
geächtete Materielle mit einem positiven Wertvorzeichen zu versehen. Wie lange
noch wird die Philosophie diesen nötigen Schritt erschweren?

EIN HIPPOKRATISCHER EID FÜR DIE WISSENSCHAFT?

Als die Wissenschaftler vor rund 400 Jahren laufen lernten, indem sie anfingen,
ihre Tätigkeit zu organisieren und für die menschliche Gesellschaft nutzbar zu ma-
chen, da taten sie dies aus einem einsichtigen und nachvollziehbaren Grund heraus.
Wahrscheinlich am schönsten und einprägsamsten formuliert hat ihn Bertolt Brecht
in seinem Drama, mit dem er das „Leben des Galilei“ auf die Bühne gebracht hat.
Brecht legt Galilei die Worte in den Mund, die im 17. Jahrhundert den Ausschlag
für die wissenschaftlichen Bemühungen der Menschen waren: „Ich halte dafür,
dass das einzige Ziel der Wissenschaft darin besteht, die Mühseligkeit der mensch-
lichen Existenz zu erleichtern.“
Man sollte das Attribut vor dem Ziel, das Wort „einzige“, nicht überlesen, son-
dern ernst nehmen. Wissenschaft ist tatsächlich allein mit diesem Anspruch an-
getreten, und dieser Gedanke trägt bis heute, denn genau dafür werden sie ver-
antwortlich gemacht. Natürlich lassen sich im Laufe der Geschichte unterschiedli-
che und verschieden anspruchsvolle Ansichten zu der Frage finden, was als letzte
Wertmaxime der Verantwortung anzusehen ist, wie es unter Philosophen heißt: Für
Immanuel Kant etwa ist es der Mensch als Zweck an sich; für Albert Schweitzer
ist es die Ehrfurcht vor dem Leben; für Hans Jonas ist es die Bewahrung des Seins;
und für den politisch erfahrenen Naturphilosophen Klaus Michael Meyer-Abich ist
es der Frieden mit der Natur. Aber vermutlich wird niemand widersprechen, wenn
gedanklich der Anschluß an Brechts Galilei gesucht und die Ansicht vertreten wird,
auch heute noch sei der Blick auf Nützlichkeit geboten, und es komme auf „das
gute Leben aller“ an.
Vor diesem Hintergrund müssen die vielen Vorschläge gesehen werden, die seit
1945 gemacht worden sind, um einen hippokratischen Eid für Naturwissenschaft-
ler zu formulieren. Als Ziel solcher Initiativen, die zum ersten Mal im Angesicht
von explodierenden Atombomben gestartet worden sind und bis heute fortgeführt
werden, schwebte den Autoren die Stärkung der Verantwortung vor Augen, die For-
scher nach außen haben. Die Naturwissenschaftler sollten verpflichtet werden, ihr
Wissen und Können einzusetzen „zum Besten der Menschheit“ (1946), „für die
Wohlfahrt der Menschheit“ (1956), „zum Wohl der gesamten Menschheit“ (1976),
„für das Wohlergehen der Menschheit“ (1988), und immer so weiter mit immer
neuen und alten Variationen. Abgesehen davon, dass Vorschläge dieser Art erstens
eher nett und betulich klingen und zweitens zumeist unverbindlich – und damit un-
210 Ernst Peter Fischer

wirksam – bleiben, scheitert die Idee, eine hippokratische Eidesformel für Wissen-
schaftler nach dem medizinischen Vorbild zu entwickeln, vor allem an einem Punkt
Während Hippokrates eine wohldefinierte und unumstrittene Größe in den
Mittelpunkt seiner Festlegung der Verantwortlichkeit stellen konnte – nämlich das
Leben des Patienten, das es unter allen Umständen zu erhalten galt und gilt –, gibt
es nichts Vergleichbares für Physiker, Chemiker, Biologen und andere Naturfor-
scher. Denn was ist damit gemeint, sich für das Wohl der Menschheit einzusetzen?
Wie kann man sicher sein, so zu handeln, wenn man einem Einzelnen hilft? Hat
Einstein der Menschheit gedient, als er den Bau der Atombombe empfahl? Haben
die Physiker zum Wohl der Menschheit beigetragen, die nach dem Zweiten Welt-
krieg die Atomforschung verlassen und die Molekularbiologie entwickelt haben,
die uns dann die Gentechnik beschert hat? Und warum muss es immer die „gesamte
Menschheit“ sein? Ist ein Wissenschaftler nicht vor allem einzelnen Personen ge-
genüber verpflichtet, deren Leiden oder Leben er vor Augen hat? Überhaupt: Lässt
sich eindeutig definieren, was das Wohl bzw. was das Gute ist? Wie kann ich sicher
sein, dass meine Handlungen zum Guten führen? Kann ich dies überhaupt wissen?
Die Antwort lautet „Nein“, und eigentlich müßte sie, so laut es geht, verkün-
det werden. Sie stammt von dem Teufel, der von Anfang an zwischen uns steht,
wenn wir agieren. Sie stammt genauer von Mephistopheles, den Goethe in seinem
„Faust“ vom Himmel fallen lässt und der dem Gelehrten zu Diensten sein will.
Als sich Faust und Mephisto zum ersten Mal begegnen, führt sich der Teufel mit
einem seltsamen Satz ein. Auf die Frage, „Wer bist denn du?“, kommt die berühmte
Antwort:
„Ich bin ein Teil von jener Kraft,
die stets das Böse will, und stets das Gute schafft.“

Goethe lässt durch den Teufel ausdrücken, was im Grund jeder weiß, was mittler-
weile durch die Chaosforschung theoretisch sanktioniert und wissenschaftlich auf-
gewertet und abgesegnet ist und was jede vorgelegte Eidesformel schlicht bedeu-
tungslos macht: Die Welt, in der wir leben, ist nicht linear und gradlinig, sondern
komplex und vernetzt, und zwar so, dass die einzige gültige Logik in ihr die des
Misslingens ist. Es gibt keine Handlung – und erst recht keine Entdeckung –, deren
Folgen umfassend vorhersagbar sind und nur Gutes bewirken. Selbst das beste Gute
hat seine Schattenseiten, und selbst das schlimmste Böse hat sein Gutes.
Betrachten wir dazu einige Beispiele. Als unbedingt gut würde man die Verbes-
serung der hygienischen Verhältnisse betrachten, wie die nach dem Zweiten Welt-
krieg etwa in deutschen Haushalten möglich geworden ist. Welche Nachteile kön-
nen sich dabei bemerkbar machen? Die Antwort auf dies Frage liefern die Polio-
Viren, die zwar offensichtlich immer vorhanden und in unserer inneren und äuße-
ren Umwelt präsent waren, die aber solange harmlos blieben, solange Kinder früh
genug mit ihnen in Berührung kamen und infiziert wurden. „Früh genug“ heißt in
einem Alter, in dem das Nervensystem noch nicht differenziert genug war, um vom
Virus befallen, beschädigt und teilweise lahmgelegt zu werden. Diese Möglichkeit
bestand für den Eindringling erst, als dank der verbesserten Hygiene die Kinder das
Virus aufnahmen, als sie älter waren und ihr Nervensystem Platz für ihn bot.
Verantwortlich für das Wissen 211

Als unbedingt schlecht kann man (im Rückblick) die Absicht von Francis Gal-
ton (1822–1911) bezeichnen, der als Begründer der Eugenik – Erbverbesserung –
gilt und sie politisch verstand. Er entwickelte sehr früh Pläne, die englische Rasse
mit wissenschaftlichen Mitteln auf einer hohen Stufe von Reinheit zu halten und
vor fremden Einflüssen zu bewahren. Zu diesem fragwürdigen, wenn nicht gar ver-
werflichen Zweck ersann Galton – ein Cousin des großen Charles Darwin – eine
statistische Technik, die heute als Regressionsanalyse bekannt und zum festen Be-
standteil der Naturwissenschaften gehört.4
Als unbedingt schlecht und böse kann man zudem viele der Aufgaben betrach-
ten, die im militärischen Sektor an Wissenschaftler vergeben und von ihnen be-
arbeitet werden – die Entwicklung von Waffen oder Kampfstoffen etwa, die von
den atomaren über die chemischen bis hin zu den biologischen reichen, oder die
Konstruktion von Geräten, mit denen feindliche Maschinen (und ihre Piloten) zu-
verlässig abgeschossen werden können. Diese Sicht trifft aber zum einen nur in
Friedenszeiten zu, und auch wer den Satz des vorsokratischen Philosophen Heraklit
nicht mehr hören kann, dass die Krieg der Vater aller Dinge ist, wird sicher wissen,
wieviel technische Entwicklungen – vom Radar bis zur Urform des Internet – im
Auftrag militärischer Dienststellen entstanden sind.
Mit anderen Worten, der Einsatz von Wissenschaft und die Entscheidung für
ein Leben auf wissenschaftlicher Grundlage ist mit einem Risiko verbunden, das
außerhalb der individuell tragbaren Verantwortung liegt. Sie fängt an, wenn Gefah-
ren erkennbar auftreten und es möglich ist, sie klein zu halten. Und sie setzt sich in
der Aufgabe fort, die Öffentlichkeit über die unvermeidlichen Risiken zu informie-
ren, die eine wissenschaftliche Entwicklung mit sich bringt

VERANTWORTUNG FÜR DIE ZUKUNFT

Der israelische Historiker Yuval Harari hat 2013 „Eine kurze Geschichte des Men-
schen“ vorgelegt, die auf Englisch 2011 erschienen ist und kürzer „Sapiens“ heißt.5
Harari fängt beim Urknall an, er stellt einige Revolutionen vor – eine kognitive,
eine landwirtschaftliche und eine wissenschaftliche –, und er macht sich im letzten
Kapitel Gedanken über „Das Ende des Homo sapiens“, das ihm unter anderem
dank der Pläne von Genetikern unausweichlich erscheint, den Neandertaler wieder
auferstehen zu lassen. Außerdem denkt er auch an das Vorhaben der Neurologen
und Kognitionsforscher, mehrere Gehirne miteinander zu vernetzen. Wenn dies ge-
lingt, entsteht ein Wesen mit einem kollektiven Gedächtnis, dem sich plötzlich die
Möglichkeit bietet, sich an die Erinnerungen von anderen Menschen zu erinnern.
Wenn ich mein Erinnern bin, wie die Philosophie weiß, dann bin ich jetzt ein an-
derer. Ich bin dann vermutlich ein anderer Mensch, und dann sind alle vernetzten
Menschen andere Menschen, und vielleicht kommt auf diese Weise das Ende des
Menschseins herbei. Natürlich kann niemand sagen, was dabei genau passiert und

4 s. Weber, Thomas P.: Darwin und die Anstifter. Köln 2000. S. 33.
5 Harari, Yuval: Eine kurze Geschichte der Menschheit. München 2013.
212 Ernst Peter Fischer

was aus den Kollektivwesen entstehen kann, aber klar ist, dass aus den Menschen,
die einmal Tiere waren, so etwas wie Götter geworden sind, die das Leben bestim-
men und neu entwerfen. Sie haben dabei mindestens ein Problem. Sie wissen nicht,
was und wohin sie wollen. Sie haben immer noch keine Theorie des Lebens, wie
ganz zu Beginn angemerkt wurde. Und so wendet sich Harari am Ende seines Bu-
ches an seine Leser mit einer Frage, über die nachzudenken sich ungemein lohnt:
„Gibt es etwas Gefährlicheres als unzufriedene Götter, die nicht wissen, was sie
wollen?“ Vielleicht kann man sie überzeugen, vorsichtig zu Werke zu geben, ihre
Verantwortung anzunehmen und damit das zu werden, was sie sein wollen, nämlich
zufrieden mit sich und den Menschen. Die moralische Einsicht, der sich Menschen
nicht entziehen sollten, heißt, dass sie alle für die Folgen des erworbenen Wissens
verantwortlich. Es lebt sich besser damit.
Verantwortlich für das Wissen 213

LITERATUR
Fischer, Ernst Peter: An den Grenzen des Denkens – Wolfgang Pauli und die Nachtseite der Physik.
Freiburg im Breisgau 2000.
Harari, Yuval: Eine kurze Geschichte der Menschheit. München 2013.
Jaspers, Karl: Die Atombombe und die Zukunft des Menschen. München 1982.
Weber, Thomas P.: Darwin und die Anstifter. Köln 2000.
Weizsäcker, Carl Friedrich von: Wahrnehmung der Neuzeit. München 1983.
IV. SPRACHE DER TECHNIK:
KÖNNEN WIR SAGEN, WAS WIR TUN?
TECHNISCHES WISSEN, TECHNISCHE SPRACHE,
TECHNISCHE BILDER

Hans Poser

1 TECHNISCHES WISSEN

Fragt man einen Philosophen, was Wissen sei, so wird er mit der einen oder anderen
Ergänzung auf Platon verweisen, der Wissen als wahre Auffassung mit Begründung
bestimmt hatte („Theaitetos“, 201d–206b). Das wird einem Techniker oder Tech-
nikwissenschaftler wenig helfen, denn was ist eine Auffassung und wann und wie
ist sie zu begründen – das bleibt ja offen. Fragt man dagegen einen Soziologen,
selbst wenn er Bücher über die Wissensgesellschaft geschrieben hat, so findet sich
keine Klärung, sondern eine Verschiebung: Die faktische gegenwärtige Überein-
stimmung als handlungsleitender Bestand in einem Kulturkreis, also eine commu-
nis opinio, wird für Wissen gehalten, denn hierauf stützt sich das gesellschaftliche
Geschehen; doch in „postfaktischen“ Zeiten mit Berufung auf das „Bauchgefühl“
oder der freien Erfindung „alternativer Fakten“ dürfte eine solche Sicht zu Ideolo-
gien führen. Der Techniker wird deshalb darauf beharren, dass es sich beim techni-
schen Wissen um eine bewährte Auffassung handelt, also um Inhalte, die zwar kein
Wahrheitskriterium erfüllen, sich jedoch im praktischen Umgang mit der Welt als
tauglich erwiesen haben. Damit wird ein Absolutheitsanspruch vermieden, sodass
unter technischem Wissen viel vorsichtiger methodisch begründete Aussagen von
Hypothesenstatus zu verstehen sind, die unter veränderten Bedingungen eine An-
passung erlauben.
Nun ist solches technisches und technologisches Wissen sehr unterschiedlicher
Gestalt1, nämlich:
TW1 ein Sachverhaltswissen,
TW2 ein Wissen um Mittel für einen Zweck im Sinne einer Funktionserfüllung
(theoretisches Handlungswissen),
TW3 ein Wissen, wie solche Mittel zu gewinnen und anzuwenden sind (prakti-
sches Handlungswissen, know how),
TW4a ein Wissen um Werte, die hinter den Bedürfnissen stehen (normatives Hand-
lungswissen),
TW4b ein Wissen über die Modifikation von Zielen im Lichte der Werte, falls dies
erforderlich ist (praktisches und theoretisches normatives Wissen),
TW5 Problemlösungswissen (Form eines Nichtwissens, das eine Auflösung er-
fordert).

1 Poser, Hans: Homo creator. Technik als philosophische Herausforderung. Wiesbaden 2016.
S. 119–132 u. S. 255–293.
218 Hans Poser

Das Sachverhaltswissen TW1 stützt sich zwar in Teilen auf die empirischen Aussa-
gen der Erfahrungswissenschaften, aber es wäre verfehlt, dabei stehen zu bleiben,
denn es kann im Blick auf die zu verfolgenden Zwecke (TW2) nicht um den Ideal-
fall experimentell gefundener Größen einer Einzelwissenschaft gehen, sondern um
die Zusammenführung von disziplinär geschiedenen Sachverhalten von der Physik
über die Biowissenschaften bis in die Sozialwissenschaften. Dabei sind wiederum
nicht Idealdaten von Interesse, sondern gerade das Wissen um jene in der prak-
tischen Gemengelage bedeutsamen Sachverhalte: Das technologisch konzipierte
Artefakt kann ja keinen idealen Carnot-Prozess verwirklichen oder auf Bedürfnisse
einer idealen Gesellschaftsstruktur abzielen.
Scheinbar einfacher liegen die Verhältnisse bei der Funktionserfüllung TW2 –
scheinbar, weil diese vielleicht für jedes Einzelelement eines Artefakts prüfbar sein
mag, doch deren Zusammengehen über Fachgrenzen hinweg dadurch noch kei-
neswegs gewährleistet ist. Dennoch liegt an dieser Stelle mit der Bindung an die
Funktionserfüllung der alles entscheidende Unterschied zwischen bloßer Theorie
und erfolgreicher Technikwissenschaft. Das ist nicht als Abwertung der Theorie zu
verstehen, wie sie Alois Riedler gegenüber seinem Kollegen Franz Reuleaux um
1900 an der TH Berlin betrieb2, sondern als Notwendigkeit einer Synthese beider
Seiten, wie Leibniz sie als theoria cum praxi gefordert hatte: Technikwissenschaf-
ten gründen sich nicht auf Naturgesetze, sondern auf effektive Regeln als Typen
von Handlungsanweisungen. Dabei werden Mittel auf Zwecke bezogen, wobei
es zu einem Zweck gleich welcher Art zahlreiche Mittel geben wird. Doch mehr
noch – mit diesem Begriffspaar wird die Empirie im strikten Sinne des Vorfindli-
chen verlassen: Zwecke als Ziele sind Ausdruck eines teleologisches Moments und
einer Wertsetzung! So wird Technologie zu einer Auch-Wertwissenschaft. Zugleich
bezeichnet das Mittel-Ziel-Verhältnis einen teleologischen Zusammenhang, zu dem
eine kausale Verknüpfung als Funktionserfüllung herangezogen wird. Damit er-
weist sich die werthaft-teleologische Sicht als die bestimmende Seite technischen
und technologischen Wissens.
Das theoretische Handlungswissen bedarf des Zusammengehens mit dem prak-
tischen Handlungswissen TW3. Dabei geht es im einfachsten Fall um eine Ansamm-
lung von erfolgreichen Mittel-Zweck-Verknüpfungen, heute oft als „know how“
bezeichnet oder in „tacit knowledge“ gesehen, doch viel weiter ausgreifend um ein
Wissen, das Nebenbedingungen wie Verfügbarkeit, Finanzierbarkeit, Verwirklich-
barkeitsbedingungen einschließt, sodass eine Auswahl unter TW2-Lösungsangebo-
ten im Blick auf die Sachverhaltslage TW1 möglich wird.
Auch wenn aufgrund der in TW2 angesprochenen Finalität deutlich geworden
ist, dass Technik und Technologie durch Werte gekennzeichnet sind, bedarf dieses
einer weiteren Differenzierung in Gestalt des TW4-Wertewissens. Dieses hat zwei
Elemente – das eine baut auf gesellschaftlich tradierte, zu berücksichtigende oder
zu erfüllende Werte, das zweite verlangt beim Entwerfen einen Umgang mit der
Modifikation von Mitteln und gegebenenfalls auch von Zwecken unter Bezug auf

2 König, Wolfgang: Der Gelehrte und der Manager. Franz Reuleaux (1829–1905) und Alois
Riedler (1850–1936) in Technik, Wissenschaft und Gesellschaft. Stuttgart 2014.
Technisches Wissen, technische Sprache, technische Bilder 219

höherrangige Werte. Diese sind in aller Allgemeinheit im VDI-Werteoktogon fest-


gehalten3, verlangen aber in jedem Einzelfall eine konkrete Umsetzung: Die KZ-
Verbrennungsöfen wie der Pinto-Skandal haben gezeigt, dass kein Techniker sich
allein auf ein Funktionieren im engen Sinne beziehen kann, sondern dank seines
Wertewissens zu einer differenzierten Betrachtung befähigt sein muss.
Das Problemwissen TW5 stellt eine besondere Form des technisch-technologi-
schen Wissens dar, denn es verlangt, in einer Situation, in der zu einem gegebenen
Problem keine Musterlösungen (etwa in Regelform) vorliegen, im Wissen um das
eigene Nichtwissen eine Fragestellung und einen Suchhorizont zu bestimmen, um
kreativ eine neue Lösung zu entwickeln: Hier wird vorhandenes Wissen herange-
zogen, um Neues zu erdenken: Diese Struktur des Nichtwissens wird damit zum
Antrieb, der ganze Kulturen von der Steinzeit über die Bronze- und Eisenzeit zur
industriellen Revolutionen geführt hat.
Nun stellt sich die Frage, wie solche Wissensformen sich zueinander verhalten
und wie sie zu einer Einheit technischen Wissens verschmolzen werden können.
Formal lassen sie sich einander gegenüberstellen4, inhaltlich kommen sie in je-
dem technischen Artefakt von der Maschine bis zum Computerprogramm zusam-
men; eine Wissenschaftstheorie der Technikwissenschaften ist auf der Suche nach
der Antwort5.

2 TECHNISCHE SPRACHE

Die eben unterschiedenen Wissensformen sind (bis auf „tacit knowledge“) sprach-
lich gefasst. In der Handwerkstradition wurde dies unmittelbar an den Arbeitsvor-
gang geknüpft und spielte dabei gegenüber der Praxis eine sekundäre Rolle. Das
zu ändern berief sich Diderot in seiner „Encyclopédie“ auf Leibniz mit dem Pro-
gramm, Handwerkstechniken zu beschreiben und überdies in Kupferstichen dar-
zustellen, um dieses Wissen in sprachlicher Form allgemein verfügbar zu machen.
Damit gewinnt die Sprache nicht nur an Gewicht, sondern tritt an die Stelle der
praktischen Vermittlung. Dies mag wesentlich zur Ausbildung einer nicht mehr
lokal begrenzen Fachsprache beigetragen haben, im deutschsprachigen Raum ab-
lesbar etwa an Johann Beckmanns „Anleitung zur Technologie oder zur Kenntniß
der Handwerke, Fabriken und Manufacturen“ von 1777. Etwa gleichzeitig kam es
in den praxisorientierten fürstlichen Collegia, dann in der Pariser „École polytech-
nique“ und den nachfolgenden Polytechnischen Lehranstalten zur Ausbildung von
bereichsspezifischen technischen Fachsprachen mit Fachbegriffen für Objekte, Me-
thoden, Zwecke. Der damit verbundene Anspruch einer theoretischen Fundierung
verlangte deren Verknüpfung nicht nur in der Umgangssprache, sondern in geeig-

3 Verein Deutscher Ingenieure: VDI Richtlinie 3780 – Technikbewertung: Begriffe und Grundla-
gen, Bild 3. Düsseldorf 2000.
4 Kornwachs, Klaus: Logische Strukturen technischen Wissens. In: Klaus Kornwachs (Hg.):
Technologisches Wissen. Entstehung, Methoden, Strukturen. Berlin 2010. S. 143.
5 Kornwachs, Klaus: Strukturen technologischen Wissens. Analytische Studien zu einer Wissen-
schaftstheorie der Technik. Berlin 2012. S. 223–278.
220 Hans Poser

neten Formalsprachen, die sich insbesondere mathematischer Elemente bediente,


die eine hohe Präzision erlauben. In der Mitte des 19. Jahrhunderts erfährt damit
etwa der Maschinenbau eine durchgängige Theorieform, ablesbar beispielsweise
1861 an Franz Reuleaux’ überaus einflussreichem Werk „Der Constructeur. Ein
Handbuch zum Gebrauch beim Entwerfen“, sichtbar auch an seiner „Theoretischen
Kinematik“ von 1885.
Die technische Sprache ist natürlich auch zum Untersuchungsgegenstand der
Linguisten geworden, man denke an Zeitschriften oder Reihen wie „Sprache im
technischen Zeitalter“ (ab 1961) oder „Studien zu Sprache und Technik“ (ab 1989),
die nicht nur die metaphorische Aufnahme technischer Bezeichnungen in die Um-
gangssprache betrafen („Gib Gas!“ für „Beeile dich!“ oder in umgekehrter Rich-
tung „den Motor abwürgen“), sondern beispielsweise in der Unterscheidung von
Fachsprache, Werkstattsprache und Nutzersprache6.
Eine sprachliche Sonderform sind Patentschriften. Sie enthalten eine Innova-
tion; doch anders als etwa Lehrbücher stellen sie nicht eine sorgfältige Bauanlei-
tung dar, sondern nur das zu schützende Grundprinzip, damit keine direkte, mini-
mal abweichende und damit ungeschützte Variante verwirklicht werden kann: Mit
dem Papier weiß man noch lange nicht, wie’s geht, sagte ein Patentinhaber.
Mit der Normung von technischen Begriffen und Verfahren, in Deutschland
1917 beginnend, kommt es mit DIN-Normen zu einer institutionellen Sprachlen-
kung7, die inzwischen zu den internationalen EN- und ISO-Normen geführt hat.
Doch nicht nur die Sprachregelung ist hierbei bedeutsam, sondern – künftig wohl
noch bedeutsamer – die inhaltliche Ausweitung: Ging es zu Anfang um Kegelstifte
und Papierformate, also um Abmessungen, Materialien, Kenngrößen, so sind mitt-
lerweile Sicherheits- und Umweltstandards hinzugekommen: die Normierung hat
also Bereiche eingeschlossen, die ethisch begründet sind. Teile des TW4-Wertewis-
sens sind damit über Sprachnormen inhaltlich festgelegt und standardisiert. Damit
wird – kaum beachtet – eine weltweite technikethische Basis in der Hoffnung er-
zeugt, universell verbindlich zu werden.
Seit den 70er Jahren des vergangenen Jahrhunderts sind die Fachsprachen um
formalisierte Programmsprachen erweitert. Sie stellen ein Hilfsmittel dar, das ins-
besondere dann anwendbar ist, wenn es nicht um kreative Neuerungen, sondern
um konkrete Dimensionierungen in einem bestimmten, abgegrenzten Bereich geht.
Ihre Fortführung haben sie in bildgebenden Verfahren gefunden (s. u.). Vor allem
aber wird die Entwicklung solcher Programme zu einer eigenen technologischen
Aufgabe, dienen sie doch der Steuerung von technischen Anlagen vom Industrie-
roboter bis zur ärztlichen Diagnose- und Behandlungsgeräten – vielfach dabei in
Verbindung mit bildgebenden Verfahren.

6 Jakob, Karlheinz: Maschine, Mentales Modell, Metapher. Studien zur Semantik und Ge-
schichte der Techniksprache. Tübingen 1991. S. 100.
7 s. Ischreyt, Heinz: Studien zum Verhältnis von Sprache und Technik: Institutionelle Sprachlen-
kung in der Terminologie der Technik. Düsseldorf 1965.
Technisches Wissen, technische Sprache, technische Bilder 221

3 TECHNISCHE BILDER

Bilder gehören zu den elementaren menschlichen Kulturformen, sie bestimmen unsere


Sicht der Welt, indem sie deutend, reduzierend und konzentrierend Gesehenes und Ge-
dachtes festhalten. So waren Bilddarstellungen für die Technik und ihre Entwicklung
immer von allergrößter Bedeutung, seien sie illustrativ, erklärend oder Arbeitsvorla-
gen. In jüngster Zeit sind deshalb wissenschaftliche und technische Bilddarstellungen
zum Gegenstand der Forschung geworden. „Das technische Bild“ hat das Ziel, „Bilder
nicht als illustrierende Repräsentation, sondern in ihrer produktiven Kraft als eigen-
ständiges, mehrschichtiges Element der Erkenntnisgewinnung zu begreifen“8. Solche
Bildentwicklung sei an einigen dort nicht behandelten Technikbildern verdeutlicht.
Vitruvs „De architectura libri decem“, etwa 20 v. Chr. verfasst, muss als frühestes
Lehrbuch aller Fragen und Bereiche gesehen werden, die es mit dem Bauwesen bis hin
zur Wasserversorgung, dem Uhrenbau und Kriegsmaschinen zu tun haben. Im Zuge
der Wiedererweckung der Antike und dem Bedürfnis, ihre Architekturformen aufzu-
nehmen, kam es in der Renaissance zu einer Suche nach überkommenen Manuskrip-
ten, 1486 erfolgte in Rom ein erster Druck, ein weiterer 1511 in Venedig. Sie waren
nicht bebildert, doch schnell zeigte sich die Notwendigkeit, Vitruvs Angaben bildlich
darzustellen: 1521 erschien eine illustrierte italienische Übersetzung, eine deutsche
1548 in Nürnberg, 1575 in Basel nochmals gedruckt; viele weitere sollten folgen.
Die für das Werk oder die Übersetzung von 1548 charakteristische Abbildung
des ionischen Kapitels (Abb. 1) zeigt genauestens die Formen und Proportionen,
die vom Steinmetz einzuhalten sind; es handelt sich um eine Bauanleitung, wie
sich aus der freien, zugleich erläuternden und weitere Bezeichnungen einführenden
Übersetzung ergibt. Tatsächlich lässt sich bildlich unvergleichlich besser als aus
dem Text unmittelbar erkennen, was die wesentlichen Elemente sind.
Ganz anders sind die überaus zahlreichen Holzschnitte zu verstehen, die Georg
Agricola in seinen „De re metallica liberi XII“ (Basel 1556) und der im Folgejahr
erschienenen deutschen Fassung beigibt: Das gesamte Montanwesen kommt in ih-
nen zur Darstellung. Die ganzseitige Abbildung eines Kehrrades (Abb. 2), das die
Umkehr der Drehrichtung des Wasserrades und damit des Kettenzugs ermöglicht,
ist geradezu eine Bilderzählung der neuen Technik: Statt Grubenwasser oder Erz
mühselig in Eimern auf Leitern heraufzuschaffen, wie links im Bild angedeutet,
soll dies mit einer ledernen Ringbulge geschehen, die sich im Schacht selbständig
füllt, an einer Eisenkette statt eines Seils heraufgezogen, geleert und wieder hin-
abgelassen wird; im Schutz einer Schachtnische (links unten angedeutet) sorgt ein
Bergmann für den reibungslosen Ablauf untertage.
Vermittelt wird im Bild nicht nur eine neue Technik, sondern auch die Arbeits-
ersparnis, die Reduzierung der erforderlichen Arbeiter und Elemente der Arbeitssi-
cherung. So hat Agricola mit den Holzschnitten zusammen mit dem ausführlichen
Text ein Standardwerk geschaffen, das sehr lange den Bergbau bestimmen und mo-
dernisieren sollte.

8 Bredekamp, Horst; Schneider, Birgit; Dünkel, Vera (Hg.): Das Technische Bild. Kompendium
zu einer Stilgeschichte wissenschaftlicher Bilder. Berlin 2008. S. 8.
222 Hans Poser

Abb. 1: Ionisches Kapitel. In: Vitruvius Teutsch: Nemlichen des aller namhafftigisten vnd hoch-
erfarnesten, Römischen Architecti, und Kunstreichen Werck oder Bawmeisters, Marci Vitruuij
Pollionis, Zehen Bücher von der Architectur vnd künstlichem Bawen. Ein Schlüssel vnd einleytung
aller Mathematischen und Mechanischen künste. 3. Buch. Nürnberg 1548. S. 126 r.

Mit der Renaissance begegnen wir dreidimensionalen Darstellungen, die wiederum


einem anderen Zweck dienen: Kirchen-Modelle, die dem Geldgeber eine Anschau-
ung vermitteln (Abb. 3).
Modelle gehören auch heute zu den zentralen Elementen der Technik – nicht
nur in der Architektur, sondern ebenso in anderen Bereichen. Dort dienen sie viel-
fach zu Tests, die anders als naturwissenschaftliche Experimente nicht Hypothesen
bestätigen oder widerlegen sollen, sondern die Vereinbarkeit unterschiedlicher, in
der Theorie kaum aufeinander beziehbarer Anteile einer konkreten Anforderung
prüfen und revidierbar machen sollen. Dies können Modelle für oder von etwas,
theoretisch-formalsprachliche oder räumliche Modelle sein, alle heute viefach von
Coputersimulationsmodellen abgelöst.9
Wie erwähnt, ergänzte Diderot seine Darstellung der Handwerkstechniken in
der „Encyclopédie“ durch Kupferstiche. Diese 3000 detaillierten Abbildungen soll-
ten technisches Wissen vermitteln, um es in aufklärerischer Absicht allenthalben
verfügbar zu machen. Der mit großer Genauigkeit perspektivisch beziehungsweise
in Aufsicht abgebildete Tuch-Webstuhl (Abb. 4) mit Weberschiffchen, Durch-
schuss-Anlage und Garnrolle verfolgt dieses, indem er Bau, Elemente und Wir-
kungsweise wiederzugeben trachtet.

9 Költzsch, Peter: Zum Problem der Modelle aus der Sicht der Technikwissenschaften. In: Bre-
dekamp, Horst u. a.: Modelle des Denkens. Streitgespräch. Berlin-Brandenburgische Akademie
der Wissenschaften, Debatte 2. Berlin 2007, S. 81–90.
Technisches Wissen, technische Sprache, technische Bilder 223

Abb. 2: Kehrrad. In: Georg Agricola: Vom Bergkwerck XII Bücher darin alle Empter /
Instrument /Gezeuge / unnd alles zu disem handel gehörig / mit schönen figuren vorbiltet / und
klärlich beschriben seindt. 6. Buch. Basel 1557. S. 164.
224 Hans Poser

Abb. 3: Pavia, Bischöflicher Palast, Holzmodell des Doms von Pavia, um 1500.
In: Malaguzzi-Valeri, Francesco: La Corte di Lodovico il Moro. Bd. II. Mailand 1915.
http://www.rdklabor.de/w/images/6/64/01-0919-1.jpg (Stand: 22.01.2017).

Abb. 4: Draperie. In: Diderot: Encyclopédie. Recueil de Planches. Vol. 2b. Paris 1763. S. 268.
Technisches Wissen, technische Sprache, technische Bilder 225

Abb. 5: Berechnung eines Stirnzapfens. In: Reuleaux, Franz: Der Constructeur.


Ein Handbuch zum Gebrauch beim Entwerfen. Braunschweig 1861. S. 77.

Abb. 6: Riedler, Alois: Das Maschinen-Zeichnen. Begründung und Veranschaulichung


der sachlich notwendigen zeichnerischen Darstellungen und ihres Zusammenhanges
mit der praktischen Ausführung. Berlin 1919(2).

Einem wiederum neuen Abbildungstyp begegnen wir bei Felix Reuleaux. Es geht
hier im Zuge der Verwissenschaftlichung der Technik nicht nur um eine Beispiel-
Vorlage wie bei Vitruv, sondern recht eigentlich um dreierlei, das an folgendem
einfachen Beispiel deutlich wird: Abzubilden sind in einer Systemzeichnung alle
Typen von „Zapfen“ zusammen mit Angaben über die Form- und Maßverhältnisse,
ausgedrückt in einer Formel (Abb. 5), und schließlich ergänzt um eine theoriege-
leitete Begründung der Formel – im Falle des Stirnzapfens von über einer Seite.
Nun war Reuleaux gegen Ende seines Wirkens in Alois Riedler ein Widersa-
cher erwachsen, der Reuleaux’ vielgeschätzte Zeichnungen als „unbrauchbar“ oder
„unrichtig“ verwarf und ihnen eigene Zeichnungen entgegenstellte (Abb. 6).
Riedler verfolgte dabei zwei neue Ziele, zum einen, Zeichnungen nicht auf The-
orie, sondern auf praktische Erfahrungen in von ihm entwickelten „Ingenieurlabo-
ratoren“ zu gründen. Zum anderen geht auf ihn das technische Zeichnen zurück, das
später in DIN-Normen gefasst wurde. So war eine Systematisierung und Standardi-
sierung der Wiedergabe von Technik auf allen technischen Bereichen erzielt: Damit
waren auch alle Interpretationsebenen einer technischen Zeichnung eindeutig fixiert.
226 Hans Poser

4 DIE NEUE SYNTHESE

Eine grundsätzliche Veränderung erfuhr das technische Bild in den bildgebenden


Verfahren wie CAD, CAAD, CAM etc., die an die Stelle des Zeichenbretts den
Plotter treten ließen. Die Entwurfstätigkeit erfolgt am Computer, der je nach Pro-
gramm bereits Elemente von TW1 als Materialgrößen, Regelstrukturen gemäß
TW2, EN-Normen im Sinne von TW4, zu verändernde Grundfigurationen und
damit Lösungsvorschläge etc. entsprechend TW5 einschließt: Die Entwurfspraxis
führt am Ende nicht nur zu einer Fertigungszeichnung, sondern auch zu Stücklisten
mit allen erforderlichen Maßen. Im weiteren Schritt wird das Bild mit 3-D-CAD
perspektivisch, es kann gedreht und umgeformt werden (Abb. 7) – damit liegt eine
bahnbrechende Zusammenführung von Wissen, Anschauung, Systemvorgabe und
Konstruktionszeichnung vor. Wird nun gar ein 3-D-Drucker angeschlossen, so ist
jedenfalls in einfachen Fällen das Werkstück direkt verwirklichbar. Die universelle
Lösung der Synthese von technischem Wissen, technischer Sprache und techni-
scher Zeichnung scheint gegeben.
Die Vorteile solchen rechnergestützten Konstruierens sind geläufig: Das Kon-
struieren geht schneller, die Angaben sind genauer, nicht nur die Entwürfe sind
energie- und materialsparender, sondern auch die Konstruktionen, wenn sie im Hin-
blick hierauf optimiert worden sind; sie sind also billiger. Aber sind sie auch besser
in einem normativen Sinne? Alle alten Probleme des Konstruierens kehren wieder:
Die Ausklammerung der Reflexion auf Wertrationalität bezüglich des Produktes
seitens des Konstrukteurs, was nur aufgefangen werden kann, wenn wertrationale
Prinzipien in die Programm-Gestaltung eingehen, also außer ökonomischen auch
rechtliche und ethische, ökologische und soziale Werte. Weiter muss dem Vertrauen
des Benutzers eine Verantwortung des Programmierenden korrespondieren.

Abb. 7: „Neuentwicklungen von Ventilgehäusen werden ausschließlich im 3-D-CAD konstruiert.“


Foto: Fa. Hora. http://www.hora.de/flow-control/kompetenzen/3d-cad/ (Stand: 22.1.2016).
Technisches Wissen, technische Sprache, technische Bilder 227

Neue Probleme treten hinzu. Da die Computerlösungen hochkomplex sein kön-


nen, entsteht die Frage deren Überprüfbarkeit. Noch sehr viel tieferliegend ist die
Überprüfung hinsichtlich der vorausgesetzten Werte, weil das Problem einer bloß
instrumentellen Vernunft unmittelbar auf der Hand liegt: Der Computer ist auf eine
begrenzte Zahl von Möglichkeiten beschränkt, von denen her die angebotene Lö-
sungsmannigfaltigkeit bestimmt ist; juristische, moralische, ökologische und sozi-
ale Werte treten deshalb überhaupt nur in Erscheinung, soweit sie auf die analytisch
als Elemente ausgezeichneten Möglichkeiten bezogen werden können! Die grund-
sätzliche Schwierigkeit aber besteht darin, dass der Rechner auf eine kombinatori-
sche Heuristik beschränkt bleiben muss, weil er stets nur eine vorgegebene endliche
Zahl von Möglichkeiten zu kombinieren vermag: Lösungen eines TW5-Problems
sind ihm verschlossen, weil dem rechnergestützten Konstruieren eine intentionale
Heuristik grundsätzlich nicht verfügbar ist. Damit ergibt sich die Gefahr einer Ste-
rilität, weil der Rechner im Grundsatz programmierte Lösungen reproduziert, und
der Gedanke ist irreführend, der Konstrukteur werde durch den Gebrauch des Rech-
ners zu eigener kreativer Leistung frei – und dies aus folgendem Grund: Konstruk-
tionen zielen auf Möglichkeiten ab; Möglichkeitsräume sind jedoch nicht von sich
aus strukturiert, sondern erfahren ihre Strukturierungen durch uns. Wir aber können
uns Möglichkeiten nur soweit vorstellen, als wir mit ihnen umgehen und sie we-
nigstens zum Teil verwirklichen. Darum wird sich Technik und Technologie weiter
um neue Formen des Wissens, um deren sprachliche und formale Darstellung und
Umsetzung bemühen und sich der Bereicherung durch Bilder bedienen.
228 Hans Poser

LITERATUR

Bredekamp, Horst; Schneider, Birgit; Dünkel, Vera (Hg.): Das Technische Bild. Kompendium zu
einer Stilgeschichte wissenschaftlicher Bilder. Berlin 2008.
Ischreyt, Heinz: Studien zum Verhältnis von Sprache und Technik: Institutionelle Sprachlenkung in
der Terminologie der Technik. Düsseldorf 1965.
Jakob, Karlheinz: Maschine, Mentales Modell, Metapher. Studien zur Semantik und Geschichte der
Techniksprache. Tübingen 1991.
Költzsch, Peter: Zum Problem der Modelle aus der Sicht der Technikwissenschaften. In: Brede-
kamp, Horst u. a.: Modelle des Denkens. Streitgespräch. Berlin-Brandenburgische Akademie
der Wissenschaften, Debatte 2. Berlin 2007, S. 81–90. https://edoc.bbaw.de/solrsearch/index/
search/searchtype/collection/id/16301.
Kornwachs, Klaus: Logische Strukturen technischen Wissens. In: Klaus Kornwachs (Hg.): Techno-
logisches Wissen. Entstehung, Methoden, Strukturen. Berlin 2010. S. 137–157.
ders.: Strukturen technologischen Wissens. Analytische Studien zu einer Wissenschaftstheorie der
Technik. Berlin 2012.
König, Wolfgang: Der Gelehrte und der Manager. Franz Reuleaux (1829–1905) und Alois Riedler
(1850–1936) in Technik, Wissenschaft und Gesellschaft. Stuttgart 2014.
Poser, Hans: Computergestütztes Konstruieren in philosophischer Perspektive. In: Banse, Gerhard;
Friedrich, Käthe (Hrsg.): Konstruieren zwischen Kunst und Wissenschaft. Idee – Entwurf –
Gestaltung. Berlin 2000. S. 275–287.
ders.: Homo creator. Technik als philosophische Herausforderung. Wiesbaden 2016.
TOO TIGHTLY-CUT NEW CLOTHES FOR THE “EMPEROR”?
Imre Hronszky

INTRODUCTION

Institutionalised technology assessment (TA) was born from the emerging resist-
ance to polluting technologies as Technikfolgenabschätzung, as assessing (quan-
titative) risks (realising caution) around 50 years ago. It was introduced to extend
deterministic planning. Paradoxical as it may seem, one of the most important rec-
ognitions of this period was that of the essentially limited capability of calculating
risks. That is because of the unavoidable presence of complexity and that way,
of the Knightian, the “genuine uncertainty”. Precaution appeared as the appropri-
ate behaviour to meet it. TA went through profound development but it preserved
at least one of its basic characteristics: TA is technology specific, concentrating
on particular technologies and is more product than process oriented. Contrarily,
responsible research and innovation (RRI) aims at inquiring into and supporting
science-technology-innovation as part of a prospective comprehensive social-eco-
nomic endeavour. As its main intention, in the frame of supporting this endeavour,
RRI aspires to realise a collective, shared responsibility of all participants both for
the purposes and the possible negative effects, in an overarching societal process
where the participants become mutually responsive to each other.
The vision of RRI very quickly became widely accepted as an ethics based un-
dertaking. But there was an immediate turn, better to say a bifurcation, around 2010
in interpreting RRI. Responsibility for RI was originally considered to fit the re-
quirements for precaution in the history of TA as its central critical attitude. For nu-
merous, by far not only intellectual reasons, another interpretation was made central
around 2010 in assessing RI: instead of preventing the negative consequences, the
adverse effects of RI, as its primary task, supporting RI as a “positive” endeavour
came to the limelight. The interpretation of RRI quickly generated countless rami-
fications in the relevant discourses. But the term itself remained a formal anchoring
point, in the hope of developing it into a comprehensive key concept. There has
been extensive academic discourses and, as in any real world story, we find endur-
ing pressure and multiple and repeated authority interventions that have essential
effects in creating some sorts of closure on the term by now.
Shortly after, the RRI vision received a quick institutionalisation as the com-
mon commitment to develop RRI as a collective task for all partners in RI to ac-
celerate responsible RI as far as possible in a process of becoming mutually re-
sponsible to each other. This RRI should overcome the decades long “divide” in
interpreting and doing RI. RRI, in this sense should be a cross-cutting, transversal
230 Imre Hronszky

issue for policy making, for any type of research and innovation to be funded by the
European Commission.
There was a quick and obvious success in some sense by 2016 that induced
a widespread enthusiasm around it. However, only, Arie Rip raised a basic criti-
cal question to all this. As he says metaphorically, the “emperor” (RRI) has been
gradually developing his own existence in a peculiar dynamic.1 Intended to be an
umbrella term, RRI actually started as a blank metaphor. But after some years, it
is still a non-existing “emperor”, just it has been getting rather different and con-
tingent interpretations, versions of RRI “clothes”. RRI even involved topics, like
gender equality, the so called “keys”, where it is not fully clear how they belong to
the responsible RI issue. But this way, RRI, the “emperor”, became more and more
real in the process of repeatedly trying on different “new clothes”. Unfortunately,
all this makes it impossible to work out that very basic task of RRI, that is to give
coherent advices for the application of RRI, an inherently cross-cutting issue pres-
ent in all innovation efforts.
Savienne de Saille persuasively details how two different dynamics charac-
terised the ten years before the term RRI was coined, and the roughly four years
of introducing of the institutionalised RRI until 2013.2 The period started with
a step made by the EU as a value community. It was the promising declaration
of the precautionary approach as the official viewpoint of the EU. But the period
had two, an economic and a social-critical dynamic, contradictory intentions in the
innovation policy of the EC. She rightfully concludes that forces concentrating on
the overcome of the economic crisis by accelerating economic growth (to which,
we can say, a special sort of responsibility may be attached), took the decisive po-
sition in determining what institutionalised RRI should look like. Institutionalised
RRI should help in reaching higher economic growth, as the materials that define
the “Horizon 2020” programme and RRI prescribe, instead of giving a primary
place to precaution in any sense. For social-critical forces this result is an essential
distortion of the original aim, and, is an unrightful expropriation of the term. This
way, not only has there not been any important innovation of innovation policy, but,
as she concludes, old positions got reinforced. The question emerges if the change
is perhaps more than this, in one respect. This change seems to be, among other
things, an important one, but perhaps an, in the long run, misleading renewal of the
old positions concentrating on economic growth.
Collective, shared responsibility of all participants in RI can be realised in two,
completely different approaches. These approaches essentially differ in three key
areas: how they relate to the role science, technology and innovation has and should
have in society, how they think about genuine uncertainty and reponsibility for
adverse effects, and what they want to realise with the public-, citizen-, and us-
er-participation in societal, economic, and innovation issues. It is most important to

1 Rip, Arie: The clothes of the emperor. An essay on RRI in and around Brussels. Journal of
Responsible Innovation, vol. 3, 2016: 21.11.2016, http://dx.doi.org/10.1080/23299460.2016.
1255701.
2 de Saille, Stevienna: Innovating for Innovation Policy: The Emergence of “Responsible Re-
search and Innovation”. Journal of Responsible Innovation, July 2015. pp. 152–168.
Too tightly-cut new clothes for the “emperor”? 231

recognise that choosing between them can not be an “objective” process in which
the simply “unbiased conclusion” is made on either side, based solely on “the facts
and the logic” but choosing is, in a definitely uncertain world, necessarily a val-
ue-laden one based on a commitment to a value-laden fact-base made by either of
them. (Choosing between them will lead to different results even in those disputes
when the same fact-base is accepted.) Choosing between them is choosing between
two, complex, irreducible mixes, “compounds” of values and facts.
On the one hand science, technology and innovation (innovation in a compre-
hensive meaning) can be seen as ambivalent issues by definition: they do not only
have positive potential for societal progress, but just the opposite, too. Further,
one can start from a basic position concerning the most defining characteristics of
the complex issues surrounding us. This is understanding genuine (non-calculable)
uncertainty as their non-removable essential characteristic. This way, among other
things, one can attribute highest importance to try to prevent the emergence of the
“adverse” effects by taking a precautionary approach. The problem of “sacrificing”
in innovation brings the ethical primacy of precaution to the foreground in the gov-
ernance of innovation. If “sacrificing” is not definitive, recovery actions have their
economic costs.
This preventive approach is not incompatible with looking at innovation as an
essential element of human progress. In this approach, this means conditional ac-
ceptance of RI as a means in solving societal challenges – among other means such
as innovations in social cooperation. One can further accept that, in a participative
democracy, the public and the citizens should be able to make inquiries about in-
novation primarily based on their “civic epistemologies”3 in a “two-way commu-
nication”. In this case a critical-positive relation can be set, in which trying “early
warning” and action based on the warning is the morally justifiable unavoidable
first step in the progress of integrating innovation into human activity. “Precaution-
ary foresight” can be a term for this kind of deliberative, two-sided commitment in
progress.4
On the other hand, one can move in a reductive way and identify RI as the most
appropriate issues to solve societal (and environmental) problems. By taking this
approach, enthusiasm is the most appropriate emotional mediator, a kind of rational
religion in turning to them. In this view, the publics have to and can acquire this
enthusiasm. They can rationally understand the reasons in the degree in which they
acquire the related knowledge of experts. Public confidence in science-technolo-
gy-innovation is the most important, and the critical attitude properly should be
subordinated to such engagement. This approach is the only way to overcome the
“divide” in assessing innovation. With this, the dominant mistrust in RI cultivated
by some extreme groups, finds its abstract counterpart in the enthusiastic, unques-
tionable acceptance of RI.
Those who have made the decisions over the recent institutionalised RRI have
been reacting by a reflex, based on their, immediate perception: critical movements

3 Jasanoff, Sheila: Designs on Nature. Science and Democracy in Europe and the United States.
Princeton 2005.
4 Stirling, Andy: Democratising innovation. SPRU. Sussex 2014.
232 Imre Hronszky

divide society and slow down technological innovation as the only real alternative
for economic competition, and solving social problems, this way. In this respect,
their possibly the most successful elimination is of highest importance, a precon-
dition for a successful innovation policy. Institutionalised RRI funding cuts them
out of support, just as it cuts the defenders of “precautionary foresight”, by setting
the strongly reductive frame for funding RRI: precautionary behaviour should not
be or only as topic of minor importance included in RRI, and the public, without
scientific knowledge is identified as, in itself simply an ignorant “participant”. This
purified RRI deals then in the collaboration of all remaining parties in working out
collective responsibility for each other, but also for the naive public in a dynamic
facilitating the advancement of RI.
It is some sort of tragedy, that the ideal to achieve collaborative work between
all parties on shared responsibility, this most important issue, that is put in centre by
the institutionalised RRI, is to be realised in a space preformed for the institution-
alised RRI by a decision based on a starting exclusion. The question of cui prodest
of such setting of the discourse arena rightfully arises.
The recent institutionalised RRI is an accomodation of the EU innovation pol-
icy authorities to the vision the EU authorities fixed in the Europe 2020, as Flagship
Initiative Innovation Union as their expectation of what innovation can do for the
economy to overcome the economic crisis.5 This is to strategically turn to a “social
economy” which aims “to refocus R&D and innovation policy on the challenges
facing our society.” One essential task of the recent institutionalised RRI is justifi-
cation, legitimation of RI as integrated into a modified economic growth. RI in the
future should concentrate on the solution of the Grand Challenges, the challenges
that appear as European or global social and environmental problems. Institution-
alised RRI promises to confirm and consolidate the needed “positive engagement”
in science, technology and innovation. (One can just remember how quickly and
warmly the Competition Council reacted to the Rome Declaration on RRI as legiti-
mating issue in 2014.) But this is one of its possible roles from an economic growth
perspective. The other role is to adjust funding to a new innovation policy that fits
in the efforts to renew the economic competition, that remains based on economic
growth and efficiency, but strategically turns to exploit the Grand Challenges to
find the best direction to the economic growth based economic competition. In this
way, the renewing economic competition consciously turns to partly overcome its
neo-liberal limits.
The toward solution of Grand Challenges directed market economy starts to
realise some overarching direction shift in the direction of economic growth and
competition. This is a very strong step from the viewpoint of economy, integration
of something, and a way of increasing the profit, that, as yet, mainly has been a cost
increasing issue. But this is only the half-way point. (It is also worth noting here
that one expert report that was asked to suggest, in 2013, what institutionalised
RRI and its funding should be, suggested exploiting the precautionary approach as

5 European Commission: Europe 2020 – A strategy for smart, sustainable and inclusive growth.
Brussels, 3.3.2010, COM(2010) 2020 final.
Too tightly-cut new clothes for the “emperor”? 233

source of economic value. It urged to take “late lessons from early warnings” really
seriously and urged to make economic profit from “early warning”.)
Science has already been profoundly transforming in the last 40 years. It has
reached a rapidly growing capability to offer strategic potentials for the market and,
also to contribute to solving societal problems this way. But the situation seems to
be different with the recent, “coming” “industrial revolution”, that would be based
on convergence of technologies and the all pervading role of digital transformation
of which a rather certain forecast can be made. But the raising role of complexity
and interconnectedness can also be expected in an earlier never experienced quality
and measure. With this, the high risk/high opportunity character of any action dra-
matically increases. This way, multiplication of the possibility of quite new types
of progress by innovation and its “adverse effects”, dramatically increases. Any
deliberate vision has to take into account this: aligning for the best possible utilising
of the coming innovation potential must be framed by an overall persuasion that
appropriate approach to complexity must have primacy.
Highest authorities in the EU or G7, having the decision capacity in innovation
policy making, identify a never before seen challenge for advancement.6 They
urge enthusiasm for exploiting the dawning new possibilities for economic compet-
itiveness, and also solving social problems this way. Persuasion of citizens by the
visions of the researchers who have to advise them is put by them into the centre.
Unfortunately, urging for enthusiasm is scarcely connected to the need to realise
highest precaution as an overall accompanying effort, even when reaching the “pos-
itive” ends is also essentially object of the complexity challenge.
It seems steady acceleration of economic growth and efficiency concentrating
on exploring and exploiting the “positive” side of innovation remains unquestion-
able determining requirement in the dawning integration of the economic and the
social in reality. This position has, at least two main consequences. First, in the
systemic interaction in the dynamism, this has a decisive feed-back effect even on
what will be accepted as a Grand Challenge – acceptable for the economy in its
given state: economic growth not any Grand Challenge is the decisive selection
factor in the cooperation. Second, everything that slows down the growth is to be
played down. To “liberate” the path also for this special sort of socio-economic
innovation, any serious precautionary approach must be confined. An ideological
preparatory effort, a “demistification” of the precationary approach helps in this
issue. According to this, importance of uncertainty is overdramatised. There is a
downplaying of the Rio Declaration, and a view that “diminishes” the qualitative
difference between uncertainty and risk, by identifying them as only gradual dif-
ferences. Furthermore, according to the “demistification”, potential of high tech
for solving societal problems is dangerously underestimated by its critics and any
public criticism and fear is mostly based on ignorance.
The new approach needs expertise of all sorts and all new sorts more then ever.
This approach brings the danger of realising an, in many respects, economistic,
expertocratic, and technocratic result of social problems which also incorporates

6 G7 Science ministers’ communiqué, Turin, 27–28. September. 28th September 2017.


234 Imre Hronszky

works of experts from social sciences. But strategic support by the public must also
to be assured. Enthusiastic citizens should be a secure essential base for the new
system. To the redirection of economic growth, a special type of unavoidable (re)
education of the citizens is needed. Public involvement should be essentially based
on different sorts of their scarcely questionable supportive potentials, not on a de-
liberative attitude. Doing “citizen science”, even when it is a bit opaque what it can
mean, belong to these potentials.

A FEW ASTOUNDING ILLUSTRATIVE EXAMPLES

I fully abandon the critical interpretation of all tender calls in any detail in this short
article. Instead of that, I bring more in foreground some preparatory materials, some
early showcases and the standpoint of the recently responsible commissionaire.
RRI Tools is a project that already gained funding in the 7th Framework Pro-
gramme from 2013.7 It has also been offering showcases with the task of facilita-
ting practical realization of RRI by providing a guide to application to the different
points of the RRI funding announcements and a collection of best practices. This is
a funny mixture, to say the least. As any other part of the RRI funding system, the
RRI Tools realises an immense amount of work. That is most important in many
respects, you have just to look at their efforts to help develop a community of
practice for realising RRI. Thus, it is even more depressing that RRI Tools seems
to suffer from most of the same illnesses as institutionalised RRI itself as a whole.
I limit myself to some examples in the “Key Lessons from RRI Tools”. They
stand together with very good examples in this material. Ethics only concentrates
on the professional ethics and exemplifies it with a code from 1992. Considerations
on and examples of, how ethics for all the participants should look like, what ac-
companying ethical evaluation should be and how ethics should work from within
even when its leeway is reduced to supporting RI are missing. Citizens are called
when this is identified as important by other actors. The otherwise practically very
important differentiation of “technical issues”, to be dealt with by experts, helps
to avoid public participation in a strange way. For example, RRI Tools repeatedly
refers to the practice of Vinnova, the Swedish innovation funding organisation. The
turning in the development of Vinnova’s practice from 2012 is certainly an im-
portant showcase for overcoming the “disciplinary ghetto” of research (the term
is from Vinnova) to “challenge-driven innovation”, but it is an anti-showcase for
demonstrating essential public participation. E.g., in a project funded by Vinnova,
a Swedish language teaching software was developed for young refugees, a very
important issue, to help them gain access to higher education. Having identified
this as a “technical task”, the language tool was developed without any two-way
interaction with the intended users in the process of development. Further, you find

7 RRI Toolkit. Fostering Responsible Research and Innovation. http://www.rritools.eu (Stand:


10.4.2017).
Too tightly-cut new clothes for the “emperor”? 235

a “Green urban system solutions” project funded, made by experts, but you rightly
miss any essential citizen participation.
There is an awarding system, EFARRI, to support RRI in ERA. An, in its
dimensions and wide expert and stakeholder base very impressive Italian-Viet-
namese project, IMMR, winner in 2016 (Report on it is enclosed to RRI Tools),
worked out an “integrated and sustainable watermanagement of the Vietnamese
Red-Thai Bin River System in a changing climate”. When it will be realised it will
have a strong effect on the life of about 26 million inhabitants around Hanoi and
the issue is full of contradictory interests. But inhabitants and their possible orga-
nized groups (if they existed at all) were only represented by local authorities in
the project worked out in “a participatory process involving the main institutional
stakeholders”. A quasi standardised model is offered to realise by the cooperation.
It could be named customization through local authorities. The offered solution
seems to strengthen the way of life in an autoritarian word, technically managed
by the bureaucracy.
I can only very shortly reflect on one expert report for instutionalising RRI
funding. “Science education for responsive innovation” is a high-level expert group
report immediately addressed to the EC.8 The report is praised by the recent com-
missionaire Moedas in the foreword as follows: “This publication offers a 21st
century vision for science and society (RRI).” He correctly emphasises: to align
research and innovation to the values, needs and expectations of society “we must
engage all of society in research and innovation processes.” But as he stresses, this
is to be realised by specifically relying on science. “We need science to inform po-
licy, objectively. We need science to inform citizens and politicians in a trustworthy
and accessible way. We need to make decisions together–rather than from polarised
positions–and to take responsibility for those decisions, based on sound science
evidence.” As he concludes, the education report demonstrates “how best to equip
citizens with the skills they need for active participation in the processes that will
shape everyone”s lives.” This is praising the deficit model and the decision making
to be made together with appropriately (re)educated citizens.
The expert report outlines what the public needs to acquire to get enlightened.
This is the necessary knowledge of and about science to be able to participate ac-
tively and responsibly. As the report claimes “science learning helps to (…) put
uncertainty into perspective, to guide technological development and innovation
and to forecast and plan for the future.” Education materials suggested by the expert
material refer to hundreds of schools in most different countries where the deficit
model is very consciously being taught.
We can see even through the few examples chosen that the official type of
RRI “as a means to bring science closer to the people” not only is essentially a
reductive approach but, on a layer deeper, it also often lags behind its own requi-
rements.

8 European Commission: Science Education for Responsible Citizenship. Report to the Euro-
pean Commission. Brussels 2015.
236 Imre Hronszky

CONCLUSION

The, on the EC level recently institutionalised RRI follows an innovation policy ap-
proach of a Janus face. This way it is an essential modification of the old framework,
based solely on economic competitiveness and autonomy of science for RI funding.
It has four pillars. First, it puts in its core a strategic alliance between innovation and
the Grand Challenges to give a global strategic orientation for RI in terms of global
societal (and environmental) needs, meanwhile keeping the leading role for serving
the needs of economic growth. Second, it deprives the precautionary approach of
its essential role (this does not differentiate it from the earlier variant). Third it aims
at and is on the way to realising a one-sided public participation. It promotes “con-
structing” or at least selecting citizens who look at RI through the lens of science
(and technology), find their jobs based on their science (and technological) education,
and are positively biased towards partaking in the exploration and exploitation of
something probably partly becoming a new, a global technological fix as the overall
engine for their good life, that is essentially conceptualised in consumption of newer
and newer technological achievements, also of those which repair the adverse effects
of previous technologies. Fourth, institutionalised RRI and its funding intends to re-
ceive public legimation this way. To reach these goals “smoothly”, institutionalised
RRI plays down the importance of precaution and the two-way communication. In its
recent form, institutionalised RRI and its funding is not an agent for a participative
democratic transformation of RI, politics and society but for renewing a technocratic,
expertocratic perspective, even when perhaps masses of citizens enthusiastically par-
ticipate in different sorts of “citizen science”. Institutionalised RRI gears the innova-
tion process to societal needs in a special way that fits in the Europe 2020 strategy.
Too tightly-cut new clothes for the “emperor”? 237

LITERATURE

European Commission: Europe 2020 – A strategy for smart, sustainable and inclusive growth. Brus-
sels, 3.3.2010, COM(2010) 2020 final. http://eur-lex.europa.eu/LexUriServ/LexUriServ.
do?uri=COM:2010:2020:FIN:EN:PDF (Stand: 10.4.2017).
European Commission: Science Education for Responsible Citizenship. Report to the European
Commission. Brussels 2015. http://ec.europa.eu/research/swafs/pdf/pub_science_education/
KI-NA-26-893-EN-N.pdf (Stand: 10.4.2017).
G7 Science ministers’ communiqué, Turin, 27–28. September. 28th September 2017. http://www.g7italy.
it/sites/default/files/documents/G7%20Science%20Communiqu%C3%A9.pdf (Stand: 30.9.2017).
Jasanoff, Sheila: Designs on Nature. Science and Democracy in Europe and the United States.
Princeton 2005.
Rip, Arie: The clothes of the emperor. An essay on RRI in and around Brussels. Journal of Respon-
sible Innovation, vol. 3, 2016: 21.11.2016, http://dx.doi.org/10.1080/23299460.2016.1255701.
RRI Toolkit. Fostering Responsible Research and Innovation. http://www.rritools.eu (Stand: 10.4.2017).
de Saille, Stevienna: Innovating for Innovation Policy: The Emergence of “Responsible Research
and Innovation”. Journal of Responsible Innovation, July 2015. pp. 152–168.
Stirling, Andy: Democratising innovation. SPRU. Sussex 2014.
„BREAKING NEWS“ – ODER WIE MODERNE TECHNIK
JOURNALISMUS INHALTLICH VERÄNDERT

Harald Kirchner

In Zeiten von „Fake News“ ist die Glaubwürdigkeit des Journalismus wieder stär-
ker in die Diskussion geraten. Gibt es eine von unbekannten Mächten gesteuerte
Mainstream-Presse? Kann man Journalisten noch trauen? Insbesondere von Popu-
listen wird die Glaubwürdigkeit des Journalismus insgesamt angezweifelt – eine
vielleicht durchsichtige Strategie, um Kritiker ins Abseits zu stellen und die ei-
genen Echoräume gegen Argumente zu immunisieren. Optimisten hoffen jedoch,
dass gerade durch krude Falschbehauptungen, zum Beispiel der Administration
des amerikanischen Präsidenten Donald Trump (wie mit der Zahl der Besucher
der Inauguration des Präsidenten), die Aufmerksamkeit für kritischen Journalismus
wieder steigen könnte.
Abgesehen von dieser großen und wichtigen Diskussion über den Umgang mit
Wahrheit in der Gesellschaft gibt es allerdings auch technisch-gesellschaftliche
Faktoren, die den Journalismus und damit auch die allgemeine Wahrnehmung poli-
tischer und gesellschaftlicher Prozesse beeinflussen, die nicht so deutlich im Fokus
der Diskussion stehen – wahrscheinlich, weil sie sich hauptsächlich nur den Me-
dienschaffenden selbst in aller Deutlichkeit zeigen.
Gemeint ist die technische Möglichkeit, immer schneller Nachrichten in den
verschiedensten Medien zu publizieren, und die daraus folgende immer größere
Arbeitsteilung. Ein Zeitungsredakteur ist heute auch Online-Journalist, bisweilen
sogar in Personalunion Radio- und Fernsehmacher, Fernsehjournalisten produ-
zieren inzwischen auch Radio- und Online-Beiträge oder liefern Teile zu für den
jeweils anderen „Ausspielweg“, wie die verschiedenen Medien innerhalb eines
Medienhauses (zum Beispiel eines öffentlich-rechtlichen Senders) inzwischen ge-
nannt werden. Der Nachrichtenjournalismus nähert sich durch die Faktoren Ge-
schwindigkeit und Arbeitsteilung ein Stück weit der industriellen Produktion von
Nachrichten an.
In Deutschland ist das Fernsehen zwar immer noch die Nachrichtenquelle Num-
mer eins, doch der Trend geht eindeutig Richtung Online-Nachrichten mit dem
Schwerpunkt auf mobile Endgeräte.1 Matthias Streitz, Geschäftsführer von „Spiegel
Online“ wird mit dem Satz zitiert: „Die mobilen Endgeräte und Apps spielen bei uns
eine stark wachsende Rolle, zusammengenommen sogar fast die wichtigste (…).“2

1 vgl. Reuters Institute Digital News Survey 2016, Oxford. In: Media Perspektiven, Frankfurt am
Main, 1.11.2016, S. 534 ff.
2 Bayerischen Landeszentrale für neue Medien (Hg.): Tendenz – das Magazin der Bayerischen
Landeszentrale für neue Medien, München, 1.4.2016, S. 17.
240 Harald Kirchner

Die Reuters-Studie hat auch ergeben, dass für immer mehr Nutzer von Online-
Medien die Geschwindigkeit, in der Nachrichten publiziert werden, zum Kriterium
für die Beurteilung eines Medium geworden ist – ein Trend, dem zahlreiche Medien
Rechnung tragen, indem sie Nachrichten-Apps anbieten, die selbsttätig auf sich
aufmerksam machen, sobald es Neuigkeiten gibt. Wer mehrere Apps mit „Push-
Nachrichten“ auf seinem Smartphone installiert hat, bei dem fiept, klingelt und
surrt es innerhalb von Sekunden mehrfach, wenn ein wichtiges Wahlergebnis vor-
liegt, sich ein Anschlag ereignet hat oder ein Fußballspiel entschieden worden ist.
Inzwischen werden sogar Inhalte den Vorgaben technischer Geräte wie die „Apple-
Watch“ angepasst: Weil das Display der Uhr so klein ist, müssen Inhalte entspre-
chend dargestellt, sprich verkürzt werden.3
Die zweite große Veränderung, die sich für den Journalismus ergeben hat, ist
ebenfalls auf technische Entwicklungen wie das Internet und die immer höheren Ra-
ten bei der Datenübermittlung zurückzuführen. Denn nicht allein die Geschwindig-
keit der Nachrichtenübermittlung hat sich erhöht, durch die allgemeine Zugänglich-
keit von Übertragungs- und Publikationswegen ist neben den professionellen Medien
eine neue mediale Öffentlichkeit entstanden. Vor allem soziale Medien beeinflussen
inzwischen die Arbeit von Journalisten, insbesondere derer, die tagesaktuell für elek-
tronische, wie auch für Printmedien Beiträge erstellen. Im Folgenden sollen diese
Veränderungen und vor allem das Zusammenspiel von etablierten, presserechtlich
verfassten Medien und sozialen Medien aus praktischer Sicht beleuchtet werden.

1 VERÄNDERUNGEN JOURNALISTISCHER ARBEIT

„Genaues lässt sich noch nicht sagen“, sagt ein Reporter ins Mikrophon und gibt da-
mit die zuverlässigste Beschreibung eines Ereignisses, das seit kaum einer Stunde
München, ja, die ganze Republik in Atem hält. Es sind nur Minuten vergangen, seit
ein Notruf bei der Polizei eingegangen ist, und doch läuft bereits eine Maschinerie
auf Hochtouren. Und noch nicht einmal eine Stunde ist vergangen, seitdem die
Nachricht von Schüssen beim Olympiaeinkaufszentrum in der Welt ist, da gibt es
die ersten Live-Berichte per Telefon im Fernsehen, kurz darauf stehen auch schon
Übertragungswagen bereit, die in bester Bildqualität frisch ins Geschehen gewor-
fene Reporter zeigen, die nur Spärliches berichten können. Printmedien haben auf
ihren Internetseiten „Liveblogs“ gestartet – doch der Maschinerie der etablierten
Medien steht auch eine Maschinerie der sozialen Medien gegenüber, die noch auf-
geregter und scheinbar schrankenlos kommunizieren kann.4
Am Beispiel des Amoklaufs in München am 22. Juli 2016 lässt sich nicht nur
zeigen, wie eng verwoben soziale Medien und etablierte Medien bereits sind, son-
dern dass zwei Entwicklungen die Medien derzeit prägen: Beschleunigung und das
Verschwinden des Autors.

3 ebd.
4 Eine genaue Dokumentation über die mediale Chronik des Münchner Amoklaufs hat die „Süd-
deutsche Zeitung“ erstellt, abrufbar unter: http://gfx.sueddeutsche.de/apps/57eba578910a46f716
ca829d/www/ (Zugriff am: 20.5.2017).
„Breaking News“ – oder wie moderne Technik Journalismus inhaltlich verändert 241

1.1 Beschleunigung

Wie sich an der Berichterstattung über den Amoklauf von München zeigen lässt,
ist die Beschleunigung einer der entscheidenden Faktoren im Journalismus und
einer, der im wesentlichen durch technische Entwicklungen geprägt ist. War bis
vor kurzem ein Übertragungswagen mit Satellitentechnik und einer mehrköpfigen
Bedienungsmannschaft für die Übertragung von Live-Bildern notwendig, reicht
heute ein kleiner Rucksack mit einer Apparatur, in der mehrere Telefon-Sim-Kar-
ten stecken, um Bilder live in guter Sendequalität zu übertragen. Ganz abgesehen
davon bieten Internetdienste wie „Periscope“ die Möglichkeit, live vom Smart-
phone aus Bilder zu senden (wenn auch nicht in Fernsehqualität). Sowohl die tech-
nische Entwicklung im Profi-Bereich als auch die im Consumer-Bereich haben die
Medienlandschaft verändert.
Die Schwelle für eine Live-Berichterstattung hat sich dadurch extrem gesenkt,
und dies hat auch Folgen für das, was inhaltlich berichtet wird. Der Grundsatz
„Sorgfalt vor Schnelligkeit“ ist deutlich aufgeweicht worden – obwohl dies von
Rundfunkverantwortlichen sicherlich vehement bestritten werden würde. Um die
Bedeutung dieser Veränderung wirklich deutlich machen zu können, möchte ich
die konkreten Abläufe journalistischen Arbeitens vor allem im Bereich der elek-
tronischen Medien beleuchten. Dazu sind zwei Fragestellungen besonders wichtig:

A: Was sind die Kriterien für eine Berichterstattung und, vor allem, was sind die
Kriterien für Art und Zeitpunkt der Berichterstattung, also auch für eine Live-Be-
richterstattung ad hoc?
Die Relevanz eines Sachverhalts für die Zielgruppe eines Mediums ist das generelle
Kriterium für Berichterstattung. Dass die Wahl Angela Merkels 2013 im Bundestag
zur Kanzlerin eine Nachricht von allgemeiner Relevanz ist, dürfte unbestritten sein,
allerdings fragt sich, ob der Geschwindigkeitswettbewerb der Nachrichtenagentu-
ren bei der Verbreitung der Nachricht sinnvoll ist. Denn nur Sekunden nach der
Verkündung des Ergebnisses (das man ohnehin live im Internet wie auch im Fernse-
hen (Phönix) verfolgen konnte), versuchen sich die Agenturen darin zu überbieten,
schneller zu sein als die Konkurrenz. Kaum anderthalb Minuten nach der Zeile
„Angela Merkel zur Bundeskanzlerin gewählt“, kommen bereits die Agenturen mit
dem genauen Abstimmungsergebnis. Wozu also der Überbietungswettbewerb für
die erste, nicht sonderlich überraschende Meldung angesichts einer aufgrund einer
großen Koalition zu erwartenden überwältigenden Mehrheit? Relevanter als das
reine Faktum, dass Merkel die Wahl gewonnen hat, ist das konkrete Ergebnis, weil
dies politische Interpretationen zulässt – warum also nicht zwei Minuten länger auf
eine sinnvolle Meldung warten?
Es ist der mittlerweile leider überstrapazierte Begriff „breaking news“, also
Nachrichten die den normalen Lauf der Dinge verändern, der fast nur noch dafür
herhält, dass sich Medien als besonders schnell und damit auch kompetent profi-
lieren können. Genau hier entsteht ein Problem: Schnelligkeit kann ein Ausweis
von Kompetenz sein, denn sie kann anzeigen, dass ein Medium einen Reporter
vor Ort hat, der selbst berichtet und nicht auf eine Agentur, also auf eine Nachricht
242 Harald Kirchner

aus zweiter Hand, warten muss. Wenn ein Reporter jedoch damit beschäftigt ist,
einen hohen aktuellen „Output“ zu generieren, dann hat er weniger Zeit für eine
hintergründige Analyse. Üblicherweise sind die Rollen derer, die aktuell arbeiten,
und derjenigen, die die Analyse liefern, auf verschiedene Personen verteilt, doch
inzwischen wird der Kostendruck in allen Medien immer größer, weshalb hier Ab-
striche gemacht werden. Wenn also der Geschwindigkeit immer höhere Priorität
eingeräumt wird, führt das bei begrenzten Ressourcen zwangsläufig zu Abstrichen
bei der analytischen Berichterstattung.
Dass der Amoklauf in München höchste Priorität in der Berichterstattung hatte,
ist naheliegend, die Frage ist, ob zu einem Zeitpunkt, zu dem es nur spärliche gesi-
cherte Informationen, dafür um so mehr Gerüchte gab, eine Dauerberichterstattung
zwingend ist, die sich – mangels neuer realer Nachrichten – eben auch mit der
Diskussion von Gerüchten beschäftigen muss. Die großen Sender hatten sich dafür
entschieden, das Regelprogramm zu unterbrechen und ausschließlich über die Ge-
schehnisse in München zu berichten.
Als es 2009 zu einem Amoklauf an einer Schule in Winnenden gekommen ist,
wurde der Südwestrundfunk sowohl dafür kritisiert, dass er das Programm nicht un-
terbrochen hat, als auch dafür, dass er zu viel über ein Ereignis berichtet habe, über
das noch wenige Fakten vorgelegen haben – die medienkritische Empörungslage
war damals bereits diffus. 2016 wurde schon nicht mehr so sehr über das Ob ei-
ner ununterbrochenen Berichterstattung diskutiert, sondern eher über das Wie. Das
heißt, die Frage nach einem Innehalten und Warten auf gesicherte Informationen
wurde kaum mehr gestellt. Tatsächlich stellt sich diese Frage heute auch nicht mehr,
denn der Taktgeber für die mediale Begleitung von Ereignissen sind nicht mehr die
herkömmlichen Medien, sondern die sozialen Medien.

B: Wie beeinflussen sich soziale Medien und presserechtlich verfasste Medien ge-
genseitig?
Sowohl in den herkömmlichen Medien als auch in den sozialen Medien setzte die
Berichterstattung wenige Minuten nach Beginn des Amoklaufs in München ein.
Wenn ein wichtiges Ereignis bereits in der Öffentlichkeit dargestellt wird, dann
können dies Journalisten, egal welchen Mediums, heute nicht mehr ignorieren –
einerseits weil aktuelle Medien ihrem eigenen Anspruch, schnell zu reagieren,
gerecht werden wollen, andererseits, weil die Erwartungshaltung bei Zuschauern,
Hörern, Lesern inzwischen so groß ist, dass schon eine verzögerte Berichterstattung
selbst zum Thema insbesondere in den sozialen Medien werden kann und sogar
Anlass zu Verschwörungstheorien geben mag.
Mit die ersten Bilder vom Amoklauf, genauer gesagt, Bilder, die in der Nähe
des Tatortes nach dem Amoklauf vom Polizeieinsatz gemacht wurden, waren von
einem Passanten mittels des Internetdienstes „Periscope“ live online gestellt wor-
den. Mittlerweile sind auch die Mitarbeiter von Sendern und Zeitungen angehalten,
sofort wenn sie Zeuge eines berichtenswerten Ereignisses werden, Bilder und Vi-
deos an die Redaktionen zu übermitteln; es geht darum, schnell so viel wie möglich
verwertbares Material zu generieren. Es gibt also auch einen Wettlauf um die ersten
Bilder – wichtiger aber ist, dass man mit Informationen umzugehen hat, die zwar
„Breaking News“ – oder wie moderne Technik Journalismus inhaltlich verändert 243

nicht bestätigt, aber in der Welt sind. So ist die Fehlinformation, dass es auch am
Münchner Stachus zu einer Schießerei gekommen sei, lange Thema. Selbst die Po-
lizei war sich geraume Zeit nicht darüber im Klaren, ob es nun eine weitere Schie-
ßerei gegeben hat oder nicht. Die Frage, die den ganzen Abend über im Raum stand
war, ob es sich um einen Terroranschlag oder um einen Amoklauf handelte. Die
Tatsache, dass es weit verbreitete Meldungen über mehrere Schießereien und über
mehrere Täter gab, war für viele Anlass, von einem Terrorakt zu sprechen, auch die
Behörden waren sich dessen geraume Zeit nicht sicher. Die „Twitter“-Nachrichten
von Privatpersonen über einen Terroranschlag schwollen gewaltig an, während die
„Tweets“ über einen Amoklauf vergleichsweise überschaubar blieben. Die Lage
war zunächst tatsächlich unklar, allerdings verschob sich nicht zuletzt durch die
sozialen Medien die Gewichtung zugunsten der Annahme eines Terroranschlags.
Das erklärt sich freilich nicht nur aus den realen Geschehnissen am Tag des Amok-
laufs, sondern aus dem nachrichtlichen Umfeld, denn zuvor gab es in Frankreich
und Deutschland einige Terroranschläge – eine Fehleinschätzung lag also nahe. Für
das, was berichtet wird, ist nicht nur die tatsächliche Faktenlage von Bedeutung,
sondern auch der Erfahrungshorizont, von dem aus sie betrachtet wird. Das gilt
umso mehr für diejenigen, die als Nicht-Profis berichten, ihnen fehlt schlicht das
journalistische Handwerkszeug, um eine saubere Einordnung der einströmenden
Informationen zu gewährleisten. Allerdings konnten sich auch die professionellen
Medien dem nicht entziehen, sie mussten auch die durch Fehlinformationen ent-
standene Panik mit einbeziehen – die unübersichtliche Nachrichtenlage, wurde da-
mit selbst zum Gegenstand der Berichterstattung, die wiederum auf das Geschehen
Einfluss genommen hat.5

1.2 Verschwinden des Autors

1.2.1 Verschwinden des Autors in den professionellen Medien

Das Idealbild eines Reporters ist der Mensch, der mit Block und Stift einem Er-
eignis beiwohnt und dann darüber berichtet. Theoretisch gilt dies auch heute noch,
doch schon immer war Journalismus ein arbeitsteiliges Geschäft, besonders in der
aktuellen Berichterstattung. Zeitungen wie auch Hörfunk und Fernsehen haben
schnelle, kurze Informationen stets über Nachrichtenagenturen bezogen. Besonders
Hörfunknachrichten basieren meist auf Agenturen. Dies ist ein eingespielter Weg:
Ein Agentur-Journalist vor Ort gibt kurze Meldungen an seine Zentrale, die gibt sie
in den „Dienst“, der Redakteur des Hörfunks zum Beispiel nimmt diese Meldung,
vergleicht sie meist mit weiteren Agenturen zum selben Thema und verwendet sie
für die Sendung – das alles geschieht oft in Minuten. Der Redakteur, der eine Mel-
dung aus verschiedenen Texten verschiedener Agenturen schreibt, kennt die Auto-
ren dieser Texte nicht, es handelt sich letztendlich um ein anonymes Produkt. Das
ist nicht unbedingt ein Nachteil, denn die Arbeitsabläufe sind erprobt, es gelten

5 s. die Dokumentation der „Süddeutschen Zeitung“, a. a. O.


244 Harald Kirchner

für alle Beteiligten die gleichen professionellen Standards. Es gilt das Vertrauen in
lange tradierte professionelle Informationsketten.
Allerdings verändert sich auch hier die Medienwelt, einerseits durch die Be-
schleunigung der Informationsverwertung, andererseits durch die Art der Verwen-
dung der generierten Inhalte. Insbesondere für elektronische Medien ist letzterer
Prozess von besonderer Bedeutung, denn sie arbeiten Multimedial – ein so genann-
ter „O-Ton“ zum Beispiel (ein Original-Ton, also die Aussage eines am Geschehen
Beteiligten) wird nicht nur im Fernsehen, sondern auch im Hörfunk und Online
verarbeitet. Das heißt, die Distributionskette wird nicht nur immer länger, es ver-
ändert sich vor allem ihr Charakter. Ging es bisher um die Verbreitung rein nach-
richtlichen Inhalts („Der Bundestag hat beschlossen, dass …“; „Es gab beim Unfall
drei Tote und zwei Verletzte …“ usw.) so werden jetzt selbst längere analytische
Beiträge aus einzelnen Versatzstücken zusammengesetzt, ohne dass die jeweiligen
Autoren voneinander wissen. Es war zwar schon lange Praxis, sich „O-Töne“ von
Kollegen zuliefern zu lassen, dem ging allerdings stets eine Absprache über The-
men und Fragen mit dem ausführenden Kollegen voraus, das heißt es gab einen
klar formulierten Auftrag für einen bestimmten Beitrag. Inzwischen werden ge-
führte Interviews, aber auch recherchierte Inhalte schriftlich, in Massenspeicher ge-
stellt, auf die sämtliche Redaktionen zugreifen können.– Interviews, recherchierte
Fakten, alles wird zum „Material“, das verwertet werden kann. Ein Thema wird
für verschiedene Sendungen, Wellen, Online, also für verschiedene Ausspielwege
gesetzt, und völlig unabhängig voneinander arbeitende Redakteure bedienen sich
aus dem angelieferten Material. Das klingt zunächst unproblematisch, doch die je-
weiligen Redakteure kennen oft nicht den Kontext, in dem ein kurzes Statement
geholt wurde. Vor allem aber: Bevor eine Kamera läuft, führt der Reporter noch
ein Gespräch, erfährt also weitere Hintergründe und kann so das Gesagte deutlich
besser einordnen – gerade wenn, wie es die normale Praxis ist, ein nur 20 Sekunden
langer Satz in einen Beitrag wandert, ist es um so wichtiger, mehr zu wissen als nur
das, was in den Massenspeicher gelangt.
Genau diese Entwicklung macht die Situation auch für den Gesprächspartner
des Reporters immer unklarer, denn wenn der Interviewte nicht weiß, wer seine
Aussage wie verwenden wird, belastet das auch das Vertrauensverhältnis zwischen
Journalisten und Gesprächspartner. So lange zum Beispiel ein Politiker einen Jour-
nalisten kennt und weiß, dass verantwortungsvoll mit seinen Aussagen umgegan-
gen wird, dann erhält der Journalist offenere Aussagen. Nur wenn ein Gesprächs-
partner sich darauf verlassen kann, dass nicht etwa durch die Art des Schnitts seine
Aussagen Fehlinterpretationen ausgesetzt sein werden, kann er sich auch öffnen.
Die Angst gerade von Politikern, in einer bestimmten, von ihnen nicht intendierten
Weise interpretiert zu werden, hat nicht zuletzt dazu geführt, dass immer mehr als
reine Sprechblasen empfundene Aussagen in die Welt gesetzt werden. Diese Angst
ist nicht unbegründet, denn tatsächlich werden Aussagen oftmals möglichst weitge-
hend ausgelegt, um zu einer spektakulären Schlagzeile zu kommen.
Das angesprochene Problem der ausgeweiteten Distributionskette ist jedoch
subtiler, denn es muss nicht die Gier nach der Sensation sein, die zu Problemen
führt. Wenn es immer weniger Journalisten gibt, die sich vor Ort informieren,
„Breaking News“ – oder wie moderne Technik Journalismus inhaltlich verändert 245

Gespräche führen, „O-Töne“ holen, dafür immer mehr Redakteure, die das ange-
lieferte „Material“ für verschiedenste Kanäle weiterverarbeiten, tritt schlicht das
Problem der „stillen Post“ in den Vordergrund – es passieren häufiger Fehler oder
es verschiebt sich vielleicht sogar der Tenor einer Aussage. Der Stellenwert des ein-
zelnen Autors, der nicht nur für die Richtigkeit des Berichteten bürgt, sondern auch
eine Einschätzung aufgrund langer Erfahrung in einem Thema besteuern kann,
geht immer weiter zurück. Ausdruck dafür sind auch Funktionsbezeichnungen wie
„Content-Manager“, „Distributoren“ – es geht immer mehr darum, möglichst ef-
fizient „Content“ für verschiedenste „Ausspielwege“ nutzbar zu machen. Das be-
dingt, dass sich immer mehr Redakteure, die sich mit einem Thema nicht näher
beschäftigt haben, über genau dieses Thema berichten müssen. Wie gesagt – aktu-
eller Journalismus war immer arbeitsteilig, daher ist die Tatsache, dass es Distribu-
tionsketten gibt, kein prinzipielles Problem, doch es besteht zunehmend die Gefahr
der Überdehnung dieser Ketten. Die Beschleunigung des Nachrichtengeschäfts und
die Vermehrung der „Ausspielwege“ gerade bei den elektronischen Medien (On-
line, Hörfunk, Fernsehen) führen daher zu einer Ausweitung des Journalismus aus
zweiter Hand.

1.2.2 Verschwinden des Autors in sozialen Medien

Einen „Verantwortlichen im Sinne des Presserechts“ (V. i. S. d. P.) gibt es in den so-
zialen Medien selbstverständlich nicht – ihn gibt es nur bei professionellen Medien
(die Angabe des presserechtlich Verantwortlichen ist gesetzlich vorgeschrieben)
und das nicht nur aus juristischen, sondern auch aus handwerklichen Gründen. Für
Profis gilt stets das Vier-Augen-Prinzip: Nichts wird (oder nichts sollte zumindest)
publiziert werden, ohne dass ein Kollege zuvor den Text, den Film vorher gesehen
hat. In sozialen Medien allerdings treten Autoren oft unter Pseudonym auf, bei aller
Offenheit des Netzes gibt es kaum etwas Intransparenteres als die vielfach geteil-
ten, „geretweeteten“ Nachrichten von unbekannten Privatpersonen (selbst wenn
sie mit realen Namen arbeiten, bleiben sie für ein breites Publikum anonym). Das
heißt, ein ganz entscheidendes Element journalistischen Arbeitens fehlt völlig: die
Kenntnis der Quelle einer Information.
Betrachtet man das Beispiel des Amoklaufs in München, dann ist festzustellen,
dass nicht verifizierbare „Postings“ von zahlreichen Privatpersonen, nicht nur die
Journalisten, sondern auch die Behörden verwirrt haben. So wurde die Zahl der
Orte, an denen es zu Schießereien gekommen sein soll, immer höher, ohne dass
diese Falschmeldungen entsprechend schnell hätten korrigiert werden können. Die
Folge davon war eine massive Verunsicherung in der Bevölkerung. Problematisch
dabei war, dass durch wenige Falschmeldungen innerhalb von Minuten aufgrund
von Weiterleitungen immer neue Falschmeldungen entstanden sind. Allein die Tat-
sache, dass der Strom der Meldungen anschwoll, erzeugte auch bei professionellen
Journalisten, wie auch bei Behörden den Eindruck, dass es sich um mehr als Ge-
rüchte handeln könnte. Also wurden auch über eigentlich professionell arbeiten-
den Medien unbestätigte Meldungen in Umlauf gebracht, zwar wurde meist der
246 Harald Kirchner

Hinweis gegeben, dass es sich um unbestätigte Meldungen handelte, der Effekt


allerdings war derselbe, Journalisten gerieten hier schlicht unter Zugzwang: Wenn
etwas so große Wellen schlägt, kann man daran nicht einfach vorbeigehen. Es ent-
stand ein Zirkel sich gegenseitig beeinflussender Nachrichten – es entwickelte sich
eine mediale Realität neben der tatsächlichen.
Wie die Dokumentation der „Süddeutschen Zeitung“6 zeigt, war für die Einschät-
zung der Lage nicht allein das konkret Beobachtbare entscheidend, sondern auch der
Erfahrungshorizont der Beobachter. Die Zahl der „Twitter“-Nachrichten, die über ei-
nen Amoklauf berichteten, war weit geringer, als die, die von einen Terroranschlag
sprachen. Vor dem Münchner Amoklauf hatte es einige Terroranschläge gegeben,
weshalb viele davon ausgingen, dass es sich auch hier um einen Terroranschlag han-
deln müsse. Dazu beigetragen haben die Falschmeldungen über mehrere Tatorte,
denn ein einzelner Amokläufer kann natürlich nicht an mehreren Tatorten gleichzeitig
zuschlagen. Wenn Meldungen aus schwer überprüfbaren Quellen die Nachrichten-
lage bestimmen, dann geraten Grundsätze des Journalismus ins Wanken.

2 FUNKTION DES JOURNALISMUS

Die Funktion des Journalismus, insbesondere des aktuellen Nachrichtenjourna-


lismus ist nicht allein, über Dinge zu berichten, sondern sie auch nach Relevanz
einzuordnen und in den entsprechenden Kontext zu stellen. Die Auswahl von
Nachrichten basiert daher theoretisch auf den Kriterien, die im Journalismus
erarbeitet worden sind. Sender und Zeitungen machen dem Zuschauer, Hörer,
Leser also ein Angebot. Der Rücktritt eines Ministers oder größere Änderungen
bei der Erbschaftssteuer gelten zum Beispiel als wichtig und werden deshalb
prominent publiziert – unabhängig davon, ob sich ein Großteil des Publikums
dafür interessiert oder nicht. Bei klassischen Nachrichten galt bisher das Credo:
Inhalt vor Quote.
Zwar hatte der Publikumsgeschmack immer auch eine Auswirkung auf das was
publiziert wurde, doch die Dimensionen haben sich verändert.
Wenn Menschen sich zunehmend über weitergeleitete und „gelikte“ Nachrich-
ten informieren, gibt es die ordnende Hand der professionellen Redaktion nicht
mehr. Nur die Informationen, die von einer Gruppe als relevant erachtet werden,
dringen damit überhaupt noch zur jeweiligen Gruppe vor. Die Zumutung der für
einen selbst vielleicht uninteressanten Nachricht fällt weg. Es entsteht der viel be-
schworene „Echoraum“.
Inzwischen arbeiten allerdings auch professionelle Medien mit den Mitteln,
die Echoräume entstehen lassen. Klickzahlen entscheiden über die Positionierung
eines Artikels und letztendlich auch darüber, ob manche Themen überhaupt noch
bearbeitet werden. Selbst eine neu entwickelte Nachrichten-„App“ des öffentlich
rechtlichen Südwestrundfunks verwendet Algorithmen, die das Nutzungsverhalten
des Konsumenten in die Nachrichten-Auswahl mit einbezieht, allerdings mit Ein-

6 a. a. O.
„Breaking News“ – oder wie moderne Technik Journalismus inhaltlich verändert 247

schränkungen, denn die Hoheit darüber, was an erster Stelle für alle Nutzer sichtbar
sein soll, wollen die Nachrichtenmacher nicht ganz abgeben. Die Algorithmen für
die Themenauswahl, sollen sich auf „weiche“ Stoffe beschränken.
An dieser Stelle wird ein Kompromiss zwischen dem ureigenstem journalisti-
schem Selbstverständnis – die Wichtigkeit einer Nachricht einzuordnen – und dem
persönlichen Geschmack des Nutzers gemacht.

3 KONSEQUENZEN

Die technische Entwicklung hat wie geschildert einen erheblichen Einfluss nicht
nur auf die Geschwindigkeit, in der Journalismus betrieben wird, auch die Inhalte
werden durch das Wechselspiel von Beschleunigung und einer neuen Öffentlichkeit
durch die sozialen Medien mitbestimmt.
Daraus ergibt sich die Frage, ob sich die etablierten professionellen Medien
einem Prozess entziehen können, der in den bestehenden Strukturen fast zwangs-
läufig zu einer qualitativen Verschlechterung des Journalismus führen muss. Hinzu
kommt, dass der Journalismus sich zunehmend mit bewusst in Umlauf gebrachten
falschen Informationen auseinandersetzten muss – wenn sogar eine Mitarbeiterin
des US-Präsidenten Trump von „alternative facts“ spricht, dann wird die Arbeit
noch schwieriger. Qualität müsste angesichts dessen einen immer höheren Stel-
lenwert bekommen.
Die Auflagen der Zeitungen sinken, die Quoten der Qualitätsprogramme wer-
den nicht besser, was zu einem Spardruck führt, gleichzeitig steigen durch die
Beschleunigung des Nachrichtengeschäfts und eine auch durch Populismus beein-
flusste Netzöffentlichkeit die Ansprüche an den Qualitätsjournalismus. Bedeutet
das Aufkommen des „Postfaktischen“ nicht schon ein Versagen der Informations-
kultur einer Gesellschaft?
Der Journalismus steckt sicherlich in einem Dilemma, allerdings ist zweifel-
haft, ob allein mehr Personal bei Zeitungen und Sendern dieses auflösen könnte,
denn es bedarf nicht nur aus ökonomischen Gründen eines entsprechend großen
Publikums, das gewillt ist, sich mit Qualitätsjournalismus zu beschäftigen. Die-
ser Qualitätsjournalismus ist durchaus auch eine Zumutung, sie besteht darin,
sich regelmäßig die Zeit zu nehmen, auch Artikel zu lesen, die einen selbst nicht
unbedingt interessieren, die den Leser aber zu einem informierten Bürger ma-
chen könnten. Eine Demokratie kann nur dann funktionieren, wenn Wähler ihre
Entscheidung auch mit vernünftigen Argumenten begründen können. Dass dies
zwar immer mehr ein Anspruch als eine Realität war, ist eine Binsenweisheit,
doch es scheinen sich die Gewichte zwischen bloßer Meinung und begründetem
Argument zu verschieben. Angebote sich qualitativ hochwertig zu informieren,
gibt es derzeit noch genug, doch um den gesellschaftlichen Auftrag des Journa-
lismus erfüllen zu können, bedarf es auch der Leser, Hörer, Zuschauer, die solche
Angebote wahrnehmen.
248 Harald Kirchner

LITERATUR
Backes, Thierry; Jaschensky, Wolfgang; Langhans, Katrin; Munzinger, Hannes; Witzenberger, Be-
nedict; Wormer, Vanessa: Timeline der Panik. Ein Täter, ein Tatort – und eine Stadt in Angst:
Wie aus dem Münchner Amoklauf ein Terroranschlag mit 67 Zielen wurde. Eine Rekonstruk-
tion. Süddeutsche Zeitung, 2016, http://gfx.sueddeutsche.de/apps/57eba578910a46f716ca829d/
www/ (Zugriff am: 20.5.2017).
Hölig, Sascha; Hasebrink, Uwe: Reuters Institute Digital News Survey 2016 – Ergebnisse für
Deutschland. Arbeitspapiere des Hans-Bredow-Instituts, Nr. 38, Hamburg, Juni 2016. https://
www.hans-bredow-institut.de/uploads/media/Publikationen/cms/media/3ea6d4fed04865d10a
d27b3f98c326d3a0ae6c29.pdf (Zugriff am: 20.5.2017).
ZUR RHETORIK DER TECHNIK
Aufriss eines Forschungsgebietes

Volker Friedrich

„Haben wir die Technik, die wir brauchen, und brauchen wir die Technik, die wir
haben?“ Mit diesen Fragen umreißt Klaus Kornwachs zentrale Aspekte der Tech-
nikphilosophie.1 Aus der Sicht eines Rhetorikers könnte eine Anschlussfrage ge-
stellt werden: Haben wir das Wissen über eine Rhetorik der Technik, das uns dabei
unterstützte, die Antworten auf diese Fragen zu formulieren? In dieser Anschluss-
frage wäre eingeschlossen, dass es so etwas wie eine „Rhetorik der Technik“ gäbe
oder man sie bearbeiten könnte. Der Beobachtung des Autors dieser Zeilen nach
wird im deutschsprachigen Raum einer Rhetorik der Technik nur eingeschränkt
nachgegangen. Sicher gibt es aus der Technikphilosophie heraus bereits eine Be-
schäftigung mit dem Verhältnis der Sprache zur Technik. Gleichwohl sei die Frage
aufgeworfen, wie aus der spezifischen Warte der Rhetorik dazu ein Beitrag geleistet
werden kann und somit Berührpunkte zwischen Rhetorik und Technikphilosophie
behandelt werden könnten. Ließe sich in solch einem Forschungsgebiet eine Zu-
sammenarbeit zwischen Philosophen, Rhetorikern, Technikern, Ingenieuren und
Naturwissenschaftlern auf den Weg bringen? Dieses Forschungsgebiet wird in fol-
gendem Aufriss bruchstückhaft skizziert.
Mittels Technik organisiert der Mensch die Wirklichkeit, und er schafft mittels
neuer Technik neue Wirklichkeiten. Dadurch, dass er darüber spricht (und schreibt),
organisiert er die Vermittlung der technisch geprägten Wirklichkeiten. Dies wiederum
wirkt letztlich auch zurück auf Technik selbst. Technik und Rhetorik der Technik ste-
hen in einer Wechselwirkung, die zu betrachten einer der Gegenstände einer Rhetorik
der Technik wäre: Technik artikuliert sich, und Technik wird artikuliert. Wie spricht
Technik zu uns, wie sprechen die Techniker über Technik, wie die Nichttechniker?
Können wir Technik – nicht allein, aber eben auch – als rhetorisches Phänomen, als
Rhetorik begreifen? Können wir Rhetorik nutzen, um Technik zu begreifen?
Technikphilosophen greifen Fragen nach der Wechselwirkung von Sprache
und Technik durchaus auf, manche sehen Technik selbst als Medium an.2 In dieser

1 So etwa zu finden in seiner Einführung in die Philosophie der Technik (Kornwachs, Klaus:
Philosophie der Technik. Eine Einführung. München 2013. S. 121.) oder in den Geleitworten
zu der von ihm herausgegebenen Reihe „Technikphilosophie“ (exemplarisch sei der erste Band
dieser Reihe angeführt: Kornwachs, Klaus: Geleitwort des Herausgebers. In: ders.: Das Prinzip
der Bedingungserhaltung. Eine ethische Studie. Münster 2000. S. V.).
2 vgl. Hubig, Christoph: Technik als Medium. In: Grunwald, Armin (Hg.): Handbuch Technik-
ethik. Darmstadt 2013. S. 118–123.
250 Volker Friedrich

Skizze soll es um einen ergänzenden Aspekt gehen, nämlich den Diskurs, den die
Rhetorik dazu beisteuern könnte.
Einen Eintrag zu den Begriffen „Technik“ oder „Technikrhetorik“ sucht man
im begriffsgeschichtlichen Standardwerk „Historisches Wörterbuch der Rhetorik“
vergeblich; zu finden ist allerdings eine Definition des Stichwortes „Wissenschafts-
rhetorik“: „Der Ausdruck ‚W.‘ bezeichnet: (1) die bewusste kommunikative Ver-
mittlung wissenschaftlichen Wissens, und zwar sowohl (1a) innerhalb der scientific
community als auch (1b) nach außen, in popularisierender Form auf ein wissen-
schaftlich nicht vorgebildetes Publikum abzielend; (2) die wissenschaftliche Un-
tersuchung und Thematisierung der rhetorischen Vermittlung von Wissen auf einer
Metaebene. Zwei Leitfragen dienen deshalb im Folgenden zur Orientierung – ‚Wie
wurde und wird Wissen rhetorisch vermittelt?‘ (Wissenschaft als Rhetorik) und
‚Wie wurde und wird die rhetorische Vermittlung von Wissen theoretisch erschlos-
sen und dargestellt?‘ (Rhetorik als Wissenschaft).“3
Nach einer Analogiebildung, die in der obigen Definition „Wissen“ durch
„Technik“, „wissenschaftlich“ durch „technisch“ ersetzte, bezeichnete der Begriff
„Technikrhetorik“: (1) die bewusste kommunikative Vermittlung technischen Wis-
sens, und zwar sowohl (1a) innerhalb der Gemeinschaft der Techniker, Ingenieure,
Naturwissenschaftler etc. als auch (1b) nach außen, in popularisierender Form auf
ein technisch nicht vorgebildetes Publikum abzielend; (2) die wissenschaftliche Un-
tersuchung und Thematisierung der rhetorischen Vermittlung von Technik auf einer
Metaebene. Orientierung wäre demzufolge für die Technikrhetorik zu gewinnen mit
Fragen wie: Wie wurde und wird Technik rhetorisch vermittelt? Wie wurde und wird
eine rhetorische Vermittlung von Technik theoretisch erschlossen und dargestellt?4
Dass man zu den Begriffen „Technik“ oder „Technikrhetorik“ vergeblich
Einträge im begriffsgeschichtlichen Standardwerk „Historisches Wörterbuch der
Rhetorik“ sucht, dürfte nicht als eine Art einmaliger „Betriebsunfall“ der deutsch-
sprachigen Rhetorikforschung zu werten sein, sondern auf eine deutliche Diffe-
renz der Diskussionen im deutschsprachigen zu denen im angelsächsischen Raum
verweisen; dort wird zur Technikrhetorik intensiv und seit längerem gearbeitet.
Exemplarisch sei auf die Arbeiten von Alan G. Gross verwiesen. Er hat mehrere
Bücher verfasst, mitverfasst und herausgegeben, die sich mit Fragen der Wissen-
schafts- und Technikvermittlung, der Rhetorizität und den Persuasionsstrategien
von Wissenschaft und Technik befassen und sie historisch, hermeneutisch und kri-
tisch untersuchen.5 Seit 2009 gibt Gross die Buchreihe „Rhetoric of Science and
Technology“ heraus.6

3 Klüsener, Bea; Grzega, Joachim: Wissenschaftsrhetorik. In: Ueding, Gert (Hg.): Historisches
Wörterbuch der Rhetorik, Bd. 10: Nachträge. Tübingen 2012. Sp. 1486.
4 Die beim Begriff „Wissenschaftsrhetorik“ vorgenommene Unterscheidung zwischen „Wissen-
schaft als Rhetorik“ und „Rhetorik als Wissenschaft“ lässt sich für „Technikrhetorik“ nicht
sinnvoll übertragen; „Rhetorik als Technik“ hätte den Bezug zum griechischen „rhetorike
techne“, also der ursprünglich aristotelischen Bezeichnung für Rhetorik als eine lehrbare Dis-
ziplin (vgl. Kalivoda, Gregor; Zinsmaier, Thomas: Rhetorik. In: Ueding, a. a. O., Bd. 7, Sp.
1423.).
5 s. u. „Literatur“.
6 Zu den Themen der Reihe, die in vielem meine unten ausgeführte Liste abdecken und ergänzen,
Zur Rhetorik der Technik 251

Amerikanische Autoren behandeln Wissenschafts- und Technikrhetorik oft ge-


meinsam.7 Mit dem englischen „technology“ werden angewandte Wissenschaften
verknüpft, insofern ist „technology“ auch einbezogen in eine Reflexion der Wis-
senschaft. Neben solchen begrifflichen Aspekten dürfte ein Grund aber in den an
amerikanischen Universitäten verbreiteten Studien zu „Science, Technology, and
Society“ zu finden sein, den sogenannten „STS programs“, die sich den Wechsel-
wirkungen zwischen Wissenschaft, Technik und Gesellschaft zuwenden.8
Vereinzelt wird aber auch in der deutschsprachigen Literatur auf eine Verbin-
dung von Rhetorik und Technik abgehoben. Norbert Bolz hat in seinem Buch „Das
Gestell“ ein Kapitel mit „Die Rhetorik der Technik“ überschrieben9, auf dessen
fünf Seiten er sich allerdings eher in kulturphilosophischen Vorbetrachtungen er-
geht, denn eine detaillierte Technikrhetorik zu entwickeln. Bolz schließt an Hans
Blumenbergs Diktum über die „‚Sprachlosigkeit‘ der Technik“ an, die dazu geführt
habe, „daß die Leute, die das Gesicht unserer Welt am stärksten bestimmen, am
wenigsten wissen und zu sagen wissen, was sie tun“10. Bolz führt dazu aus: „Wenn
die Philosophie nicht mehr in der Lage ist, unsere Zeit in Gedanken zu fassen, dann
müssen wir auf die Rhetorik der Technik hören, statt auf die Rhetorik der Diskurse.
Das Problem der Technik ist nicht, dass wir nicht wissen, was wir tun, sondern

hält der Verlag fest: „Although the point has already been made that science and technology are
in some sense rhetorical, the field remains open to new topics and innovative approaches. The
Rhetoric of Science and Technology series of Parlor Press will publish works that address these
and related topics:
1. The history of science and technology approached from a rhetorical perspective
2. Science and technology policy from a rhetorical point of view
3. The role of photographs, graphs, diagrams, and equations in the communication of science
and technology
4. The role of schemes and tropes in the communication of science and technology
5. The methods used in rhetorical studies of science and technology, especially the predomi-
nance of case studies
6. The popularization of science by scientists and non-scientists
7. The effect of the Internet on communication in science and technology
8. The pedagogy of communicating science and technology to popular audiences and audien-
ces of scientists and engineers
9. The inclusion of science and technology in rhetoric and composition courses.“ (http://www.
parlorpress.com/science; Zugriff am: 1.8.2017.)
7 vgl. Ceccarelli, Leah: Rhetoric of Science and Technology. In: Mitcham, Carl (Hg.): Encyclo-
pedia of Science, Technology, and Ethics. Bd. 3. Detroit 2015. S. 1625–1629. Die einschlägige
wissenschaftliche Gesellschaft, die „Association for the Rhetoric of Science, Technology, and
Medicine (ARSTM)“, nimmt die Medizin noch hinzu: http://www.arstmonline.org (Zugriff
am: 1.8.2017).
8 vgl. Cutcliffe, Stephen H.: Science, Technology, and Society Studies. In: Mitcham, Carl (Hg.):
Encyclopedia of Science, Technology, and Ethics. Band 4. Detroit 2015. S. 1723–1726. Studi-
enprogramme dieser Art sind im deutschsprachigen Raum rar, Klaus Kornwachs hat an der
Brandenburgischen Technischen Universität Cottbus mit den Bachelor- und Masterstudiengän-
gen „Kultur und Technik“ Vergleichbares aufgebaut.
9 Bolz, Norbert: Das Gestell. München 2012. S. 9–13.
10 Blumenberg, Hans: Ästhetische und metaphorologische Schriften. Frankfurt am Main 2014(4).
S. 14.
252 Volker Friedrich

dass wir nicht zu sagen wissen, was wir tun.“11 Rhetorik der Technik hätte also
mit Technikvermittlung auf einer grundsätzlichen Ebene zu tun. Bolz befasst sich
an anderen Stellen mit dem Verhältnis von Design, Rhetorik und Technik, das als
Benutzerfreundlichkeit der Computer des Nutzers tiefes Nichtverstehen der Tech-
nik maskiert: „Die Intelligenz der Produkte besteht gerade darin, den Abgrund des
Nichtverstehens zu verdecken. So löst sich das Gebrauchen vom Verstehen ab. Wer
heute von intelligentem Design spricht, meint, daß der Gebrauch des Geräts selbst-
erklärend ist. Doch diese Erklärung führt nicht zum Verständnis, sondern zum rei-
bungslosen Funktionieren. Man könnte deshalb formelhaft sagen: Benutzerfreund-
lichkeit ist die Rhetorik der Technik, die unsere Ignoranz heiligt. Und diese design-
spezifische Rhetorik, die sich eben nicht in Diskursen, sondern in der Technik des
Interface Design ausprägt, verschafft uns heute die Benutzerillusion der Welt.“12
Bolz hebt hier insbesondere auf Computer- und Medientechnik ab, also genau
den Bereich der Technikrhetorik, der in der deutschsprachigen Literatur am häu-
figsten diskutiert wird. Auf ebensolche medienrhetorischen Aspekte, die sich mit
technikrhetorischen zumindest in Teilen überschneiden, geht substantiell Francesca
Vidal ein in ihrer „Rhetorik des Virtuellen“13 und mit dem von ihr herausgegebenen
„Handbuch Medienrhetorik“14. Zu Fragen der Medien-, Bild-, Film-, Design- oder
visuellen Rhetorik u. Ä. sind auch im deutschsprachigen Raum über die letzten
Jahre eine Reihe von Monografien, Sammelbände und auch Periodika erschienen,
„Technikrhetorik“ oder „Rhetorik der Technik“ spielen jedoch eine nachgeordnete
Rolle, zuweilen mutet es so an, als sähen die Autoren Medien nicht als einen Teil
der Technik, sondern als eine eigenständige Sphäre …
Dazu beitragen dürfte die geringe Rolle, die Rhetorik als akademische Diszi-
plin in Deutschland spielt.15 Eine Ursache dafür, dass Rhetorik in anderen Sprach-
räumen an den Universitäten stärker vertreten ist als in Deutschland, dürfte mehrere
Ursachen haben: Platons Herabsetzung der Rhetorik im „Gorgias“ hat hierzulande
womöglich stärker gewirkt16, da auch Kant sich nicht gerade schmeichelhaft über
Rhetorik äußerte 17 – zwei Großdenker reden klein, das wirkt. Eine weitere Ursache
für den schweren Stand der Rhetorik in Deutschland wird darin zu sehen sein, dass

11 Bolz, a. a. O., S. 11.


12 Bolz, Norbert: Die Wirtschaft des Unsichtbaren. Spiritualität – Kommunikation – Design –
Wissen: Die Produktivkräfte des 21. Jahrhunderts. München 1999. S. 114.
13 Vidal, Francesca: Rhetorik des Virtuellen. Die Bedeutung rhetorischen Arbeitsvermögens in
der Kultur der konkreten Virtualität. Mössingen-Talheim 2010.
14 Scheuermann, Arne; Vidal, Francesca (Hg.): Handbuch Medienrhetorik. Berlin, Boston 2016.
15 Als Fach lässt sich Rhetorik bis dato nur an der Universität Tübingen studieren, nur eine Hand-
voll Professuren führen „Rhetorik“ in ihrer Betitelung.
16 Sokrates kritisiert die Rhetorik, sie sei keine Kunst oder Wissenschaft, sondern nur Erfahrung
und Übung und ziele nicht auf das Gute, sondern lediglich auf das Angenehme (vgl. Stroh,
Wilfried: Die Macht der Rede. Eine kleine Geschichte der Rhetorik im alten Griechenland und
Rom. Berlin 2011. S. 144–163, insbesondere S. 151 ff.).
17 Er spricht von der Beredsamkeit als „Kunst zu überreden, d. i. durch den schönen Schein zu
hintergehen“ (Kant, Immanuel: Kritik der Urteilskraft. Werkausgabe, Bd. 10. Frankfurt am
Main: Suhrkamp Verlag, 1981(5). § 53, S. 266.).
Zur Rhetorik der Technik 253

Rhetorik durch den Geniekult in der deutschen Klassik eine Herabsetzung erfuhr18,
eine weitere darin, dass Rhetorik wegen ihres Missbrauchs durch die Nationalsozi-
alisten in Verruf geraten ist und als propagandistische Manipulation gilt. In diesem
Essay jedenfalls wird Rhetorik als der Teil der Philosophie angesehen, der sich mit
der Theorie und Praxis menschlicher Kommunikation und Argumentation befasst,
die persuasiven Wirkungen kommunikativer Akte untersucht und nach der Mög-
lichkeit eines rationalen Diskurses von Argumentationen fragt, wenn nicht primär
über Wahrheiten, sondern über Wahrscheinliches gestritten wird. Wird Rhetorik in
diesem Sinne als ein Teil der Philosophie betrachtet, so kann eine Rhetorik der
Technik als Teil der Technikphilosophie gesehen werden, zumindest aber als ein
Beitrag zur Technikphilosophie.
Was gehörte zu den Forschungsgegenständen einer Rhetorik der Technik? Zur
Antwort sei eine unvollständige Liste, die keine Rangfolge bedeutet, angeführt:
a) die Untersuchung der Sprache der Technik;
b) die Untersuchung der Sprache, mit der über Technik und eine technisierte Welt
gesprochen und geschrieben wird;
c) die Untersuchung der Sprache und der Argumente, mit der Persuasion für oder
gegen Technik herbeigeführt wird;
d) die Untersuchung der Metapherologie der Technik;
e) die Rhetorizität der Technik;
f) eine Narratologie der Technik;
g) die Geschichte der Rhetorik der Technik;
h) die Wechselwirkungen zwischen Technik und Rhetorik der Technik.
Im Folgenden sollen diese Punkte umrissen werden, mehr als eine Skizze kommt
dabei nicht zustande, zu umfangreich sind diese Gebiete.

a) die Untersuchung der Sprache der Technik


Mit dem Ausdruck „Sprache der Technik“ sind sowohl verbale wie visuelle Sprache
angeschnitten. Dazu zählen beispielsweise Technolekte, die für den technischen
Diskurs ausgeformt werden, es kann untersucht werden, wie Technik sich äußert,
sich selbst darstellt und vermittelt und wie sie beschrieben wird, z. B. in Textsor-
ten, Bedienungsanleitungen oder Gebrauchsanweisungen, in Formeln ebenso wie
in Darstellungen wie technischen Zeichnungen und Entwürfen.
Spätestens dann, wenn Natur-, Ingenieur- oder Technikwissenschaftler sich
anderen vermitteln möchten, gar Fachfremden, und ihnen Technolekte und tech-
nische Zeichnungen und Formeln nicht mehr weiterhelfen, müssen sie sich der
Normalsprache bedienen, auf Fachsprache verzichten, sich vermitteln – in Wor-
ten, die eine andere Form der Präzision eröffnen, als sich das mit Formeln und
Zeichnungen erreichen lässt. Sind diese Wissenschaftler darauf vorbereitet? Vor
welchen Problemen stehen sie? Vorbereitet werden sie auf diese originär rheto-
rische Aufgabe selten durch ihr Studium. Es dürfte sich zeigen lassen, dass Na-

18 Die Kunst, mit Worten Wirkung zu entfalten, wurde als nicht lehr- oder erlernbar angesehen –
man hat’s oder hat’s nicht.
254 Volker Friedrich

tur-, Ingenieur- und Technikwissenschaften oft einen nahezu naiven Umgang mit
Sprache pflegen, dass sie von den Schwierigkeiten, sich mit der Normalsprache
zu vermitteln, wenig wissen und sich dieses Wissen aus einem interdisziplinären
Diskurs mit den Geisteswissenschaften nicht holen. Rhetorik könnte dabei weiter-
helfen – zum Beispiel mit ihrem Wissen über Stilqualitäten wie Verständlichkeit,
Klarheit und Angemessenheit.
Ein tieferes Verständnis für die Wirkungen technischer Bilder und Visualisie-
rungen in der Wissenschaft ließe sich durch eine Auseinandersetzungen mit visu-
eller Rhetorik gewinnen. Ansätze der visuellen Rhetorik werden hierzulande auch
in den Forschungen kaum aufgegriffen, die sich – wie das Exzellenzcluster „Bild
Wissen Gestaltung“19 – mit ebensolchen Phänomenen befassen, ähnliches gilt für
viele Teile der aktuellen bildwissenschaftlichen Diskussionen.20

b) die Untersuchung der Sprache, mit der über Technik und eine technisierte Welt
gesprochen und geschrieben wird
In seinem letzten Buch „Die zweite Aufklärung. Vom 18. ins 21. Jahrhundert“ reihte
der Medienwissenschaftler Neil Postman im dritten, mit „Technologie“ überschrie-
benen Kapitel eine Reihe von kritischen Fragen auf, die an neue Technologien21 ge-
stellt werden können. Die erste Frage beispielsweise lautet: „Was ist das Problem, für
das diese Technologie die Lösung bietet?“22 Die von Postman in der Folge angeführ-
ten Fragen seien zu stellen, wenn auf diese erste Frage keine befriedigende Antwort
gefunden werden könnte. Die sechste von Postmans Fragen an neue Technik lautet:
„Welche sprachlichen Veränderungen werden durch neue Technologien erzwungen
und was wird durch derlei Veränderungen gewonnen und was verloren?“23 Postman
interessierte sich stets für die gesellschaftlichen und kulturellen Auswirkungen von
Technik, und er sah, wie stark gesellschaftliche und sprachliche, kommunikative
Entwicklungen ineinander verwoben sind. In dieser Perspektive verändert Technik
also die Kommunikation in einer Gesellschaft. Dies gilt nicht allein auf einer tech-
nischen Ebene, indem Technik neue Kommunikationsmedien entwickelt, sondern
Technik und, als ihr Teil, auch Kommunikationsmedien wirken auf die Sprache zu-
rück, mit der über Technik und eine technisierte Welt gesprochen und geschrieben

19 s. https://www.interdisciplinary-laboratory.hu-berlin.de/de/bwg/ (Zugriff am: 1.8.2017).


20 Dieser Mangel ist nicht oder nicht allein denen vorzuwerfen, die die guten Impulse nicht auf-
greifen, sondern verweist eben auf die stiefmütterliche Behandlung der Rhetorik im akademi-
schen Betrieb in Deutschland und darauf, dass denjenigen, die sich für eine Veränderung dieser
Situation einsetzen, noch viel Arbeit dräut auf einem langen Weg. Bedenkt man, dass mit dem
von Gert Ueding herausgegebenen „Historischen Wörterbuch der Rhetorik“ eine publizistische
Großtat vorliegt, nämlich ein 12 Folianten umfassendes Standardwerk, das die Rhetorik in ih-
ren weitläufigen Verästelungen, Vertiefungen und Vernetzungen wissenschaftlich zugänglich
macht, so ist umso erstaunlicher, dass so viele Disziplinen ihre Anschlussmöglichkeiten an
diese Diskurse nicht oder nur mäßig nutzen.
21 Unterscheidet man begrifflich zwischen Technik und Technologie (i. S. von „Lehre von …“,
„Wissen über …“), dann wäre der von Postman verwendetete Begriff „technology“ wohl bes-
ser mit „Technik“ übersetzt worden.
22 Postman, Neil: Die zweite Aufklärung. Vom 18. ins 21. Jahrhundert. Berlin 2001. S. 55.
23 a. a. O., S. 67.
Zur Rhetorik der Technik 255

wird. Damit ist nicht allein gemeint, das Technik gleichsam „Sprechanlässe“ schafft
und Gegenstand kommunikativer Betrachtungen wäre; es geht vielmehr um eine
Beobachtung und Analyse der Sprache, die wir nutzen, um Technik und über Tech-
nik zu kommunizieren. Dieses Gebiet der Rhetorik der Technik könnte uns darüber
Auskunft geben, wie unser Verständnis technischer Zusammenhänge geleitet wird
von der Sprache, die wir zur Kommunikation von Technik nutzen.
Mit welcher Rhetorik wird Technik vermittelt? Welche Rolle spielt die Stilistik
in der Technikrhetorik? Gibt es eine spezifische latinitas (Sprachrichtigkeit) für die
Technikkommunikation, zudem spezielle Ausprägungen der perspicuitas (Klarheit,
Verständlichkeit)? Gibt es ein spezifisches aptum (Angemessenheit) in der Kommu-
nikation über Technik? Die Vermutung liegt nahe, dass eine Parallele zur Wissen-
schaftsrhetorik zu konstatieren wäre: Dort hat sich im 17. Jahrhundert eine Art „Anti-
Rhetorik“, ein „stilloser Stil“ etabliert24 – der klassischen rhetorischen Stilqualität der
Angemessenheit wird die nüchtern-sachliche Darstellung zugewiesen.

c) die Untersuchung der Sprache und der Argumente, mit der Persuasion für
oder gegen Technik herbeigeführt wird
Technisches Schreiben als Instruktionstext wird selbstverständlich von Linguisten
untersucht25, für die Rhetoriker gäbe es Arbeit zu leisten bei der Untersuchung der
persuasiven Elemente und Funktionen solcher Texte.
Mit Präsentationen und Konzepten beispielsweise werden technische Ideen,
Lösungsvorschläge, Prototypen, Umsetzungen vorgestellt. Damit sollen Zuhörer,
Zuschauer oder Leser überzeugt werden, sei es, dass die Vorstandsetage eines Un-
ternehmens von den Ideen der Forschungs- und Entwicklungsabteilung, oder sei es,
dass ein politisches Gremium von einer technischen Lösung überzeugt werden soll.
In diesen Themenbereich fallen auch Untersuchungen zur Rhetorik von Technik-
bewertung und Technikfolgenabschätzung, die gemeinhin deliberative Aufgaben
erfüllen, also wiederum originär rhetorisch sind. Verschiedene Werke über Tech-
nikfolgenabschätzung haben sich dieser Fragen auf der Basis habermasscher Über-
legungen zur Diskursethik angenommen26; aus rhetorischer Warte lohnte es sich,
beispielsweise auf der Rhetorik fußende argumentationstheoretische Arbeiten auf
diese Diskussion hin zu prüfen, beispielsweise „Klassiker des 20. Jahrhunderts“
wie die Arbeiten von Perelman27 oder Toulmin28.

24 vgl. Klüsener; Grzega, Wissenschaftsrhetorik, a. a. O., Sp. 1489.


25 vgl. in diesem Band den Essay „Technisches Wissen, technische Sprache, technische Bilder“
von Hans Poser.
26 vgl. in diesem Band den Essay „Technikfolgenabschätzung: Ein Konzept zur Gestaltung der
Zukunft“ von Ortwin Renn.
27 vgl. vor allem: Perelman, Chaïm; Olbrechts-Tyteca, Lucie: Die neue Rhetorik. 2 Bde. Stuttgart
2004.
28 grundlegend: Toulmin, Stephen Edelston: Der Gebrauch von Argumenten. Kronberg im Tau-
nus 1975.
256 Volker Friedrich

d) die Untersuchung der Metapherologie der Technik


Mit welchen Metaphern wird Technik belegt, in welchen ausgedrückt? Im philoso-
phischen Diskurs suchte man Antworten auf ähnliche Fragen wohl bei Hans Blumen-
berg. Dessen Ansatz begreift Rüdiger Campe so: „Es geht darum, die Implikation
der Technik und ihrer Theorie im metaphorologischen Verfahren zu erkennen.“29
Auch aus rhetorischer Warte wäre zu untersuchen: Mit welchen sprachlichen
Bildern reden wir über Technik und die von ihr geschaffene und organisierte Welt?
Einerseits lässt sich, wie in b) dargelegt, konstatieren: Es hat sich ein „stilloser
Stil“ etabliert, die nüchtern-sachliche Darstellung. Anderseits ist das Sprechen und
Schreiben über Technik eben häufig gekennzeichnet von einer ausgeprägten Meta-
phorik. Wir sprechen vom „Internet der Dinge“ oder von „künstlicher Intelligenz“,
oft ohne uns des metaphorischen Gehalts solcher Wendungen bewusst zu sein.
Technische Metaphern scheinen schnell zu erstarren, also nicht mehr als Metaphern
wahrgenommen zu werden. Unsere Sprache ist voll von erstarrten Metaphern wie
das „Tischbein“ oder der „Flaschenhals“, die wir als Metaphern nicht mehr wahr-
nehmen. Im Sprechen über Technik scheint das Erstarren von Metaphern schnell zu
gehen, wir benötigen die Metaphern für das sonst Unsagbare offenbar so sehr, dass
wir ihnen das Irritierende nehmen, das ihnen beim ersten Hören oder Lesen inne-
wohnt. „Die prominenteste Metapher aus der Rhetorik des Cyberspace ist zweifellos
das Surfen.“30 An diesem Beispiel lässt sich der Übergang einer frischen zu einer to-
ten Metapher beobachten, „Surfen“ ist inzwischen das „Tischbein“ des „Internets“.

e) die Rhetorizität der Technik


Was lässt Technik selbst rhetorisch sein, was macht ihre Rhetorizität31 aus? Betrach-
tet werden kann dabei, wie Technik als Technik, wie sie technisch kommuniziert und
mit sich technisch kommunizieren lässt und so Persuasionsstrategien verfolgt.
Bolz lässt, wie oben dargelegt, anklingen, dass Gestaltung, Formgebung,
Design32 gleichsam als Rhetorik der Technik angesehen werden können. In ihrer
Gestaltung lädt Technik zu einem intuitiven Umgang mit sich ein und macht so
ihren technischen Charakter vergessen. Sie appelliert an den Pathos, stellt einen
affektiven Umgang gegen ihren technisch-nüchternen Logos. Zu untersuchen wäre

29 Campe, Rüdiger: Von der Theorie der Technik zur Technik der Metapher. Blumenbergs syste-
matische Eröffnung: In: Haverkamp, Anselm; Mende, Dirk (Hg.): Metaphorologie. Zur Praxis
von Theorie. Frankfurt am Main 2009. S. 285.
30 Bolz, Die Wirtschaft des Unsichtbaren, a. a. O., S. 116.
31 „Mit ‚Rhetorizität‘ wird allgemein das ‚Rhetorisch-sein‘ von Kommunikation zum Ausdruck
gebracht, also dass ein kommunikativer Akt sich rhetorischer Mittel bedienen kann, um die
angestrebte Persuasion und Wirkung zu erzielen.“ Friedrich, Volker: Wörterbuch – Begriffe für
die Form und für die Gestalter. In: ders. (Hg.): Sprache für die Form – Forum für Design und
Rhetorik. http://www.designrhetorik.de/?page_id=1149 (Permalink).
32 „Die ‚Rhetorizität der Gestaltung‘ sieht in Wirkungsintentionalität, -steuerung und -erzielung
die Schlüssel zum Verständnis der Persuasion von Gestaltung. Dabei spielt der Begriff der
Angemessenheit (aptum, decorum) eine zentrale Rolle. Zum Verständnis der Rhetorizität von
Gestaltung kann die Rhetorik dem Design an die Seite treten und ihm einen Begriffsapparat
liefern, mit dem gestalterische Zusammenhänge erfasst, benannt und differenziert werden kön-
nen.“ ders., ebd.
Zur Rhetorik der Technik 257

beispielsweise die Rhetorik technischer Gesten. Der Erfolg moderner Produkte der
Kommunikationstechnik, die durch gleichsam natürliche Fingergesten gesteuert
werden, wird gern mit ihrer intuitiven Selbstverständlichkeit erklärt; dabei wird
übersehen, dass genau darin ein rhetorisches Konzept liegt, eine persuasive Strate-
gie, eine Überzeugungstechnik der Technik.
Wie entsteht Persuasion durch Technik? Aus rhetorischer Warte selbstverständ-
lich wie jede Persuasion: durch Appelle an Logos, Ethos und Pathos. Zu untersuchen
wäre, wie diese Appelle von, durch, mit Technik im Detail hervorgerufen werden.
Zu Persuasionsstrategien gehören Appelle an den Logos, was Fragen aufwirft:
Wie entwickeln Technik und Technikrhetorik Argumentationen? Wie wird Tech-
nikrhetorik als Mittel der Persuasion eingesetzt, wie entwickelt sie technikspe-
zifisch Persuasion und kommunikative Wirkung? Wie werden aus kommunikati-
ven Angeboten, die technikimmanent sind, technischen Artefakten innewohnen,
persuasive Strategien und Argumentationen abgeleitet, wie verbalisiert, wie wir-
kungsvoll kommuniziert? Sodann: Wie wird mittels der Bezugnahme auf Tech-
nik versucht, Argumentationen aufzubauen, zu stützen oder zu widerlegen? Wie
Technik beschrieben wird, lenkt, wie Technik genutzt, verstanden, akzeptiert wird.
Für Technik einzunehmen, sei es den Nutzer oder die Gesellschaft, ist ein Akt der
Persuasion, also ein rhetorischer Akt – der ein weites Feld rhetorischer Forschung
eröffnet.

f) eine Narratologie der Technik


In Homers „Odyssee“ findet sich eine frühe Darstellung des Baus eines Segelschif-
fes33, die keiner Bauanleitung entspricht, rhetorisch aber die Faszination und Äs-
thetik des technischen Schaffens einfängt. Odysseus wird immer wieder als der „er-
findungsreiche“ Odysseus apostrophiert, ein früher Ingenieur, der alle Prüfungen
nicht nur wegen seiner Tugenden, sondern wegen der Beherrschung elaborierter
Technik besteht. Die Geschichte des Erzählens hat sich also schon in ihren frühen
Zeugnissen der Technik zugewandt, sie zum Gegenstand des Erzählens gemacht
und für ihre Erzählstrategien genutzt. Darin hat sich bis heute nichts geändert. Die
Science-Fiction-Literatur entwirft Zukunftsvisionen von Technik, manchmal dürf-
ten sie Utopie bleiben, manchmal werden sie erstaunlich schnell Realität. Das fin-
det sich bereits im ersten deutschen Science-Fiction-Roman, Kurd Laßwitz’ „Auf
zwei Planeten“, der 1897 erschien.34 Technisch (und sittlich) den Menschen hoch
überlegene Marsmenschen kommen auf die Erde, um in den großen Wüsten Son-
nenkraftwerke zu errichten, denn ihre High-Tech-Kultur ist energiehungrig – eine
Idee, die rund 100 Jahre später aufgegriffen wurde.
Technik spielt nicht allein in literarischen Gattungen, sondern natürlich auch
in anderen Erzählmedien – Theater, Hörspiel, Oper, Film – eine Rolle, im Film oft
sogar als treibende Kraft der Erzählung. Spielfilme nehmen häufig vorweg, was die
Technik später zum Standard macht. So zeigten Filme Gestensteuerung von Benut-
zeroberflächen, die nach nicht allzu langer Zeit in realen Produkten genutzt wurde;

33 Homer: Odyssee. 5,243–5,261. In: ders: Ilias. Odyssee. München 1982(2). S. 508 f.
34 Laßwitz, Kurd. Auf zwei Planeten. Frankfurt am Main 1984(2).
258 Volker Friedrich

Entwickler von Militärtechnik ließen sich durch Filme inspirieren, sich selbststeu-
ernde Kampfroboter sollen nun Soldaten ersetzen.35 Gerade Hollywood kann als
visionäre Ideenschmiede technischer Entwicklung angesehen werden.
Eine Narratologie der Technik nähme Fragen auf wie: Welche Geschichte(n)
erzählt Technik? Wie wird Technik in Geschichten vermittelt? Wie wird sie in Ge-
schichten entworfen? Welche Erzähltechniken werden eingesetzt, wenn Technik
erzählt wird?

g) die Geschichte der Rhetorik der Technik


Welche Geschichte hat die Rhetorik der Technik? In welcher Wechselwirkung
steht sie zur Technikgeschichte? Derlei Fragen ginge eine Geschichtsschreibung
der Rhetorik der Technik nach.
Eine diachronische Betrachtung der Rhetorik der Technik dürfte interessante
Ergänzungen zur Technikgeschichte anbieten. Ein Ausgangsvermutung wäre, dass
Technik erst dann, wenn sie wirkungsvoll zur Sprache kam, eine gesellschaftliche
Akzeptanz erzielte. Ein weiterer Ansatz läge in einer synchronischen Betrachtung
der Technikrhetorik in bestimmten Phasen technischer Entwicklungen: Ist in unter-
schiedlichen technikrhetorischen Persuasionsstrategien ein Grund dafür zu finden,
dass eine oder dass keine breite gesellschaftliche Akzeptanz für bestimmte techni-
sche Neuerungen zu erzielen war und ist?

h) die Wechselwirkungen zwischen Technik und Rhetorik der Technik


Wie beziehen sich Technik und Sprechen über Technik aufeinander, wie treten sie
in eine Wechselwirkung? Verändern sich technische Entwicklung und Nutzung
durch die Rhetorik, mit der sie vermittelt werden? Dieser Punkt h) wie auch der
vorherige g) eröffnen einen Meta-Diskurs der Technikrhetorik.

Aber vor dem Meta-Diskurs müsste wohl erst ein Anfang gemacht werden. Die
obige Liste ist dafür selbstredend nur Fragment – und böte gern eine Anregung,
nicht allein, doch eben auch für einen Technikphilosophen wie Klaus Kornwachs.

35 Von solchen Elementen leben viele der Verfilmungen der Marvel-Comics, z. B. die „Iron-
Man“-Reihe.
Zur Rhetorik der Technik 259

LITERATUR

Blumenberg, Hans: Ästhetische und metaphorologische Schriften. Frankfurt am Main 2014(4).


Bolz, Norbert: Das Gestell. München 2012.
Bolz, Norbert: Die Wirtschaft des Unsichtbaren. Spiritualität – Kommunikation – Design – Wissen:
Die Produktivkräfte des 21. Jahrhunderts. München 1999.
Campe, Rüdiger: Von der Theorie der Technik zur Technik der Metapher. Blumenbergs systemati-
sche Eröffnung: In: Haverkamp, Anselm; Mende, Dirk (Hg.): Metaphorologie. Zur Praxis von
Theorie. Frankfurt am Main 2009.
Ceccarelli, Leah: Rhetoric of Science and Technology. In: Mitcham, Carl (Hg.): Encyclopedia of
Science, Technology, and Ethics. Bd. 3. Detroit 2015. S. 1625–1629.
Cutcliffe, Stephen H.: Science, Technology, and Society Studies. In: Mitcham, Carl (Hg.): Encyclo-
pedia of Science, Technology, and Ethics. Band 4. Detroit 2015. S. 1723–1726.
Gross, Alan G.: The Rhetoric of Science. Cambridge, Massachusetts; London 1996(2).
Gross, Alan G.; Harmon, Joseph E.: Science from Sight to Insight. How Scientists Illustrate Mean-
ing. Chicago 2014.
Gross, Alan G.; Harmon, Joseph E.; Reidy, Michael S.: Communicating Science: The Scientific
Article from the 17th Century to the Present. West Lafayette 2002.
Gross, Alan G.; Keith, William M. (Hg.): Rhetorical Hermeneutics: Invention and Interpretation in
the Age of Science. Albany 1997.
Gross, Alan G.; Gurak, Laura J. (Hg.): The State of Rhetoric of Science and Technology. Technical
Communication Quarterly. Special Issue. Volume 14. Number 3. Summer 2005.
Gross, Alan G.: Starring the text. The place of rhetoric in science studies. Carbondale 2006.
Harmon, Joseph E.; Gross; Alan G.: The craft of scientific communication. Chicago 2010.
Homer: Ilias. Odyssee. München 1982(2).
Hubig, Christoph: Technik als Medium. In: Grunwald, Armin (Hg.): Handbuch Technikethik. Darm-
stadt 2013. S. 118–123.
Kalivoda, Gregor; Zinsmaier, Thomas: Rhetorik. In: Ueding, Gert (Hg.): Historisches Wörterbuch
der Rhetorik, Bd. 7. Tübingen 2005. Sp. 1423–1429 (gesamter Eintrag: Sp. 1423–1740).
Kant, Immanuel: Kritik der Urteilskraft. Werkausgabe, Bd. 10. Frankfurt am Main: Suhrkamp Ver-
lag, 1981(5).
Klüsener, Bea; Grzega, Joachim: Wissenschaftsrhetorik. In: Ueding, Gert (Hg.): Historisches Wör-
terbuch der Rhetorik, Bd. 10: Nachträge. Tübingen 2012. Sp. 1486–1508.
Kornwachs, Klaus: Das Prinzip der Bedingungserhaltung. Eine ethische Studie. Münster 2000.
ders.: Philosophie der Technik. Eine Einführung. München 2013.
Laßwitz, Kurd. Auf zwei Planeten. Frankfurt am Main 1984(2).
Perelman, Chaïm; Olbrechts-Tyteca, Lucie: Die neue Rhetorik. 2 Bde. Stuttgart 2004.
Postman, Neil: Die zweite Aufklärung. Vom 18. ins 21. Jahrhundert. Berlin 2001.
Scheuermann, Arne; Vidal, Francesca (Hg.): Handbuch Medienrhetorik. Berlin, Boston 2016.
Stroh, Wilfried: Die Macht der Rede. Eine kleine Geschichte der Rhetorik im alten Griechenland
und Rom. Berlin 2011.
Toulmin, Stephen Edelston: Der Gebrauch von Argumenten. Kronberg im Taunus 1975.
Vidal, Francesca: Rhetorik des Virtuellen. Die Bedeutung rhetorischen Arbeitsvermögens in der
Kultur der konkreten Virtualität. Mössingen-Talheim 2010.
V. KULTUR DER TECHNIK:
KÖNNEN WIR LEBEN, WAS WIR TUN?
TECHNIK ALS ERKENNTNIS- UND FORMPROZESS
Steffen W. Groß

„Wir suchen also in der Technik eine Idee.“1

GEMACHT – UND MACHTVOLL


Begriffsverwirrungen, Ubiquitäten und Zwiespältigkeiten

„Technik“ ist einer jener Groß-Begriffe, den jeder von uns beinahe täglich in ir-
gendeiner Gesprächssituation verwendet, liest oder hört. Und wie bei nahezu allen
so häufig gebrauchten Wörtern scheint es auch hier klar und selbstverständlich zu
sein, was unter „Technik“ zu verstehen ist. Bilder und Vorstellungen erscheinen im
Nu vor unserem geistigen Auge. Das Wort „Technik“ ist auch deshalb allgegen-
wärtig, weil es seit längerem geübte Praxis ist, alle möglichen Phänomene der All-
tagskultur mittels den technischen Diskursen entlehnten Metaphern auszudrücken
und zu kommunizieren. Man denke beispielsweise an die gängige Beschreibung
ökonomischer Vorgänge und Probleme mit Begriffen, die vorzugsweise der Au-
tomobiltechnik entnommen werden. So entsteht ein Bild der Volkswirtschaft, das
dem eines komplizierten technischen Apparates sehr ähnelt und in der Öffentlich-
keit verbreitet sich die Auffassung, Volkswirte und Wirtschaftspolitiker seien eine
Unterart des Kraftfahrzeug-Ingenieurs, die mit der Aufgabe betraut ist, den „Mo-
tor“ der Wirtschaft am Laufen zu halten und dafür zu sorgen, dass die Konjunktur
„anspringt“ und alsbald „Fahrt aufnimmt“.
„Technik“ ist schon aufgrund der vielen möglichen Kopplungen in andere
Bereiche kulturellen Gestaltens hinein von besonderer Dominanz und wohl daher
auch mit besonderen Erwartungen ausgestattet. Das Wort „Technik“ vermag sodann
heftige Emotionen auszulösen. Es kann verheißend klingen, aber auch ängstigend
und Unbehagen erzeugend. Für letzteres steht aktuell die sehr emotional geführte
Debatte um die „Digitalisierung der Volkswirtschaften“, die von nicht wenigen als
eine große Gefahr angesehen und mit dem Szenario rasch steigender Arbeitslosig-
keit aufgrund der Befürchtung, dass ganze Berufszweige verschwinden bzw. eine
radikale Entwertung von Qualifikationen und individuellen Lebensleistungen ein-
tritt, verbunden wird. „Technik“, so scheint es, teilt sich den von ihr in irgendeiner
Weise Beeinflussten oder Betroffenen als ein fremder Sachzwang mit2. Technik
erscheint als fremde Macht, in der der Mensch sich selbst fremd zu werden scheint,

1 Zschimmer, Eberhard: Philosophie der Technik. Vom Sinn der Technik und Kritik des Unsinns
über die Technik. Jena 1914. S. 28.
2 s. Recki, Birgit: Technik als Kultur. Plessner, Husserl, Blumenberg, Cassirer. In: Zeitschrift für
Kulturphilosophie, 2013/2, S. 289–303, hier bes. S. 300.
264 Steffen W. Groß

als Schöpfer von Werken, die ein Eigenleben beginnen, eine Eigenlogik etablieren,
Werke und Wirkungen, die er nicht ganz versteht. Georg Simmel hat unter anderem
darin, im nicht entscheidbaren Konflikt von subjektivem und objektivem Geist, den
Grund der „Tragödie der Kultur“3 gesehen; und eine nach wie vor eindringlich-
beeindruckende Verarbeitung der Ambivalenz menschlicher Gestaltungsmacht mit
künstlerischen Mitteln hat Johann Wolfgang Goethe 1797 mit seinem Gedicht „Der
Zauberlehrling“4 und der Beschreibung von dessen verzweifelten Versuchen des
Fassen-Wollens aber nicht Fassen-Könnens versucht.
Die Einführung und schnell massenhafte Verbreitung bestimmter Technolo-
gien, deren Integration in den Alltag, verändern seit Beginn des 19. Jahrhunderts
beschleunigt und nachhaltig die Wahrnehmung der natürlichen wie der sozialen
Umwelten sowie die Perspektiven auf den Menschen selbst. So bringt der Bau und
die Nutzung von Eisenbahnen, die damit einhergehende Möglichkeit von Massen-
mobilität, eine Veränderung der Raum-Zeit-Wahrnehmung mit sich, die in zeit-
genössischen Berichten oft als eine durchaus ambivalente Erfahrung beschrieben
wird. Die Erfindung und die Verbreitung der Fotografie verändern die Wahrneh-
mung von Landschaften und von Menschen – gerade auch dies führt zu neuen,
anderen Selbst-Wahrnehmungen durch die zwischengesetzte Technik. Gegenbewe-
gungen unter dem Motto „Zurück zur Natur“ wirken bald hilflos verloren und wer-
den schnell belächelt. In dieser Hinsicht kann das 19. als ein Schlüsseljahrhundert
gelten und Jürgen Osterhammel hat nur zu Recht von der „Verwandlung der Welt“5
gesprochen, die sich im Zuge der Industrialisierung des Wirtschaftens, der Techni-
sierung des Alltags und der globalen Verbreitung von Technik vollzieht und die sich
als unumkehrbar erweist.
Es sind, bei näherer Betrachtung nur wenig verwunderlich, die Kunst und die
Künstler, die sehr sensibel auf die Frag-Würdigkeit von Technik und ihrer Verbrei-
tung reagieren und sie verarbeitend zu verstehen suchen. Die folgende Passage aus
dem Aufsatz Technik und konstruktivistische Kunst des Kunstkritikers und -publi-
zisten Ernst Kállai aus dem Jahr 1922 liefert zum einen eine bemerkenswerte Be-
stimmung des Begriffs der Technik und zum anderen beschreibt sie eindrucksvoll
das Changieren zwischen Faszination an der Technik und den sich aus ihr speisen-
den neuen Möglichkeiten gerade für Kunst und Künstler einerseits und dem Unbe-
hagen an sich zeigenden neuen Zwängen, Beschränkungen und dem Standardisie-
rungsdruck andererseits: „Die Technik selbst ist ein vom Menschen geschaffenes

3 „Das große Unternehmen des Geistes, das Objekt als solches dadurch zu überwinden, daß er
sich selbst als Objekt schafft, und mit der Bereicherung durch diese Schöpfung zu sich selbst
zurückzukehren, gelingt unzählige Male; aber er muss diese Selbstvollendung mit der tragi-
schen Chance bezahlen, in der sie bedingenden Eigengesetzlichkeit der von ihm selbst geschaf-
fenen Welt eine Logik und Dynamik sich erzeugen zu sehen, die die Inhalte der Kultur mit
immer gesteigerter Beschleunigung umd immer weiterem Abstand von dem Zwecke der Kultur
abführt.“ Simmel, Georg: Der Begriff und die Tragödie der Kultur. In: ders.: Philosophische
Kultur. Gesammelte Essais. Leipzig 1911. S. 277.
4 Goethe, Johann Wolfgang: Der Zauberlehrling. In: Erich Trunz (Hg.): Goethes Werke. Ham-
burger Ausgabe. Bd. I. München 1998. S. 276–279.
5 Osterhammel, Jürgen: Die Verwandlung der Welt. Eine Geschichte des 19. Jahrhunderts. Mün-
chen 2016(2).
Technik als Erkenntnis- und Formprozess 265

Werk, aus einer logisch beherrschten Schicht des Bewusstseins in den Kreis roher
oder vorbereiteter natürlicher Energien und Materialien projiziert. Die einfachen
und streng gesetzmäßigen Bezüge ihrer Raumformen schaffen ein System, das
gänzlich auf sich selbst beruht, eine reine Selbstbeherrschung ist und sein Wesen an
allen Punkten zu überschauen vermag. Dieser typisierte Gehalt steht über allen La-
byrinthen subjektiver Gefühle und Instinkte, über Tragödien und pathetischen An-
strengungen. Er duldet keinerlei individuelle Ausschweifungen, bietet der isolierten
Einsamkeit von Stimmungen keinen Raum. Dies sind enorme Antriebe für einen
Geist, der sich (…) sein eigenes Gerüst als das Skelett der neuen, von tragischen
Lasten befreiten Lebensordnung und -gemeinschaft schaffen will.“6
In den Diskursen unseres Alltags dominiert ein vordergründig ingenieur-tech-
nischer Begriff von Technik. Wenn wir das Wort „Technik“ hören, dann denken wir
beinahe unweigerlich an – eben technische – Geräte aller Art, Maschinen, Werk-
zeuge, Computer, Verkehrsmittel usw. Ich nenne dies den apparatenhaften Alltags-
begriff von Technik. Überdies ist dieser Technik-Begriff stark von ökonomisch
eingefärbten Vorstellungen von „Nützlichkeit“ durchwaltet: Technik soll uns „das
Leben leichter“ machen und es nach Möglichkeit verlängern, sie soll uns die Müh-
sal körperlich schwerer und/oder geistig stupider Arbeiten abnehmen, neue Mög-
lichkeiten eröffnen, die möglichst ohne negative Nebenfolgen bleiben, forcierter
Technikeinsatz soll sich (in welcher Form auch immer) „auszahlen“ – „Technik“
und (zu realisierende) „Utopie“ sind verschwistert und stehen unter der Vorherr-
schaft instrumenteller Imperative.
Womöglich zeichnet sich hier ein schwerwiegendes Problem ab, das maßgeb-
lich zu Begriffsverwirrungen von „Technik“ und gesellschaftlichen wie auch indivi-
duellen Zwiespältigkeiten in der Haltung zu Technik beiträgt: Wir gehen vorschnell
vom fertigen technischen Produkt der Technik aus. Technik wird zuvorderst, wie
schon die gerade zitierte Stelle aus dem Aufsatz von Ernst Kállai aufweist, als Werk
wahrgenommen. Das Wirken bekommt hingegen weit weniger Aufmerksamkeit und
Interesse. Wir neigen dazu, den immer in der Zeit verlaufenden kreativen Prozess
der Technikentwicklung zu ignorieren, wir nehmen Technik erst zur Kenntnis und
betrachten sie durchaus kritisch, nachdem der sich der aufgewirbelte Staub gelegt
hat, wenn sie „fertig“ vor uns steht. Dies befeuert nur die Illusion, dass es sich bei
Technik um etwas Objektives und Rationales im strengsten Sinne handeln würde.
Technik scheint in der als weitgehend entzaubert geltenden Welt als weiteres „stahl-
hartes Gehäuse“ neben die von Max Weber so gekennzeichnete Bürokratie zu treten.
Diese Wahrnehmungsweise ist es auch, die schließlich zur Grundlage des Hauptstro-
mes der westlichen Technikkritik seit dem Ende des 19. Jahrhunderts geworden ist.
Eine avanciertere und nach wie vor durchaus bedenkenswerte Kritik legt den
Finger dabei auf eine weitere wunde Stelle: Der amerikanische Philosoph und
Kulturkritiker Charles Frankel wies in seiner kulturkritischen Schrift „The Case
of Modern Man“ 1955 darauf hin, dass bei aller Technikbegeisterung (oder eben
auch -verdammung) ein wichtiger Aspekt aus dem Blick zu geraten droht: Die

6 Kállai, Ernst: Technik und konstruktivistische Kunst [1922]. In: ders.: Vision und Formgesetz.
Aufsätze über Kunst und Künstler 1921–1933. Leipzig und Weimar 1986. S. 13 (Hervorhebun-
gen im Original).
266 Steffen W. Groß

Entscheidung für die Verwendung und massenhafte Verbreitung einer neuartigen


Technologie (Frankel selbst nimmt insbesondere das damals – 1955 – in den USA
gerade zum technischen Massenmedium aufgestiegene Fernsehen als Beispiel) ist
eine soziale Entscheidung mit sozialen Konsequenzen: “The decision as to when,
where, and how to introduce a technological change is a social decision, affecting
an extraordinary variety of values. And yet these decisions are made in something
very close to a social vacuum. Technological innovations are regularly introduced
for the sake of technological convenience, and without established mechanisms for
appraising or controlling or even cushioning their consequences.”7
Darin liegt für Frankel nichts weniger als die Gefahr des Zerreißens von für die
Kultur insgesamt unverzichtbarer, weil lebensnotwendiger Wirkungszusammen-
hänge. Als weiteres Problem in diesem Kontext identifiziert Frankel die Gespalten-
heit der öffentlichen Wahrnehmung, die, durchaus aktuell, dem Ingenieur, seinen
Leistungen, den MINT-Fächern in Schule und Universität eine unbedingte Vorrang-
stellung einräumen und auf der Skala gesellschaftlicher Wichtigkeit in den oberen
Bereich platzieren – und damit ein weiteres Mal Spannungszusammenhänge in der
komplexen Kultur zugunsten einer Seite entscheiden: „The engineers, we say with
pride, are the true revolutionaries. We forget to add that if they came dressed as so-
cial planners many of us would regard them as tyrants. (…) The problem cannot be
met by reminding engineers of their social responsibilities, or by calling conferen-
ces to discuss the human use of human inventions. The problem is institutional.“8
„Institutional“ ist der interessante Begriff in diesem Zusammenhang, dem et-
was mehr Aufmerksamkeit geschenkt werden sollte. Ich verstehe ihn hier in sehr
grundsätzlicher Weise, d. h. in Begriffen sehe ich zentrale Institutionen unseres
Wahrnehmens, Denkens, Be-Greifens. Um das von Frankel identifizierte „instituti-
onal problem“ zu verstehen und aufzuschließen, bedarf es daher zuvor einer Tiefer-
legung auf der institutionellen Ebene der Begrifflichkeiten. Mithin geht es darum,
auf die notwendige harte Arbeit am Begriff zu verweisen.
Und hier ist es erforderlich, einen engeren von einem weiteren Begriff von
„Technik“ zu unterscheiden: „Technik“ erschöpft sich eben nicht in ihrem Dasein
als „Werk“, in ihren konkreten Hervorbringungen als Apparate. In Spannung dazu
steht eine zweite Seite des Technik-Begriffes, der die prozessuale Dimension des
Technischen betont und beschreibt. Dieser ist schließlich auch in den Diskursen
des Alltags immer wieder präsent, wenn auch zumeist in anderen Kontexten: Etwa
dann, wenn wir von den sogenannten „Kulturtechniken“ sprechen und damit grund-
legende Verfahren des Sich-Bildens und der Wissensgewinnung meinen. Hierin
wird Technik ausdrücklich nicht als fertiges Produkt, als Ergebnis menschlicher
Leistungen verstanden, sondern im Gegenteil als erst Möglichkeiten bedingende,
hervorbringende und aufschließende Voraussetzung von menschlichen Leistungen.
Technik erscheint hier geradezu als Bedingung der Möglichkeit zu etwas.

7 Frankel, Charles: The Case for Modern Man. New York 1955. S. 198.
8 ebd.
Technik als Erkenntnis- und Formprozess 267

„TECHNIK“: ENERGIE DES GEISTES UND UNABSCHLIESSBARER


PROZESS ZUR FORM

Daher möchte ich die Aufmerksamkeit stärker auf diesen dynamischen, prozesshaf-
ten, Formen bildenden Aspekt der Technik (oder vielleicht besser: des Technischen)
lenken. Mein Gewährsmann dabei ist Ernst Cassirer, der es als einer der ersten un-
ternahm, nicht das Werk, sondern ausdrücklich das Wirken der Technik im und für
den Aufbau der Kultur umfassend verstehbar werden zu lassen. Und dieses Wirken
findet immer in der Zeit statt. Damit stellen sich uns Technik – wie Kultur insge-
samt – als geschichtliche Welten dar.
Ein Verständnis von – und für – Technik als Wirken und nicht als Werk wird
möglich vor dem Hintergrund des differenzierten Form-Begriffs, mit dem Cassi-
rer arbeitet, d. h. Kulturphänomene und -leistungen zu erfassen und zu begreifen
sucht. In seinem Aufsatz „Form und Technik“9 (1930), den ich als eine Erweiterung
der „Philosophie der symbolischen Formen“ um eben die symbolische Form der
Technik sehe, wendet Cassirer einen differenzierenden Form-Begriff an. Da ist die
forma formata als das fertig Geformte, zu seiner Form Gekommene, das Werk.
Und in Spannung dazu steht die forma formans, die Formung, das zur Form Kom-
mende und zugleich sich der abschließenden Form Entziehende, das Wirken. Es
gibt keinen Zweifel daran, welchem der beiden Form-Begriffe das Hauptinteresse
Cassirers gilt. Das „Sein“ von Schöpfungen der Kultur soll als Prozess, als Tätig-
keit, als Formgebung wahrgenommen und konzeptionalisiert werden. So geht mit
der Formgebung immer eine Sinngebung einher.
Die erkenntniskritische Voraussetzung dafür hatte Cassirer mit seinem bereits
1910 erschienen Buch „Substanzbegriff und Funktionsbegriff“10 gelegt. Um kul-
turelle Leistungen zu begreifen, müssen wir ihre Funktionen konzeptionalisieren.
Substanzbegriffe helfen uns in diesem Bemühen kaum weiter. Geistige Leistungen
und ihre Ergebnisse sind keine vor uns liegenden Dinge, die distanziert betrach-
tet werden können. Vielmehr entspringt ihr Sinn für uns aus ihrem Funktionieren,
das zudem in vielfachen Verweisungszusammenhängen steht, diese erst schafft und
fortwährend um-schafft. Damit aber wird das Betrachten selbst zum Tun und zum
Erleben, nicht zuletzt als sich-selbst-Erleben im Tun.
Im Aufsatz „Form und Technik“ wendet Cassirer diesen Ansatz konkret auf das
Kulturphänomen der Technik und des technischen Gestaltens an. Und so kann es
nur als konsequent gelten, wenn er dort schreibt: „Denn das ‚Sein‘ der Technik lässt
sich selbst nicht anders als in der Tätigkeit erfassen und darstellen. Es tritt nur in
ihrer Funktion hervor; es besteht nicht in dem, als was sie nach außen hin erscheint
und als was sie sich nach außen gibt, sondern in der Art und Richtung der Äußerung
selbst: in dem Gestaltungsdrang und Gestaltungsprozess, von dem diese Äußerung

9 Cassirer, Ernst: Form und Technik. In: Kestenberg, Leo (Hg.): Kunst und Technik. Berlin 1930.
S. 15–62; zudem in: Birgit Recki (Hg.): Ernst Cassirer Gesammelte Werke (ECW). Bd. 17:
Aufsätze und Kleine Schriften 1927–1931. Hamburg 2004. S. 139–183.
10 ders: Substanzbegriff und Funktionsbegriff. Untersuchungen über die Grundfragen der Er-
kenntniskritik [1910], ECW, Bd. 6. Hamburg 2000.
268 Steffen W. Groß

Kunde gibt. So kann das Sein hier nicht anders als im Werden, das Werk nicht an-
ders als in der Energie sichtbar werden.“11
Allerdings bezeichnet Cassirer diese Situation als ein „neues Dilemma“12. Ein
Dilemma verweist auf auf eine schwierige Entscheidungssituation zwischen zwei
oder mehreren gleichermaßen wenig angenehmen Alternativen und treibt in die Su-
che nach einem Ausweg, nach einem sicheren Standort. Der darin liegende Antrieb
jedoch ist in vorzüglicher Weise Weg-weisend, treibt aus dem Gewohnten und aus
den attraktiven, weil bequemen, Scheinplausibilitäten heraus. In Dilemmata liegen
somit Entwicklungschancen, die es zu ergreifen gilt. Und so wird bald sichtbar,
dass sich Technik keineswegs im statischen Werk, im Erzeugten, erschöpft, sondern
als eine dynamische „Weise und Grundrichtung des Erzeugens“13, der zu folgen
wäre, erfasst werden soll. Und geht man dieser „Grundrichtung des Erzeugens“
nach, dann zeigt sich, dass Technik durchaus die Funktionen einer „symbolischen
Form“14 erfüllt: Technik schafft und erschließt – wie bzw. neben der Sprache, dem
Mythos, der Wissenschaft, der Religion und der Kunst – eine eigenständige Wirk-
lichkeit. Und gerade diese Eigenständigkeit der technischen Wirklichkeit ist es
wohl, die uns nicht selten Unbehagen bereitet.
Symbolische Formen aber sind Energien des Geistes. Und in der Technik
drückt sich ein weiteres Mal diese Energie aus wie sie zugleich im Durchgang und
mittels der geschaffenen technischen Werke Wirklichkeiten erschließt und, in ihrer
utopischen Funktion, neue Möglichkeiten aufscheinen lässt. Energien des Geistes
sind poietischer Natur – mit offenem Ausgang. Im Falle der Technik nun erweisen
sie sich als dialektische Verschränkung von Grenzenlosigkeit und Begrenztheit. Ei-
nen Hinweis darauf lieferte Max Eyth, der 1904 für einen Vortrag schon titelgebend
Poiesis und Technik in einen Formen bildenden Zusammenhang bringt: „Technik
ist alles, was dem menschlichen Wollen eine körperliche Form gibt. Und da das
menschliche Wollen mit dem menschlichen Geist fast zusammenfällt, und dieser
eine Unendlichkeit von Lebensäußerungen und Lebensmöglichkeiten einschließt,
so hat auch die Technik, trotz ihres Gebundenseins an die stoffliche Welt, etwas von
der Grenzenlosigkeit des reinen Geisteslebens überkommen.“15 In gewisser Weise

11 ders., Form und Technik, ECW, Band 17, S. 147.


12 ebd.
13 ebd., S. 148.
14 Die wohl beste Bestimmung des Konzepts der „symbolischen Form“, die durch die Betonung
des unauflösbaren Spannungsbogens aus passivem Aufnehmen und aktiver Ausdrucksleistung
besticht, leistet Cassirer in seinem Aufsatz „Der Begriff der symbolischen Form im Aufbau der
Geisteswissenschaften“ von 1923. Dort heißt es: „Unter einer ‚symbolischen Form‘ soll jede
Energie des Geistes verstanden werden, durch welche ein geistiger Bedeutungsgehalt an ein
konkretes sinnliches Zeichen geknüpft und diesem Zeichen innerlich zugeeignet wird. In die-
sem Sinne tritt uns die Sprache, tritt uns die mythisch-religiöse Welt und die Kunst als je eine
besondere symbolische Form entgegen. Denn in ihnen allen prägt sich das Grundphänomen
aus, daß unser Bewusstsein sich nicht damit begnügt, den Eindruck des Äußeren zu empfangen,
sondern daß es jeden Eindruck mit einer freien Tätigkeit des Ausdrucks verknüpft und durch-
dringt.“ ders.: Der Begriff der symbolischen Form im Aufbau der Geisteswissenschaften
[1923], ECW, Bd. 16, S. 79.
15 Eyth, Max: Poesie und Technik. In: ders.: Lebendige Kräfte. Sieben Vorträge aus dem Gebiet
der Technik. Berlin 1924(4). S. 1 f.
Technik als Erkenntnis- und Formprozess 269

verweist diese Passage auf die den symbolischen Formen innewohnende Dialek-
tik, einerseits immer kulturelle Leistungen und insofern Ergebnis menschlichen
Wollens und Handelns zu sein, und zugleich andererseits Erschließungsweisen von
Wirklichkeiten und damit wiederum Voraussetzung und Möglichkeitsbedingung
von weiteren kulturellen Leistungen. Mit den Artefakten der Technik wird Physi-
sches gestaltet, was die Energien des Geistes fürderhin kanalisiert, ihnen Richtung
gibt und Form verleiht.
Ganz im Sinne dieser Dialektik verstehe ich Cassirers Vorschlag, in der Tech-
nik schließlich eine „Bezwingerin der chaotischen Kräfte im Menschen selbst“16
zu sehen. Damit wird Technik, in gewisser Weise Kállais These von der „reinen
Selbstbeherrschung“ und dem „typisierten Gehalt“ verstärkend, zur Bedingung der
Möglichkeit von Freiheit, einer Freiheit, die ohne Begrenzungen keine sein kann.
Womöglich kommt dies der gesuchten „Idee in der Technik“ ein wenig näher. Es ist
die Idee der Freiheit, die wir in der Technik als einem schöpferischen Bilden und
Wirken suchen und in konkreten Formen begreifen können.

16 Cassirer, Form und Technik, a. a. O., S. 183.


270 Steffen W. Groß

LITERATUR

Cassirer, Ernst: Der Begriff der symbolischen Form im Aufbau der Geisteswissenschaften. In: Birgit
Recki (Hg.): Ernst Cassirer Gesammelte Werke (ECW). Bd. 16: Aufsätze und Kleine Schriften
1922–1926. Hamburg 2003. S. 75–104.
ders.: Freiheit und Form [1930]. In: ECW. Bd. 17: Aufsätze und Kleine Schriften 1927–1931. Ham-
burg 2004. S. 139–183.
ders.: Substanzbegriff und Funktionsbegriff. Untersuchungen über die Grundfragen der Erkenntnis-
kritik [1910]. In: ECW. Bd. 6. Hamburg 2000.
Eyth, Max: Poesie und Technik. In: ders.: Lebendige Kräfte. Sieben Vorträge aus dem Gebiet der
Technik. Berlin 1924(4). S. 1–22.
Frankel, Charles: The Case for Modern Man. New York 1955.
Goethe, Johann Wolfgang: Der Zauberlehrling. In: Erich Trunz (Hg.): Goethes Werke. Hamburger
Ausgabe. Bd. I. München 1998. S. 276–279.
Kállai, Ernst: Technik und konstruktivistische Kunst [1922]. In: ders.: Vision und Formgesetz. Auf-
sätze über Kunst und Künstler 1921–1933. Leipzig und Weimar 1986. S. 11–16.
Osterhammel, Jürgen: Die Verwandlung der Welt. Eine Geschichte des 19. Jahrhunderts. München
2016(2).
Recki, Birgit: Technik als Kultur. Plessner, Husserl, Blumenberg, Cassirer. In: Zeitschrift für Kultur-
philosophie, 2013/2, S. 289–303.
Simmel, Georg: Der Begriff und die Tragödie der Kultur. In: ders.: Philosophische Kultur. Gesam-
melte Essais. Leipzig 1911. S. 245–277.
Zschimmer, Eberhard: Philosophie der Technik. Vom Sinn der Technik und Kritik des Unsinns über
die Technik. Jena 1914.
TECHNISCHES SPIEL OHNE GRENZEN?
Ethische und sicherheitstechnische Fragen beim Spiel mit Technik

Stefan Poser

Tollkühn stürzen sich Teilnehmer eines spielerisch-sportlichen Wettbewerbs mit


selbstgebauten Fluggeräten von einem Sprungturm ins Wasser, andere imitieren
mit umgebauten „Bobby Cars“ Autorennen, die nächsten fahren immer wieder
Achterbahn, um möglichst oft einen mit Schwindel verbundenen Rauschzustand zu
genießen, den Roger Caillois als ilinx in die Theorie des Spiels eingeführt hat.1
Wieder andere sitzen Stunden um Stunden vor dem Computer. Der virtuelle Raum
ermöglicht ihnen, eine Vielzahl menschlicher Handlungen als Rollenspiel zu imi-
tieren. Technik eignet sich nicht nur hervorragend zum Spielen, sondern hat die
Variationsbreite von Spielen seit der Industrialisierung beachtlich erweitert und ih-
nen mit einer jeweils zeittypischen Ausgestaltung zu ihrer Historizität verholfen.2
Doch wo sind die Grenzen, in welchem Maß darf man mit Technik spielen?
Im Spiel – hier eingeschränkt auf das Spiel, das durch Technik ermöglicht
wird – gelten offensichtlich andere ethische Regeln als außerhalb des Spiels, weil
Handeln im Spiel anderen Zielsetzungen folgt als im Alltag und im Beruf. Um ein
plakatives Beispiel zu wählen: ein Mord kann im Spiel (wie auch in der Literatur
und im Film) eine Bereicherung oder gar zentraler Inhalt sein; außerhalb des Spiels
ist er eindeutig inakzeptabel. Die Zielsetzungen im Spiel sind nach Caillois mit dem
Wettkampf agon, dem Glücksspiel alea, dem Rollenspiel mimikry und dem Rausch
ilinx verbunden. Charakteristisch und von den Spielenden angestrebt ist in der Re-
gel eine positive, mitunter gelöste und vergnügliche Grundstimmung. Deshalb sind
es nicht die Ziele, die als verwerflich erscheinen, sondern eine Reihe von Auswir-
kungen, die über das Spiel hinausgehend von gesellschaftlicher Relevanz sind.
Dieser Beitrag zielt darauf, aus technikhistorischer Perspektive Grenzen des
Akzeptablen für verschiedene Formen des Spiels auszuloten; dabei wird sich zei-
gen, dass die damit verbundene Technikethik zeit- und gesellschaftsabhängig vari-
iert. Beispiele beziehen sich auf das Jahrmarktsvergnügen, den Sport, Computer-
spiele und „intelligentes“ Spielzeug sowie das freie Spiel. Im Folgenden wird von
einem Technikbegriff ausgegangen, der in Anlehnung an Günter Ropohl Artefakte,
Sachsysteme und Handlung umfasst3, aber auf die Zweckrationalität als Krite-

1 Caillois, Roger: Les jeux et les hommes. Le masque et le vertige (1958); engl.: Man, Play and
Games. New York 1961; dt.: Die Spiele und die Menschen. Maske und Rausch. Stuttgart 1960
(zitierte Ausgabe: Frankfurt am Main 1982). S. 32 f., S. 151 f.
2 s. Poser, Stefan: Glücksmaschinen und Maschinenglück. Grundlagen einer Technik- und Kul-
turgeschichte des technisierten Spiels. Bielefeld 2016.
3 Ropohl, Günter: Zur Technisierung der Gesellschaft. In: Bungard, Walter; Lenk, Hans (Hg.):
272 Stefan Poser

rium für Technik verzichtet und damit einen begrifflichen Freiraum für die spiele-
rische Nutzung und Gestaltung von Technik herstellt4. Zugrunde liegt außerdem
ein umfassender Spielbegriff, der Spiel und Vergnügen miteinander verbindet, und
Spielresultate zulässt, die über das Spiel hinaus bestehen, sodass Sport, Jahrmarkts-
vergnügen und Basteln gleichermaßen zum Spiel zählen.5 Er orientiert sich an An-
sätzen Johan Huizingas, Roger Caillois’ und Brian Sutton-Smith’ zum Spiel sowie
Mihaly Csikszentmihalyis zum flow-Erlebnis, wobei Caillois’ Kategorisierung von
Spielen als Leitfaden genutzt wird.6
Um das Spiel mit Technik ethisch vertretbar zu gestalten, muss das Kriterium
der Zweckfreiheit und damit der Folgenlosigkeit – so das Eingangspostulat dieses
Beitrags – für solche Spiele uneingeschränkt gelten, deren Inhalte und Folgen au-
ßerhalb der Spielwelt nicht akzeptabel wären. Allerdings stößt sich die Forderung
der Zweckfreiheit an der Realität: Wären Spiele eindeutig zweckfrei und hätten
keine Auswirkungen auf das tägliche Leben der Spielenden, so wären Diskurse
über die gesellschaftliche Bedeutung von Spielen und wiederkehrende Spielverbote
unnötig.

JAHRMARKTSVERGNÜGEN

Beim Spiel werden regelmäßig Grenzen erreicht und in einigen Fällen sogar über-
schritten, die in anderen Lebensbereichen gelten. Ein Stück weit „lebt“ das Spiel
davon, das Grenzen erreicht, in einigen Fällen sogar verschoben werden: Das Fahr-
vergnügen bei Achterbahnen basiert darauf, dass an die physische Belastungsgrenze
der Fahrgäste herankonstruiert wird, sie Beschleunigungen ausgesetzt sind, die mit
großer Wahrscheinlichkeit Schwindel- und Rauschzustände hervorrufen. Wird diese
Grenze überschritten, äußert sich das in Übelkeit und Rückenschäden. Solcherma-
ßen traktierte Jahrmarktsbesucher taten sich in den 1950er Jahren zusammen, grün-
deten einen „Verein der Loopinggeschädigten“ und setzten sich erfolgreich für ein

Technikbewertung. Frankfurt am Main 1988. S. 83.


4 Dieser Ansatz ist auf Definitionen Dessauers und MacKenzie/Wajcmans sowie auf das Konzept
der Large Technological Systems von Hughes bezogen, der „even play“ berücksichtigt: Des-
sauer, Friedrich: Streit um die Technik. Frankfurt am Main 1956(3). S. 234; MacKenzie, Do-
nald; Wajcman, Judy: Introduction Essay. In: dies. (Hg.): The Social Shaping of Technology.
How the Refrigerator Got its Hum. Milton Keynes u. a. 1985. S. 3 f.; sowie: Hughes, Thomas
P.: The Evolution of Large Technological Systems. In: Bijker, Wiebe E.; Hughes, Thomas P.;
Pinch, Trevor J. (Hg.): The Social Construction of Technological Systems. New directions in
the sociology and history of technology. Cambridge, London 1987. S. 53.
5 Avedon, Elliott M.; Sutton-Smith, Brian: Introduction. In: dies. (Hg.): The Study of Games.
New York u. a. 1971. S. 7; sowie: Salen, Katie; Zimmerman, Eric: Rules of Play – Game De-
sign Fundamentals. London 2004. S. 80.
6 Huizinga, Johan: Homo ludens. Proeve eener bepaling van het spel-element der cultuur. Haarlem
1938/1958, engl.: Homo ludens. A study of the play-element in culture. London 1949, dt: Homo
ludens. Vom Ursprung der Kultur im Spiel. Reinbek 1956, 2001(18); sowie: Sutton-Smith, Brian:
The Ambiguity of Play. Cambridge, MA, u. a. 1997; sowie: Csikszentmihalyi, Mihaly: Beyond
boredom and anxiety (1975); dt.: Das flow-Erlebnis. Jenseits von Angst und Langeweile: im Tun
aufgehen. Stuttgart 1985. Siehe dazu: Poser, Glücksmaschinen, a. a. O., S. 39 ff.
Technisches Spiel ohne Grenzen? 273

Betriebsverbot der betreffenden Anlage ein.7 Beides markiert, dass hier beim Tech-
nikeinsatz zu Spielzwecken nicht nur körperliche Grenzen, sondern auch Grenzen
des gesellschaftlich Akzeptierten, des ethisch Verantwortbaren überschritten wur-
den. Diese Akzeptanz variiert allerdings in unterschiedlichen Gesellschaften bezie-
hungsweise Gesellschaftsschichten und veränderte sich im Laufe der Zeit.
Eine völlig andere Risikoeinschätzung geht beispielsweise aus einem Zeitungs-
bericht über eine Loopingbahn in San Francisco hervor, dessen Autor sich 1863 dem
tatsächlichen Risiko und dem öffentlichen Interesse an riskanten Vorführungen wid-
met: Unfälle geschähen bei Loopingbahnen, die es in Europa schon seit zwanzig
Jahren gebe, hin und wieder. Tatsächlich sei das Unfallrisiko vermutlich nicht höher
als bei einer Reise mit dem Zug oder einem Binnenschiff. Aber „the chief charm of
these exhibitions … lies simply and purely in the danger they involve. … Sporting
men will always bet you odds that the performer of these difficult feats will break his
neck within a certain length of time“8. Am amerikanischen Beispiel wird eine erheb-
lich höhere Akzeptanz von technischen Risiken deutlich als ein Jahrhundert später
in Deutschland. Um sicherzustellen, dass das Jahrmarktsvergnügen und die damit
verbundenen Spiele keine Gesundheitsgefährdung bedeuteten – also diesseits einer
ethisch vertretbaren Grenze blieben – waren Fahrgeschäfte als „Fliegende Bauten“
schon frühzeitig einer baupolizeilichen Genehmigung unterworfen, seit den 1930er
sind darüber hinaus in Deutschland Untersuchungen des TÜV vorgeschrieben.
Schon zu Beginn des 20. Jahrhunderts wurde beim Achterbahnbau klar, dass
Fahrvergnügen und Sicherheitsmaßnahmen miteinander verbunden sein müssen,
um die Entwicklung gesundheitsverträglich und damit ethisch akzeptabel zu ge-
stalten. So führt Andy Brown, der Chefkonstrukteur des von 1891 bis 1941 tätigen
amerikanischen Achterbahndesigners John Miller, dessen Erfolg auf Sicherheits-
technik zurück: Millers „designs were always more thrilling than others because
the safety devices he invented allowed them to be more severe“9. Miller entwi-
ckelte beispielsweise einen Rückrollschutz, Bremssysteme sowie – dies dürfte
seine wichtigste sicherheitstechnische Entwicklung sein – ein Gegenrad, das von
unten an die Schienen greift, um den Wagen in allen Positionen vor dem Entglei-
sen zu bewahren; letzteres ermöglicht den Passagieren später in Kombination mit
Schutzbügeln Erlebnisse annähernder Schwerelosigkeit, die zu einem besonderen
Merkmal von Achterbahnen wurden und außerhalb des Jahrmarkts kaum zu finden
sind. Schon in der Patentschrift von 1919 heißt es entsprechend, die Erfindung „will
make riding more sensational but … at the same time will make such riding entirely
safe“10. „People thought he [Miller] was going beyond what the body could stand“,

7 Schützmannsky, Klaus: Roller Coaster. Der Achterbahn-Designer Werner Stengel [Begleitbuch


der gleichnamigen Ausstellung im Münchner Stadtmuseum]. Heidelberg 2001. S. 48.
8 Centrifugal Railways. In: Daily Evening Bulletin (San Francisco), 23.7.1863; online verfügbar
unter http://www.personal.psu.edu/faculty/v/a/vac3/centrifugal.html (Zugriff am: 20.5.2013).
9 Aufzeichnung eines Interviews mit Andy Brown 1973, zitiert nach: Cartmell, Robert: The In-
credible Scream Machine. A History of the Roller Coaster. Bowling Green 1987. S. 117. Zu
John Miller s. ausführlich Cartmell, a. a. O., S. 117 ff., sowie: Mohun, Arwen P.: Risk. Negotia-
ting Safety in American Society. Baltimore 2013. S. 222 f.
10 Das Millersche Under Friction Wheel wurde 1919 patentiert: Pleasure Railway Structure, John
A. Miller. United States Patent Office, Patent 1.319.888, Oct. 28, 1919. Zu Millers Sicherheits-
274 Stefan Poser

erinnert sich Brown.11 Dank Sicherheitstechnik hätten Millers Achterbahnen auf


die doppelte Höhe üblicher Bahnen ausgelegt werden können. Sie ermöglichten
entsprechend höhere Geschwindigkeiten und Fliehkräfte. Die Optimierung der Si-
cherheitstechnik wurde hier zu einem Weg, das Fahrerlebnis zu intensivieren und
gleichzeitig die Grenzen des ethisch Akzeptablen einzuhalten.
Am Beispiel von Millers Konstruktionen wird deutlich, dass für Achterbahnen
und ähnliche Jahrmarktsfahrgeschäfte, sogenannte Thrill rides, ein Zusammenhang
von technischer und sicherheitstechnischer Entwicklung mit einer Attraktivitäts-
steigerung der Geschäfte charakteristisch ist, der in ganz ähnlicher Form aus der
industriellen Techniknutzung und aus der Mobilitätstechnik bekannt ist: Sicher-
heitseinrichtungen machen zwar eine vorhandene Technik sicherer, ermöglichen
aber gleichzeitig einen nächsten Schritt des Technikeinsatzes. Es entsteht eine
Wachstumsspirale von Technikeinsatz und Sicherheitsmaßnahmen, bei der – selbst
wenn die Wahrscheinlichkeit eines Unfalls sinkt – das Gefahrenpotential wächst.12
Diese Entwicklung hat bei Thrill rides dazu geführt, dass Fahrgäste während der
„Reise“ weitgehend fixiert werden müssen. Zugunsten der „Verabreichung“ eines
Rausches ilinx und um ihre Sicherheit zu gewährleisten, müssen sie auf weitere
Spielmöglichkeiten während der Fahrt verzichten. Das ethische Motiv, Unfälle zu
verhindern, steht hier der Freiheit des Spiels entgegen. In Anbetracht von Höchst-
geschwindigkeiten über 150 km/h, Beschleunigungen von fast 5 g (fünffacher Erd-
beschleunigung) und Streckenabschnitten, die nahezu im freien Fall zurückgelegt
werden, fragt sich allerdings, ob diese Entwicklungsrichtung zur Bereicherung des
Spiels noch wünschenswert ist und ob sie weiterhin ethisch vertretbar bleibt, zumal
die hohen Geschwindigkeiten und Beschleunigungswerte enorme Energiemengen
benötigen und mit entsprechenden Fußabdrücken in der Umweltbilanz verbunden
sind. Hierin ähneln Großmaschinen auf dem Jahrmarkt solchen in der Industrie.

SPORT

Bei einigen Sportarten, die sich durch monotone Bewegungsabläufe wie beim Ru-
dern oder Fahrradfahren auszeichnen, kommt es durch die außerordentliche An-
strengung der Sporttreibenden zu flow-Erlebnissen, sogar zu Rauschzuständen.13

technik-Patenten s. Cartmell, a. a. O., S. 117. Solche Räder wurden in Verbindung mit Seitenrä-
dern zum Standard von Achterbahnfahrzeugen; s. Schützmannsky, a. a. O., S. 97 ff., der eine
Skizze eines modernen Fahrzeugs liefert.
11 Interview mit Andy Brown 1973, zitiert nach Cartmell, ebd.
12 Diese Spirale hat überhaupt erst Großanlagen wie Atomkraftwerke mit ihren mehrstufigen
Kontrollsystemen oder Hochgeschwindigkeitszüge mit ihrem elektronischen Fahrtüberwa-
chungssystem ermöglicht. Zur Wachstumsspirale im Falle „ernsthafter“ Technikanwendung s.
Poser, Stefan: Museum der Gefahren. Die gesellschaftliche Bedeutung der Sicherheitstechnik.
Hygiene-Ausstellungen und Museen für Arbeitsschutz in Wien, Berlin und Dresden um die
Jahrhundertwende. Cottbuser Studien zur Geschichte von Technik, Arbeit und Umwelt, 3.
Münster u. a. 1998. S. 211.
13 Der Lehrer und Ruderlehrer Goldbeck beschreibt das flow-Erlebnis lange vor der zugehörigen
Theoriebildung: Goldbeck, Ernst: Unsere Jungen beim Rudersport. Psychologische Analysen
Technisches Spiel ohne Grenzen? 275

Was Achterbahnfahrende binnen Minuten erreichen, bedarf beim Sporttreiben


langanhaltender körperlicher Belastung. Diese Belastung ist allerdings so hoch und
anhaltend, dass Leistungssportler mit vorzeitigen körperlichen Gebrechen zu rech-
nen haben. Hier werden ebenfalls physische Grenzen überschritten, zwar nur ge-
ringfügig, dafür aber dauerhaft. Da die gesundheitlichen Folgen eigentlich ethisch
nicht vertretbar sind, kommt es zu einer Kompensationslösung: Vergleichbar der
Handhabung bei riskanten oder gesundheitsgefährdenden Berufen werden bei Pro-
fisportlern die gesundheitlichen Folgen durch einen sehr hohen Verdienst scheinbar
kompensiert. Ähnlich einer Versicherung mildert dies zwar die Folgen wie Berufs-
unfähigkeit, ist aber keine echte Problemlösung.
Verschiedene Maßnahmen tragen dazu bei, dass die gesundheitlichen Belastun-
gen geringer bleiben als sie sein könnten: So wird durch Dopingkontrollen nicht nur
(wenn auch vorrangig) für eine Vergleichbarkeit der Wettkampfergebnisse gesorgt,
sondern auch die langfristige körperliche Schädigung der Athleten reduziert. Wäh-
rend bei motorbasierten Sportarten in der Anfangszeit das Hauptaugenmerk auf der
Geschwindigkeit sowie der Zuverlässigkeit dieser Fahr- und Flugzeuge lag und es
für die Fahrer darum ging, den Umgang mit vorhandener Technik im Sinne „toll-
kühner Kisten“ zu bewältigen, gewannen in der Nachkriegszeit des Zweiten Welt-
kriegs Sicherheitseinrichtungen an Bedeutung.14 So gehörten bald im Kunstflug
Schleudersitze dazu, bei Rennwagen die stabile Zelle für den Fahrer, und bei Renn-
motorrädern etablieren sich in jüngster Zeit Antiblockiersysteme (ABS). Dabei sind
es jeweils die Bedingungen zur Wettkampfzulassung der nationalen und internatio-
nalen Sportverbände, über die (auch) ethisch motivierte Normierungen in den Bau
der Sportgeräte und deren Nutzung eingehen. Analog zu sicherheitstechnischen
Entwicklungen für Achterbahnen wirken sich einige Sicherheitssysteme auf die mit
den Geräten erreichbaren sportlichen Leistungen und das Fahrgefühl aus. So wurde
beispielsweise bei Sportmotorrädern diskutiert, unter welchen Prämissen ABS im
Rennen Vorteile bringe.15 Nicht umsonst beschreibt eine Zeitung Sicherheitsein-
richtungen für Motorräder unter der Überschrift „Elektronische Stützräder“16. Für

des Erlebniswertes einer Körperübung. Leipzig 1929. S. 28 f.; s. auch: Csikszentmihalyi, Mi-
haly; Schiefele, Ulrich: Die Qualität des Erlebens und der Prozeß des Lernens. In: Zeitschrift
für Pädagogik, 39 (1993) 2, S. 215. Im Internet verfügbar als: Postprints der Universität Pots-
dam. Humanwissenschaftliche Reihe, 57, urn:nbn:de:kobv:517-opus-33578.
14 s. beispielsweise Kehrt, Christian: „Das Fliegen ist noch immer ein gefährliches Spiel“ – Ri-
siko und Kontrolle der Flugzeugtechnik von 1908 bis 1914. In: Gebauer, Gunter; Poser, Stefan
u. a. (Hg.): Kalkuliertes Risiko. Technik, Spiel und Sport an der Grenze. Frankfurt am Main,
New York 2006. S. 199–224; sowie: Kinney, Jeremy R.: Racing on Runways: The Strategic Air
Command and Sports Car Racing in the 1950s. In: Braun, Hans-Joachim; Poser, Stefan (Gast-
Hg.): Playing with Technology: Sports and Leisure. Special Issue of ICON. Journal of the In-
ternational Committee of the History of Technology, 19 (2013), S. 193–215.
15 So wurde beispielsweise bei Sportmotorrädern diskutiert, unter welchen Prämissen ABS im
Rennen Vorteile bringe. R.R.: Motorrad-ABS im Rennsport. Richtig verzögern unter Rennbe-
dingungen. In: Motorrad online, 24.11.2011, http://www.motorradonline.de/news/abs-im-
rennsport.396973.html (Zugriff am: 23.3.2017).
16 Elektronische Stützräder fürs Bike. Assistenzsysteme für Motorradfahrer. In: Der Tagesspiegel,
2.4.2015, http://www.tagesspiegel.de/mobil/motorrad/assistenzsysteme-fuer-motorradfahrer-
elektronische-stuetzraeder-fuers-bike/11592658.html (Zugriff am: 29.3.2017). Zum Motorrad-
276 Stefan Poser

die Fahrer ergibt sich jeweils die Frage, inwieweit Sicherheitstechnik die Fahr-
freude beeinflusst, mit ihrem Selbstverständnis als Meister des Umgang mit riskan-
ten Technologien vereinbar und tatsächlich hilfreich ist.

COMPUTERSPIELE UND „INTELLIGENTES“ SPIELZEUG

Bei Rollenspielen mimicry oder Wettkämpfen agones am Computerbildschirm kann


hingegen auf die Berücksichtigung physischer und physikalischer Grenzen völlig
verzichtet werden: Einzelne Spiele ermöglichen das Überspringen von Tälern beim
virtuellen Snowboardfahrten ebenso wie das digitale Konstruieren unglaublich ver-
wundener Achterbahntrassen oder die Vermeidung von Flugzeugabstürzen unter
Bedingungen, die in der Realität unbedingt zu einem Crash führen würden. Auch
Computerspiele können einen Rausch ilinx auslösen. Je enger die Spielgestaltung
dabei an der realen Welt orientiert ist, desto besser eignen sich die Spiele zum Aus-
testen verschiedener Handlungsoptionen, zur Entwicklung von mehr oder minder
spielerischen Lösungsansätzen für die betreffenden Aufgaben.17 Ist nur die Darstel-
lung realitätsnah, der Spielinhalt jedoch nicht, so stellt sich die Frage, inwieweit
die betreffenden Spiele dazu führen, dass die Spielenden virtuelle und reale Hand-
lungsebenen miteinander vermischen und die Folgen ihres Handelns in der realen
Welt falsch einschätzen oder durch intensive Gewaltspiele gar verrohen.18 Gerade
die vehemente Diskussion um Gewaltspiele macht dabei noch einmal deutlich, dass
ethisch bestimmte Grenzen im Spiel anders gelagert sind, als außerhalb der Spiel-
welt – ist doch keine der Gewalt-Spielhandlungen außerhalb des Spiels ethisch
legitimierbar, während um ihre Bewertung als Spielhandlung gerungen wird. Je
nachdem, wie die Fragen nach der Wirkung von Computerspielinhalten beurteilt
werden, bedarf es unterschiedlicher Grenzen für Spielverbote oder Altersbeschrän-
kungen, wie sie in Deutschland die Freiwillige Selbstkontrolle Unterhaltungssoft-
ware GmbH, USK, ausspricht.19
In letzter Zeit ist „intelligentes“, computergestützt interaktives Spielzeug auf
den Markt gekommen. In erster Linie handelt es sich dabei um zoomorphe und
anthropomorphe Puppen, die auf ihr Gegenüber reagieren und für Rollenspiele
nutzbar sind. Zum Teil sind sie mit einer Spracherkennung ausgestattet und haben

fahren siehe aus soziologischer Perspektive: Alkemeyer, Thomas: Mensch-Maschinen mit zwei
Rädern – Überlegungen zur riskanten Aussöhnung von Körper, Technik und Umgebung. In:
Gebauer, Poser; Kalkuliertes Risiko, a. a. O. S. 225–249.
17 Ein Beispiel zur spielerischen Einbindung von Jugendlichen in die architektonische Gestaltung
eines städtischen Platzes gibt: Lauwaert, Maaike: The Place of Play. Toys and Digital Cultures.
Amsterdam 2009. S. 111 ff.
18 s. beispielsweise Petermann, Franz; Koglin, Ute: Aggression und Gewalt von Kindern und Ju-
gendlichen. Hintergründe und Praxis. Berlin, Heidelberg 2013. S. 89 ff.; sowie: Kunczik, Mi-
chael: Wirkungen gewalthaltiger Computerspiele auf Jugendliche. In: Freiwillige Selbstkont-
rolle Fernsehen (FSF) e. V. (Hg.): tv diskurs, 62 (2012) 4, S. 72–77 und 63 (2013) 1, S. 60–65.
19 Pilarczyk, Ulrike: Von der Faszination der 3-D-Action-Spiele. In: Poser, Stefan; Hoppe, Jo-
seph; Lüke, Bernd (Hg.): Spiel mit Technik. Katalog zur Ausstellung im Deutschen Technik-
museum Berlin. Leipzig 2006. S. 127.
Technisches Spiel ohne Grenzen? 277

eine internetbasierte Antwortfunktion. Eine Puppe geriet in die Schlagzeilen, weil


sie direkt mit Computersystemen des Herstellers verbunden ist und ermöglicht, die
Kommunikation der Kinder mit ihren Puppen aufzuzeichnen und auszuwerten, mit
anderen Worten, die spielenden Kinder und ihre Familien auszuspionieren. Mit die-
sem technischen Spielzeug kann zwar gespielt werden, und das Spiel als solches ist
nicht verwerflich, es macht aber die Spielenden und ihre Familien aufgrund einer
bestimmten technischen Lösung der interaktiven Spielfunktion zu Opfern des Her-
stellers: Vermutlich wird aus kommerziellen Interessen ihre Persönlichkeitssphäre
verletzt. Entsprechend wurde der Verkauf dieser Puppen von der Bundesnetzagen-
tur untersagt.20 Solcherlei „intelligentes“ Spielzeug scheint „am Erwachsenwer-
den“ zu sein: Pflegeroboter, Fahrzeugassistenzsysteme und „Social Bots“ bergen
erhebliches Veränderungspotential, werden zum Teil spielähnlich präsentiert und
sind in ihrer technischen Entwicklung so weit gediehen, dass sie neue Fragen nach
einer gesellschaftsadäquaten Technikgestaltung aufwerfen.

FREIES SPIEL

Im freien Spiel können technische Artefakte unterschiedlichster Art zum Spielmit-


tel werden. Sie vermitteln häufig Spielideen; dennoch ist ihre spielerische Nutzung
nicht an die ursprüngliche Funktion gebunden. So vermag ein Korkenzieher mit
Hebelmechanismus im Spiel ebenso zur Maschine zu mutieren wie zu einem Flug-
zeug oder einem Insekt. Ein Beispiel einer phantasievollen spielerisch-künstleri-
schen Umnutzung von Technik sind die Maschinenskulpturen Jean Tinguelys.21
Verschiedene Artefakte sind zwar der Ausgangspunkt seines Gestaltungsprozesses,
werden aber losgelöst von ihrer ursprünglichen Funktion zu Maschinen mit völlig
neuen Bewegungsabfolgen und Zwecken zusammengesetzt.22
Eine Grenze solcher Spiele bei denen vorgefundene Technik zu Spielinhalten
anregt, markiert zweifelsohne die Gefährdung der Handelnden und ihrer Umge-
bung; ein Beispiel hierfür bieten Pistolen im Kaiserreich: Vergleichbar heutigen
Smartphones wurden sie zum Statussymbol männlicher Jugendlicher, das in An-
betracht von verbesserter Fertigungspräzision wie Durchschlagkraft zunehmend
gefährlicher wurde und zu Todesfällen führte.23 In den Spielvarianten freier, ähn-
lich weit verbreitet und ebenfalls ausgesprochen gefährlich war nach dem Zweiten

20 Burger, Claudia: Spionin im Kinderzimmer zerstören. In: VDI Nachrichten, 23.2.2017, http://
www.vdi-nachrichten.com/Gesellschaft/Spionin-im-Kinderzimmer-zerstoeren (Zugriff am:
27.3.2017).
21 Zentral ist natürlich die künstlerische Aussage Tinguelys; spielerisches Handeln ist eher ein
Mittel des Schaffensprozesses.
22 Zu Tinguelys Werken siehe das Museum Tinguely in Basel. Beispiele der Umnutzung techni-
scher Artefakte zu Spielzwecken gibt auch: Maines, Rachel: Hedonizing Technologies. Paths
to Pleasure in Hobby and Leisure. Baltimore 2009. S. 124.
23 Zu einem Waffengesetz (und einem Verbot) kam es vor Beginn des Ersten Weltkriegs nicht
mehr. Ellerbrock, Dagmar: Waffenkultur in Deutschland. In: Aus Politik und Zeitgeschichte,
35–37/2014, 18.8.2014, http://www.bpb.de/apuz/190119/waffenkultur-in-deutschland?p=2
(Zugriff am: 22.1.2015).
278 Stefan Poser

Weltkrieg das Spiel in Ruinen und mit Überresten von Kriegsgerät. Ein Gefahren-
potenzial geht insbesondere von leistungsstarker Technik aus – und vom Spiel von
Erwachsenen, die über solche Technik leichter Verfügungsgewalt erhalten als Kin-
der und Jugendliche. Steigern lässt sich dies noch, wenn es zu einer Verkehrung der
Zweck-Mittel-Relation kommt und solche Technologien allein deshalb eingesetzt
werden, weil sie zur Verfügung stehen.24

TECHNISCHES SPIEL OHNE GRENZEN?

Versucht man eine Gesamtschau auf die hier skizzierten Bereiche des Spiels, so er-
geben sich zur Frage, unter welchen Bedingungen Spiele noch statthaft sind, unter-
schiedliche Grenzziehungen. Gemeinsam ist zahlreichen Formen des Spiels jedoch,
dass für zu Spielzwecken entwickelte Technik technische Normierungen eingeführt
wurden, die nicht nur Praktikabilitätsüberlegungen (wie die Normung von Gewin-
den) entsprechen, sondern ethischen Prinzipien entspringen – von der Bauaufsicht
über TÜV-Kontrollen bis zu Sicherheitsnormen, die mit jeder neuen Spieltechnik
erweitert werden.
Für das Jahrmarktsvergnügen und im Sport sind Grenzen der physischen Be-
lastbarkeit des Menschen gegeben, die wegen Gesundheitsschäden bei deren Über-
schreitung gleichzeitig medizinische und ethische Grenzen sind. Entsprechend gel-
ten für die Belastungsgrenzen und die Überprüfung der Fahrgeschäfte DIN bzw.
EURO-Normen, die im Grunde ethische Wurzeln haben. Während bei Thrill rides
an diese Grenzen herankonstruiert wird und die zunehmend schwierigere Aufgabe
darin besteht, die Voraussetzungen für das Erlebnis immer neuer Körpersensatio-
nen innerhalb dieser Grenzen zu schaffen, wird im Sport bewusst versucht, jene
Grenzen als individuelle Leistungsgrenzen hinauszuschieben. Dies kann im Sinne
Caillois’ als ludus gedeutet werden, als ein Spiel, in dem selbst gesetzte Ziele er-
reicht werden sollen. Im Sinne der antikapitalistischen Sportkritik der 1970er und
1980er Jahre verkommen Spitzensportler dabei zu „leistungsfähige[n] Muskelma-
schinen (…) zu maschinellen Medaillenproduzenten“25. Im Zusammenhang mit
finanziellen Kompensationsleistungen für Profis, dem Ausbau von Kontrollsyste-
men, die gravierende Gesundheitsschäden in der Regel reduzieren, und der gesell-
schaftlichen Wende zu neoliberalem Gedankengut in den 1990er Jahren sind diese
Argumentationen, die den Leistungssport gänzlich in Frage stellen, unabhängig von
ihrer Berechtigung in den Hintergrund getreten. Die Frage ethischer Grenzen be-
darf im Sport also einer Neubewertung.
Beim freien Spiel mit Technik gibt es systembedingt weder Regeln noch Kon-
trollinstanzen. Ethische Grenzen sind auf jeden Fall da gegeben, wo Persönlich-
keitsrechte verletzt oder Menschen und Umwelt gefährdet werden. Dasselbe muss
für Spiele im virtuellen Raum gelten; allerdings ist der Bezug von virtuellem Spiel-

24 Kornwachs, Klaus: Das Spiel mit der Technik und seine Folgen. In: Gebauer, Poser; Kalkulier-
tes Risiko, a. a. O., S. 73 f.
25 Bremer Beschlüsse der „Jusos“ von 1971, zitiert nach: Krockow, Christian Graf von: Sport.
Eine Soziologie und Philosophie des Leistungsprinzips. Hamburg 1974. S. 11.
Technisches Spiel ohne Grenzen? 279

handeln und Handlungen in der realen Welt nach wie vor unklar. Folglich ist die
Bewertung von Computerspielen – insbesondere Gewaltspielen – nach wie vor in
Anbetracht von Katharsisthese sowie Habitualisierungs- und Destabilisierungthese
oder gar der Kultivierungsthese im Fall von Problemgruppen – offen und schwer
allgemein klärbar, weil die Psyche der einzelnen Spielenden einbezogen werden
muss.26 So bleiben die entsprechenden Kontrollinstanzen letztlich zahnlos. Hier
besteht also trotz umfangreicher Literatur Forschungsbedarf. Ähnliches gilt für
computerbasiertes Spielzeug und verschiedene Assistenzsysteme, bei denen anzu-
nehmen ist, dass ein durch Spiel verbrämtes Erscheinungsbild in Kombination mit
anthropomorphen Zügen zur Verharmlosung von Technik beitragen kann.

26 Während bei der Katharsisthese letztlich von einer positiven Rückwirkung auf die Spielenden
ausgegangen wird, ergeben sich gemäß den weiteren genannten Thesen negative Folgen. Kun-
czik, Computerspiele, Teil II. In: tv diskurs, 63 (2013) 1, S. 60 f.
280 Stefan Poser

LITERATUR

Alkemeyer, Thomas: Mensch-Maschinen mit zwei Rädern – Überlegungen zur riskanten Aussöh-
nung von Körper, Technik und Umgebung. In: Gebauer, Gunter; Poser, Stefan u. a. (Hg.): Kal-
kuliertes Risiko. Technik, Spiel und Sport an der Grenze. Frankfurt am Main, New York 2006.
S. 225–249.
Avedon, Elliott M.; Sutton-Smith, Brian: Introduction. In: dies. (Hg.): The Study of Games. New
York u. a. 1971. S. 1–8, S. 7.
Burger, Claudia: Spionin im Kinderzimmer zerstören. In: VDI Nachrichten, 23.2.2017, http://
www.vdi-nachrichten.com/Gesellschaft/Spionin-im-Kinderzimmer-zerstoeren (Zugriff am:
27.3.2017).
Caillois, Roger: Les jeux et les hommes. Le masque et le vertige (1958); engl.: Man, Play and
Games. New York 1961; dt.: Die Spiele und die Menschen. Maske und Rausch. Stuttgart 1960
(zitierte Ausgabe: Frankfurt am Main 1982). S. 32 f., S. 151 f.
Cartmell, Robert: The Incredible Scream Machine. A History of the Roller Coaster. Bowling Green
1987.
Csikszentmihalyi, Mihaly: Beyond boredom and anxiety (1975); dt.: Das flow-Erlebnis. Jenseits
von Angst und Langeweile: im Tun aufgehen. Stuttgart 1985.
Csikszentmihalyi, Mihaly; Schiefele, Ulrich: Die Qualität des Erlebens und der Prozeß des Lernens.
In: Zeitschrift für Pädagogik, 39 (1993) 2, S. 207–221.
Dessauer, Friedrich: Streit um die Technik. Frankfurt am Main 1956(3).
Ellerbrock, Dagmar: Waffenkultur in Deutschland. In: Aus Politik und Zeitgeschichte, 35–37/2014,
18.8.2014, http://www.bpb.de/apuz/190119/waffenkultur-in-deutschland?p=2 (Zugriff am:
22.1.2015).
Gebauer, Gunter; Poser, Stefan u. a. (Hg.): Kalkuliertes Risiko. Technik, Spiel und Sport an der
Grenze. Frankfurt am Main, New York 2006.
Goldbeck, Ernst: Unsere Jungen beim Rudersport. Psychologische Analysen des Erlebniswertes ei-
ner Körperübung. Leipzig 1929.
Hughes, Thomas P.: The Evolution of Large Technological Systems. In: Bijker, Wiebe E.; Hughes,
Thomas P.; Pinch, Trevor J. (Hg.): The Social Construction of Technological Systems. New
directions in the sociology and history of technology. Cambridge, London 1987. S. 51–82.
Huizinga, Johan: Homo ludens. Proeve eener bepaling van het spel-element der cultuur. Haarlem
1938/1958, engl.: Homo ludens. A study of the play-element in culture. London 1949, dt:
Homo ludens. Vom Ursprung der Kultur im Spiel. Reinbek 1956, 2001(18).
Kehrt, Christian: „Das Fliegen ist noch immer ein gefährliches Spiel“ – Risiko und Kontrolle der
Flugzeugtechnik von 1908 bis 1914. In: Gebauer, Gunter; Poser, Stefan u. a. (Hg.): Kalkuliertes
Risiko. Technik, Spiel und Sport an der Grenze. Frankfurt am Main, New York 2006. S. 199–
224.
Kinney, Jeremy R.: Racing on Runways: The Strategic Air Command and Sports Car Racing in the
1950s. In: Braun, Hans-Joachim; Poser, Stefan (Gast-Hg.): Playing with Technology: Sports
and Leisure. Special Issue of ICON. Journal of the International Committee of the History of
Technology, 19 (2013), S. 193–215.
Kornwachs, Klaus: Das Spiel mit der Technik und seine Folgen. In: Gebauer, Poser; Kalkuliertes
Risiko, a. a. O., S. 51–77.
Krockow, Christian Graf von: Sport. Eine Soziologie und Philosophie des Leistungsprinzips. Ham-
burg 1974.
Kunczik, Michael: Wirkungen gewalthaltiger Computerspiele auf Jugendliche. In: Freiwillige
Selbstkontrolle Fernsehen (FSF) e. V. (Hg.): tv diskurs, 62 (2012) 4, S. 72–77 und 63 (2013) 1,
S. 60–65.
Lauwaert, Maaike: The Place of Play. Toys and Digital Cultures. Amsterdam 2009. S. 111 ff.
MacKenzie, Donald; Wajcman, Judy: Introduction Essay. In: dies. (Hg.): The Social Shaping of
Technology. How the Refrigerator Got its Hum. Milton Keynes u. a. 1985. S. 2–25.
Technisches Spiel ohne Grenzen? 281

Maines, Rachel: Hedonizing Technologies. Paths to Pleasure in Hobby and Leisure. Baltimore 2009.
Mohun, Arwen P.: Risk. Negotiating Safety in American Society. Baltimore 2013.
Petermann, Franz; Koglin, Ute: Aggression und Gewalt von Kindern und Jugendlichen. Hinter-
gründe und Praxis. Berlin, Heidelberg 2013. S. 89 ff.
Pilarczyk, Ulrike: Von der Faszination der 3-D-Action-Spiele. In: Poser, Stefan; Hoppe, Joseph;
Lüke, Bernd (Hg.): Spiel mit Technik. Katalog zur Ausstellung im Deutschen Technikmuseum
Berlin. Leipzig 2006. S. 127–133.
Salen, Katie; Zimmerman, Eric: Rules of Play – Game Design Fundamentals. London 2004.
Poser, Stefan: Glücksmaschinen und Maschinenglück. Grundlagen einer Technik- und Kulturge-
schichte des technisierten Spiels. Bielefeld 2016.
ders: Museum der Gefahren. Die gesellschaftliche Bedeutung der Sicherheitstechnik. Hygiene-Aus-
stellungen und Museen für Arbeitsschutz in Wien, Berlin und Dresden um die Jahrhundert-
wende. Cottbuser Studien zur Geschichte von Technik, Arbeit und Umwelt, 3. Münster u. a.
1998. S. 211.
Ropohl, Günter: Zur Technisierung der Gesellschaft. In: Bungard, Walter; Lenk, Hans (Hg.): Tech-
nikbewertung. Frankfurt am Main 1988. S. 79–97.
Schützmannsky, Klaus: Roller Coaster. Der Achterbahn-Designer Werner Stengel [Begleitbuch der
gleichnamigen Ausstellung im Münchner Stadtmuseum]. Heidelberg 2001.
Sutton-Smith, Brian: The Ambiguity of Play. Cambridge, MA, u. a. 1997.
RHETORISCHE GESTALTUNGSFÄHIGKEIT
IN VIRTUELLEN ARBEITSWELTEN

Francesca Vidal

1 ARBEITSWELT

Schon in den achtziger Jahren des letzten Jahrhunderts war vielfach zu hören,
dass die dritte industrielle Revolution, sprich: der Einzug einer digitalen Tech-
nik in Arbeitsprozesse, zu einem grundlegenden Wandel der Arbeitswelt führen
würde. Befürchtet wurde eine steigende strukturelle Arbeitslosigkeit, weshalb sich
die Diskussion um den Wandel auf die Formen der Erwerbsarbeit konzentrierte.
Ausgedrückt wurden die Ängste durch Parolen wie die vom „Ende der Arbeitsge-
sellschaft“ oder von der „Gesellschaft, der die Arbeit ausginge“. Berechtigt Angst
machte als Folge von Automatisierung die Unternehmenspolitik der „Freisetzung“,
also der Verlust der Lebensgrundlagen.1 Der Sozialwissenschaftler Wolfram Bu-
risch widersprach der Einseitigkeit der Prognosen mit dem Hinweis, dass nicht die
Arbeit abhandengekommen sei, sondern ein „Begriff von Arbeit selbst als Tätigkeit
des selbständigen Subjekts“2. Ihn irritierte, wenn allein der Zugang zur Arbeits-
welt diskutiert, diese in ihren Strukturen jedoch immer weniger hinterfragt wurde.
Er sah in einer solchen Verengung der Sichtweise die Gefahr, dass kaum noch von
den Gestaltungsmöglichkeiten des Subjekts die Rede sei.
Selbstverständliche Grundlage des damaligen Diskurses war die Interpretation
der Gesellschaft als „Arbeitsgesellschaft“: Industriell-technisch fortgeschrittene
Gesellschaften seien solche, „die ihre Reichtümer und den Grad der erreichten Na-
turbeherrschung vor allem der Arbeit verdanken; sie bedienen sich aber andererseits
in zunehmenden Maße einer Technik, die menschliche Arbeit fortwährend ersetzt
(…)“3. Tatsächlich veränderte der Fortschritt dieser Technik die Strukturen der
Arbeitswelt, was dann direkte Auswirkungen auf die sozialen Strukturen hatte. Es
hat sich jedoch bis heute nichts daran geändert, dass die personale Identitätsbildung
mit der Rolle verbunden ist, die der Mensch in der Arbeitswelt einnimmt.
Damals versuchte man die neue Form der Arbeit als Zukunft der Roboter oder
der automatisierten Arbeit zu beschreiben. Auch heute leben wir in Arbeitsgesell-
schaften, diese wurden jedoch in zunehmenden Maßen informatisiert und virtuali-
siert. Digitalisierung, Immaterialisierung und Virtualisierung haben den Charakter

1 vgl. exemplarisch Benseler, Frank; Heinze, Rolf G.; Klönne, Arno (Hg.): Zukunft der Arbeit.
Hamburg 1982.
2 Burisch, Wolfram: „Das Leben ist Freizeit“. Über die Diskriminierung emanzipatorischer Ar-
beit. http://www.bloch-akademie.de/txt/t4_07.htm (Zugriff am: 17.9.2017)
3 Guggenberger, Bernd: Am Ende der Arbeitsgesellschaft – Arbeitsgesellschaft ohne Ende? In:
Benseler u. a., a. a. O., S. 64.
284 Francesca Vidal

von Arbeit grundlegend verändert. Freilich leben wir noch nicht in einer Welt, in
der alles vollständig virtualisiert ist – das mag nur für die IT-Branche selbst gelten –
sondern in einer, in der die Veränderungen langsam greifen. Trotzdem bestimmt
die „virtualisierte Arbeitswelt“ unser politisch-soziales Leben in steigenden Maße.4
Damit kommt der Kritik von Burisch eine neue Brisanz zu, bleibt doch die Frage
offen, ob es allein um die Sicherung von Arbeitsplätzen geht. Viel entscheidender
ist doch, ob die neuen technischen Möglichkeiten auch als eine Chance zum selbst-
bestimmten Handeln zu begreifen sind und, falls sie ein solches Potential enthalten,
wie der arbeitende Mensch sich dieses zunutze machen kann und welche Voraus-
setzungen er hierfür braucht.
Die Arbeitsgruppe um den Soziologen Rudi Schmiede hat sehr früh gezeigt,
dass die Abhängigkeit der Unternehmen vom globalen Kapitalismus zu einer Ori-
entierung an netzwerkförmige Organisationsmuster führt, die durch die neuen
Technologien möglich geworden sind, da „Netzwerkstrukturen in der Ökonomie
einerseits Direktheit der ökonomischen Einflüsse, andererseits Unbestimmtheit
des individuellen Handelns zulassen, wie sie für ein Wirtschaften, das sich zuneh-
mend nicht mehr am Vollzug, sondern am Ergebnis orientiert, erforderlich sind.“5
Ausführlich beschreiben sie die Folgen eines solchen Wandels auf die Lebenswelt.
Konzentriert man sich darauf, dass die neuen Technologien die Generierung von
Informationen erlauben, weil diese in virtuellen Welten modellierbar, simulierbar
und kalkulierbar geworden sind, um dann wieder für Innovationsprozesse genutzt
zu werden, wird deutlich, dass Information allein vom Verwertungsinteresse aus
gesehen als Ware fungiert. Aber erst wenn sie als Grundlage von Gestaltungspro-
zessen gesehen wird, wird auch ihre Geltung als soziale Kategorie einsichtig. Eine
solche Deutung ist schon in der lateinischen Wortform informare enthalten, da sich
diese auch mit „formen“, „gestalten“ übersetzen lässt. Sie kreativ zu nutzen, heißt
demnach, sie nicht auf den Charakter des Tauschobjektes zu reduzieren. Weit mehr
als um maschinell berechenbare Symbole, also in Bitmuster zerlegte Informatio-
nen, geht es dann um den Inhalt. Erst ein technisch-funktionales Denken setzt In-
formation und Kommunikation in eins, macht aus Kommunikation Datenaustausch
und formalisiert selbst das Denken.6
Handelnde Subjekte könnten aber durchaus der Selbstorganisation des tech-
nischen Systems durch beständige Korrektur entgegentreten, denn immer noch
bedarf es des denkenden Menschen, der die zur Verfügung stehenden Wissensbe-
stände auch produktiv umsetzt. Es kommt demnach darauf an, herauszufinden, ob

4 vgl. zur Virtualisierung der Welt und ihre Auswirkung auf die Gestaltungsmöglichkeiten der
Subjekte: Vidal, Francesca: Rhetorik des Virtuellen. Die Bedeutung rhetorischen Arbeitsver-
mögens in der Kultur der konkreten Virtualität. Mössingen 2010. Die folgenden Ausführungen
basieren zum großen Teil auf dieser Studie. In der Studie werden auch die Ergebnisse der Ar-
beitsgruppe Schmiede detailliert wiedergegeben.
5 Schmiede, Rudi: Wissen, Arbeit und Subjekt im „Informational Capitalism“. In: Dunkel, Wolf-
gang; Sauer, Dieter (Hg.): Von der Allgegenwart der verschwindenden Arbeit. Neue Herausfor-
derungen für die Arbeitsforschung. Berlin 2006. S. 48.
6 vgl. Wenzel, Harald: Die Technisierung des Subjekts. Zum Verhältnis von Individuum, Arbeit
und Gesellschaft heute. In: Schmiede, Rudi (Hg.): Virtuelle Arbeitswelten. Arbeit, Produktion
und Subjekt in der „Informationsgesellschaft“. Berlin 1996. S. 182.
Rhetorische Gestaltungsfähigkeit in virtuellen Arbeitswelten 285

die gesellschaftlich Handelnden als Subjekte anerkannt oder als Objekte verächt-
lich gemacht werden.
Informatisierung verändert in entscheidenden Maßen die Kommunikations-
strukturen innerhalb der Arbeitswelt. Dies geschieht u. a. dadurch, dass Menschen
unabhängig von Raum und Zeit tätig werden können, freilich auch müssen. Es
geschieht aber auch, wenn mit Hilfe der Technik die Möglichkeit des asynchro-
nen Arbeitens geschaffen oder die Chance geboten wird, sogenannte nebenläufige
Tätigkeiten dem System zu überlassen. Neben den eröffneten Chancen hat dies
immer auch zur Folge, dass Arbeitende zukünftig vor neuen Anforderungen zur
Bewältigung der Aufgaben stehen werden. Die technischen Errungenschaften ver-
langen immer mehr die Fähigkeit zum selbstgesteuerten Handeln und vor allem zur
Übernahme von Verantwortung.
Mit dem Begriff der Virtualisierung lässt sich der Weg von materialen Orientie-
rungen hin zu virtuell erzeugten beschreiben, die es ermöglichen, dass konkrete Er-
fahrungen sowohl in einer materiellen als auch einer virtuellen Welt möglich sind.
Dabei ist der Zugriff auf die Datenwelt nicht mehr an bestimmte Orte, sondern an
das Vorhandensein einer bestimmten Technik und der entsprechenden Kommunika-
tionsinfrastruktur gebunden. Virtualisierung der Arbeitswelt wird eingeleitet durch
die Übergabe von Arbeitsschritten und Arbeitsprozessen in virtuelle Umgebungen
und damit dem voranschreitenden Verdrängen materieller Arbeit. Zunehmend fin-
det Arbeit zusätzlich oder auch ausschließlich im virtuellen workspace statt. Inso-
fern lässt sich dann sagen, dass die Zukunft der Arbeit „im Netz“ entschieden wird,
es also verstärkt darauf ankommt, hier eine solche Präsenz zu erhalten, dass an der
Schaffung der Rahmenbedingungen mitgewirkt werden kann.7
Die neuen Technologien lassen sich demnach als Informations- und Kommuni-
kationsmedien kennzeichnen, mit deren Hilfe sich globale Infrastrukturen etablier-
ten, die immer mehr medialen Gesetzmäßigkeiten folgen. Um in solchen Strukturen
zu handeln, bedarf es rhetorischer Fähigkeiten. Reduziert man Rhetorik nicht auf
die Funktion eines Instruments der strategischen Kommunikation, sondern versteht
sie als ein kulturschöpferisches Potenzial, dann ermöglicht ihre Kenntnis ein Ein-
greifen in die medialen Prozesse, und sie wird zum Weg des selbstbestimmten Han-
delns. Freilich lässt sich nicht unterschlagen, dass es die strukturellen Figurationen
sind, die das Handeln der Menschen bestimmen. Entscheidend ist aber genauso,
ob die Menschen sich auf die Rolle des Konsumenten der Technik reduzieren las-
sen oder ob sie die neu entstehenden Netzwelten kultivieren wollen. Möglich wird
Kultivierung, weil die neu entstehenden Räume Ergebnis von Kommunikations-
prozessen sind, demnach die Fähigkeit zur Kommunikation erst Partizipation und
Persuasion ermöglicht.
Wie selbstverständlich geht der Mensch heute von der Macht der Kommunika-
tionstechnik aus, die sein Leben in nahezu allen Bereichen bestimmt. Eine derartige
Entwicklung jedoch nur aus ökonomischen Gesichtspunkten zu betrachten, führt

7 vgl. Schröter, Welf: Electronic Mobility – wenn Arbeit losgelöst vom Menschen mobil wird.
Auf dem Weg zu „New Blended Working“. In: Baacke, Eugen; Scherer, Irene; Schröter, Welf
(Hg.): Electronic Mobility in der Wissensgesellschaft. Wege in die Virtualität. Mössingen 2007.
S. 9–28.
286 Francesca Vidal

unweigerlich dazu, die Entwicklung des öffentlichen Raumes allein aus ökonomi-
schen Verwertungsinteressen heraus zu beurteilen. Daraus folgt dann unweigerlich
die Gefahr, dass die Gesellschaft nur noch an den optimal den wirtschaftlichen
Interessen entsprechend Geschulten interessiert ist. Zum einen wird der Katalog der
Anforderungen höher etwa in Bezug auf Flexibilität oder Fertigkeiten, zum anderen
bedeutet es aber auch ein Zurückschrauben der Bildungsanforderungen. Je wei-
ter die technische Entwicklung voranschreitet kann es passieren, dass sogenannte
„skills“ verlangt werden, nicht aber Kreativität im Sinne des Selbstschöpferischen,
mithin Bildung. Beschäftigungsfähigkeit meint vor allem ein sich einfügen können
in bestehende Strukturen und setzt nicht auf den gestaltungswilligen Akteur, wel-
cher diese Strukturen evtl. auch ändern könnte.
Insofern lässt sich an die Befürchtung anknüpfen, dass Automatisierung nicht
zwangsläufig zur ersehnten Freiheit führt. Schon Hannah Arendt warnte in ihrem
Werk „Vita activa“, dass der Mensch an den Rand gedrängt werde: „Denn es ist ja
eine Arbeitsgesellschaft, die von den Fesseln der Arbeit befreit werden soll, und
diese Gesellschaft kennt kaum noch vom Hörensagen die höheren und sinnvolle-
ren Tätigkeiten, um derentwillen die Befreiung sich lohnen würde …“8 Schon
hier wird das Problem deutlich: Es geht um die Erkenntnis, dass die Teilhabe am
gesellschaftlichen Geschehen sich durch die Formen der Kommunikation, des Mit-
einander-Redens, erst konstituiert.9 Dies gilt freilich immer noch, auch wenn die
Etablierung der neuen Informations- und Kommunikationstechnologien zu verän-
derten Interaktionsformen geführt hat.

2 RHETORIK

Der Gedanke, dass eine Orientierung am Wohl der Gesellschaft erst durch Bindun-
gen als Folge von Kommunikation geschaffen wird, mithin durch Persuasion, ist
genuin einer der Rhetorik. Was also meint Kommunikation in einer virtualisierten
Arbeitswelt, wenn darunter nicht der Austausch von Informationen, sondern die
Möglichkeit gemeinsamer Gestaltung verstanden wird?
Die rhetorische Theorie reflektiert die Notwendigkeit, rhetorisch handeln zu
können, immer dann, wenn Räume selbstbestimmt und im Miteinander gestaltet
werden sollen. Sie will wissen, wann der Einzelne in einer kommunikativen Ge-
meinschaft hervortreten und Impulse für Veränderungen geben kann, die, wenn sein
persuasives Handeln „erfolgreich“ ist, eben zu diesen Veränderungen führen. Daher
geht es auch um die Frage, welcher Spielraum zum gesellschaftspolitischen Han-
deln dem Subjekt gegeben wird. Dies ist nur als Wechselverhältnis zu verstehen,
denn welche Möglichkeiten der Einzelne hat, auf die Strukturen der Arbeitswelt
einzuwirken, ist unter anderem auch abhängig von den demokratischen Strukturen
der Gesellschaft und vom gesellschaftlichen Bewusstsein. Wie aber Strukturen und
Bewusstsein sich entwickeln, ist entscheidend im Zusammenhang mit der Gestal-

8 Arendt, Hannah: Vita activa oder vom tätigen Leben (1958). München, Zürich 2007. S. 13.
9 vgl. dies.: Was ist Politik? Fragmente aus dem Nachlass. München, Zürich 1993.
Rhetorische Gestaltungsfähigkeit in virtuellen Arbeitswelten 287

tung der Arbeitswelt zu sehen. Welche Bedeutung der Arbeit für das gesellschaft-
liche Leben der Einzelnen und darüber hinaus für die Zukunft der Gesellschaft
als solcher zugesprochen wird, hängt im entscheidenden Maß davon ab, welche
Auswirkungen die Etablierung der neuen Informations- und Kommunikationsme-
dien auf das Handeln der Akteure haben wird. Die Frage lautet also nicht, wie der
Mensch die Technik nutzt, sondern ob und wie er zum Gestalter werden kann.
Der Mensch ist angewiesen auf die Fähigkeit, mit kommunikativen Mitteln
intervenierend zu handeln. Seine Ziele kann er nur erfolgreich umsetzen, wenn er
sich auf Situation und Adressaten einstellen kann und wenn er eine Vorstellung von
den Zielen hat, die es umzusetzen gilt. Selbstverständlich will ein Unternehmen,
dass die Ziele der Arbeitenden im Interesse der Unternehmen sind. Das heißt für
den rhetorisch Gebildeten, dass er es verstehen muss, dieses Interesse mit seinen
und dem gesellschaftlichen in Einklang zu bringen. Dabei kann nicht unterschlagen
werden, dass der Zielhorizont rhetorischer Theorie im Bereich des Kulturschöpferi-
schen liegt, die Möglichkeit rhetorischen Handelns also daran gebunden ist, ob eine
Gesellschaft überhaupt auf das politisch handelnde Subjekt setzt. Denn auch wenn,
mit Marx gesprochen, das Potential der Befreiung von entfremdeter Arbeit in der
Produktivkraft liegt, hier also die Möglichkeit zur mündigen Gestaltung ergriffen
werden muss, bleibt genau dieses Ergreifen von Möglichkeit abhängig vom politi-
schen Willen der Bürger.
Ob Arbeitende durch Kommunikation zur Kooperation gelangen, wird immer
entscheidender für den Erfolg der Arbeitsprozesse, da Kommunikation wichtiger
Bestandteil der Arbeit ist. Soll bei der Darlegung des gegenwärtigen Wandels hin
zur Virtualisierung der handelnde Mensch in den sich wandelnden Arbeitsabläufen,
Arbeits- und Sozialverhältnissen im Blickpunkt des Interesses bleiben, dann darf
der Wandel nicht als rein materieller Prozess interpretiert werden, sondern als Ver-
änderung eines sozialen Systems. Das Interesse richtet sich demnach einerseits auf
die Handlungsakteure, die in ihrer Arbeit Sinn und Anerkennung suchen, und ande-
rerseits auf die Arbeitswelt mit ihren Kommunikations- und Beziehungsgeflechten.
Vorausgesetzt, dass es ein berechtigtes gesellschaftliches Interesse gibt, die
Bedeutung demokratischer Werte wie Selbstbestimmung und Selbstverwirklichung
für eine humane Arbeitswelt immer wieder herauszustellen, müssen die Plausibili-
täten besonders hervorgehoben werden. Als Subjekt in einer virtualisierten Arbeits-
welt zu handeln, ist nur im Miteinander des gesellschaftlichen Beziehungsgeflechts
möglich. Welche Formen will der heutige Mensch wählen? Was macht er, um den
Anforderungen des Marktes zu entsprechen? Auch wenn gefragt wird, wie er rheto-
risch handeln kann, müssen die Bedingungen für dieses Handeln in den Blick kom-
men. Die Anforderungen der Arbeitswelt verändern das Leben im Ganzen, haben
Einfluss auf Familienstrukturen, soziale Kontakte, Wohnortwahl und vieles mehr.
In solchen Strukturen selbstbestimmt zu handeln, ist nur möglich, wenn die Men-
schen bereit sind, die in diesen Strukturen enthaltenen Widersprüche zu erkennen
und als Potential für Veränderung zu begreifen.
Wenn dem Subjekt mit seinen Handlungs- und Reflexionsvermögen nicht die
Verantwortung abgesprochen wird, dann kann er kulturschöpferisch handeln. Mit
Hilfe der Rhetorik kann er in Spannungsverhältnissen auf Grund seiner argumen-
288 Francesca Vidal

tativ dargelegten Kompetenz Entscheidungen herbeiführen. Nur dort, wo Subjekte


handeln, kann Persuasion angesiedelt werden, nur dort, wo Zeichen und Texte Be-
deutung zugestanden wird, kann der Mensch rhetorisch handeln.
Persuasion ist das Ziel rhetorischer Handlungen, hierauf richtet sich der Ver-
such, durch strategisch-kommunikatives Handeln, mithin durch den Umgang mit
den sich solchen Handlungen entgegenstellenden Widerständen das Entscheidungs-
handeln anderer zu beeinflussen. Solche Versuche sind Teil des Lebensalltags und
entfalten sich aus der Lebenswelt der Menschen heraus, da Entscheidungen sich
nicht zwangsläufig ergeben, sondern Ergebnis von Deutung und Diskussion der
Beteiligten sind. So gesehen dient die persuasive Handlung der Orientierung der
Akteure, denn gelungene persuasive Handlungen führen zu einer Entscheidungsge-
wissheit, kurzfristig als Meinung, längerfristig als Einstellung. Selbstverständlich
leugnet dies nicht, dass das Alltagsleben gleichermaßen von nicht persuasiv ange-
legter Kommunikation geprägt ist. Gerade in der Arbeitswelt richtet sich Kommu-
nikation auf kooperatives Handeln aller an der Kommunikation Beteiligten und
es gibt immer Informationsvermittlungen ohne jegliche rhetorische Handlung zu
evozieren.
Joachim Knape10 zufolge liegt eine persuasive Situation nur vor, wenn ein
Kommunikationsteilnehmer eine Handlung auslöst, nachdem er für sich die Rich-
tigkeit seines Zieles geklärt hat und deshalb dem strategischen Kalkül entsprechend
rhetorisch handelt. Diese Handlung gilt als geglückt, wenn sie beim Rezipienten
einen mentalen Wechsel auslöst. Sie unterscheidet sich von Zwang oder Nötigung,
da zum einen kommunikative Mittel eingesetzt werden, die vom gesellschaftlichen
Konsens getragen sind, und zum anderen demjenigen, der überzeugt werden soll,
immer das Recht zur eigenständigen Reaktion eingeräumt wird. Freilich kann der
Übergang zu manipulierenden Wegen fließend sein, da es immer auf die regulie-
renden Kräfte der Gesellschaft ankommt. Die Gesellschaft muss die demokratische
Basis bieten und dabei vom mündigen Bürger, der immer erst einer werden soll,
doch schon ausgehen. Das heißt nicht, dass sich überzeugende Rede auf Argumen-
tation zu begrenzen hätte, persuasiv wird die Rede erst durch die verschiedenen
Wirkungsfunktionen11, also durch Belehrung (docere), mithin das Ansprechen der
intellektuellen Fähigkeiten der Hörenden, durch Unterhaltung, das Ansprechen der
emotionalen Aspekte (delectare) und durch Erregung der Leidenschaft (movere).
Der Persuasionsprozess ist nicht auf einzelne Kommunikationssituationen zu
begrenzen, sondern kann auch längerfristig angelegt sein, gerade durch den Einsatz
interaktiver Medien, wenn durch ständige Wechselseitigkeit längerfristig geltende
Einstellungen bewirkt werden sollen. Dabei tritt laut Knape das Paradox auf, dass
nicht der mentale Wechsel zum Ziel der Persuasion wird, sondern Bindung, was

10 Knape, Joachim: Persuasion. In: Ueding, Gert (Hg.): Historisches Wörterbuch der Rhetorik.
Bd. 6. Tübingen 2003. Sp. 874–907. Dass eine Bewusstseinsänderung eintritt, ist immer Folge
der Leistung des Rezipienten, da dieser die Botschaft in seinem Bewusstsein konstruieren
muss.
11 vgl. zur Betonung der Wirkungsweisen als Bestandteile der Persuasion: Ueding, Gert: Was ist
Rhetorik? In: Soudry, Rouven (Hg.): Rhetorik. Eine interdisziplinäre Einführung in die rheto-
rische Praxis. Heidelberg 2006. S. 13–23.
Rhetorische Gestaltungsfähigkeit in virtuellen Arbeitswelten 289

aber nicht zum Widerspruch der Definition von Persuasion führen muss, denn in
solchen Fällen dienen rhetorische Handlungen dazu, aufkommende Ungewisshei-
ten oder Zweifel in Gewissheiten übergehen zu lassen. Nur wer erkennt, dass ein
einmal erreichtes Ziel auch wieder in Frage gestellt werden kann und eine erneute
Überzeugungsarbeit erfordert, kann Bindungen stabil halten.12 Gerade hier wird
Persuasion zum kulturschöpferischen Akt, der dann zum Tragen kommt, wenn ge-
sellschaftlich auf die Fähigkeiten des Subjekts gesetzt wird.
Daraus lässt sich die Feststellung ableiten, dass das Subjekt dann an der Gestal-
tung der Rahmenbedingungen mitwirkt, wenn die Betonung des Subjekts zugleich
als Aufforderung verstanden wird, auf sein rhetorisches Arbeitsvermögen zu setzen.

3 RHETORISCHES ARBEITSVERMÖGEN

Gerade weil in der Arbeitswelt kommunikative und interaktive Tätigkeiten durch


die Zunahme vernetzter Produktions- und Organisationszusammenhänge eine grö-
ßere Relevanz entfalten, erhalten die individuellen Fähigkeiten des Beschäftigten
eine immer größere Bedeutung.13 Dem Einzelnen wird mehr Verantwortung zu-
gestanden, seine Kreativität, seine Motivation, seine sozialen und kommunikati-
ven Kompetenzen werden in Unternehmen als diesem nutzbringende Ressource
geschätzt, weshalb seine Handlungs- und Entscheidungsräume ausgedehnt werden.
Für das Unternehmen bringt dies den Vorteil, die Unbestimmtheit des Marktes di-
rekt an den Beschäftigten weitergeben zu können. Der Beschäftigte steht dann in
der Verantwortung, diese Unbestimmtheit zu bewältigen. So erlaubt das Setzen auf
die Fähigkeiten des Subjekts eine Veränderung der Steuerung betriebswirtschaftli-
cher Maßnahmen. Externe Anforderungen können an Beschäftigte weitergegeben
werden, ohne dass sie erst zentrale Rationalisierungsstäbe durchlaufen müssen.
Dadurch wird Steuerung nicht etwa abgeschafft, sie wirkt nur indirekter und wird
durch die Bestimmung des Kontextes, der Festlegung von Rahmenbedingungen
und Zielvorgaben unmittelbarer.
Allerdings ist diese Herangehensweise auch abhängig von der Kooperation der
Individuen, kann nur mit ihnen und mit ihrem Einverständnis durchgesetzt werden.
„Hochkomplexe Produktions- und Organisationsprozesse sind äußerst störungs-
empfindlich und bedürfen deswegen der engagierten und motivierten Beteiligung
der in ihnen Arbeitenden; die weiter anwachsende Bedeutung von Informations-
und Kommunikationsvorgängen erfordert das denkende, sprechende und handelnde
Subjekt als zentralen Akteur. Die auf dem Spiel stehenden Kapitalsummen drän-
gen zur optimalen Einbeziehung kooperativer Subjektivität, also dazu, die ja im-
mer und prinzipiell eigenständige Subjektivität zur Kooperation zu locken oder zu
zwingen.“14

12 Knape, a. a. O.
13 Schmiede, Rudi: Informatisierung und Subjektivität. In: Konrad, Wilfried; Schumm, Wilhelm
(Hg.): Wissen und Arbeit. Neue Konturen von Wissensarbeit. Münster 1999. S. 134–151.
14 a. a. O., S. 10. Schmiede unterstützt diese These mit den Ergebnissen industriesoziologischer
Forschung über die Bedeutung informeller Gruppen und der Kooperationsbeziehungen sowie
290 Francesca Vidal

Die aktive Beteiligung des Beschäftigten, die gerade der höher Qualifizierte
durchaus positiv wahrnimmt, wird für die Unternehmen zum Rationalisierungspo-
tential. Seine ihm eigenen Kompetenzen werden in allen Bereichen zur Ressource
des Unternehmens. Die Anforderungen an Selbstorganisation und Selbststeuerung
steigen in zunehmendem Maße, auch darauf bezogen, dass jeder selbst dafür ver-
antwortlich ist, sich das geforderte Potential in Formen des lebenslangen Lernens
anzueignen. Gerade weil die geforderten Fähigkeiten über fachliche Kompetenzen
hinausgehen, sowohl soziale als auch methodische einschließen und dieses Bündel
der stetigen Veränderung unterliegt, wird der Einzelne einem kontinuierlichen Pro-
zess ausgesetzt, für den er sich immer wieder neu qualifizieren und in dem er seine
Qualifikationen immer wieder neu unter Beweis stellen muss.
Die Fähigkeiten, die ein Mensch im Laufe seines Lebens durch Bildung, Pra-
xis, Erfahrung und Erlebnisse im beruflichen wie im privaten Leben erwirbt, sind
Teil seines Arbeitsvermögens, das die Warenform der Arbeit erst möglich macht.
Dieses Vermögen geht aber weit über das hinaus, was der Arbeitende in seinem
Berufsleben tatsächlich einbringen kann.
Mit dem Begriff des „Arbeitsvermögens“ schließt Sabine Pfeiffer „an den
von Negt/Kluge (1993) aufgedeckten Gegensatz von subjektiver Produktion der
Arbeitskraft einerseits und deren Objektivierung als Funktion des Lohnarbeitspro-
zesses an und begreift konsequent ersteres als Arbeitsvermögen und letzteres als
Arbeitskraft“.15 Beides sei nur in seiner dialektischen Beziehung zueinander zu
erfassen, um sowohl auf der Ebene der Kritik und der Utopie gesellschaftliche Ent-
wicklungen zu analysieren. Das Arbeitsvermögen sieht sie sowohl in seinem Pro-
zesscharakter als auch als außerhalb des Subjekts zur Form gekommenes Produkt.
„Arbeitsvermögen und Arbeitskraft sind zwei grundsätzliche, sich geschichtlich
bedingt jeweils verändernde und in einem je dialektischen Verhältnis sich zuein-
ander verhaltende Aspekte, die lediglich analytisch klar in ihre quantitativen und
qualitativen Anteile zu trennen sind.“16
Es geht um das Mehr des Arbeitsvermögens, um derart emanzipatorische Po-
tentiale offenzulegen, was nur möglich ist, wenn Arbeitsvermögen und Arbeitskraft
in ihrem dialektischen Verhältnis im Zusammenhang der gesellschaftlichen For-
men der Arbeitsorganisation gesehen werden. So kann eine kritische Sicht auf die
sich vollziehende Subjektivierung entwickelt werden, weil zu zeigen ist, in welcher
Weise das Arbeitsvermögen einerseits stärker genutzt wird, sich aber andererseits
in diesem Prozess auch neu bildet und so tatsächlich als Potential verstanden wer-

mit praktischen Hinweisen, wie Unternehmen versuchen den Einzelnen stärker einzubeziehen
etwa durch die sogenannten Kommunikationstrainingsprogramme.
15 Pfeiffer, Sabine: Informatisierung, Arbeitsvermögen und Subjekt – konzeptuelle Überlegungen
zu einer emanzipationsorientierten Analyse von (informatisierter) Arbeit. In: Schönberger,
Klaus; Springer, Stefanie (Hg.): Subjektivierte Arbeit. Mensch – Technik – Organisation in ei-
ner entgrenzten Arbeitswelt. Frankfurt am Main, New York 2003. S. 191. Oskar Negt und
Alexander Kluge beschäftigen sich mit den Prozessen, die sich innerhalb des Subjekts auf-
grund des Verkaufs der Ware Arbeitskraft vollziehen. Vgl. Negt, Oskar; Kluge, Alexander:
Geschichte und Eigensinn. Bd.1: Entstehung der industriellen Disziplin aus Trennung und Ent-
eignung. Frankfurt am Main 1993.
16 Pfeiffer, S.: a. a. O. S. 193.
Rhetorische Gestaltungsfähigkeit in virtuellen Arbeitswelten 291

den kann. Mit dieser Konzentration auf die qualitativen Momente lassen sich die
Fähigkeiten erfassen, die das Subjekt braucht, um sich die Welt anzueignen und
die es während dieser Aneignung in allen Lebensbereichen bildet und verausgabt.
Sieht man also mit Pfeiffer das Arbeitsvermögen als Produkt der menschlichen Le-
benstätigkeit, lässt sich im Sinne der Arbeitssoziologie fokussieren, welcher Teil
ökonomisch angeeignet wird und welcher aufgrund der Verwirklichungsbedingun-
gen ruht und darin die Kritik der Verwertungsinteressen ableiten.
Es geht dann auch um die rhetorischen Fähigkeiten, die das Subjekt zugleich
braucht und die doch in weiten Teilen ungenutzt bleiben, weil die Bedingungen es
nicht anders zulassen, und damit zugleich immer auch um die Frage, ob dies die
Fähigkeiten sind, die es ihm erlauben würden, diese Bedingungen zu verändern.
Mit Rekurs auf den Begriff des Arbeitsvermögens kann der Rahmen der An-
forderungen des Marktes bezogen auf die Erwerbstätigkeit gesprengt werden, da
die Qualitäten des Subjekts ganzheitlich in den Blick genommen werden, es also
auch um die Fähigkeiten des Subjekts geht, „die jenseits seiner warenförmigen
Repräsentation, der Arbeitskraft, liegen“17. Das Arbeitsvermögen ist zum einen
abhängig von der individuellen Geschichte des Einzelnen, hinsichtlich der kom-
munikativen Fähigkeiten von der Kommunikationsbiografie, und zum anderen von
den gesellschaftlichen Repräsentationen. Es wird durch den Bezug des Einzelnen
zur Welt angeeignet und bildet derart sein durchaus auch utopisch zu bestimmendes
Potential. D. h., zum Potential des Subjekts gehören neben den formalen Quali-
fikationen unabdingbar auch die individuellen Wissensformen, die auf der Basis
von Erfahrung angeeigneten Handlungsmodi, die sich eben sowohl im Bereich von
Bildung und Arbeit als auch im lebensweltlichen Alltag bilden. Das Subjekt wird
derart verstanden als durch die Gesellschaft situiert und sich entwickelnd durch
die kulturelle Vermittlung. Aufgrund der Lebensbiografie muss jeder individuell
gemachte Erfahrungen und Widerstände in Handeln umsetzen. Das sich so bildende
Arbeitsvermögen wird aus der Perspektive der Verwertungsinteressen des Mark-
tes immer nur in Splittern wahrgenommen. Dass die Transformation der Erfah-
rungen in Handlungswissen in Abhängigkeit zur eingenommenen Perspektive und
zum jeweiligen Diskurs geschieht, eröffnet aber auch die Chance, den Rahmen der
Marktinteressen zu verändern.
Wenn es darauf ankommt, das Erfahrungswissen der Subjekte zu transformie-
ren, eignet sich die Rhetorik im besonderem Maße, da Rhetorik eine Erfahrungs-
wissenschaft ist: Sie gewinnt ihre Erkenntnisse aufgrund empirisch nachweisbarer
Beobachtung und Analyse von Erfahrungen im Bereich des rhetorischen Handelns
und zieht daraus Schlussfolgerungen für die Theorie dieses Handelns. Derart er-
forscht sie die Struktur des gesellschaftlichen Lebens, um zu erörtern, wie der
Mensch zum rhetorisch Handelnden werden kann. In der Rede sieht sie den Ori-
entierungs- und Erfahrungsrahmen, um zu Entscheidungen zu gelangen. Ihre Ori-
entierung entnimmt sie der geschichtlichen Perspektive, d. h., um rhetorikrelevante
Probleme zu erörtern, bezieht sie sich auf ihre historischen Dimensionen. In den

17 Pfeiffer, Sabine: Arbeitsvermögen. Ein Schlüssel zur Analyse (reflexiver) Informatisierung.


Wiesbaden 2004. S. 141.
292 Francesca Vidal

Worten Gert Uedings: „Die Rhetorik ist eine Erfahrungswissenschaft, denn, so er-
läutert Aristoteles, ‚man kann die Ursache untersuchen, weshalb die einen Erfolg
erzielen aufgrund der Gewohnheit, die andern durch Zufall; alle möchten aber wohl
zugeben, dass etwas Derartiges bereits Aufgabe einer Theorie ist‘ (Rhet., 1354a:
1.1.2). Sie bedient sich der kontrollierten und empirisch nachweisbaren Beobach-
tung rhetorischer Sprechakte und versucht die Geltung der aus ihr gewonnenen
Erkenntnisse durch historische Rekonstruktion und die Bildung von Hypothesen
über die Systematik und die Regeln rhetorischen Sprechens zu sichern, was wir
Allgemeine Rhetorik nennen.“18

18 Ueding, Was ist Rhetorik?, a. a. O., S. 15.


Rhetorische Gestaltungsfähigkeit in virtuellen Arbeitswelten 293

LITERATUR

Arendt, Hannah: Vita activa oder vom tätigen Leben (1958). München, Zürich 2007.
dies.: Was ist Politik? Fragmente aus dem Nachlass. München, Zürich 1993.
Benseler, Frank; Heinze, Rolf G.; Klönne, Arno (Hg.): Zukunft der Arbeit. Hamburg 1982.
Burisch, Wolfram: „Das Leben ist Freizeit“. Über die Diskriminierung emanzipatorischer Arbeit.
http://www.bloch-akademie.de/txt/t4_07.htm (Zugriff am: 17.9.2017)
Guggenberger, Bernd: Am Ende der Arbeitsgesellschaft – Arbeitsgesellschaft ohne Ende? In: Bense-
ler, Frank; Heinze, Rolf G.; Klönne, Arno (Hg.): Zukunft der Arbeit. Hamburg 1982. S. 63–83.
Knape, Joachim: Persuasion. In: Ueding, Gert (Hg.): Historisches Wörterbuch der Rhetorik. Bd. 6.
Tübingen 2003.
Negt, Oskar; Kluge, Alexander: Geschichte und Eigensinn. Bd.1: Entstehung der industriellen Dis-
ziplin aus Trennung und Enteignung. Frankfurt am Main 1993.
Pfeiffer, Sabine: Arbeitsvermögen. Ein Schlüssel zur Analyse (reflexiver) Informatisierung. Wiesba-
den 2004. S. 141.
dies.: Informatisierung, Arbeitsvermögen und Subjekt – konzeptuelle Überlegungen zu einer eman-
zipationsorientierten Analyse von (informatisierter) Arbeit. In: Schönberger, Klaus; Springer,
Stefanie (Hg.): Subjektivierte Arbeit. Mensch – Technik – Organisation in einer entgrenzten
Arbeitswelt. Frankfurt am Main, New York 2003. S. 182–210.
Schmiede, Rudi: Informatisierung und Subjektivität. In: Konrad, Wilfried; Schumm, Wilhelm (Hg.):
Wissen und Arbeit. Neue Konturen von Wissensarbeit. Münster 1999. S. 134–151.
ders.: Wissen, Arbeit und Subjekt im „Informational Capitalism“. In: Dunkel, Wolfgang; Sauer,
Dieter (Hg.): Von der Allgegenwart der verschwindenden Arbeit. Neue Herausforderungen für
die Arbeitsforschung. Berlin 2006.
Schröter, Welf: Electronic Mobility – wenn Arbeit losgelöst vom Menschen mobil wird. Auf dem
Weg zu „New Blended Working“. In: Baacke, Eugen; Scherer, Irene; Schröter, Welf (Hg.):
Electronic Mobility in der Wissensgesellschaft. Wege in die Virtualität. Mössingen 2007.
Ueding, Gert: Was ist Rhetorik? In: Soudry, Rouven (Hg.): Rhetorik. Eine interdisziplinäre Einfüh-
rung in die rhetorische Praxis. Heidelberg 2006. S. 13–23.
Vidal, Francesca: Rhetorik des Virtuellen. Die Bedeutung rhetorischen Arbeitsvermögens in der
Kultur der konkreten Virtualität. Mössingen 2010.
Wenzel, Harald: Die Technisierung des Subjekts. Zum Verhältnis von Individuum, Arbeit und Ge-
sellschaft heute. In: Schmiede, Rudi (Hg.): Virtuelle Arbeitswelten. Arbeit, Produktion und
Subjekt in der „Informationsgesellschaft‘. Berlin 1996.
GIBT ES EINE KULTUR DER VERNETZTEN WELT?
Wie Informatik eine globale und nachhaltige Informationsgesellschaft ermöglicht

Wolfgang Hofkirchner

Die Geschichte wiederholt sich nicht. Sie ist ein praktisch im Detail nicht reproduzier-
barer, ontisch der Richtung nach nicht umkehrbarer und auf einzelne Bestimmungs-
größen nicht zurückführbarer, offener und epistemisch nicht vollständig vorhersagba-
rer oder erklärbarer Prozess der Entwicklung der soziokulturellen Organisation eines
biologischen Wesens, dessen Erscheinen auf dem Planeten Erde diesem einen Stem-
pel aufdrückt. Was sich wiederholt, sind Konstellationen, die zu früheren Zeitpunkten
so oder ähnlich schon aufgetreten sind, sich aber zum Zeitpunkt der Wiederholung in
einem anderen Umfeld ereignen. Gegenwärtig scheint die Menschheit einem welt-
weiten Wiederholungszwang zum Nationalismus, Populismus und Rechtsruck zu
unterliegen, der im letzten Jahrhundert in die Katastrophe des Zweiten Weltkriegs
gemündet ist – eine Katastrophe, die groß genug gewesen ist, um ein Bewusstsein
zu schaffen, dass eine solche Katastrophe nie wieder zugelassen werden dürfe, aber
eben ein Ereignis, das sich nicht ohne Hegemonie bewusster Kräfte in Institutionen
niederschlagen kann, die ein nochmaliges Eintreten dauerhaft verhindern würden.
Allerdings ist das Umfeld heute ein anderes, und eine Wiederholung könnte
die ultimative Katastrophe heraufbeschwören. War der Zweite Weltkrieg noch ein
Hinweis darauf, dass es möglich ist, im industriellen Stil Massenvernichtung zu be-
treiben, war sein Ende bereits das Aufblitzen eines neuen Zeitalters, in dem neue
Technik die Auslöschung der gesamten Menschheit zur Folge haben kann. Seit dem
Ende des Zweiten Weltkriegs steht die Menschheit unwiderruflich im Kontext des
globalen Zeitalters, des Zeitalters der globalen Probleme. Diese wurden, angestoßen
durch gesellschaftskritische Reflexionen, von sozialen Bewegungen auf den Punkt
gebracht. 1955 wurde das Einstein-Russell-Manifest für den Verzicht militärischer
Mittel in den internationalen Beziehungen unterzeichnet, das als Gründungsdoku-
ment der Pugwash-Bewegung gilt und eine internationale Friedensbewegung inspi-
rierte, die in die Breite wuchs. 1962 erschien Rachel Carsons Buch „Silent Spring“1,
das am Beispiel der Handhabung der Pestizide in den USA für einen sorgsamen
Umgang mit der Natur plädierte und zum Startschuss einer weltweiten Umwelt-
bewegung wurde. Und schließlich entstanden in den Metropolen Bewegungen, die
sich mit den antikolonialen Befreiungsbewegungen solidarisierten, die, von Frantz
Fanons „Les damnés de la terre“2 vorweggenommen, den Kampf für sozioökono-

1 Carson, Rachel: Silent spring. Boston 1962. Carson starb 1964.


2 Fanon, Frantz: Les damnés de la terre. Paris 1961. Dieses Werk, auf das sich heute die soge-
nannten „Postcolonial Studies“ beziehen, erschien mit einem Vorwort von Jean-Paul Sartre
1961 – ein Jahr, das der Autor nicht mehr überleben sollte.
296 Wolfgang Hofkirchner

mische Gleichstellung aufgenommen hatten. Kirchen erkannten diesen Anliegen un-


ter dem Titel des Friedens, der Bewahrung der Schöpfung und der Gerechtigkeit im
ökumenischen Prozess entscheidende Bedeutung zu. Glichen diese Bewegungen an-
fangs noch sogenannten Ein-Punkt-Bewegungen, so kamen sich deren Vertreterinnen
immer näher und ließen die Ziele der Bewegungen miteinander verschmelzen. Die
Einsicht, die immer mehr um sich greift, ist die, dass es letztlich um die Commons
geht, die für das commune bonum stehen, das allgemeine Gut, um dessentwillen
sich die Mitglieder einer Gesellschaft organisieren, an dessen Produktion sie durch
gemeinsame Kraftanstrengung teilhaben und dessen Fruchtgenuss sie untereinander
teilen3. Verwerfungen in diesem gesellschaftlichen Verhältnis sind es, die als globale
Probleme in Erscheinung treten und sich als Krisen zuspitzen. Erheischt wird eine
Reorganisation der gesellschaftlichen Verhältnisse im Weltmaßstab. Diese Einsicht
der neuen sozialen Bewegungen, die für eine andere Globalisierung eintreten, ist
der Keim einer neuen Weltkultur, die sich der informationstechnischen Vernetzung
bedienen, um eine andere Vernetzung der Menschen einzufordern.
Die weltgeschichtliche Situation der Menschheit kann aus einer Perspektive der
Evolution selbstorganisierender Systeme als Entwicklungskrise bestimmt werden,
in der die angelegte Chance, „erwachsen“ zu werden, Reife zu zeigen und die ge-
sellschaftlichen Verhältnisse auf dem Globus in Ordnung zu bringen, d. h., auf eine
höhere Stufe der Organisation zu heben, mit dem Risiko des Omnizids behaftet ist.
Systemtheoretisch gesehen, bewegen sich Systeme im Zuge ihrer Evolution hin
auf Trajektorien, die Bifurkationen beinhalten. Bifurkationen kommen mit einer
Vielzahl möglicher zukünftiger Trajektorien einher. Es kann der Fall eintreten, dass
Systeme nicht in der Lage sind, Devolution, also ihre „Abwicklung“, abzuwenden
und auf einen Pfad gelangen, der zum Zusammenbruch des Systems führt. Es kann
aber auch vorkommen – und das war der Fall bei allen Systemen, die wir gegen-
wärtig beobachten können –, dass sie den Durchbruch auf eine höhere Komplexi-
tätsstufe, zu einem höheren Organisationsgrad, auf eine Trajektorie schaffen, die im
Rahmen einer Mega-Evolution die Fortsetzung ihrer Entwicklung erlaubt, die auf
der bisherigen Trajektorie, auf der sie sich in einem Gleichgewichtszustand befun-
den haben, nicht mehr möglich ist. Zunehmende Fluktuationen, Abweichungen von
diesem Gleichgewichtszustand, verweisen auf ein Manko in ihrer Organisation, in
der Meisterung der Komplexität, und sind Anzeichen für das Erreichen von Unter-
brechungen der „normalen“ Evolution.
Wichtig ist, festzuhalten, dass der Übergang des Systems auf eine neue Trajektorie
zwar objektiv möglich, aber im Einzelnen nicht notwendig bestimmt, sondern kon-
tingent ist, also emergiert, und die Evolution keinen a priori gegebenen Pfaden folgt.
Soziale Systeme bilden keine Ausnahme. Die gesellschaftliche Entwicklung
heute zeigt Krisen zwischen supranationalen Gebilden, nationalstaatlich verfassten
Gesellschaften und als Teilstaaten verfassten Gemeinwesen in allen gesellschaftli-
chen Subsystemen, ihren kulturellen, politischen, wirtschaftlichen, ökologischen

3 vgl. Hofkirchner, Wolfgang: Relationality in social Systems. In: Li, Wenchao (Hg.): „Für unser
Glück oder das Glück anderer.“ Vorträge des X. Internationalen Leibniz-Kongresses. Hildes-
heim u. a. 2016. S. 235–243; sowie: ders.: The commons from a critical social systems perspec-
tive. In: Recerca, Ausgabe 14, 2014, S. 73–91.
Gibt es eine Kultur der vernetzten Welt? 297

und technologischen Subsystemen, Krisen, die zustande kommen durch Mängel in


der Organisierung des Gemeinwohls und sich zu globalen Problemen ausgewach-
sen haben, die alle betreffen und nur mehr von allen gemeinsam gelöst werden kön-
nen. Der Umkipppunkt erfordert die Transition in einen anderen Zustand. Entweder
scheitern die immer stärker voneinander abhängig gewordenen sozialen Systeme
an einer Neuordnung ihrer Beziehungen, die dem Komplexitätsgrad der Probleme
gerecht wird, die sie selber hervorgerufen haben, weil die bisherige Ordnung ihrer
eigenen Angelegenheiten nicht mehr im Stande ist, als Muster für eine über ihre
Systeme hinaus verallgemeinerte gerechte Teilhabe aller am allgemeinen Gut welt-
weit zu dienen, und schlittern auf Abwege der endgültigen Desintegration und des
Auseinanderbrechens der menschlichen Zivilisation zu, oder sie einigen sich auf
den Weg in die Integration in einer globalen nachhaltigen Informationsgesellschaft.
Dies wäre ein Wandel sondergleichen. Es liegt an den sozialen Systemen samt ihren
sozialen Akteuren, die Wahl zu treffen. Das ist die große Bifurkation.
Die Vision einer globalen nachhaltigen Informationsgesellschaft zeichnet sich
durch drei Imperative aus, denen gefolgt werden muss, soll eine Kultur der vernetz-
ten Welt Wirklichkeit werden: einen, der Globalität betrifft, einen, der die Nachhal-
tigkeit betrifft, und einen, der die Informiertheit betrifft4.
Der erste ist der globale Imperativ. Die Evolution komplexer Systeme kann
dazu führen, dass ursprünglich unabhängige Systeme voneinander abhängig wer-
den und dass sie diese Interdependenz dazu nutzen, als Ko-Systeme miteinander
zu kooperieren und sich als Elemente in ein von ihnen geschaffenes Meta- oder
Suprasystem zu integrieren. Dies ist der Weg der Steigerung der Komplexität. Ein
neues System entsteht und mit ihm Hierarchie, indem das integrierende System die
anderen in sich einbettet.
Die heutige gesellschaftliche Entwicklung steht an diesem Punkt: Die Glie-
derungen der Menschheit können nicht überleben und kein gutes Leben führen,
solange nicht alle von ihnen an einer echten Weltgesellschaft partizipieren.
Nach dem Nomadentum der Horden von Jägern und Sammlerinnen bis zum
Beginn der neolithischen Revolution entwickelten sich auf Grund der Sesshaftig-
keit immer größere Agglomerationen, die einem Territorialprinzip folgten. Diese
könnte heute wiederum, angestoßen durch neue Migrationen5 und gefördert
von den neuen Informations- und Kommunikationstechnologien, in einem Welt-
system aufgehoben werden, in dem einer Dialektik von Globalem und Lokalem
(Glokalität6) gefolgt wird.
Der zweite Imperativ ist der der Nachhaltigkeit. Dabei muss Nachhaltigkeit in
einem systemischen Sinn erweitert definiert werden. Sobald die neue Struktur, die

4 s. ders.: Information for a global sustainable information society. In: Hofkirchner, Wolfgang,
Burgin, Mark (Hg.): The future information society. Social and technological problems. Singa-
pore u. a. 2017. S. 11–33.
5 Der französische „Philosoph des Internets“, Pierre Lévy, sprach in den 90ern vom neuen No-
madentum (s. Lévy, Pierre: L’intelligence collective. Pour une anthropologie du cyberespace.
Paris 1994).
6 Den Terminus „Glocalization“ führte Roland Robertson Ende der 90er Jahre in den wissen-
schaftlichen Diskurs ein (s. Robertson, Roland: Globalization. London 1992).
298 Wolfgang Hofkirchner

organisatorischen Beziehungen des Meta-/Suprasystems, das nun ein System causa


sui darstellt, in Kraft tritt und als Formursache den Aktionsspielraum der Agenten,
der neuen Elemente, im Falle des Meta-/Suprasystems der zu Ko-Systemen ge-
wordenen ursprünglichen Systeme, formt, d. h. beschränkt, aber gleichzeitig neue
Aktionen, Interaktionen und Ko-Aktionen ermöglicht, die Synergie hervorbringen,
kann der Verbund der Systeme eine stabile Entwicklung einleiten, eine, die Syner-
gieeffekte garantiert, eine, die Einheit durch Vielfalt verwirklicht, d. h. gerade so
wenig Integration wie nötig und so viel Differenzierung wie möglich.
Was bei Systemen Stabilität heißt, heißt bei sozialen Systemen Nachhaltigkeit.
Diese bezieht sich nicht nur auf das Verhältnis der Menschen zur Natur, sondern
auch auf das Verhältnis der Menschen zueinander bzw. der Menschen zur Gesell-
schaft sowie auf das Verhältnis der Menschen zur Technik. Heute können weder
eine Weltgesellschaft noch deren Teile als zukunftsfähig gelten, solange keine
Strategie existiert, die darauf abzielt, die bestehenden anthropogenen Dysfunk-
tionen im Funktionieren der sozialen Systeme zu beseitigen und in der Zukunft
möglichen Dysfunktionen vorzubauen.
Auch hier lässt sich ein Dreischritt ins Treffen führen. Die in den Urgesell-
schaften herrschende weitgehend undifferenzierte Gemeinschaft, in der die einzel-
nen Mitglieder Inkarnationen eines mystisch verstandenen „Wir“ waren, wurden
von produzierenden Gesellschaften abgelöst, die Mehrwert erzeugen, welcher
durch private Aneignung Klassenspaltungen, Ausbeutung und Unterdrückung er-
laubt, welche eine Diversität von Identitäten zur Folge haben, die einander entwe-
der antagonistisch gegenüberstehen, d. h. in Konflikten eingebunden sind, in denen
der Vorteil der einen auf Kosten der anderen erreicht wird, oder agonistisch mitein-
ander wetteifern, d. h. Konflikte austragen, in welchen die Gegensätze koexistieren,
miteinander kompossibel7 sind. Heute wäre es an der Zeit, eine Synergie der Un-
terschiede, eine unitas multiplex8 zu etablieren, in der die Vielfalt sich gegenseitig
stützt, in einer Komposition aller Unterschiede – eine weise Gesellschaft, wie das
vor 20 Jahren die Europäische Kommission sich vorzustellen getraute.
Der dritte Imperativ ist der informationelle Imperativ. Wenn die Komplexität
der Herausforderungen an ein System die Komplexität des Systems selber über-
steigt, dann ist frei nach William Ross Ashbys Gesetz der erforderlichen Vielfalt9
die Komplexitätserhöhung des Systems das Mittel der Wahl. Diese Komplexitäts-
erhöhung des selbstorganisierenden Systems geschieht durch Generierung entspre-
chender Information durch das System selber. Intelligenz kann dann nämlich als die
Fähigkeit des Systems definiert werden, diejenige Information zu generieren, die
gebraucht wird, um die Probleme zu entschärfen, die die Leistung des Systems oder
dessen Aufrechterhaltung beeinträchtigen. Kollektive Intelligenz ist eine emergente

7 Der Begriff „Agonismus“ geht auf Chantal Mouffe zurück (siehe z. B.: Mouffe, Chantal: Ago-
nistics. Thinking the world politically. London 2013). „Kompossibilität“ ist eine von Leibniz
verwendete Kategorie.
8 Morin, Edgar: Seven complex lessons in education for the future. http://unesdoc.unesco.org/
images/0011/001177/117740eo.pdf, S. 25 (Zugriff am: 1.4.2017).
9 vgl. Ashby, William Ross: An introduction to cybernetics. New York 1956.
Gibt es eine Kultur der vernetzten Welt? 299

Erscheinung, die auf der Ebene des Suprasystems angesiedelt ist und die einzelnen
Intelligenzen von Ko-Systemen übertreffen kann.
Kollektive Intelligenz ist heute das, was auf der Ebene der gesamtgesellschaft-
lichen Entwicklung gebraucht wird. Den anthropogenen Dysfunktionen kann nicht
gegengesteuert, die sozialen Systeme können nicht auf einen nachhaltigen Pfad ge-
bracht werden, solange nicht die dazu erforderlichen Informationen (Daten, Wis-
sen, Weisheit) generiert werden, solange nicht eine Bewusstheit hegemonisch wird,
die ein gutes Leben und das Überleben der Menschheit intendiert, und solange nicht
die Informations- und Kommunikationstechnologien diese Prozesse unterstützen,
statt sie im Interesse der Aufrechterhaltung des status quo zu hintertreiben.
Dieser Imperativ legt einen möglichen dritten Sprung der Menschwerdung
nahe. Einen ersten Sprung von unseren tierischen Vorfahren zum homo sapiens
als animal sociale bildete der Übergang zum Frühmenschen. Dieser Frühmensch
war fähig, bei direkt miteinander verbundenen Akteuren gemeinsame Intentionen
zu erzeugen, gemeinsame Ziele, gemeinsame Aufmerksamkeit in der gemeinsa-
men Handlung, was kulturelle Faktoren in die biologische Evolution einführte. Ein
zweiter Sprung der Anthroposoziogenese führte zwar zu einer kollektiven Inten-
tionalität in der gesellschaftlichen Gruppe, die ein und dieselbe Kultur teilte, als
die sozial-kulturelle Entwicklung die biologische Entwicklung der Frühmenschen
zu dominieren begann. Aber die kollektive Intentionalität wurde nachgerade in
Jahrtausenden zur instrumentellen Vernunft pervertiert, in der homo idioticus10
für seine privaten Zwecke andere Mitglieder der Gesellschaft instrumentalisiert
und seine eigene Handlungsfähigkeit dadurch beschränkt, dass er die anderen in
der Arbeit für das Gemeinwohl und in dessen Nutznießung nicht als gleichwertig
erachtet. Das Entstehen meta-reflexiver Akteure11, deren Wissen und Gewissen
die Sorge um das allgemeine Gute rehabilitiert und zu verallgemeinerten Handlun-
gen auf unserem Planeten fähig sind, würde die Menschwerdung zu einem echten
homo socialis12 „vervollkommen“.
Wenn wir danach fragen, welche Rolle der Information in diesem Transforma-
tionsprozess zukommt, dann ist die Antwort, dass Information die Voraussetzung
dafür darstellt, dass die gestiegene Komplexität der Interaktion der voneinander ab-
hängig gewordenen sozialen Systeme in Sicht genommen und wieder in den Griff
bekommen werden kann.
Information kommt in allen selbstorganisierenden Systemen in drei Varianten vor:
Systeme erkennen andere Systeme in ihrer Umwelt (kognitive Variante), als kogni-

10 Ich habe mir erlaubt, den Begriff des homo oeconomicus zu verallgemeinern. Dabei beziehe ich
mich auf die antike Bedeutung von idiotes zur Bezeichnung derjenigen Personen, die sich nicht an
der res publica beteiligten, sondern Ressourcen der Allgemeinheit zum privaten Gebrauch entzo-
gen (vgl. Curtis, Neil: Idiotism. Capitalism and the privatisation of life. London 2013. S. 12).
11 „Metareflexivität“ ist nach der Soziologin Margaret Archer die Fähigkeit von Personen, nicht
nur den unmittelbaren sozialen Kontext zu reflektieren, sondern auch das Wohl der Gemein-
schaft zum Anliegen zu machen (Archer, Margaret: Making our way through the world. Human
reflexivity and social mobility. Cambridge 2007; s. auch: Donati, Pierpaolo, Archer, Margaret:
The relational subject. Cambridge 2015).
12 Gintis, Herbert, Helbing, Dirk: Homo socialis. An analytical core for sociological theory. In:
Review of Behavioral Economics, Ausgabe 2, 2015, S. 1–59.
300 Wolfgang Hofkirchner

tive Systeme koppeln sie sich mit Ko-Systemen (kommunikative Variante), und als
kommunikative Systeme verschränken sie sich miteinander über die organisatorischen
Beziehungen des Meta-/Suprasystems, an dem sie teilhaben (kooperative Variante)13.
Soziale Systeme zeigen soziales Informationsgeschehen: Die soziale Kognition
befähigt Akteure zur Reflexion ihres Selbst im Gesamtzusammenhang, die soziale
Kommunikation befähigt zur Reflexion der Intention der anderen, und die soziale
Kooperation befähigt zur Reflexion der Intention, die im sozialen System, in das sie
eingebettet sind, geteilt wird.
Soziale Kognition ist konzeptuell, d. h., sie verläuft über die Bildung von Be-
griffen14, die verallgemeinern – sie sind damit inhärent emergente Produkte, weil
sie über das in der Erfahrung Gegebene hinausgehen. Soziale Kommunikation ist
konsilient15, das heißt, sie verläuft über die Abstimmung der eingebrachten Stand-
punkte, in der über die Nützlichkeit und Wahrheitstreue der kognitiven Informati-
onen befunden wird – ebenfalls ein emergenter Prozess, bei dem nicht festgelegt
ist, was herauskommt. Soziale Kooperation ist kollektiv intentional16, das heißt, sie
verläuft über die auf der Basis der kommunikativen Informationen erreichte Über-
einstimmung bei der Zielsetzung, der Analyse des Hier und Jetzt als Ausgangspunkt
und der Planung von Maßnahmen zur Verwirklichung der Ziele – diese Entschei-
dungsfindung und -umsetzung ist wiederum emergent, da im Detail unvorherseh-
bar und nicht vorbestimmt. Die sozialen Informationstypen bilden eine Hierarchie:
Die kooperative Information hat in sozialen Systemen eine konsensuale Funktion
(sie regelt die Bestimmung der gemeinsamen Vorhaben), die kommunikative eine
kollaborative (sie regelt das Zusammenwirken für die Umsetzung der gemeinsam
bestimmten Vorhaben) und die kognitive eine koordinative (sie regelt das Verstehen
des Zusammenwirkens für die Umsetzung der gemeinsam bestimmten Vorhaben).
Im Zeitalter der globalen Probleme ist die Informationsgesellschaft herausgefor-
dert, die Funktionsweisen der Varianten der sozialen Information auf eine bestimmte
Art zu verändern und mit neuem Inhalt zu füllen, und das ist möglich. Die konsen-
suale, kollektive Objektivität der Kooperation kann und muss auf das Überleben der
Menschheit und am guten Leben orientiert werden; es geht um die Veränderung der
Verhältnisse, die Herstellung und (Ver-)Teilung des gemeinsamen Guts betreffen.
Die kollaborative, konsiliente Intersubjektivität der Kommunikation kann und muss
die gesamte Menschheit einbeziehen; es geht darum, dass eine globale Konversation
im Prinzip keinen Akteur von vornherein ausschließen darf. Die koordinative, kon-
zeptuelle Subjektivität der Kognition kann und muss die eigene Handlungsfähigkeit

13 vgl. Hofkirchner, Wolfgang: Emergent information. A unified theory of information frame-


work. Singapore u. a. 2013. S. 184–195.
14 vgl. Logan, Robert: The extended mind. The emergence of language, the human mind and
culture. Toronto 2007.
15 „Consilience“ wurde vom Soziobiologen Edward O. Wilson in den Fokus gerückt (s. Wilson,
Edward O.: Consilience. The unity of knowledge. London 1998). Der Begriff wird von mir im
Sinne von Ludwig von Bertalanffys Gedanken der Deanthropomorphisierung und Objektivie-
rung wissenschaftlichen Wissens verwendet (vgl. Bertalanffy, Ludwig von: General System
Theory. New York 2015. S. 247–248).
16 vgl. Tomasello, Michael: A natural history of human thinking. Cambridge 2014; sowie: ders.:
A natural history of human morality. Cambridge 2016.
Gibt es eine Kultur der vernetzten Welt? 301

global erweitern; es geht darum, die Begrenzungen auf die eigenen Interessen hinter
sich zu lassen und zu erkennen, dass die Verfolgung legitimer Eigeninteressen die
Förderung des planetaren Allgemeinwohls voraussetzt.
Das hat Konsequenzen für die Gestaltung der Informationstechnologie. Die In-
formatik müsste demnach so gestaltet werden, dass Anwendungen die Generierung
solcher Information (Daten, Wissen, Weisheit) erleichtern und befördern, die zur
Transformation in eine globale nachhaltige Informationsgesellschaft erforderlich ist.
Die Informations- und Kommunikationstechnologien befördern nicht auto-
matisch eine Qualität der sozialen Informationsprozesse, die der Herausforderung
durch die globalen Probleme gerecht wird. Sie sind vielmehr auch Teil des Problems.
Denn die Informatisierung – der Prozess der Verbreitung jener Techniken, welche
die Gesellschaft immer empfänglicher für Information machen – ist ambivalent. Sie
bereitet nicht nur den Boden für informiertes Welt-Netzbürgertum, sondern kon-
frontiert uns auch im Bereich der Kultur mit Informationsflut und Gehirnwäsche,
im Bereich der Politik mit der Verletzung des informationellen Selbstbestimmungs-
rechts durch Überwachung oder Informationskriege, im Bereich der Wirtschaft mit
der Proprietarisierung intellektueller Güter und Dienste durch Kommodifizierung
und Kommerzialisierung, im Bereich der Umwelt mit computergestützter Über-
nutzung und Verschmutzung der äußeren wie der inneren Natur und nicht zuletzt
im Bereich der Technik selber mit der durch die Computerisierung gesteigerten
Verletzlichkeit der Informationsgesellschaft. Der Informatisierung wohnt zwar ein
Potenzial zur Verminderung von Reibungsverlusten im Funktionieren der Herstel-
lung und Nutzung der Synergieeffekte der Commons inne. Andererseits kann sie
aber auch Zwecken dienen, die der Wiedergewinnung der Commons zuwiderlau-
fen: Sie kann bestehende Ungleichheiten quantitativ verstärken oder qualitativ neue
Ungleichheiten erzeugen. Dies ist empirisch vorfindliche Realität.
Da Informatisierung beides kann – und auch tut –, bedürfen die Informations-
und Kommunikationstechnologien einer bewussten Gestaltung, so dass sie die Pro-
blemlösungsfähigkeit der (Welt-)Gesellschaft in einem Ausmaß steigern, welches
die Dysfunktionen, die mit den gesellschaftlichen Verhältnissen einhergehen (kön-
nen), erfolgreich unterhalb der Schwelle der Selbstgefährdung der sozialen Systeme
hält. Diese Aufgabe der Informatisierung – die technische Unterstützung derjenigen
sozialen Informationsprozesse, die dazu beitragen, dass der Komplexitätsgrad der
sozialen Systeme erhöht wird, damit ein nachhaltiger Pfad der gesellschaftlichen
Entwicklung eingeschlagen werden kann – mag „Informationalisierung“ genannt
werden. Informatisierung ist kein Selbstzweck, sondern kann und muss der Infor-
mationalisierung dienen. Die Informatisierung muss zum Werkzeug der Informati-
onalisierung gemacht werden.
Aus diesem Grund ist die Informations- und Computerethik ein Muss für die
Informatik. Eine globale nachhaltige Informationsgesellschaft braucht eine verant-
wortungsbewusste Informatik. Eine verantwortungsbewusste Informatik muss die
Informations- und Kommunikationstechnologien ethisch reflektiert gestalten. Tech-
nik muss einen Sinn machen, der erstens darin besteht, dass Technikfolgenabschät-
zung und Technikgestaltung den erwarteten und tatsächlichen Nutzen der Technik
im Hinblick auf die soziale Nützlichkeit einer steten Überprüfung unterzieht. Diese
302 Wolfgang Hofkirchner

Überprüfung darf nicht nur die Zweckmäßigkeit der Technik für die Erfüllung des
sozialen Zwecks befragen, sondern muss auch den Zweck selber hinterfragen.
Dieser Zweck kann im Zeitalter der globalen Probleme nur in der Erlangung, im
Ausbau, in der Aufrechterhaltung und im verbesserten Einsatz der Verfügungsge-
walt über das weltweite Gemeingut der Gesellschaften seine Rechtfertigung finden.
Zweitens besteht der Sinn der Technik darin, dass die von der Technik Betroffenen
an diesem Prozess der Technikfolgenabschätzung und Technikgestaltung teilhaben
können und in die Lage versetzt werden, durch die Bestimmung geeigneter Formen
der Technik die gesellschaftliche Entwicklung mit Bewusstheit zu vollziehen.
Eine ethikbasierte Informatik unterscheidet sich vom business as usual, wo
keine mögliche Anwendung, kein Gegenstandsbereich und keine Methode ausge-
schlossen werden, solange sie Profit versprechen, darin, dass sie, unter Einbeziehung
der Betroffenen, zur Entwicklung technischer Lösungen für die Wiedergewinnung
der Commons und die Fortsetzung der Zivilisation auf der Grundlage von Erkennt-
nissen über diejenigen Faktoren in Technik, Umwelt, Wirtschaft, Politik oder Kultur,
die solche Lösungen anregen oder hemmen, durch eine auf die Ziele abgestimmte
und den Gegenstandsbereich transdisziplinär umfassende Methodik beiträgt. Das ist
eine Informatik für eine globale nachhaltige Informationsgesellschaft.
Erst eine solche Informatik wird den Anforderungen unserer Zeit gerecht und
leistet einen Beitrag zu einer sozialverträglichen Weltkultur, Weltpolitik und Welt-
wirtschaft, zur Umweltverträglichkeit und Technikverträglichkeit des Weltsystems,
das sich in statu nascendi befindet und einem dritten Sprung in der Menschwerdung
gleichkommt. Der Ausgang der großen Bifurkation ist allerdings ungewiss.

DANKSAGUNG

Dieser Text, der eine Antwort auf drängende Fragen unserer Zeit zu geben versucht,
ist aus einer wissenschaftlichen Perspektive geschrieben, an deren Herausbildung
Klaus Kornwachs entscheidenden Anteil hatte. Als ich ihn in den frühen 90er Jah-
ren kennenlernte, bestärkte er mich darin, dem Zusammenhang von System und
Information nachzugehen, Informationsgeschehen also systemtheoretisch in Sicht
zu nehmen17. Als mich mein Weg zur Ausweitung der Überlegungen auf die Infor-
mationsgesellschaft führte, war die Begegnung im Rahmen meiner Habilitation im
Fach „Technology Assessment“ an der TU Wien zur Jahrtausendwende ein wichti-
ger Kreuzungspunkt meiner akademischen Laufbahn.18 Als ich 2004 führend daran
beteiligt war, eine außeruniversitäre Forschungseinrichtung zu gründen, die sich
mit systemtheoretischen Fragestellungen beschäftigt (nämlich das Bertalanffy Cen-
ter for the Study of Systems Science), war Klaus als einer der ersten, der bereit war,
Mitglied im Wissenschaftsbeirat zu werden. Dieser unserer Zusammenarbeit sind
wir bis heute treu geblieben.

17 vgl. Kornwachs, Klaus; Jacoby, Konstantin (Hg.): Information. New questions to a multidisci-
plinary concept. Berlin 1996.
18 Hofkirchner, Wolfgang: Projekt Eine Welt. Kognition – Kommunikation – Kooperation. Ver-
such über die Selbstorganisation der Informationsgesellschaft. Münster 2002.
Gibt es eine Kultur der vernetzten Welt? 303

LITERATUR

Archer, Margaret: Making our way through the world. Human reflexivity and social mobility. Cam-
bridge 2007.
Ashby, William Ross: An introduction to cybernetics. New York 1956.
Bertalanffy, Ludwig von: General System Theory. New York 2015.
Carson, Rachel: Silent spring. Boston 1962.
Curtis, Neil: Idiotism. Capitalism and the privatisation of life. London 2013.
Donati, Pierpaolo, Archer, Margaret: The relational subject. Cambridge 2015.
Fanon, Frantz: Les damnés de la terre. Paris 1961.
Gintis, Herbert, Helbing, Dirk: Homo socialis. An analytical core for sociological theory. In: Review
of Behavioral Economics, Ausgabe 2, 2015, S. 1–59.
Hofkirchner, Wolfgang: Projekt Eine Welt. Kognition – Kommunikation – Kooperation. Versuch
über die Selbstorganisation der Informationsgesellschaft. Münster 2002.
ders.: Emergent information. A unified theory of information framework. Singapore u. a. 2013.
ders.: The commons from a critical social systems perspective. In: Recerca, Ausgabe 14, 2014,
S. 73–91.
ders.: Relationality in social Systems. In: Li, Wenchao (Hg.): „Für unser Glück oder das Glück ande-
rer.“ Vorträge des X. Internationalen Leibniz-Kongresses. Hildesheim u. a. 2016. S. 235–243.
ders.: Information for a global sustainable information society. In: Hofkirchner, Wolfgang, Burgin,
Mark (Hg.): The future information society. Social and technological problems. Singapore u. a.
2017. S. 11–33.
Kornwachs, Klaus; Jacoby, Konstantin (Hg.): Information. New questions to a multidisciplinary
concept. Berlin 1996.
Lévy, Pierre: L’intelligence collective. Pour une anthropologie du cyberespace. Paris 1994.
Logan, Robert: The extended mind. The emergence of language, the human mind and culture. To-
ronto 2007.
Morin, Edgar: Seven complex lessons in education for the future. http://unesdoc.unesco.org/
images/0011/001177/117740eo.pdf (Zugriff am: 1.4.2017).
Mouffe, Chantal: Agonistics. Thinking the world politically. London 2013.
Robertson, Roland: Globalization. London 1992.
Tomasello, Michael: A natural history of human thinking. Cambridge 2014.
ders.: A natural history of human morality. Cambridge 2016.
Wilson, Edward O.: Consilience. The unity of knowledge. London 1998.
SCHEITERN VON INNOVATIONEN
Überlegungen zur techniktheoretischen Bedeutung
eines innovativen Forschungsfelds

Wolfgang König

In den letzten Jahrzehnten hat man der Technikgeschichtsschreibung häufiger den


Vorwurf gemacht, ein problematisches Bild der technischen Entwicklung zu ver-
mitteln. Sie konzentriere sich auf erfolgreiche Innovationen und klammere geschei-
terte Innovationen aus.1 Sie schaffe damit eine „Technikgeschichte der Sieger“2
und perpetuiere die damnatio memoriae der Verlierer durch die Zeitgenossen. Damit
spielt man darauf an, dass die Zeitgenossen, Innovatoren, Manager und Unterneh-
mer, begreiflicherweise lieber auf ihre Erfolge verweisen als auf ihre Misserfolge.
Stellt man sich auf den Standpunkt, dass Geschichtsschreibung über Gesche-
henes berichten solle, dann hat die Konzentration auf die „Technikgeschichte der
Sieger“ durchaus etwas für sich. Gescheiterte Innovationen gehören zwar auch zum
historischen Geschehen, aber sie besitzen in aller Regel eine viel geringere Wirk-
mächtigkeit als erfolgreiche. Die Innovationsaktivitäten werden im Allgemeinen
früher abgebrochen. Sie zeitigen eher indirekte Wirkungen, indem sie dokumen-
tieren, dass bestimmte Optionen der technischen Entwicklung nur schwer oder gar
nicht gangbar sind. Und sie verbrauchen Ressourcen, die für andere Entwicklungs-
arbeiten nicht mehr zur Verfügung stehen. Macht man sich bewusst, dass jegliche
Technikgeschichtsschreibung eine rigide Auswahl unter dem Berichtenswerten
vornehmen muss, dann ergibt es Sinn, sich auf das historisch Wirkmächtigere zu
konzentrieren, eben die „Technikgeschichte der Sieger“, und das weniger Wirk-
mächtige, die gescheiterten Innovationen, auszuklammern.
In analoger Weise findet sich dieses Phänomen der Ausklammerung geschei-
terter Innovationen in der ökonomischen Innovationstheorie, und dies seit Joseph
Schumpeter.3 Unter Berufung auf Schumpeter wird einem öfter entgegengehalten,

1 vgl. zur Beschäftigung der Technikgeschichte mit gescheiterten Innovationen: Bauer, Rein-
hold: Gescheiterte Innovationen. Fehlschläge und technologischer Wandel. Frankfurt, New
York 2006; sowie: ders.: Failed Innovations. Five Decades of Failure. In: ICON. Journal of the
International Committee for the History of Technology, 20 (2014), S. 33 ff.; sowie: Braun,
Hans-Joachim (Hg.): Failed Innovations (Social Studies of Science 22,2). London, New Delhi
1992; sowie: Gooday, Graeme: Rewriting the ‘Book of Blots’. Critical Reflections on Histories
of Technological ‘Failure’. In: History and Technology, 14 (1998), S. 265–291.
2 vgl. Braun, Failed Innovations, a. a. O., S. 213; König, Wolfgang: Technikgeschichte. Eine Ein-
führung in ihre Konzepte und Forschungsergebnisse. Stuttgart 2009. S 243–257.
3 s. Schumpeter, Joseph: Konjunkturzyklen. Eine theoretische, historische und statistische Ana-
lyse des kapitalistischen Prozesses. 2 Bd. Göttingen 1961; sowie: Huisinga, Richard: Theorien
und gesellschaftliche Praxis technischer Entwicklung. Soziale Verschränkungen in modernen
306 Wolfgang König

dass es gescheiterte Innovationen überhaupt nicht gibt. Der rationale Kern dieser
Aussage besteht darin, dass sich Schumpeter für Innovationen nur im Kontext sei-
ner konjunkturtheoretischen Überlegungen interessierte. Gescheiterte Innovationen
besitzen aber keine konjunkturelle Wirkungen – es sei denn indirekte und marginale
als ergebnisloser Ressourceneinsatz. Man kann dem Einwand terminologisch leicht
gerecht werden, indem man in diesen Fällen nicht von Innovationen, sondern von
Innovationsversuchen spricht.
Sowohl die „Technikgeschichte der Sieger“ wie die Schumpetersche Konjunk-
turtheorie besitzen also eine Berechtigung. Allerdings leisten beide keinen relevanten
Beitrag für eine reflektierte Innovationstheorie. Die „Technikgeschichte der Sieger“
wird sofort problematisch, wenn sie sich nicht darauf beschränkt, über den Gang der
Technik zu berichten, sondern der stattgefundenen technischen Entwicklung die Vor-
stellung einer Gesetzmäßigkeit, Notwendigkeit oder Logik unterstellt. Dies würde ei-
nen Technikdeterminismus implizieren und eine Ignorierung historischer Kontingenz.
Bei Schumpeter ist es – entgegen der landläufigen Meinung – offensichtlich,
dass er sich für Innovationen wenig interessiert, sondern nur für die Wirkung von
Innovationen auf das wirtschaftliche Geschehen. So geht er von einem dauernden
Überschuss an Inventionen aus und entzieht sich damit der Notwendigkeit, auf die
Erfindungstätigkeit näher einzugehen. Und Schumpeters Erklärung von Innovati-
onszyklen durch sich verändernde Mentalitäten der Unternehmer und Manager ist
in ihrer empirischen und theoretischen Dürftigkeit kaum zu überbieten.
In der Technikgeschichte setzt die verstärkte Beschäftigung mit gescheiterten
Innovationen in den späten 1950er Jahren ein,4 seit etwa zwei Jahrzehnten hat sich
auch die sozial- und wirtschaftswissenschaftliche Innovationstheorie des Themas
angenommen; in der Mainstream-Ökonomie spielt es weiterhin kaum eine Rolle.
Das Ergebnis dieses neuen Forschungsparadigmas besteht in zahlreichen Fallstudien
und einer Reihe grundlegender Reflexionen. Dabei geht es der Technikgeschichts-
schreibung darum, durch die Betrachtung gescheiterter Innovationen „eine andere
Perspektive auf den Prozess des technischen Wandels zu entwickeln“5. Aus der Be-
triebswirtschaftslehre kommende Innovationsforscher erheben darüber hinaus den
Anspruch, das Scheitern in Lernprozessen zu verarbeiten und dadurch den Erfolg zu
steigern. Oder sie propagieren zumindest einen angemesseneren Umgang mit dem
Scheitern – dies häufig unter dem Schlagwort einer „neuen Kultur des Scheiterns“.
Zu den Ergebnissen dieser Diskussion gehört die Betonung der Relativität und
Perspektivität des Scheiterns.6 Vielfach besteht weder bei den Zeitgenossen noch
bei den rückblickenden Forschern Übereinstimmung, in welchen Fällen und wann

Technisierungsprozessen. Amsterdam 1996. S. 107–118; sowie: Brodbeck, Karl-Heinz: Schei-


tern. Eine Kritik an der traditionellen Ökonomie. In: Pechlahner, Harald u. a. (Hg.): Scheitern.
Die Schattenseite unternehmerischen Handelns. Die Chance zur Selbsterneuerung. Berlin
2010. S. 52 f.
4 vgl. den Abriss der Forschungsgeschichte bei Bauer, Failed Innovations, a. a. O., S. 33 ff.
5 Bauer, Reinhold: Scheitern als Chance. Historische Fehlschlagforschung. In: Die Produktivität
des Scheiterns. Dokumentation des 11. Innovationsforums der Daimler und Benz Stiftung. Ber-
lin 2014. S. 4.
6 vgl. hierzu Brodbeck, a. a. O., 57 f.; sowie: Gooday, a. a. O.; sowie: Bauer, Gescheiterte Innova-
tionen, a. a. O., S. 11 ff.; sowie: Bauer, Reinhold: Von Wasserwerfern und Mikrowellen. Über-
Scheitern von Innovationen 307

von gescheiterten Innovationen die Rede sein kann. Den involvierten Zeitgenossen
fällt es naheliegenderweise schwer, das eigene Handeln als erfolglos zu charakteri-
sieren. Eine verbreitete Legitimationsstrategie räumt zwar ein, dass die anfänglich
formulierten Ziele nicht erreicht wurden, betont aber die mit den Fehlschlägen ver-
bundenen Lernfortschritte, welche in andere Bereiche der technischen Entwicklung
transferiert werden könnten.
Die Schwierigkeiten einer „wissenschaftlichen“ Explikation des innovatori-
schen Scheiterns sind nicht geringer. Dies beginnt mit der Interpretation des Inno-
vationsbegriffs, der mehr wissensbezogen, technisch, betriebswirtschaftlich, volks-
wirtschaftlich oder gesellschaftlich gefasst werden kann. An Innovationen sind im-
mer viele Menschen und Gruppen beteiligt, deren Erwartungen an die Innovation
differieren. Erfolg und Scheitern sind schließlich raumzeitliche Phänomene. Das
heißt, gescheiterte Innovationen können in späterer Zeit oder an einem anderen Ort
zu einem Erfolg werden. Und auch erfolgreiche Innovationen durchlaufen häufig
eine Phase, in der man von temporärem Scheitern sprechen könnte. Scheitern – so
könnte man zusammenfassen – ist also ein fragiles Interpretationskonstrukt.
Bei allen diesen Schwierigkeiten einer Bestimmung des Scheiterns kann es
nicht Wunder nehmen, dass genaue quantitative Angaben zur Quote des Scheiterns
nicht möglich sind. Immerhin sind sich die meisten Innovationsforscher einig, dass
die Zahl der gescheiterten Innovationen die der erfolgreichen deutlich übertrifft.
Vielfach wird dabei die Metapher Bernard Réals zitiert: „Der Friedhof gescheiterter
Innovationen ist zum Bersten voll.“7 Andere Autoren nennen Prozentsätze für ge-
scheiterte Innovationen, die sich zwischen 60 und 90 % bewegen und bei denen es
sich nicht übersehen lässt, dass die empirischen Grundlagen für die Zahlenangaben
dürftig sind.8 Allerdings entbehren sie nicht jeglicher Plausibilität. So könnte man
darauf verweisen, dass nur ein sehr kleiner Bruchteil der Patentanmeldungen in
Form von Innovationen realisiert wird.
Jedenfalls gibt es bei den gescheiterten Innovationen einen ausgesprochen
großen – sowohl quantitativen wie qualitativen – Forschungsbedarf. In manchen
Branchen wird das Scheitern von vornherein eingeplant und eingepreist, wie in der
pharmazeutischen Industrie. So schätzt der Geschäftsführer von „Sanofi Deutsch-
land“, dass von 10 000 in der frühen Forschung synthetisierten Molekülen nur ei-
nes letztlich den Markt erreicht.9 Es ist sehr fraglich, ob die zitierten Schätzungen
zu den gescheiterten Innovationen solche Spezifika von Branchen berücksichtigt
haben. Damit ist die Frage nach quantitativen und qualitativen Besonderheiten ein-
zelner Branchen gestellt. Gibt es grundsätzliche Unterschiede zwischen Investiti-

legungen zu einer Typologie innovatorischen Scheiterns. In: Prokla. Zeitschrift für kritische
Sozialwissenschaft, 36 (2016), S. 550 f.
7 Réal, Bernard: La puce et le chomage. Essai sur la relation entre le progrès technique, la crois-
sance et l’emploi. Paris 1990. S. 26.
8 z. B. Braun, a. a. O., S. 215; sowie: Reith, Reinhold: Einleitung. Innovationsforschung und In-
novationskultur. In: Reith, Reinhold u. a. (Hg.): Innovationskultur in historischer und ökonomi-
scher Perspektive. Modelle, Indikatoren und regionale Entwicklungslinien. Innsbruck u. a.
2006. S. 20; Bauer, Scheitern, a. a. O., S. 4.
9 Der Tagesspiegel, 3.8.2015.
308 Wolfgang König

onsgütern, Konsumgütern und Dienstleistungen? Man könnte vermuten, dass das


Phänomen des Scheitern bei Investitionsgütern in geringerem Umfang auftritt als
bei Konsumgütern, weil die Kommunikation zwischen Herstellern und Kunden
ausgeprägter ist. Eine weitere Frage bezieht sich auf die generelle historische Ent-
wicklungstendenz von erfolgreichen und gescheiterten Innovationen. Es liegt nahe,
dass – wenn man sich auf die Nachfrageseite konzentriert – Innovationen es in
Mangelgesellschaften leichter haben als in teilweise saturierten Wohlstandsgesell-
schaften. Dies könnte bedeuten, dass die Quote des Scheiterns mit dem sozioöko-
nomischen Entwicklungsniveau zunimmt.
Inwiefern leistet die Betrachtung gescheiterter Innovationen einen Beitrag zu
einer Theorie des technischen Wandels? Zunächst sind gescheiterte Innovationen
überwältigende Belege dafür, dass es sich bei der technischen Entwicklung um
Auswahlprozesse handelt, bei denen aus dem großen Reich des technisch Mögli-
chen der kleine Bereich des technisch Wirklichen entsteht.10 Die technische Wahl
oder Auswahl erfolgt dabei in allen Stadien des Entwicklungsprozesses: bei der
Erfindungstätigkeit, bei der Ausarbeitung von Erfindungen zur Marktreife, bei der
Vermarktung von Techniken, bei der Aneignung von Techniken durch die Kon-
sumenten usw. Überall auf diesem Weg bleiben technische Innovationen auf der
Strecke und werden auf dem Friedhof gescheiterter Innovationen bestattet.
Eine derart realistische Betrachtung des Innovationsgeschehens führt eine
Reihe technikphilosophischer Konzepte ad absurdum. Hierzu gehört der „technolo-
gische Imperativ“, dem in der einschlägigen Literatur mit der Formulierung wider-
sprochen wird, man solle nicht alles machen, wozu man technisch in der Lage ist.11
Die Forderung suggeriert, dass man in der Vergangenheit alles technisch Mögliche
realisiert hat, eine im Lichte des Scheiterns von Innovationen absurde Behauptung.
Vielfach wird wohl gemeint sein, dass man besser auf bestimmte technische In-
novationen verzichtet hätte oder verzichten würde. Eine solche Position lässt sich
durchaus vertreten und begründen, hat aber mit einem „technologischen Imperativ“
wenig zu tun. Vielmehr geht es darum, frühere technische Wahlentscheidungen kri-
tisch zu betrachten bzw. auf anstehende Einfluss zu nehmen.
Des Weiteren verweisen gescheiterte Innovationen auf den Stellenwert von Ak-
teuren und Strukturen für die technische Entwicklung.12 In der Regel konkurrieren
alternative technische Lösungen und ihre Protagonisten miteinander, wobei manche
erfolgreich sind, andere scheitern. Es fällt aber auch nicht schwer, Fallbeispiele zu

10 Dies wird z. B. in der VDI-Richtlinie 3780 formuliert; vgl. zum Konzept der technologischen
Wahl z. B.: Lemonnier, Pierre (Hg.): Technological Choices. Transformation in Material Cultu-
res Since the Neolithic. London, New York 2002. In Christoph Hubigs Technikphilosophie
besitzt der Begriff der „Möglichkeit“ einen zentralen Stellenwert (Hubig, Christoph: Die Kunst
des Möglichen. Grundlinien einer dialektischen Philosophie der Technik. 2 Bd. Bielefeld
2006–2007).
11 Entsprechende Formulierungen finden sich bei zahlreichen Techniktheoretikern, unter anderem
bei: Jonas, Hans: Das Prinzip Verantwortung. Versuch einer Ethik für die technologische Zivi-
lisation. Frankfurt am Main 1979; vgl. die kritischen Bemerkungen bei: Ropohl, Günter: Allge-
meine Technologie. Eine Systemtheorie der Technik. München, Wien 1999(2). S. 156 u. 287 f.
12 vgl. hierzu König, Technikgeschichte, a. a. O., S. 94–100; sowie: Bauer, Gescheiterte Innovati-
onen, a. a. O., S. 46 f.
Scheitern von Innovationen 309

nennen, bei denen alle oder fast alle Akteure eine technische Innovation verfolgten und
förderten, welche aber letztlich doch scheiterte. Daraus lässt sich schließen, dass die
alleinige Betrachtung von Akteuren zur Erklärung des technischen Geschehens nicht
ausreicht. Es ist vorgeschlagen worden, zusätzlich Strukturen in Anschlag zu brin-
gen, wie der Stand des technischen Wissens und Könnens, die Wirtschaftsverfassung
oder Wertsysteme. Diese Strukturen sind in früheren Zeiten zwar ebenfalls aufgrund
des Handelns von Akteuren entstanden, haben aber mittlerweile festere Institutionali-
sierungen gefunden und wirken gewissermaßen als anonyme soziokulturelle Kräfte.
Während sich das Handeln der Akteure durch die Zeitgenossen noch einigermaßen
erfassen lässt, fällt es schwer, die Wirkungen der anonymen Strukturen zu antizipieren.
Wenn es – wie oben ausgeführt – schwer ist, das Scheitern zu bestimmen, so
muss es erst recht schwer ein, die Gründe für das Scheitern zu benennen. Dessen
ungeachtet, kann man sich bei Fallstudien dieser Aufgabe kaum entziehen und ist
die Chance, zu plausiblen Antworten zu gelangen, am größten. Wesentlich größere
Schwierigkeiten bereiten Generalisierungen im Sinne einer Theorie des Scheiterns.
Bisherige technikgeschichtliche Ansätze leiten aus Fallstudien Gründe für das Schei-
tern ab und fassen sie zu Listen zusammen.13 Dabei bleibt aber die Frage ungeklärt,
welche Relevanz solche Listen besitzen. Erheben sie den Anspruch, tatsächlich die
wichtigsten Gründe für das Scheitern zu benennen, oder lassen sie sich beliebig er-
weitern und verlieren damit an Aussagekraft über die behandelten Fälle hinaus.
Meine These lautet, dass (1) Gründe für das Scheitern von Innovationen nur auf
einer sehr allgemeinen theoretischen Ebene angegeben werden können. Diese sind
dann aber nicht hinreichend, um zu für Einzelfälle relevanten Erklärungen zu gelan-
gen. (2) Auf der anderen Seite lassen sich Erklärungen von Einzelfällen nicht zu einer
Theorie verdichten. Vielmehr sind die Erklärungsmöglichkeiten – wie auch für andere
Bereiche der historischen Entwicklung – grenzenlos. Dies heißt nichts anderes, dass
es für jede Erzählung des Scheiterns von Innovationen Gegenerzählungen gibt, deren
Plausibilität im historischen Diskurs einer Überprüfung unterzogen werden kann.
Zu den mehr auf der theoretischen Ebene angesiedelten Gründen für das Schei-
tern von Innovationen: Diese lassen sich aus innovationstheoretischen Überlegun-
gen deduzieren. Eine Möglichkeit ist bereits angesprochen worden: Man kann das
Scheitern mehr auf der Akteursebene oder mehr auf der Strukturebene ansiedeln.
Letztlich führt die getroffene Vorentscheidung zu unterschiedlichen Erzählungen.
Eine andere Möglichkeit lässt sich aus der gesellschaftlichen Arbeitsteilung ablei-
ten. Gründe für das Scheitern lassen sich eher bei den Produzenten (und eventuell
den Mediatoren) oder mehr bei den Konsumenten finden. So kann man auf der
Produzentenseite auf die Unternehmen, ihre Marktstellung, Organisation, Human-
und sonstigen Ressourcen, verweisen, bei den Konsumenten auf deren Kaufkraft,
Lebensgewohnheiten und Wünsche. Beide Gruppen unterliegen politischen und
rechtlichen Rahmenbedingungen, welche sich fördernd oder hemmend auswirken.
Innovation ließe sich auf diese Weise auch als Kommunikationsprozess zwischen
Produzenten und Konsumenten beschreiben.

13 so Bauer, a. a. O., S. 32–36 u. S. 289–310. Dabei hält es Bauer für möglich, „Muster des Miss-
lingens“ herauszuarbeiten, verneint aber die Möglichkeit einer „Theorie des Scheiterns“
(s. S. 311–318).
310 Wolfgang König

Die hier formulierten relativierenden Bemerkungen über die Möglichkeiten ei-


ner Theorie des innovatorischen Scheiterns implizieren auch eine Skepsis gegenüber
der Suche nach Erfolgs- bzw. Misserfolgsfaktoren, wie sie in der betriebswirtschaft-
lichen Innovationsforschung verbreitet ist.14 Das Problem entsprechender Arbeiten
besteht darin, dass sie von einer Stabilität der Bedingungen ausgehen müssen. Dies
gilt für Zeit, Ort, Branche, Unternehmen, Art der Innovation usw. Diese Stabilität der
Verhältnisse ist aber im Allgemeinen nicht gegeben. Die Formulierung von Erfolgs-
und Misserfolgsfaktoren müsste also eigentlich viel differenzierter erfolgen, als dies
üblicherweise der Fall ist, und ständig an Veränderungen angepasst werden – ganz
zu schweigen vom weiten Spektrum möglicher Perspektiven und Interpretationen.
Die Herausarbeitung von Misserfolgsfaktoren zielt natürlich darauf, aus ge-
scheiterten Innovationen zu lernen. Damit greift man auf einen weit verbreiteten
Topos zurück: „Aus Schaden wird man klug!“, heißt es im Volksmund. Und die
technische und wirtschaftliche Literatur vom späten 19. Jahrhundert bis zur Gegen-
wart durchziehen Aussagen, dass man aus Fehlern und Misserfolgen besser denn aus
Erfolgen lernen könne.15 Bei diesen Postulaten handelt es sich letzten Ende um eine
Variante der Frage, ob man aus der Geschichte lernen könne.16 Allerdings bemüht
sich kaum jemand, die verbreiteten positiven Antworten hinsichtlich der gescheiter-
ten Innovationen zu operationalisieren oder zu plausibilisieren. Dies beginnt schon
bei dem sehr unscharfen Begriff des „Lernens“. „Lernen“ kann hier nämlich (min-
destens) zweierlei heißen.17 (1) Lernen kann heißen, seine Überzeugungen und Vor-
stellungen zu entwickeln. In diesem Sinne lernt man immer und alles aus der persön-
lichen und kollektiven Geschichte, denn eine andere Lerninstanz steht schlicht nicht
zur Verfügung. (2) Lernen kann aber auch meinen, nicht mehr das Falsche, sondern
das Richtige zu tun. In diesem Sinne wären gescheiterte Innovationen das Ergebnis
falscher Handlungen, erfolgreiche Innovationen das Ergebnis richtiger Handlungen.
Ein solches Verständnis von Lernen als Vermeiden falscher Innovationshand-
lungen widerspricht aber zahlreichen der bereits vorgetragenen Überlegungen. So
ist darauf hingewiesen worden, dass Innovationen nicht nur aufgrund von Hand-
lungen scheitern, sondern aufgrund struktureller Gegebenheiten, welche die Zeit-

14 vgl. Staudt, Erich; Kriegesmann, Bernd: Erfolgs- und Mißerfolgsfaktoren von Produktinnova-
tionen. In: Corsten, Hans (Hg.): Handbuch Produktionsmanagement. Strategie – Führung –
Technologie – Schnittstellen. Wiesbaden 1994. S. 131–150.
15 vgl. Gooday, Rewriting, a. a. O., S. 266; sowie: Kuckertz, Andreas u. a.: Gute Fehler, schlechte
Fehler. Wie tolerant ist Deutschland im Umgang mit gescheiterten Unternehmern? Stuttgart
2015. S. 5; sowie: Minx, Eckard; Roehl, Heiko: Organversagen. Warum Organisationen unter-
gehen. In: Organisations-Entwicklung 2014, Nr. 2, S. 49; sowie: John, René; Langhof, Antonia:
Einsichten ins Scheitern als Motor des Erfolgs. In: diess. (Hg.): Scheitern. Ein Desiderat der
Moderne? Wiesbaden 2014. S. 331.
16 vgl. zur Geschichte des Topos „aus der Geschichte lernen“: Koselleck, Reinhart: Historia Ma-
gistra Vitae. In: ders.: Vergangene Zukunft. Zur Semantik geschichtlicher Zeiten. Frankfurt am
Main 1979. S. 38–66.
17 vgl. König, Wolfgang: Ist Rückblick Ausblick? Vom Nutzen der Technikgeschichte für die ak-
tuelle Technikentwicklung. In: Niemann, Harry; Hermann, Armin (Hg.): 100 Jahre LKW. Ge-
schichte und Zukunft des Nutzfahrzeuges. Stuttgart 1997. S. 9–15.; sowie: ders., Technikge-
schichte, a. a. O., S. 216 ff.
Scheitern von Innovationen 311

genossen – und auch die Nachgeborenen – nur bedingt überblicken. Die Ableitung
von Handlungen aus dem komplexen Geflecht von Strukturen würde ein umfassen-
des Wissen über die Strukturen und deren Beziehungen voraussetzen, das es nicht
geben kann. Ein zweites Problem besteht darin, dass die Konstellation des Misslin-
gens sich nicht wiederholt. Eine Innovation scheitert aus bestimmten Gründen, eine
andere Innovation scheitert aus anderen Gründen. Ein Lernen aus dem einen für das
andere Innovationsgeschehen ist deshalb kaum möglich.
Günstiger sind die Bedingungen, wenn innerhalb eines Innovationsgeschehens
gelernt wird, was auf eine Korrektur des Innovationsprozesses hinausläuft. Dabei
ändern sich die meisten Innovationsbedingungen nicht, sondern in der Regel wird
ein Faktor variiert. Auch dabei ist das Ergebnis offen, aber die Auswirkungen der
veränderten Innovationshandlung lassen sich einfacher abschätzen. Darüber hinaus
wäre es eher zu erwarten, dass man aus erfolgreichen Innovationen lernt. Eine er-
folgreiche Innovation stellt ein Muster bereit, welches erneut angewendet werden
kann. Dies ist allerdings nur dann vielversprechend, wenn die Abweichungen von
dem Muster gering sind und sich die Innovationsbedingungen nicht wesentlich ge-
ändert haben, was nur sehr begrenzt der Fall sein wird.
Die spärliche empirische Forschung über gescheiterte Innovationen ist jeden-
falls geeignet, die hier vorgetragenen Zweifel am Lernen aus gescheiterten Innova-
tionen zu bekräftigen. So hält ein Innovationsforscher allgemein den nachweisba-
ren Zusammenhang zwischen Lernen und Erfolg eines Unternehmens für gering.18
Und ein anderer weist darauf hin, dass gescheiterte Unternehmer auch später meist
erfolglos bleiben.19 Viel spricht dafür, dass sich die Gründe für das Scheitern spie-
gelbildlich zu den Gründen für den Erfolg verhalten. Dies heißt, dass sie äußerst
vielfältig sein können. So wenig es eine Blaupause für erfolgreiche Innovationen
gibt, so wenig existiert eine Blaupause für das Scheitern.
Aus gescheiterten Innovationen lernen könnte aber auch meinen, zu einem an-
gemesseneren Umgang mit dem Scheitern zu gelangen. Hierzu gehört, dass man
das Scheitern von Innovationen als unumgängliches Element des Innovationspro-
zesses begreift. Dies bedeutet, dass – jedenfalls gesamtgesellschaftlich gesehen –
erfolgreiche Innovationen ohne gescheiterte nicht zu haben sind. Die Konsequenz
aus dieser Einsicht liegt darin, das Scheitern zu enttabuisieren und zu akzeptieren.
Die Gesellschaft, die Unternehmen und die Innovatoren sollten sich von vornherein
auf das Scheitern einstellen. Hierzu gehört, sich Kriterien und ein Procedere für
den Abbruch von Projekten zu überlegen, die zu scheitern drohen. Bemühungen,
das Scheitern grundsätzlich zu vermeiden, sind zum Scheitern verurteilt. Die Be-
schäftigung mit dem Scheitern mündet also nicht in Fehlerfreiheit, sondern in eine
gesteigerte Reflexivität (mindful organization) beim Umgang mit dem Scheitern.20

18 vgl. Denrell, Jerker; Fang, Christina: Predicting the Next Big Thing. Success as a Signal of
Poor Judgment. In: Management Science 56 (2010), S. 1653–1667.
19 Gompers, Paul u. a.: Performance Persistence in Entrepreneurship. Harvard Business School,
Working Paper 09–028. Cambridge 2008.
20 vgl. z. B. Staudt, Erich; Kriegesmann, Bernd: Erfolgs- und Mißerfolgsfaktoren von Produktin-
novationen. In: Corsten, Hans (Hg.): Handbuch Produktionsmanagement. Strategie – Füh-
rung – Technologie – Schnittstellen. Wiesbaden 1994. S. 137; sowie: Kucklick, Christoph:
312 Wolfgang König

Die Beschäftigung mit gescheiterten Innovationen trägt also vor allem in drei-
erlei Hinsicht zu einer Theorie des technischen Wandels bei:
(1) Gescheiterte Innovationen demonstrieren, dass die technische Entwicklung mit
Auswahlprozessen verbunden ist; bei der Gegenrede des „technologischen Im-
perativs“ handelt es sich um einen abstrusen Mythos.
(2) Das Phänomen der gescheiterten Innovationen stärkt das Konzept, technische
Entwicklung unter Rückgriff auf Akteure und Strukturen zu modellieren.
(3) Die Gründe für das Scheitern sind ebenso vielfältig wie für den Erfolg; zu
Lernprozessen im Sinne erfolgreichen Handelns lässt sich das Scheitern kaum
verarbeiten.

Schluss mit dem Scheitern! In: Zeit-Magazin, 27.1.2014, S. 14–22; sowie: Stechhammer, Bri-
gitte: Unternehmen brauchen eine Kultur des Scheiterns. In: Pechlaner, Harald u. a. (Hg.):
Scheitern. Die Schattenseite unternehmerischen Handelns. Die Chance zur Selbsterneuerung.
Berlin 2010. S. 194 ff.
Scheitern von Innovationen 313

LITERATUR

Bauer, Reinhold: Failed Innovations. Five Decades of Failure. In: ICON. Journal of the International
Committee for the History of Technology, 20 (2014), S. 33–40.
ders.: Gescheiterte Innovationen. Fehlschläge und technologischer Wandel. Frankfurt, New York
2006.
ders.: Scheitern als Chance. Historische Fehlschlagforschung. In: Die Produktivität des Scheiterns.
Dokumentation des 11. Innovationsforums der Daimler und Benz Stiftung. Berlin 2014.
S. 4–11.
ders.: Von Wasserwerfern und Mikrowellen. Überlegungen zu einer Typologie innovatorischen
Scheiterns. In: Prokla. Zeitschrift für kritische Sozialwissenschaft, 36 (2016), S. 549–562.
Braun, Hans-Joachim (Hg.): Failed Innovations (Social Studies of Science 22,2). London, New
Delhi 1992.
Brodbeck, Karl-Heinz: Scheitern. Eine Kritik an der traditionellen Ökonomie. In: Pechlahner, Ha-
rald u. a. (Hg.): Scheitern. Die Schattenseite unternehmerischen Handelns. Die Chance zur
Selbsterneuerung. Berlin 2010. S. 51–70.
Denrell, Jerker; Fang, Christina: Predicting the Next Big Thing. Success as a Signal of Poor Judg-
ment. In: Management Science 56 (2010), S. 1653–1667.
Gompers, Paul u. a.: Performance Persistence in Entrepreneurship. Harvard Business School, Wor-
king Paper 09–028. Cambridge 2008.
Gooday, Graeme: Rewriting the ‘Book of Blots’. Critical Reflections on Histories of Technological
‘Failure’. In: History and Technology, 14 (1998), S. 265–291.
Hubig, Christoph: Die Kunst des Möglichen. Grundlinien einer dialektischen Philosophie der Tech-
nik. 2 Bd. Bielefeld 2006–2007.
Huisinga, Richard: Theorien und gesellschaftliche Praxis technischer Entwicklung. Soziale Ver-
schränkungen in modernen Technisierungsprozessen. Amsterdam 1996.
John, René; Langhof, Antonia: Einsichten ins Scheitern als Motor des Erfolgs. In: diess. (Hg.):
Scheitern. Ein Desiderat der Moderne? Wiesbaden 2014. S. 323–338.
Jonas, Hans: Das Prinzip Verantwortung. Versuch einer Ethik für die technologische Zivilisation.
Frankfurt am Main 1979.
König, Wolfgang: Ist Rückblick Ausblick? Vom Nutzen der Technikgeschichte für die aktuelle Tech-
nikentwicklung. In: Niemann, Harry; Hermann, Armin (Hg.): 100 Jahre LKW. Geschichte und
Zukunft des Nutzfahrzeuges. Stuttgart 1997. S. 9–15.
ders.: Technikgeschichte. Eine Einführung in ihre Konzepte und Forschungsergebnisse. Stuttgart
2009.
Koselleck, Reinhart: Historia Magistra Vitae. In: ders.: Vergangene Zukunft. Zur Semantik ge-
schichtlicher Zeiten. Frankfurt am Main 1979. S. 38–66.
Kuckertz, Andreas u. a.: Gute Fehler, schlechte Fehler. Wie tolerant ist Deutschland im Umgang mit
gescheiterten Unternehmern? Stuttgart 2015.
Kucklick, Christoph: Schluss mit dem Scheitern! In: Zeit-Magazin, 27.1.2014, S. 14–22.
Lemonnier, Pierre (Hg.): Technological Choices. Transformation in Material Cultures Since the
Neolithic. London, New York 2002 (zuerst 1993).
Minx, Eckard; Roehl, Heiko: Organversagen. Warum Organisationen untergehen. In: Organisations-
Entwicklung 2014, Nr. 2, S. 49–51.
Réal, Bernard: La puce et le chomage. Essai sur la relation entre le progrès technique, la croissance
et l’emploi. Paris 1990.
Reith, Reinhold: Einleitung. Innovationsforschung und Innovationskultur. In: Reith, Reinhold u. a.
(Hg.): Innovationskultur in historischer und ökonomischer Perspektive. Modelle, Indikatoren
und regionale Entwicklungslinien. Innsbruck u. a. 2006. S. 11–20.
Ropohl, Günter: Allgemeine Technologie. Eine Systemtheorie der Technik. München, Wien 1999(2).
Schumpeter, Joseph: Konjunkturzyklen. Eine theoretische, historische und statistische Analyse des
kapitalistischen Prozesses. 2 Bd. Göttingen 1961 (zuerst 1939).
314 Wolfgang König

Staudt, Erich; Kriegesmann, Bernd: Erfolgs- und Mißerfolgsfaktoren von Produktinnovationen. In:
Corsten, Hans (Hg.): Handbuch Produktionsmanagement. Strategie – Führung – Technologie –
Schnittstellen. Wiesbaden 1994. S. 131–150.
Stechhammer, Brigitte: Unternehmen brauchen eine Kultur des Scheiterns. In: Pechlaner, Harald
u. a. (Hg.): Scheitern. Die Schattenseite unternehmerischen Handelns. Die Chance zur Selbst-
erneuerung. Berlin 2010. S. 193–206.
Verein Deutscher Ingenieure: VDI 3780: Technikbewertung. Begriffe und Grundlagen. Düssel-
dorf 1991.
VI. PROF. DR. PHIL. HABIL. DIPL.-PHYS. KLAUS KORNWACHS –
ZUR PERSON

LEBENSDATEN

12.2.1947 in Engen, Kreis Konstanz, geboren.


1966 bis 1973 Studium der Mathematik, Physik und Philosophie an den Universi-
täten Tübingen, Freiburg und Kaiserslautern.
Diplom in Physik zu einem Thema in der Molekülspektroskopie.
1975 war er Visiting Fellow an der University of Massachussetts in Amherst, USA.
1976 Promotion zum Dr. phil mit einem Thema zur analytischen Sprachphilosophie.
1977 bis 1978 wissenschaftlicher Mitarbeiter am Institut für Grenzgebiete der Psy-
chologie in Freiburg.
1979 bis 1981 wissenschaftlicher Mitarbeiter beim Fraunhofer-Institut für Produk-
tionstechnik und Automatisierung (IPA), Stuttgart.
1982 bis 1992 wissenschaftlicher Mitarbeiter am Fraunhofer-Institut für Arbeits-
wirtschaft und Organisation (IAO), Stuttgart, zuletzt als Leiter der Abteilung für
Qualifikationsforschung und Technikfolgenabschätzung.
1974 bis 1987 Lehraufträge für Kybernetik, Simulationstechnik, Modellbildung,
seit 1983 auch für Philosophie an den Universitäten Freiburg, Stuttgart und Ulm.
1987 habilitierte Klaus Kornwachs an der Universität Stuttgart für das Fach Philo-
sophie über den Zusammenhang von Information und offenen Systemen.
1988 Gründung der Deutschen Gesellschaft für Systemforschung e. V.
1990 Honorarprofessor für Philosophie am Humboldt-Zentrum der Universität
Ulm ernannt.
1991 SEL-Forschungspreis „Technische Kommunikation“ der SEL-Stiftung.
1992 bis 2011 Lehrstuhlinhaber für das Fach „Technikphilosophie“ an der Bran-
denburgischen Technischen Universität Cottbus.
1997 bis 1998 dort Direktor des Zentrums für Technik und Gesellschaft.
2006 Gründung der Bachelor- und Masterstudiengänge „Kultur und Technik“.
2001 bis 2009 Leitung des Bereiches „Gesellschaft und Technik“ des Vereins der
Deutschen Ingenieure (VDI)
316 Klaus Kornwachs – zur Person

2012 Fellow am Internationalen Zentrum für Kultur- und Technikforschung der


Universität Stuttgart.
2013 Vortragsreise durch China, Gastprofessur an der TU Dalian.
2013 Ernennung zum Honorary Professor am China Intelligent Urbanization Co-
Creation Center for High Density Region, Department for Architecture and Urban
Planning, Tongji University, Shanghai.

Weiterhin lehrt Klaus Kornwachs an der Universität Ulm und ist nach der Grün-
dung seines „Büros für Kultur und Technik“ vorwiegend publizistisch und beratend
tätig, auch im Ausland. Er ist Herausgeber und Autor zahlreicher Fachbücher und
Veröffentlichungen und gefragter Ansprechpartner für Medien, Gesprächsrunden
und Vorträge. Gastprofessuren führten ihn an die Technische Universität Wien, die
Budapest University for Technology and Economy sowie an die Dalian University
for Technology, China. Er ist ordentliches Mitglied der Deutschen Akademie für
Technikwissenschaften (acatech München, Berlin) und weiterer wissenschaftlicher
Vereinigungen.

ARBEITSGEBIETE

Praktische Philosophie: Arbeit, Technik, Natur, Werte in Kultur und Technik, Den-
ken in nicht europäische Kulturen.
Bewertungen von Technikentwicklungen und -trends sowie Innovations- und Pro-
jektbewertung – Information, Technik, Organisation, Innovation, Akzeptanz.
Analytische Philosophie: Wissenschaftstheorie der Technikwissenschaften, Logik.

KOMITEES UND GREMIEN

Vorsitzender des Themennetzwerks „Technikwissenschaften und Innovation“ der


Deutschen Akademie für Technikwissenschaften (acatech München, Berlin), 2006,
Leiter des Themennetzwerks „Grundfragen der Technikwissenschaften“, 2007 bis
2012, und aktuell Mitglied zahlreicher Projektgruppen.
Vorsitzender der Jury „Punkt“ – Preis für Technikjournalismus der Deutschen Aka-
demie für Technikwissenschaften, acatech (2004 bis 2016).
Vorsitzender des Bereichs „Mensch und Technik“ im VDI (seit Januar 2003, ab
Januar 2004 „Gesellschaft und Technik“, bis Januar 2009).
Enquête-Kommission des Deutschen Bundestages für Technikfolgenabschätzung
und Bewertung, beratendes Mitglied (1987 bis 1989).
Mitglied des wissenschaftlich-technischen Rates der Fraunhofer-Gesellschaft
(1980–1989) und seiner Hauptkommission (1986 bis 1989).
Klaus Kornwachs – zur Person 317

WISSENSCHAFTLICHE GESELLSCHAFTEN

Ordentliches Mitglied der Deutschen Akademie für Technikwissenschaften (acatech).


Gründer und Vorsitzender der Deutschen Gesellschaft für Systemforschung (1988
bis 2002).
Ordentliches Mitglied des Humboldt-Zentrums für Geisteswissenschaften der Uni-
versität Ulm (seit 1990).
Mitglied der Deutschen Physikalischen Gesellschaft.
Mitglied der Allgemeinen Gesellschaft für Philosophie in Deutschland.
Außerordentliches Mitglied der Frege-Gesellschaft, Jena.
Mitglied der Deutsch-Japanischen Gesellschaft für integrative Wissenschaft, Mün-
chen, Tokyo.

BEIRÄTE

Mitglied des Beirats „Junges Forum Technik Technikwissenschaften (JF:TEC)“,


Helmut-Schmidt-Universität der Bundeswehr, Hamburg (seit 2016).
Mitglied des Scientific Council of Bertalanffy Center for the Study of System Sci-
ence (BCSSS), Wien (seit 2006).
Mitglied des Beirats des Instituts für transkulturelle Gesundheitswissenschaften,
Viadriana Universität Frankfurt an der Oder (seit 2011).
Mitglied des Beirats Projekt „Rakoon“ (Fortschritt durch aktive Kollaboration in
offenen Organisationen, BMBF, DLR) TU München-Garching (2014).
Mitglied des Beirats „Smart Grids Baden Württemberg e. V., Stuttgart“ (seit 2014).

HERAUSGEBERTÄTIGKEIT UND EDITORIAL BOARDS

Herausgeber der Reihe „Technikphilosophie“ im Lit-Verlag, Münster


Editorial Board of Cognitive Systems
Editorial Board of International Journal for General Systems
Editorial Board of Intern. Book Series on System Science and Engineering, Kluwer
Acad. / Plenum Press, New York
wissenschaftlicher Beirat der Zeitschrift „Poiesis und Praxis“ bis 2012 (Europäi-
sche Akademie für Technikfolgenabschätzung, Bad Neuenahr)
318 Klaus Kornwachs – zur Person

BUCHVERÖFFENTLICHUNGEN (AUSWAHL)

Monographien

Kornwachs, Klaus: Staub und Hoffnung. José Majer – ein Leben für den Gran
Chaco. Münster, London 2017.
ders.: Arbeit – Identität – Netz. Berlin 2017.
ders.: Philosophie für Ingenieure. München 2014, 2015(2).
ders.: Einführung in die Philosophie der Technik. München 2013.
ders.: Strukturen technologischen Wissens. Analytische Studien zur einer Wissen-
schaftstheorie der Technik. Berlin 2012.
Tschinag, Galsan; Kornwachs, Klaus; Kaluza, Maria: Der singende Fels. Schama-
nentum, Heilkunde, Wissenschaft. Zürich 2009, 2010(2).
Kornwachs, Klaus: Zuviel des Guten – von Boni und falschen Belohnungssyste-
men. Frankfurt am Main 2009.
Berndes, Stefan; Kornwachs, Klaus; Lünstroth, Uwe: Software-Entwicklung – Er-
fahrung und Innovation. Ein Blick auf demographische Veränderungen. Heidelberg
2002.
Kornwachs, Klaus: Logik der Zeit – Zeit der Logik. Münster, London 2001.
ders.: Das Prinzip der Bedingungserhaltung – eine ethische Studie. Münster 2000.
ders.: Kommunikation und Information. Zur menschengerechten Gestaltung von
Technik. Berlin 1993.
Bullinger, Hans-Jörg; Kornwachs, Klaus: Expertensysteme im Produktionsbe-
trieb – Anwendungen und Auswirkungen. München, 1990.

Herausgeberschaften

Kornwachs, Klaus (Hg.): Technisches Wissen: Entstehung – Methoden – Struktu-


ren. Springer, Berlin Heidelberg 2013.
ders. (Hg.): Bedingungen und Triebkräfte technologischer Innovationen. Beiträge
aus Wissenschaft und Wirtschaft. Berlin, München, Stuttgart 2007.
Kornwachs, Klaus; Hronszky, Imre (Hg.): Shaping better Technologies. Münster,
London 2006.
Kornwachs, Klaus (Hg.): Technik – System – Verantwortung. 2. Cottbuser Konfe-
renz zur Technikphilosophie. Münster, London 2004.
ders. (Hg.): Reihe Technikphilosophie. Münster, London 2000 ff., bisher 24 Bände.
Klaus Kornwachs – zur Person 319

Kornwachs, Klaus; Jacoby, Konstantin (Hg.): Information – New Questions to a


Multidisciplinary Concept. Berlin 1996.
Kornwachs, Klaus (Hg.): Technikfolgenabschätzung – Reichweite und Potential.
Ein Symposium im Amerika-Haus. Stuttgart 1991.
Shakel, Brian; Bullinger, Hans-Jörg (Hg.); Kornwachs, Klaus (ass. Hg.): Human-
Computer-Interaction. Proceedings of the 2nd Human Computer Interaction Confe-
rence Interact ’87, Universität Stuttgart. North-Holland, Amsterdam, New York 1987.
Gerstenfeld, Arthur; Bullinger, Hans-Jörg; Warnecke, Hans-Jürgen (Hg.), Korn-
wachs, Klaus (ass. Hg.): Manufacturing Research: Organizational and Institutio-
nal Issues. Proceedings of the Conference on Manufacturing Research, Universität
Stuttgart 1985. Amsterdam, Tokyo 1986.
Bullinger, Hans-Jörg; Warnecke, Hans-Jürgen (Hg.); Kornwachs, Klaus (ass. Hg.):
Toward the Factory of the Future. Proceedings of the 8th International Conference
on Production Research, Stuttgart 1985. Berlin u. a. 1985.
Kornwachs, Klaus (Hg.): Offenheit – Zeitlichkeit – Komplexität. Zur Theorie der
Offenen Systeme. Frankfurt am Main, New York 1984.
VII. EINE NICHT NUR PHILOSOPHISCHE ANNÄHERUNG
In der zweiten Hälfte der achtziger Jahre konnten Philosophiestudenten an der Uni-
versität Stuttgart die Angebote eines neuen Dozenten belegen. Der Mann hieß Klaus
Kornwachs, er hielt zum Beispiel Vorlesungen zur „Philosophie der Arbeit“, und am
12. Februar 1988, nach erfolgreichem Habilitationsverfahren, an seinem 41. Geburts-
tag, seine Antrittsvorlesung. Das Thema lautete: „Zur Automatisierung der Wahrheit.“
Der Philosoph, Physiker und Mathematiker Kornwachs bezog sich dabei auf Georg
Büchners Theaterstück „Leonce und Lena“, und wer es bis dahin noch nicht geahnt
hatte, dem durfte an dem Abend klar geworden sein: Da reist jemand mit großem Ge-
päck, in dem es nicht „nur“ Platz gab für die analytische Philosophie, für Systemtheorie
und Bezugnahme auf die Naturwissenschaften. Da war einem Mann zu lauschen, der
eine Liebe zur Literatur und zum Theater hegte und pflegte, der als Regisseur Sartre
auf die Bühne gebracht, der für den Hörfunk gearbeitet hatte und mit Film umzugehen
wusste – all das gereicht der Inszenierung von Vorträgen und Vorlesungen nicht zum
Nachteil. Da war einem Mann zu lauschen, der sich jung zu entscheiden hatte zwischen
einer Musikerlaufbahn oder einer in der Wissenschaft – die Rolle der Musikalität in der
Theoriebildung wäre wohl auch ein lohnender Untersuchungsgegenstand.
Wer zu schillern weiß, der muss damit rechnen, dass er in der deutschen aka-
demischen Welt, der akademischen Philosophie zumal, irritiert. Aber war das nicht
einmal eine Tugend der Philosophen? Klaus Kornwachs ließ es sich jedenfalls
schon damals nicht nehmen, seine Themen zu besetzen, in und außerhalb der Phi-
losophie – und so hält er es weiterhin.
Der Mann ist angenehm katholisch, was keinesfalls dem Humor schadet, ein
Menschenfreund, alte Tugendhaftigkeit in modernem Auftritt – was 68ern alles
möglich ist: Da geht Katholizismus mit Jazz, Klassik mit Schamanismus, Gesell-
schaftskritik im A-capella-Gesang …
Eine Schule hat er nicht begründet – warum auch? Ein freier Geist braucht
keine Jünger, er schätzt den Widerspruch. Klaus Kornwachs genießt den Wider-
spruch, den Wettstreit der Argumente, darauf können sich seine Studenten und Kol-
legen stets verlassen.
Reisen führen ihn immer wieder durch Europa, nach Nord- und Südamerika,
nach China, berufsgemäß in Hörsäle und Bibliotheken, der unbändigen Erkenntnis-
lust und freudigen Neugier folgend aber auch in Tangobars, zu Candomblé-Riten
und ums Kap Horn – kurzum: ins Freie … Da geht einer mit einem gewissen Gott-
vertrauen durch die Welt und durchs Leben, was einem bekanntermaßen vor Prü-
fungen nicht feit, aber sie womöglich gelassener auf sich nehmen lässt.
Die eine und andere „Prüfung“ legt das Zusammenstellen einer Festschrift ih-
rem Herausgeber auf … Wie kam ich überhaupt zu dieser Ehre, und warum un-
ternahm ich solch ein altmodisches Unterfangen? Diese Fragen seien mit einer
kleinen Geschichte beantwortet. Blenden wir rund 30 Jahre zurück, der Spielort
ist die Universität Stuttgart. Dort hatte ich, nach gründlich-gebührlich langer Zeit,
322 Eine nicht nur philosophische Annäherung

alle Scheine für den Magister in Philosophie zusammengetragen. Der kluge Mann
schaut nach vorn, den Taxischein hatte ich bereits, aber vielleicht ließ sich der Ein-
stieg in diesen ehrenwerten Beruf noch ein Weilchen herauszögern durch eine Pro-
motion –? Ob es irgendeine Chance gäbe, als Doktorand unterzukommen?, fragte
ich am kleinen philosophischen Institut. Zur Antwort bekam ich, es gäbe da einen
neuen, einen jungen Dozenten, der sich habilitiere und dann das Promotionsrecht
hätte, den könne ich mir ja einmal anschauen.
Das tat ich, ich besuchte den Auftakt einer Vorlesung dieses Dozenten, eine
Vorlesung zur „Philosophie der Arbeit“, ein so spannendes wie mit Geduld zu be-
arbeitendes Thema … Am Ende der Sitzung trat ich vor das Rednerpult und fragte,
ob der Dozent irgendwann einmal in diesem Semester eine Sprechstunde halte.
Worum es denn gehe? Ich habe gehört, er habilitiere sich, ich hingegen versuchte
mich gern an einer Promotion und sei auf der Suche nach einem Betreuer. Wenn
es eine Sprechstunde gäbe, dann sofort, ließ der energische Dozent mich wissen
und schleppte mich in sein nahegelegenes Büro. Dort examinierte er mich zwei,
drei Stunden lang strengstens. Bis heute weiß ich nicht recht, was ihn am Ende
überzeugt hat, es mit mir zu versuchen, womöglich konnte ich mit einem wenige
Wochen zuvor geführten Interview mit Karl Popper punkten. Jedenfalls hatte ich,
noch vor dem Magisterabschluss, auf einmal einen Doktorvater.
Der versammelte alsbald einen Club um sich, Magisterkandidaten, Doktoranden,
Habilitanden, in seinem Oberseminar, das anfänglich wöchentlich, später dann in
Blockveranstaltungen abgehalten wurde, an hin und wieder skurrilen Orten: Bauern-
höfen, Hütten, Berggasthöfen, zum Beispiel in Laufweite zu Heideggers Hütte. Diese
Blockseminare waren nicht nur „bootcamps“ für hoffnungsfrohe oder manchmal me-
lancholische Philosophiejünger, sie waren intensiv in jeder Hinsicht. Man erging sich
in den hitzigsten Diskussionen, wetzte die Argumentationsmesser aufs Schärfste und
wurde, wenn man es noch nicht war, mit etwas gutem Willen trinkfest.
Wer einmal in diesem Club war, der gab die Mitgliedschaft nicht auf, sie hatte
was, sie gab uns etwas, sie machte was mit uns, sie veränderte, formte uns, brachte uns
voran. Irgendwann wurde uns klar, dass wir nicht in einem üblichen Seminar saßen, in
dem ein Dozent Philosophie vermittelte, philosophische Theorien verwaltete, nein, da
war jemand, der Philosophie lebte, kein Selbstverberger, sondern ein Selbstdenker, der
sich zeigte, nicht in intellektuellem Schick, nicht in Feuilleton-tauglicher Grandezza,
aber durchaus schillernd, wildes Denken mit analytischer Präzision verknüpfend,
nahbar, als Mensch, als Denker, als leidenschaftlicher Sucher nach der Widerlegung
der eigenen Vorurteile, kurzum: Wir hatten es zu tun mit einem Philosophen, einem
Mann, der sucht, mit Haltung. Und das noch Erstaunlichere für uns war: Eine philoso-
phische Haltung musste nicht in steife Ehrwürdigkeit verpackt werden, sondern durfte
in heiter-lässiger Eleganz, mit Ironie und Selbstironie unter die Leute treten.
Festschriften mögen altmodisch sein, manch Philosophie auch, Philosophen
sind es nicht. Klaus Kornwachs ist ein Philosoph im sokratischen Alter von 70 Jah-
ren; eine Apologie wird auch nach dem, was noch von ihm zu erwarten ist – das
Hauptwerk, so wird gemunkelt, harrt des Schlusspunktes –, nicht vorzutragen sein,
es sei denn, einer müsste sich rechtfertigen dafür, etwas zu sagen zu haben …
Volker Friedrich
VIII. ÜBER DIE AUTOREN
Prof. Dr. Dr.-Ing. Christian Berg ist Physiker, Philosoph und Theologe. Er arbeitet
und lehrt zu Fragen der Nachhaltigkeit und dem Schnittfeld von Technik und Ge-
sellschaft an den Universitäten Kiel, Clausthal und Saarbrücken.

Prof. Dr. Dr. Thomas Bschleipfer ist Chefarzt der Klinik für Urologie, Andrologie
und Kinderurologie am Klinikum Weiden der Kliniken Nordoberpfalz. In der Phi-
losophie befasst er sich vornehmlich mit medizinethischen Fragen.

Prof. Dr.-Ing. Hans-Jörg Bullinger, Maschinenbau-Ingenieur, leitete das Fraun-


hofer-Instituts für Arbeitswirtschaft und Organisation (IAO) und in der Folge bis
2012 als ihr Präsident die Fraunhofer Gesellschaft. Zudem wirkte er als Professor
für Arbeitswissenschaft und Technologie-Management an der Universität Stuttgart.
Sein Ko-Autor, der Diplom-Ökonom Rainer Nägele, ist am Fraunhofer-Institut für
Arbeitswirtschaft und Organisation (IAO) tätig.

Prof. Dr. Mario Bunge, 1919 in Buenos Aires geboren, Physiker und Philosoph, war
Professor für theoretische Physik in Argentinien, später Professor für Logik und
Metaphysik in Montreal. Von den über 50 Büchern des Wissenschaftstheoretikers
wurde bislang nur ein kleiner Teil ins Deutsche übersetzt.

Dr. Klaus Erlach, Philosoph und Maschinenbau-Ingenieur, arbeitet am Fraunho-


fer-Institut für Produktionstechnik und Automatisierung (IPA). Zudem lehrt er an
Hochschulen und ist Redakteur des Journals „Der blaue Reiter“.

Prof. Dr. Ernst Peter Fischer ist Mathematiker, Physiker, Biologe und Wissen-
schaftshistoriker. Er lehrt Wissenschaftsgeschichte an der Universität Heidelberg
und hat als Publizist zahlreiche Bücher und Artikel verfasst.

Prof. Dr. Volker Friedrich, gelernter Redakteur, hat Philosophie, Germanist und
Politikwissenschaften studiert. Er lehrt Schreiben und Rhetorik an der Hochschule
Konstanz und gibt das E-Journals „Sprache für die Form“ heraus.

Dr. Walter Glöckle ist Ministerialrat und Leiter des Referats „Allgemeine Angele-
genheiten der Kernenergieüberwachung“ im Ministerium für Umwelt, Klima und
Energiewirtschaft Baden-Württemberg.

Prof. Dr. Steffen W. Groß, habilitierter Philosoph, lehrt Volkswirtschaftslehre, ins-


besondere Mikroökonomik an der Brandenburgischen Technischen Universität
Cottbus.
324 Über die Autoren

Prof. Dr. Armin Grunwald, Physiker und Philosoph, leitet das Institut für Technik-
folgenabschätzung und Systemanalyse (ITAS) in Karlsruhe, zudem das Büro für
Technikfolgen-Abschätzung beim Deutschen Bundestag (TAB).

Prof. Dr. Wolfgang Hofkirchner, Politikwissenschafter und Psychologe, lehrt Tech-


nikfolgenabschätzung am Institut für Gestaltungs- und Wirkungsforschung der
Technischen Universität Wien.

Prof. Dr. Imre Hronszky, Chemiker und Philosoph, lehrte an Budapester Universität
für Technik und Wirtschaft, publiziert u. a. über die Geschichte der Chemie, über
Wissenschafts- und Technikphilosophie und Fragen der Innovation.

Harald Kirchner, M. A. arbeitete als Reporter und Redakteur für die Fernsehnach-
richten des Südwestrundfunks mit dem Schwerpunkt „Politik“. Seit Frühjahr 2017
Leiter der Redaktion „Eisenbahn-Romantik“ beim SWR.

Prof. Dr. Wolfgang König lehrte Technikgeschichte an der Technischen Universi-


tät Berlin. Er ist Mitglied der „acatech“ (Deutschen Akademie der Technikwissen-
schaften). Spezialgebiete: Geschichte und Theorie der Technik und der Technik-
wissenschaften.

Dr. Dr. Walter von Lucadou, Physiker und Psychologe, leitet die „Parapsychologi-
sche Beratungsstelle“ in Freiburg und gibt die „Zeitschrift für Parapsychologie und
Grenzgebiete der Psychologie“ und „Cognitive Systems“ mit heraus.

Prof. Dr. Klaus Mainzer lehrte Philosophie und Wissenschaftstheorie an der Tech-
nischen Universität München, war Gründungsdirektor des Munich Center for Tech-
nology in Society (MCTS). Er forscht u. a. über mathematische Grundlagen, Kom-
plexitäts- und Chaostheorie.

Prof. Dr. Carl Mitcham lehrt „Humanities, Arts, and Social Sciences“ an der „Co-
lorado School of Mines“. Derzeit ist er auch Professor für Technikphilosophie an
der Renmin Universität in China. Er ist Herausgeber der „Encyclopedia of Science,
Technology, and Ethics“.

Prof. Dr. Heinz-Ulrich Nennen lehrt Philosophie am KIT (Universität Karlsruhe)


und betreibt die „Philosophische Ambulanz Münster“. Seine Arbeitsschwer-
punkte liegen auf Philosophie und Psychologie, Mythen, Anthropologie und Dis-
kursanalysen.

Prof. Dr. Peter Jan Pahl lehrte theoretische Methoden der Bau- und Verkehrstech-
nik an der Technischen Universität Berlin, wo er das Fachgebiet „Bauinformatik“
aufbaute. Zudem war er als Prüfingenieur für Baustatik im Land Berlin tätig.
Über die Autoren 325

Prof. Dr. Hans Poser, Mathematiker, Physiker, Philosoph, lehrte Philosophie an der
Technischen Universität Berlin und war Präsident der Allgemeinen Gesellschaft
für Philosophie in Deutschland. Schwerpunkte u. a.: Leibniz, Technikphilosophie,
Wissenschaftstheorie.

Dr. Stefan Poser lehrt als Technikhistoriker an der Helmut-Schmidt-Universität in


Hamburg. Schwerpunkte: die gesellschaftliche Bewältigung technischer Risiken;
Spiel und Technik.

Prof. Dr. Dr. Franz Josef Radermacher steht dem Forschungsinstitut für anwen-
dungsorientierte Wissensverarbeitung/n (FAW/n) vor und ist Professor für Daten-
banken und künstliche Intelligenz an der Universität Ulm.

Prof. Dr. Ortwin Renn, Soziologe und Volkswirt, ist wissenschaftlicher Direktor des
Potsdamer Institute for Advanced Sustainability Studies (IASS). Arbeitsschwer-
punkte u. a.: Risikogesellschaft, Nachhaltigkeit.

Welf Schröter leitet das „Forum Soziale Technikgestaltung“ beim Deutschen Ge-
werkschaftsbund, Bezirk Baden-Württemberg, moderiert den Blog „Zukunft der
Arbeit“ der IG Metall und ist Geschäftsführer des Talheimer Verlages.

Prof. Dr. Francesca Vidal ist wissenschaftliche Leiterin des Schwerpunktes „Rhe-
torik“ an der Universität Koblenz-Landau, Mitherausgeberin des „Jahrbuches der
Rhetorik“ und Präsidentin der Ernst-Bloch-Gesellschaft.

Prof. Dr. Klaus Wiegerling, Philosoph, Komparatist und Volkskundler, arbeitet am


Institut für Technikfolgenabschätzung und Systemanalyse (ITAS) in Karlsruhe und
lehrt an der Technischen Universität Kaiserslautern.

Prof. Dr. Walther Ch. Zimmerli hatte mehrere Philosophie-Lehrstühle inne, wirkte
als Rektor der Universitäten Witten/Herdecke und Cottbus und ist nunmehr Senior-
Fellow am „Collegium Helveticum“, das von der ETH Zürich, der Universität Zü-
rich und der Zürcher Hochschule der Künste getragen wird.
Technischer Wandel in hoher Geschwin- widmen sich die Autorinnen und Auto-
digkeit kennzeichnet unsere Zeit. Die- ren in ihren Essays der Philosophie der
ser Wandel wirft grundsätzliche Fragen Technik, der Technikfolgenabschätzung
auf: Können wir begreifen, was wir tun? sowie der Ethik, Sprache und Kultur der
Können wir abschätzen, was wir tun? Technik. Neben Philosophen kommen
Können wir wollen, was wir tun? Kön- auch Vertreter der Soziologie, Medizin,
nen wir sagen, was wir tun? Können wir Technik- und Wirtschaftsgeschichte, Psy-
leben, was wir tun? chologie, Physik, Theologie, Ingenieurs-
wissenschaft, Ökonomie, Politologie und
Mit Fragen wie diesen hat sich der Phi- Rhetorik zu Wort. So entsteht – ganz
losoph Klaus Kornwachs immer wie- im Sinne Klaus Kornwachs’ – ein breites
der auseinandergesetzt. Ihm zu Ehren Spektrum von Ein- und Ansichten.

www.steiner-verlag.de

Franz Steiner Verlag

ISBN 978-3-515-12039-5

9 7835 1 5 1 20395

Das könnte Ihnen auch gefallen