Ethik in der Informatik

Was darf die Informatik?

- Sozialorientierung durch Risikominimierung -

Hermann H. Rampacher, Gesellschaft für Informatik e.V. (GI), Bonn

Vortrag im Informatik-Kolloquium der Technischen Universität München 28. Januar 1997


Zusammenfassung

Die Physik ist die Grundlagenwissenschaft der Natur und der Technik, die Ethik die Grundlagenwissenschaft der Gesellschaft. Physik wird konstituiert durch das Kausalprinzip, Ethik durch das finale Prinzip der Minimierung ethischer Risiken; ethische Risiken sind vom menschlichen Verhalten abhängige überlebensrisiken für Gemeinwesen, Gemeinwesen sich selbst in Raum und Zeit organisierende Sozialsysteme. Wenn Gemeinwesen ihre ethischen Risiken morgen besser begrenzen als heute, seien sie vernünftig: ihre Vernunft wird so messbar. Jedem ethischen Risiko ist eine ethische Norm zugeordnet: Befolgen alle die ethische Norm, wird das zugehörige Risiko (linear) minimiert; je größer ein ethischer Risikofaktor, desto größer die Wertigkeit der zugehörigen ethischen Norm. Befolgen nicht alle Personen alle im Gemeinwesen erklärten ethischen Normen, entstehen Normenkonflikte als nichtlineare Effekte. Je höher die Wertigkeiten involvierter Normen, desto schwerer die Konflikte. Sie lassen sich lösen, indem man bei deren Entschärfung niederwertigere Normen zu Lasten höherwertiger ethischer Normen erfüllt. Je kleiner die Wertigkeiten ethischer Normen sind, die in einem Gemeinwesen nicht mehr befolgt werden, desto gerechter sei dieses: Auch Gerechtigkeit wird messbar. Ethik begründet die gesellschaftliche, insbesondere die aus der Gesamtheit überlieferter moralischer Normen bestehende moralische Praxis, die Praxis freiwilligen vertrauensvollen Zusammenlebens. Physik bewährt sich durch optimale Erreichung technischer Zwecke, Ethik durch Minimierung ethischer Risiken; dies lässt sich durch fortlaufende Beobachtung oder nachträgliche historische Analyse nachweisen. Ein Ethik-Forschungsprogramm muss ethische Risiken, ethische Normen und ihre Wertigkeiten, die vom wissenschaftlich-technischen Können eines Gemeinwesens abhängen, sowie dessen Gerechtigkeit und Vernunft regelmäßig bestimmen. Ethische Risiken, die vom Können der Informatiker und Informatikerinnen abhängen, müssen von diesen minimiert werden. Geboten ist in der Informatik, was ethische Risiken verkleinert, verboten ist, was sie vergrößert. Ethik in der Informatik ist lehrbar wie Ethik in der Medizin.

1. Ethik als Theorie vertrauensvollen Zusammenlebens

Menschen können nicht überleben ohne Gemeinschaft, und diese nicht ohne soziale Regeln, auf deren Einhaltung sich alle verlassen können. Würde eine solche Regel einmal befolgt, ein andermal ignoriert, könnte keinerlei Vertrauen unter Menschen aufkommen. In allen Kulturen gibt es deshalb von allen zu befolgende Verhaltensregeln. Sie haben für den vertrauensvollen Umgang zwischen Menschen eine vergleichbare Bedeutung wie verläßliche Regeln im Umgang mit Natur und Technik.

Die verläßlichsten Regeln im Umgang mit Natur und Technik sind physikalische Gesetze, die verläßlichsten sozialen Regeln Verhaltensnormen. Ohne Verhaltensnormen und ohne physikalische Gesetze könnten Menschen nicht überleben, Natur, Technik und Mitmenschen verhielten sich dann völlig unkalkulierbar; Verhaltensnormen und wichtige qualitative Naturgesetze können durch die reine Praxis gefunden, doch niemals begründet werden.

Was allen, somit auch allen in der Informatik Tätigen, geboten oder verboten ist, bestimmen Verhaltensnormen. Es gibt rechtliche und zusätzlich solche Verhaltensnormen, die von Generation zu Generation - im wesentlichen unverändert - weitergegeben werden. Da sie durch Sitte oder Brauch bestimmt zu sein scheinen, bezeichnen sie Philosophen mit "moralische Normen". Rechtsnormen legt der Staat fest und setzt sie mit den Mitteln des Strafrechts auch weitgehend durch. Die Befolgung moralischer Normen ist dagegen nicht im strengen Sinne durchsetzbar. Rechtliche Normen dienen auch totalitären Staaten, moralische Normen nie.

Der Nobelpreisträger Manfred Eigen stellt fest:"Je mehr wir können, desto weniger dürfen wir" [Eigen, S. 30]. Verhaltensnormen müssen offenbar dem wissenschaftlich-technischen Können angepaßt werden. Die Praxis der Anpassung von Rechtsnormen ist bekannt. Wie aber sollten die von Generation zu Generation weitergereichten moralischen Normen modernisiert werden?

Wie bei der theoretischen Begründung von Naturgesetzen stellt sich bei der Rechtfertigung von Verhaltensnormen die Frage: Warum gilt Norm A und nicht Normen B? Dabei gibt es zwischen Naturgesetzen und Normen einen entscheidenden Unterschied: Naturgesetze werden immer eingehalten, Verhaltensnormen nur mehr oder weniger häufig.

Theologen rechtfertigen Verhaltensnormen theoretisch als Ausdruck göttlichen Willens; für Gläubige ist dies unmittelbar einleuchtend. Neben der Theologie beschäftigt sich die Philosophie theoretisch mit der Praxis vertrauensvollen Zusammenlebens, die in der Philosophie als Moral bezeichnet wird. Seit der "Nichomachischen Ethik" [Aristoteles], dem ersten Lehrbuch der philosophischen Ethik, bis hin zu Rawls "Eine Theorie der Gerechtigkeit" [Rawls 79] hat die Moralphilosophie nur ein "Chaos der Schulmeinungen" produziert [Patzig 80, S. 99]. Schon Aristoteles erkannte: Ethische Argumente sind nicht so zwingend wie mathematische Beweise [Aristoteles, S. 57]. Eine Frage lautet somit: Wie zwingend können Existenz, Geltungsanspruch und inhaltlicher Appell moralischer Normen begründet werden?

Unter dem Eindruck der phantastischen technischen Erfolge der Physik forderte John Stuart Mill im 19. Jahrhundert eine "soziale Physik". Sie sollte Grundlage aller "moralischen Wissenschaften" oder - in moderner Terminologie - aller Wissenschaften von der Gesellschaft sein. Das Forschungsprogramm der Physik erlaubt die Ableitung physikalischer Gesetze zusammen mit ihren Anwendungsgrenzen, ohne diese Gesetze gäbe es keinen modernen technischen Wandel. Ethik als soziale Physik sollte die Ableitung ethischer Normen zusammen mit ihren Anwendungsgrenzen gestatten, Normen sollten den technischen Wandel ethisch gestaltbar machen.

Ethik als empirisch-statistische Theorie gesellschaftlichen Risikomanagements mit Risiken als statistischen Meßgrößen kann dies leisten [Rampacher 96]. Tradierte ethische Begriffe wie Friedfertigkeit, Gerechtigkeit, Freiheit oder (praktische) Vernunft lassen sich dann präzisieren und messen. Vernunft etwa läßt sich als Fähigkeit erklären, vom Verhalten der Menschen abhängige - deshalb hier ethische Risiken genannte - überlebensrisiken von Gemeinwesen morgen besser zu begrenzen als heute. br>
Die Idee, verboten sei, was, wenn alle es tun, das überleben von Staat und Gesellschaft ausschließt, vertritt schon Sokrates in Platons Dialog Kriton [Platon, S. 48]. Der "Fall Sokrates" veranschaulicht zugleich einen Normenkonflikt, ein sogenanntes "moralisches Dilemma": Können Gemeinwesen - wie damals Athen oder in diesem Jahrhundert Hitler-Deutschland - von den Bürgern Gehorsam gegenüber Verhaltensnormen erwarten, wenn sie selbst zuerst gegen solche Normen verstoßen?

Der Soziologe Beck [Beck, S.25] hat in den 80er Jahren den Schlüsselbegriff der "Risikogesellschaft" geprägt und die gesellschaftliche Bedeutung jener neuen Risiken beschrieben, die durch Wissenschaft und Technik in die Welt gekommen sind. Doch schon immer gab es ethische Risiken. Die Idee, alte wie neue ethische Risiken quantitativ zu beschreiben, scheint neu. Bereits Kant [Vorländer, S. 170] hat allgemein festgestellt, daß in der Wissenschaft "im Grunde alles auf den Calcul ankommt".

Hier kann noch keine fertige Ethik, sondern nur ein Forschungsprogramm für evolutionäre ethische Theorien vorgestellt werden. All diese Theorien werden durch das finale Prinzip der Minimierung ethischer Risiken konstituiert. Typische ethische Probleme in der Informatik werden anschließend skizziert, ihre möglichen quantitativen Lösungen qualitativ angedeutet. Ethik wird so auch als Teil des Informatik-Curriculums systematisch lehrbar.

2. Ethik als Theorie gesellschaftlichen Risikomanagements

2.1 Definitionen
Staat und Gesellschaft werden durch den Begriff Gemeinwesen zusammengefaßt, Gemeinwesen als Sozialsysteme betrachtet, die sich in Raum und Zeit zur Begrenzung ethischer Risiken selbst organisieren, Ethik als Theorie des Managements ethischer Risiken.

Die Fähigkeit, ethische Risiken mit wachsender Zeit besser zu begrenzen, die Vernunft - bei Gemeinwesen oder Kulturen auch ihre Reformfähigkeit - ist im Ethik-Forschungsprogramm eine zeitabhängige Meßgröße, die in einer ethischen Theorie bestimmter Evolutionsstufe durch ihre Zuordnung zu ethischen Risiken erklärt ist, nicht durch das, was anschaulich als vernünftig empfunden wird. Entsprechendes gilt für andere Größen der Theorien, insbesondere für ethische Normen, die unmittelbar ethischen Risiken zugeordnet sind.

2.2 Der Utilitarismus als Vorläufer
Nicht Risikominimierung sondern Nutzenoptimierung als mathematisch formuliertes Grundprinzip findet sich bei Bentham [Bentham, S. 56-57, S. 79-82] und J. S. Mill [Mill, S. 21] als Grundprinzip für die rechtliche wie die moralische Praxis. Beide Autoren betrachten Schaden wie Nutzen bereits als empirisch-statistische Meßgrößen. Schaden entsteht jedoch erst, wenn ein Risiko eintritt: Das Prinzip Risikominimierung ist so eine evolutionäre Fortentwicklung der Prinzipien der Nutzenmaximierung und der Schadensminimierung.

Bentham und Mill halten Nutzenmaximierung und Schadensminimierung für zwei Seiten einer Medaille. Ihre utilitaristischen Nachfolger - auch in den Wirtschaftswissenschaften - haben deshalb bis heute nur das Prinzip der Nutzenmaximierung weiter verfolgt. Erst Popper entscheidet sich - er spricht von "minimize suffering" [Popper, S. 289-290, 362] - für Schadensminimierung als ethisch-politisches Grundprinzip.

Der Utilitarismus ist die erste empirisch gehaltvolle ethische Theorie in mathematischer Sprache, welche die Praxis von Moral, Recht und Wirtschaft theoretisch zu begründen vermag und deren Aussagen sich in der gesellschaftlichen Praxis auch überprüfen lassen.

2.3 Wissenschaftlicher Fortschritt und technischer Wandel
Bereits 1620 schrieb Francis Bacon [Bacon]: "Scientia et potentia humana in idem coincidunt, quia ignoratio causae destituit effectum".

Aus evolutionären kausalen Theorien zur Welterklärung, beginnend mit der Newtonschen Physik, lassen sich Naturgesetze mathematisch ableiten. Jede Nachfolgerin einer Theorie reproduziert die physikalischen Gesetze ihrer Vorgängerin und erlaubt die Ableitung zusätzlicher Gesetze. Alle Theorien legitimieren sich dadurch, daß sie Beobachtungen natürlicher Systeme zutreffend beschreiben und zudem die Konstruktion technischer Systeme dann erlauben, wenn Naturgesetze als zwingende Konstruktionsvorschriften genutzt werden. Man kann also aus dem was ist, ableiten, was sein soll, wenn ein Zweck vorgegeben wird.

Analog dazu lassen sich - beginnend mit dem Utilitarismus - finale Theorien zur Weltveränderung finden, die sich durch historische Analysen, durch Beobachtungen und erfolgreiche Anwendungen in der gesellschaftlichen Praxis empirisch bestätigen lassen.

Neben altbekannte ethische Risiken wie Angriffskriege, Gewalt gegen Leben und Gesundheit, Lüge oder Betrug - treten grundlegend neue, wie sie etwa mit der Kernenergie, der Gen- oder der Informationstechnik verbunden sind.

Auch diesen neuen Risiken gegenüber zeigen sich die Philosophen - so Gadamer - hilflos: "Wir haben eine dreihundertjährige Schuld zu begleichen. Seit drei Jahrhunderten haben wir eine phantastische Entwicklung unseres Wissens und Herrschenkönnens über die Naturkräfte erlangt. Wir haben nichts auch nur Vergleichbares in der Bildung des Menschen für die richtige Anwendung dieser neuen Macht. Deswegen erleben wir heute, daß wir in einer Welt leben, in der unendlich zerstörerische Machtmittel in die Hand des Menschen gekommen sind. Niemand weiß, wie man die Menschheit vor der Selbstvernichtung bewahren soll. Hier haben wir ein unendliches Manko" [ZEITPunkte, S. 20].

Ein in der gesellschaftlichen, insbesondere der moralischen, rechtlichen und wissenschaftlich-technischen Praxis anwendbares ethisches Forschungsprogramm tut not.

Wir wenden uns zunächst der Begründung von Verhaltensnormen zu, die das Zusammenleben, insbesondere auch den technischen Wandel, regional wie global ethisch gestaltbar machen.

2.4 Ethische Risiken und ethische Normen
Risiken sind als Produkte von Risikofaktor und Eintrittswahrscheinlichkeit definiert; der Faktor beschreibt die Größe des Schadens, der notwendig entsteht, wenn die Eintrittswahrscheinlichkeit Eins wird.

"Starke Risiken" können durch richtiges menschliches Verhalten zum Verschwinden gebracht, "schwache Risiken" nur minimiert, nicht aber zum Verschwinden gebracht werden.

Ethische Risiken werden nun als paarweise Interaktionen erklärt, die von allen Paare ausgeführt, für die sie definiert sind - das überleben eines Gemeinwesens erfahrungsgemäß ausschließen; dabei werden Korrelationen zwischen Interaktionen vernachlässigt (lineare Näherung). Interaktionen zwischen mehr als zwei Personen bleiben ebenfalls unberücksichtigt.

Ethische Risiken sind genau dann starke Risiken, wenn sie allein durch Unterlassen der zugehörigen paarweisen Interaktionen zum Verschwinden gebracht werden können. Wenn niemand seinen Nachbarn gewaltsam tötet, ist ein Gemeinwesen völlig frei von gewaltsamen, durch Menschen verursachten Todesfällen.

Ethische Risiken sind dann schwache Risiken, wenn sie Interaktionen zugeordnet sind, für die folgendes gilt: Je häufiger sie praktiziert werden, desto wahrscheinlicher ist das überleben des Gemeinwesens oder einer Kultur. Je öfters sich Menschen stets da gegenseitig helfen, wo sie leistungsfähiger als ihre Mitmenschen sind, desto wahrscheinlicher überlebt das Gemeinwesen.

Jedem starken ethischen Risiko ist eine starke ethische Norm zugeordnet. Genau wenn diese von allen befolgt wird, verschwindet das zugeordnete Risiko im Gemeinwesen in linearer Näherung. Ist die "Norm erhalten", ist das Gemeinwesen frei vom zugehörigen ethischen Risiko. Alle übrigen ethischen Normen sind schwachen ethischen Risiken zugeordnet. Werden sie von allen befolgt, wird das zugehörige Risiko - gleichfalls in linearer Näherung - nur signifikant beschränkt; dennoch sprechen wir auch hier von der "Erhaltung der schwachen ethischen Norm".

Die Erhaltung aller schwachen schließt die aller starken ethischen Normen ein, nicht aber umgekehrt. Kein Gemeinwesen könnte existieren, wenn formal nur Verbote erhalten wären; ohne gegenseitige Hilfe, allgemeiner ohne befolgte Gebote kein überleben. Umgekehrt: Wer Menschen hilft, der bekriegt, verletzt, belügt oder betrügt sie auch nicht. Im Einzelfall kann freilich Hilfe durch Zusammenfallen negativer Umstände zur Verletzung oder Tötung Hilfsbedürftiger führen, Menschen werden durch Hilfe nur im statistischen Mittel vor starken Risiken bewahrt.

2.5 Wertigkeiten, Moralen und geordnete Moralen
Jede ethische Norm besitzt eine Wertigkeit; sie fällt mit der Größe des zugehörigen Risikofaktors zusammen. Wertigkeiten werden empirisch ermittelt, heute meist durch Fachwissenschaften, weil sie vom technisch-wissenschaftlichen Können einer Kultur abhängig sind. Starke wie schwache ethische Normen lassen sich, beginnend mit Normen höchster Wertigkeit, monoton fallend ordnen. Die dadurch entstehende "Hierarchie" ethischer Normen ist abhängig vom Evolutionsstand der Kultur. Sie heiße eine geordnete Moral. Jedes Gemeinwesen kann durch seine geordnete Moral beschrieben werden.

Die in einer Kultur oder auch einem Gemeinwesen tatsächlich herrschende Moral besteht aus überkommenen moralischen Normen, die - empirisch nachweisbar - von der Bevölkerung mit großer Mehrheit akzeptiert werden. Die für eine Kultur charakteristische geordnete Moral besteht dagegen aus geordneten ethischen Normen und weicht in der Regel von der herrschenden Moral ab.

2.6 Verantwortungsethik
Die meisten moralischen fallen mit ethischen Normen zusammen. Deshalb kann bei strengem Gehorsam gegenüber ethischen Normen das gleiche Dilemma entstehen wie bei strengem Gehorsam gegenüber moralischen Normen: Wer niemand verletzen darf, darf auch jenen nicht verletzen, der sein Opfer zuerst verletzt.

Wir haben hier - neben "dem Fall Sokrates" - ein weiteres Beispiel für einen Normenkonflikt; die theologische oder auch die philosophische Ethik - im Unterschied zur Praxis des Rechts - verfügen über keine systematischen Lösungen für diese schwersten sozialen Konflikte.

Eine Ethik, die den absoluten Gehorsam gegenüber moralischen Normen fordert, heißt gewöhnlich eine Gesinnungsethik.

Wegen ihres offenkundigen Versagens besonders in der politischen Praxis sucht Weber [Weber] die Gesinnungsethik durch eine Verantwortungsethik abzulösen. In seinem Werk "Prinzip Verantwortung" schlägt auch Jonas eine umfassende "Ethik für die technologische Zivilisation" [Jonas] vor. Jonas entwickelt keine operationalisierbare ethische Theorie, die das Gadamersche Manko systematisch und im Detail zu beheben und die moderne Technik methodisch zu zähmen vermag. Jonas beschränkt sich vielmehr auf ad-hoc-Rezepte, die man annehmen oder auch ablehnen kann.

Verantwortung [Lenk, S. 61] tragen soziale Systeme oder Subsysteme bis hin zu einzelnen Personen

  • für "Verantwortungsbereiche", die in Raum und Zeit so weit reichen wie Macht oder (exklusives) Wissen, sie frei (mitzu-)gestalten
  • für betroffene Menschen, Tiere, Pflanzen
  • vor einer Instanz
  • vor einem System von Handlungsnormen, sei es
    • ethisch oder
    • rechtlich
    begründet
Wer Verantwortung trägt, hat Normenkonflikte systematisch zu lösen, wie im übernächsten Abschnitt gezeigt wird. Folgenabschätzungen genügen dabei nicht [Nida-Rümelin 95].

3. Mikroethik und Makroethik

3.1 Statistische Mikroethik
Ethik als empirisch gehaltvolle statistische Theorie besteht aus einer präskriptiven Komponente, der statistischen Mikroethik, und einer deskriptiven, der statistischen Makroethik.

Aufgabe der statistischen Mikroethik ist es, kontinuierlich bewertete starke und schwache ethische Normen als notwendige und hinreichende Minimierungsbedingungen für ethische Risiken zu ermitteln. Die Normen müssen operationalisierbar sein, weil nur so alle Menschen - unabhängig von ihrer Vorbildung - in der Lage sind, die Normen beruflich oder privat zu befolgen.

Geordnete Moralen lassen sich unter Berücksichtigung der Ergebnisse der Fachwissenschaften mit der Evolution der Gesellschaft verfeinern: Die Zahl ihrer ethischen Normen wird durch solche geeigneten und genauer bewerteten schwachen Normen erweitert, die evolutionsabhängig sind. So weiß man erst seit diesem Jahrhundert genauer, daß Menschen durch Rauchen oder durch psychische Gewalt in ihrer Gesundheit beeinträchtigt werden können. Die Moral selbst ist universalistisch, geordnete Moralen dagegen wegen wechselnder Wertigkeiten evolutionsabhängig.

"Eine Theorie der Gerechtigkeit" von Rawls [Rawls 79], eine Theorie, welcher die "Süddeutsche Zeitung" den Charakter einer "Weltmacht" [SZ 94] zuschrieb, hat Gemeinsamkeiten mit der skizzierten Ethik. Nach Rawls werden Verhaltensnormen durch einen gedachten rationalen Diskurs freier und mündiger Bürger unter dem "Schleier der Ungewißheit" bestimmt. Evaluierungsprozesse stehen unter dem Prinzip "Gerechtigkeit als Fairneß": Genau die Normen gelten, die in diesem Diskurs als fair angenommen werden.

Vier entscheidende Unterschiede bestehen. Erstens: Fairneß ist ein qualitatives, Risikominimierung ein quantitatives Prinzip. Zweitens: Wissenschaftliche und damit von der Evolution abhängige Erfahrung, keine Diskurse unter Bürgern bestimmen objektiv die ethischen Normen. Drittens: Die Anwendbarkeit ethischer Normen hängt vom Umfeld ab, wie im nächsten Abschnitt gezeigt wird. Viertens: Durch vergleichende Untersuchungen zwischen Gemeinwesen des selben Evolutionsstandes läßt sich die Ethik der Risikominierung empirisch-statistisch bestätigen.

3.2 Statistische Makroethik
Der makroethische statistische Zustand sozialer Systeme zur Zeit t wird durch ein der Größe nach - beginnend mit dem größten Risikofaktor - geordnetes n-Tupel von Risikofaktoren festgelegt. Die Makroethik beschreibt kurzfristig die zeitliche Entwicklung der Gemeinwesen oder Kulturen, insbesondere ihre Vernunft und damit ihre dynamische Stabilität.

Im Grundzustand eines Gemeinwesens, dem Zustand höchster sozialer Ordnung und raum-zeitlicher Symmetrie sowie größter Stabilität, sind alle erklärten starken und schwachen ethischen Normen erhalten, die ethischen Risikofaktoren zugeordnet sind.

Höhere Zustände - ethische Risikozustände mit einer Besetzungswahrscheinlichkeit ungleich Null - sind all jene Zustände, in denen die räumliche und zeitliche Symmetrie gebrochen ist, weil mindestens eine ethische Norm nicht mehr erhalten ist.

Die Erhaltung einer beliebigen starken Norm kann deshalb auch dadurch beschrieben werden, daß die übergangswahrscheinlichkeit in den durch die Norm verbotenen Risikozustand in linearer Näherung verschwindet.

Ohne Unterdrückung der Meinungsfreiheit ist das zugehörige unbedingte Verbot streng erhalten.

Selbst wenn dagegen niemand Gewässer verschmutzt, wird das schwache Risiko der Wasserverschmutzung nur begrenzt, nicht aber auf Null gebracht, da natürliche Ursachen Wasser ebenfalls verunreinigen können.

Meist bestehen zwischen Risikofaktoren Korrelationen. Deshalb ist es ein nichttriviales statistisches Problem, Mindestzahlen starker Faktoren zu ermitteln, welche Grundzustand und Risikozustände eines Sozialsystem ausreichend genau beschreiben; minimale, nach Größen geordnete Mengen praktisch irreduzibler Risikofaktoren heißen Sätze starker Zustandsparameter.

Schwieriger noch ist es, beim gegenwärtigen Stand der empirischen Wissenschaften minimale Mengen irreduzibler schwacher Zustandsparameter zu finden, welche als Satz Zustände eines Gemeinwesens und seiner Subsysteme zur Zeit t mit zureichender Genauigkeit beschreiben können.

3.3 Friedfertige, sozial gerechte und vernünftige Gemeinwesen
Fiktive Gemeinwesen, in denen alle starken ethischen Normen erhalten sind, mögen friedfertig, solche in denen alle starken und schwachen ethischen Normen erhalten sind, (sozial) gerecht heißen. Gemeinwesen endlich, in denen morgen mehr starke und schwache Normen vergleichbarer Wertigkeit erhalten sind als heute, gehören aufgrund der eingangs gegebenen Definition zur Klasse der vernünftigen oder der reformfähigen Gemeinwesen. Berücksichtigt man Sätze starker und schwacher Zustandsparameter kann man Gerechtigkeit, Friedfertigkeit und Vernunft von Gemeinwesen numerisch angeben, wenn die Größen der den Zustandsparametern zugeordneten Risikofaktoren bzw. die Wertigkeiten der zugehörigen ethischen Normen genau bekannt sind.

3.4 Messung von Friedfertigkeit, Gerechtigkeit und Vernunft
Je niedriger die Größe des kleinsten Risikofaktors ist, dessen zugehörige starke Norm statistisch noch signifikant erhalten ist, desto größer ist die Friedfertigkeit einer Kultur, eines Gemeinwesens oder eines seiner Subsysteme. Analog gilt: Je niedriger die Größe des kleinsten Risikofaktors ist, dessen zugehörige starke oder schwache ethische Norm statistisch signifikant noch erhalten ist, desto sozial gerechter ist eine Kultur, ein Gemeinwesen oder eines seiner Subsysteme. Und wenn mit wachsender Zeit die Größe des kleinsten Risikofaktors abnimmt, dessen zugehörige starke oder schwache Norm gerade noch statistisch signifikant erhalten ist, desto vernünftiger - oder reformfähiger - ist eine Kultur oder ein Gemeinwesen.

4. Nichtlineare Ethik: Normenkonflikte

4.1 Freie und gebundene Zustandsparameter
Es gibt zwei Klassen von Zustandsparametern: freie und gebundene. Freie können zur Risikominimierung eingehalten, gebundene nicht eingehalten werden.

Sobald auch nur eine einzige Person zu töten sucht, muß zur Erhaltung des Zustands eines von gewaltsamem Tod (fast) freien Gemeinwesens, notfalls die Verwundung oder Tötung des Gewalttäters in Kauf genommen werden: Der Parameter Abwesenheit von Gewalt ist nur noch ein gebundener Parameter, die Risikominierung ist nur noch auf einem höheren Risikoniveau möglich.

Im Grundzustand eines Sozialsystems, insbesondere einer Kultur oder eines Gemeinwesens, sind alle Zustandsparameter frei. In Risikozuständen ist mindestens ein Zustandsparameter gebunden; je größer der zugehörige Risikofaktor ist, desto größer ist das mit dem Zustand verbundene Risiko.

4.2 Normenkonflikte
Sobald Normenkonflikte, sobald etwa moralische, rechtliche oder politische Dilemmata auftreten, reduziert sich der Grad der Ordnung eines Gemeinwesens. Es existieren gebundene Zustandsparameter.

In einem Normenkonflikt können räumlich und zeitlich nicht mehr alle erklärten ethischen Normen befolgt werden. Je mehr Zustandsparameter eines Gemeinwesens gebunden sind, desto "höher" ist sein Risikozustand, seine soziale Temperatur ("Fiebertemperatur") und desto instabiler seine zeitliche Entwicklung. Es droht durch rasch abnehmende Vernunft "chaotische Entartung", es drohen etwa Wirtschafts- oder Umweltkrisen, Bürgerkriege und Kriege.

Normenkonflikte können bereits in relativ gerechten Gemeinwesen bei nicht ausreichend verfügbaren Ressourcen auftreten; ein aktuelles Beispiel für moralische Dilemmata bietet die Transplantationsmedizin, in der in Deutschland mehr Empfänger als Spender von Organen vorhanden sind: Nach welchen ethischen Regeln sollten die wenigen Empfänger ausgewählt werden, die ein Spendenorgan erhalten sollen?

Normenkonflikte entstehen aber meist durch Mißachtung ethischer Normen: Je höher deren Wertigkeiten, desto schwerer der Konflikt.

4.3 Handlungsprinzip Duldung und Einmischung
Zur Minimierung ethischer Risiken in sozialen Systemen läßt sich das Handlungsprinzip "Duldung und Einmischung" einführen:

Wer in allen seinen Verantwortungsbereichen die Größe des kleinsten noch gebundenen Zustandsparameters bzw. die Wertigkeit der zugehörigen Norm minimiert, handelt verantwortungsvoll (I).

Subsysteme, welche die Zahl aller möglichen übergänge in Risikozustände minimieren, handeln verantwortlich (II).

(I) ist die statische, (II) die dynamische Formulierung des universell anwendbaren Prinzips. Es hat seinen Namen, weil in jeder Verantwortungsethik Verantwortliche einen Verstoß gegen Normen niedrigerer Wertigkeit dulden müssen, um Normen höherer Wertigkeit erhalten zu können. In einem Bild aus der Medizin: Um das Leben eines Krebspatienten zu retten, muß noch gesundes Gewebe geopfert, müssen Normen niedrigerer Wertigkeit gegenüber solchen höherer vernachlässigt werden. Höchste - im Schadensraum potentieller Opfer sogar unendlich große - Wertigkeit haben die Familien starker Zustandsparameter bzw. der ethischen Normen, die das Töten verbieten. Gemeinwesen sind somit umso weniger friedfertig oder sozial gerecht, je mehr gewaltsame Todesfälle - einschließlich vom Staate veranlaßte - auftreten.

Jedes Gemeinwesen läßt sich ethisch schon recht zuverlässig durch die Risikofaktoren beschreiben, denen die ethischen Risiken der Gewalt gegen Menschen zugeordnet sind: Je kleiner die Faktoren, deren zugehörige starke Normen mißachtet werden, desto friedfertiger und gerechter ist ein reales Gemeinwesen im allgemeinen.

Dieser Sachverhalt läßt sich bereits anhand vorhandener Statistiken dokumentieren: Je mehr zum Tode oder zu langer Haft Verurteilte einsitzen und je mehr Verstöße gegen Leben oder Gesundheit der Bürger registriert sind, desto friedloser und ungerechter ist ein Gemeinwesen. Deshalb sollte es uns zu denken geben, daß die viel gepriesene US-Gesellschaft mit 100 Totschlagsdelikten pro Jahr und einer Million Einwohnern fünf- bis zehnmal so viele gewaltsame Todesfälle aufweist wie Deutschland, österreich oder die Schweiz [Krämer S. 223]. Aber auch die staatliche Unterdrückung der Meinungsfreiheit ist ein sicherer Indikator für ein friedloses und ungerechtes Gemeinwesen; hier schneiden die USA weit besser ab.

4.4 Zur praktischen Lösung von Normenkonflikten
Bei Interaktionen zwischen zwei Subsystemen A und B, bei denen B zuerst gegen bestimmte ethische Normen verstößt, müssen zur Risikominimierung Wertigkeiten vergleichbarer Normen, die B schützen, gegenüber den Wertigkeiten der entsprechenden Normen, die A schützen, reduziert werden.

So ist Pazifismus gegenüber einem Staat, der ein relativ friedfertiges oder relativ gerechtes Gemeinwesen unprovoziert angreift, ebenso unverantwortlich wie in Notwehrsituationen Opfern nicht durch - notfalls auch gewaltsames - Eingreifen zu helfen.

Das universelle Handlungsprinzip (I) oder (II) präzisiert den "kategorischen Imperativ" Kants :"Handle nur nach derjenigen Maxime, durch die du zugleich wollen kannst, daß sie ein allgemeines Gesetz werde" [Kant, S. 140].

Strategien zur Risikominimierung sind vom Grad der Vernunft, in dem sie anzuwenden sind, abhängig: sie sind notwendig nichtlinear, weil sie an das Verhalten der jeweiligen Umgebung gekoppelt sind: Im "Dritten Reich" wäre die Tötung des "Führers und Reichskanzlers" durch ein Attentat als Notwehrfall unter Abwägung aller Umstände wohl zulässig gewesen.

Liberale und demokratische Gemeinwesen [Rawls 92] - auch Bürgergesellschaften genannt [Dahrendorf 92] - scheinen friedfertiger und gerechter zu sein als alle anderen der selben Evolutionstufe. Ob sie auch vernünftiger sind, kann, wenn man die augenblickliche Entwicklung in Deutschland betrachtet, bezweifelt werden. Quantitative Nachweise stehen noch aus.

Bürgergesellschaften führen Familien von ethischen Normen höchster und hoher Wertigkeit, die wir mit "sittlichen Grundwerten" identifizieren, in Grundrechte oder Strafnormen über, um deren Befolgung notfalls erzwingen zu können. Ein sittlicher Grundwert umfaßt z.B. alle ethischen und rechtlichen Normen, die menschliches Leben schützen.

Solange ethische Normen und deren Wertigkeiten wegen des Fehlens ethischer Forschungsprogramme unbekannt sind, kann deshalb die Einigung auf die international gültigen Menschenrechte einen weltweit anerkannten ethischen Minimalkonsens beschreiben.

5. Ethik und gesellschaftliche Verantwortung in der Informatik

5.1 Forschungsprogramm "Ethik und Informatik"
Entscheidend für die Evolutionsstufen ethischer Theorien ist die Geschwindigkeit des technisch-sozialen Wandels. "Innovationsmotor" für die Dynamik der weltweiten gesellschaftlichen Entwicklung ist heute die Informatik. Falls die Geschwindigkeit des technischen Wandels die intellektuelle und die emotionale Anpassungfähigkeit der Menschen überfordert, hat bereits die reine Dynamik nachteilige Folgen für die überlebensfähigkeit der heraufziehenden Wissens- und Informationsgesellschaft, der ersten globalen Zivilisation.

Die Leistungsfähigkeit der Informatik als Wissenschaft von der Architektur, der Programmierung, dem Betrieb, der Kommunikation und den Anwendungen von Rechensystemen als "Denkzeug" wie als interaktives multimediales Hilfsmittel zu umfassender zeitlicher und räumlicher Kommunikation potenziert die instrumentelle Vernunft jedes Gemeinwesens: Immer größere Informationsmengen können immer schneller verarbeitet und verteilt, immer komplexere dynamische Modelle "real time" in Rechnern realisiert werden. Bereits heute können durch massiv parallele Rechner vielseitige Prozesse der Wissensverarbeitung zur teil- oder vollautomatischen Ausführung an Informatik-Systeme übertragen werden.

Informatik-Systeme potenzieren so Auswirkungen richtigen wie falschen Handelns. Was im einzelnen richtig oder falsch, geboten oder verboten ist, läßt sich nur mit Hilfe der einer Evolutionsstufe einer Gesellschaft zugeordneten ethischen Theorie, insbesondere den aus ihr ableitbaren bewerteten ethischen Normen oder der zugehörigen Zustandsvariablen feststellen. Ohne deren systematischer Ermittelung sind nur qualitative und heuristische Abschätzungen möglich.

Prinzipielle Grenzen der Dynamik durch Informatik sind nicht erkennbar. Die entscheidende Rolle der Informatik als Motor der Wissens- und Informationsgesellschaft" wird heute immer noch weithin von der öffentlichkeit, der Wirtschaft, der Politik und selbst den meisten in der Informatik Tätigen verkannt. Auch deshalb tragen nur wenig Informatikerinnen und Informatiker politisch oder wirtschaftlich hohe oder höchste Verantwortung.

Die Rolle vernetzter Rechner als neues interaktives Medium wird das Informations- und Kommunikationsverhalten der Menschen im nächsten Jahrtausend global revolutionär verändern. Bis heute liegen kaum verläßliche Forschungsergebnisse für die absehbaren wirtschaftlichen, sozialen und kulturellen ethischen Risiken vor, welche die neue weltweite interaktive Multimediagesellschaft bedrohen.

Es ist deshalb an der Zeit, ein interdisziplinäres Forschungsprogramm "Ethik und Informatik" zu realisieren. Institute für "Informatik und Gesellschaft" an Universitäten müssen zusammen mit Wissenschaftlern der zuständigen anderen Erfahrungswissenschaften Sätze der Zustandsparameter jener sozialen Subsysteme eines Gemeinwesens ermitteln, die von Ergebnissen und Methoden der Informatik abhängen, ebenfalls möglichst viele bewertete ethischen Normen sowie alle übergangswahrscheinlichkeiten in höhere Risikozustände. Parallel dazu sollte begonnen werden, Ethiklehrveranstaltungen in die Informatik-Curricula einzubauen.

Solange Ergebnisse aus einem solchen Programm nicht vorliegen, können in Ethik-Vorlesungen nur ad-hoc-Modelle besprochen werden, um zu veranschaulichen, was verantwortbar ist, was die in der Informatik Tätigen im einzelnen dürfen und was sie nicht dürfen.

Dazu kann man Sozialindikatoren [Glatzer] oder statistische Größen nutzen, die sich heute schon statistischen Jahrbüchern entnehmen lassen und ethischen Risikofaktoren zugeordnet sind.

5.2 Gesellschaftliche Verantwortung in der Informatik
Charakteristisch für die berufliche Verantwortung in innovativen Wissenschaften [Rampacher 86; 93], ausgenommen die Medizin, sind vor allem zwei Aspekte.

Erstens fällen Wissenschaftler außerhalb der kognitiv orientierten Grundlagenforschung beruflich kaum weittragende Entscheidungen. Als Berater wie Entwickler kommt ihnen aber bei der Beschreibung und Begrenzung ethischer Risiken eine Schlüsselrolle zu. Im folgenden beschränken wir uns auf Beispiele der Beraterrolle.

Zweitens arbeiten Wissenschaftler oft in Gruppen. Sie tragen also gesellschaftliche Verantwortung - je nach der Höhe ihres exklusiven Wissens und dem Einfluß ihrer Leitungsfunktion - anteilig in den jeweiligen wissenschaftlichen, industriellen oder politischen Gruppen, in die sie beruflich integriert sind.

Diesen wichtigen Sachverhalt suchen auch die "Ethischen Leitlinien" [Rödiger, S. 239-240] der Gesellschaft für Informatik (GI) zu berücksichtigen. Leider konnten sich die Autoren dieser Leitlinien nicht darüber einigen, ihre Appelle auch theoretisch zu untermauern; so enthalten sie eine Ansammlung wohl richtiger, aber nicht explizit gerechtfertigter ethischer Forderungen. Bei hohen ethischen Risiken tragen nationale oder internationale "scientific communities of informatics" kollektiv Verantwortung. Einzelheiten der aktuellen internationalen Diskussion finden sich in dem Werk "Ethics of Computing" [Berleur].

Alle in der Informatik Tätigen tragen in ihrer Beraterrolle ihren persönlichen Anteil an der Informierung von Politik, Wirtschaft oder öffentlichkeit. Ihre Verantwortung ist um so höher, je wirksamer Informatik-Systeme ethische Risiken beeinflussen.

Sozialorientierung ist, wie überall, auch in der Informatik nur durch systematische Minimierung ethischer Risiken möglich. Doch tragen in der Informatik Tätige die Verantwortung für die Erklärung und Begrenzung ethischer Risiken selten allein. So können Informatik-Systeme Hochenergieexperimente auswerten, die Genese von Biomolekülen simulieren, rechtzeitige Wettervorhersagen ermöglichen, Verkehrsflugzeuge wie Bomber einsatzfähiger machen, durch automatische Mustererkennung die Kartographie verbessern oder Atomraketen eine sicherere Zielfindung verschaffen. Ohne Hochenergiebeschleuniger und Elementarteilchendetektoren, ohne Biochemie oder Meteorologie, ohne Verkehrsflugzeuge und Bomber, ohne Luftvermessung oder ohne Raketen mit Atomsprengköpfen bleiben Informatik-Systeme unwirksam.

Informatik ist in gewisser Weise mit der Mathematik zu vergleichen: Beide Wissenschaften verstärken die menschliche Argumentationskraft. Ohne Informatik werden weder Physik, Chemie, Biologie, Technik, Wirtschaft oder Militär zukünftig wesentliche Erfolge erzielen können. Im Unterschied zur Mathematik wird die Informatik durch interaktive elektronische Medien zusätzlich die Kommunikation in der Gesellschaft lokal wie global grundlegend verändern und so das globale Zusammenleben revolutionieren.

5.3 Charakteristische Sachverhalte für die Informatik
Erstens: Informatik allein kann kaum ein Anwendungsproblem lösen. Die durch Informatik-Systeme gewonnenen Lösungen von Problemen sind nicht besser als die zumeist nicht aus der Informatik stammenden Modelle sowie die Zuverlässigkeit der benötigten Daten. Informatik trägt aber zur schnelleren Reduktion von Komplexität und regionalen wie globalen Verteilung von Informationen bei.

Zweitens: Informatik-Systeme bestehen aus mindestens vier Ebenen. Ebene 1 entspricht der Hardware, die derzeit mit Hilfe physikalischer Prozesse arbeitet, also durch physikalische, in Zukunft vielleicht auch biochemischer Gesetze bestimmt wird.

Ebene 2 setzt sich aus den Modellen, den Betriebs-, Kommunikations- und Anwendungsprogrammen zusammen, durch welche Rechner entsprechende Anwendungsprobleme lösen können. Dabei ist zu beachten, daß dynamischen Prozesse, deren Anfangswerte sich digital darstellen und deren Zeitablauf sich durch dynamische Modelle abbilden lassen, prinzipiell durch Algorithmen auf Datenstrukturen, also durch Rechnerprogramme, behandelt werden können.

Ebene 3 besteht aus dem Zusammenwirken der beiden Ebenen 1 und 2 mit Personen, welche das Informatik-System tatsächlich einsetzen.

Ebene 4 umfaßt alles Leben, das durch das Zusammenwirken der Ebenen 1 bis 3 direkt oder indirekt betroffen ist.

Die Zuverlässigkeit der Ebene 1 ist hoch: Sie beruht auf der Zuverlässigkeit der ihr zugrundeliegenden physikalischen Gesetze.

Die Verläßlichkeit der Ebene 2 hängt von vier Faktoren ab: Erstens von der Richtigkeit des dem Programm zugrundeliegenden Modells, zweitens von der Zuverlässigkeit der Daten, drittens von der korrekten Abbildung des Modells auf das Programm, viertens von der Verläßlichkeit des Programms selbst. Die Zuverlässigkeit der Faktoren 2 fallen teilweise (Datenintegrität), der Faktoren 3 und 4 voll in den Verantwortungsbereich der Informatik.

Die Zuverlässigkeit der Ebene 3 wird beeinflußt von Hard- wie Softwareaspekten der Mensch-Maschine-Schnittstelle sowie der Zuverlässigkeit und Kompetenz der das System bedienenden Personen.

Die Ebenen 3 und 4 werden trotz ihrer Bedeutung für die Risikominimierung von der Informatikforschung bisher nur am Rande behandelt.

Ebene 1 wird gemeinsam von Personen aus der Informatik wie aus der und Informationstechnik verantwortet. Die ihr zugeordneten Verantwortungsprobleme unterscheiden sich nicht prinzipiell von anderen in der Technik.

Charakteristisch für die in der Informatik Tätigen ist Ebene 2. Ein Beispiel: Vor ungefähr einem Jahrzehnt war die "Strategische Verteidigungsinitiative (SDI)" des US-Präsidenten Reagan aktuell. Hier hätte die scientific community der Informatik weltweit öffentlich darauf hinweisen müssen, daß ein Programmsystem der Komplexität des bei SDI vorgesehenen beim Stand der Softwaretechnik nicht verläßlich genug ausgefallen wäre; die unentbehrlichen Tests hätten bei Gefahr des Untergangs der bewohnbaren Welt nicht durchgeführt werden können, denn Simulationsprogramme hätten nicht ausgereicht.

5.4 Zustandsparameter mit hoher Relevanz für die Informatik
Im Zusammenhang starker Zustandsparameter bzw. Normen sind vor allem folgende Risikobereiche erkennbar: Die Beurteilung von Datenschutz und IT-Sicherheit sowie die Entwicklung von Systemen zur Wissensverarbeitung (KI-Forschung).

Die Zuverlässigkeit von Informatik-Systemen ist um so wichtiger, je mehr Leben, Gesundheit und soziale Sicherheit von Menschen von ihnen abhängen.

Im Bereich der Minimierung sozialer Unsicherheit müssen die Informatik-Fachgesellschaften und auch Informatik-Fachleute, die öffentlich Gehör finden, unermüdlich darauf verweisen, daß nur eine Informatikanwendungen extensiv nutzende Volkswirtschaft mit hohen Löhnen und Sozialleistungen im globalen Wettbewerb ausreichend wettbewerbsfähige und bezahlbare Arbeitsplätze bereitstellen kann. Dabei müssen Gesellschaften wie Fachleute berücksichtigen, daß die derzeit innovationsschwache deutsche Wirtschaft weltweit mit die kürzesten Arbeitszeiten und höchsten Lohnnebenkosten zu verzeichnen hat. Um so kritischer ist folgender Sachverhalt zu werten: Telearbeit globalisiert den Informatik-Arbeitsmarkt; Arbeit kann gleichsam über Nacht in Länder abwandern, wo sie bei ungefähr gleicher Leistung deutlich billiger ist und es kann zusätzlich global "rund um die Uhr" gearbeitet werden.

Bei der Siemens AG [Pierer] tragen Informatik-Komponenten bereits zu 50% aller Produkte bei. Laut Zahlen aus dem Hause Daimler-Benz [Barth] befinden sich in der US-Exportpalette 43% High-Tech-Produkte, in der Japans 28%, in der der Bundesrepublik nur 16%.

Für die Zukunftsfähigkeit von Staat und Gesellschaft erwarten Politiker wie öffentlichkeit technische Visionen der Informatik zur Rolle von Rechnern als Intelligenzverstärker wie als Medium. Beispiele bieten Roboter-Systeme, Telekommunikation oder Medieninformatik.

Informatik-Systeme beeinflussen u.a. das Bildungssytem ("Schulen ans Netz"), Forschung und Lehre an den Hochschulen, die außeruniversitäre Grundlagenforschung, Forschung und Entwicklung in der Industrie, die Zahl der Arbeitsplätze, den Verkehr, die Telekommunikation, den sparsamen Umgang mit nicht erneuerbaren Ressourcen, das Gesundheitswesen und die "Bewahrung des Friedens mit der Natur" [Meyer-Abich]. Informatik ist nicht alles, aber ohne Informatik ist (fast) alles nichts.

Die Informatik-Fachgesellschaften müssen die Tatsache öffentlich mit anprangern, daß die Bundesrepublik in weniger als einem Jahrzehnt ihre Ausgaben für Forschung und Entwicklung um mehr als ein Viertel auf nunmehr 2,2% des BSP heruntergefahren hat; unter den führenden Industrieländern besetzt Deutschland nur noch den Rang 6 [Die Zeit, S. 33]. In Zeiten eindeutiger Innovationsschwäche müssen Forschungsleistungen deutlich verstärkt und nicht drastisch reduziert werden; die Reduktion ist für die Regierungen eines Hochlohnlandes weit weniger zu verantworten als Sozialausgaben angemessen zu reduzieren.

6. Typische Normenkonflikte in der Informatik

6.1 Maschinelle Entscheidungssysteme
Für den Ersatz menschlicher durch maschinelle Intelligenz sind keine prinzipiellen technischen Grenzen erkennbar.

So liegt der Versuch nahe, in Grenzsituationen menschliche Entscheidungen an Informatik-Systeme zu delegieren, etwa dann, wenn lebensrettende Maßnahmen in der Unfall-Medizin oder bei Angriffshandlungen im Kriegsfall so schnell getroffen werden müssen, daß Menschen wegen ihrer psycho-physischen Grenzen weder die entscheidungsrelevanten Informationen rasch genug aufnehmen noch dem Zeitablauf entsprechend rasch genug auswerten können.

Das Dilemma: Bleibt die Entscheidung Menschen überlassen, können sie diese aus Zeitgründen nicht übernehmen; wird sie an das System delegiert, wer trägt dann die gesellschaftliche Verantwortung für die Entscheidung und ihre Folgen?

6.2 Wettbewerb und soziale Gerechtigkeit
Das Dilemma: Rationalisierung durch Informatik vermindert die Zahl der "einfacheren" Arbeitsplätze, stabilisiert andererseits die Wettbewerbsfähigkeit der "schlankeren" Unternehmen und erhält so die reduzierte Zahl der Arbeitsplätze (Statisches Modell).

Der Konflikt zwischen Wettbewerb als globaler überlebensstrategie und sozialer Gerechtigkeit als Stabilitätsforderung nach innen ist nur politisch zu lösen, er muß der öffentlichkeit aber durch die Informatik bewußt gemacht werden. Dabei gilt es, die Randbedingung zu beachten, daß lenkende politische Eingriffe in die globale Wettbewerbsfähigkeit der Unternehmen die Wirtschaft destabilisieren, ihren Beitrag zur Begrenzung ethischer Risiken gefährden. Dagegen muß man vom Staat fordern, bessere Innovationsbedingungen zu bieten, also z.B. Forschung und Entwicklung angemessen - deutlich mehr als gegenwärtig- zu fördern, ausreichend Wagniskapital für innovative Firmen bereitzustellen oder die Kosten für die Telekommunikation - etwa durch mehr Wettbewerb - deutlich zu reduzieren. Höchste Priorität für jedes Gemeinwesen hat dessen Zukunftssicherung: Nur wenn die Bundesrepublik wegen einer hohen Wettbewerbsfähigkeit in Wissenschaft und Wirtschaft auch in Zukunft zu den "global Players" gehört, kann der "Sozialstandort Deutschland" wieder gesichert oder später auch wieder mehr ausgebaut werden.

In der Informatik Tätige, die nicht ihre ganze Kraft für die Entwicklung sozialorientierter Informatik-Systeme einsetzen, folgen nicht den schwachen ethischen Normen der sozialen Gerechtigkeit und genügen so ihrer gesellschaftlichen Verantwortung nicht, die sie tragen. Insbesondere müssen Informatikerinnen und Informatiker einzeln oder in Gruppen sich dem internationalen wissenschaftlichen und technischen Wettbewerb stellen und suchen, zur Weltspitze zu gehören.

6.3 Datenschutz
Der "gläserne Mensch" stellt eine Horrorvision dar. In Bürgergesellschaften darf einerseits die Selbstbestimmung über die eigenen Daten nicht angetastet werden. Andererseits kann die rechtzeitige Verfügung über bestimmte Angaben bei Verdächtigen Leben und Gesundheit anderer Menschen bewahren. Entscheidungen über den Datenschutz sind politisch äußerst sensibel.

Die Informatik hat im Rahmen des Datenschutzes zwei wichtige Aufgaben.

Erstens: Sie muß versuchen, Methoden zu entwickeln, die das Recht der Menschen auf "informationelle Selbstbestimmung" durch Technik stützt. Zweitens: Sie muß ständig die öffentlichkeit darüber aufklären, welche Mißbrauchsmöglichkeiten bestehen und in welchem Umfange die Informatik in der Lage ist, einen Mißbrauch technisch zu unterbinden. Hier kann man an die elektronische Gebührenerfassung auf Autobahnen oder die Patientenchipkarte denken.

6.4 Qualitätsprobleme und IT-Sicherheit in globalen Netzen
Die weltweite Zugänglichkeit elektronischer Netze wirft Probleme der Qualität übermittelter Informationen, der Sicherheit der Netze sowie des Datenschutzes auf.

Informatikinstitutionen und Fachgesellschaften müssen - zusammen mit anderen nationalen und internationalen Fachgesellschaften - dazu beitragen, die "Gutenberg-Gesellschaft" ohne Qualitätsverlust in der Wissenschaft in die interaktive elektronische Multimediagesellschaft zu transformieren. Dabei darf sie nicht außer Acht lassen, daß auch vor den modernsten Bildschirmgeräten "ein kluger Kopf" sitzen muß, um die Vorteile des direkten Zugriffs zum "Wissen der Welt" nutzen zu können. Dies bedeutet, daß Schülerinnen und Schüler, Studentinen und Studenten unverzüglich in den veranwortungsvollen Umgang mit den neuen interaktiven Medien sytematisch eingeführt werden müssen.

Vor allem aber muß die Informatik allen Nutzern die Gelegenheit geben, ihre Informationen durch Nutzung leistungsfähiger kryptographischer Methoden zu schützen. Eine Einschränkung kryptographischer Methoden zur Verschlüsselung von Daten ist deshalb unzulässig. Zulässig ist dagegen das Angebot neuer vertrauenswürdiger Instanzen zur Hinterlegung von elektronischen Schlüsseln, soweit dies von Regierungsseite nicht zwingend vorgeschrieben wird.

Selbst wenn man nicht so weit gehen will wie der Bundespräsident [Herzog], der den in der Informatik Tätigen die Verantwortung für die kommunizierten Inhalte mit aufladen möchte, darf die Informatik die Lösung der in ihren weltweiten Netzen aufgeworfenen Sicherheits- und Qualitätsprobleme nicht nur Fachleuten anderer Fachrichtungen überlassen.

6.5 Verteidigung
Selbst moralisch gerechtfertigte Verteidigungskriege zerstören Lebenschancen, verletzen ethische Normen höchster Wertigkeit. Bürgergesellschaften als die friedfertigeren und sozial gerechteren Gemeinwesen werden dennoch im Mittel die starke Norm "Krieg zu unterlassen", seltener verletzen. Wenn ein "pathologisches Gemeinwesen" Bürgergesellschaften angreift, besteht die Gefahr, daß der Angreifer bei einem Sieg in Zukunft wesentlich mehr elementare Menschenrechte unterdrückt als zuvor; dies führt zu zusätzlichen und zugleich schwereren Normenkonflikten als zuvor, erniedrigt also die Vernunft des besiegten Gemeinwesens drastisch.

Bei der Bedeutung der Informatik-Komponente für die meisten modernen Waffensysteme dürfen die Informatiker nicht der Entscheidung ausweichen, ob sie sich an militärischen Entwicklungen direkt beteiligen oder nicht. Außerdem lassen viele Informatik-Systeme, auch wenn bei ihrer Konstruktion nicht daran gedacht wurde, einen wirksamen Einsatz für militärische Zwecke zu. In Bürgergesellschaften dürfen sich in der Informatik Tätige Anwendungen für den Verteidigungsfall nicht grundsätzlich versagen.

Mögliche Grenzen bei der Mitwirkung an militärischen Aufgaben lassen sich am Beispiel der Geschichte der Atombombe verfolgen, deren Test und beiden ersten - und bisher einzigen - Einsätze 1996 mehr als 50 Jahre zurückliegen. Diese Geschichte bietet ein einzigartiges Lehrstück auch für das in der Informatik Richtige und Falsche.

7. Literatur

Aristoteles: Die Nikomachische Ethik; Zürich 1967
Aristoteles: Philosophische Schriften, Band 1-6; Hamburg 1995
Bacon, F.: Novum Organum 1,3; London 1620
Barth, G.: Daimler-Benz AG, Statement, Fachpressetag Hannover Messe'95, Tagungs-Centrum Messe, Nr. 86/95, 31.01.95
Beck, U.: Risikogesellschaft - Auf dem Weg in eine andere Moderne; Frankfurt 1996
Bentham, J.: Eine Einführung in die Prinzipien der Moral und der Gesetzgebung; O. Höffe (Hg): Einführung in die utilitaristische Ethik; Tübingen 1992
Berleur, J. and Brunnstein, K. (Ed.): Ethics of Computing; London 1996
Dahrendorf, R.: Lebenschancen; Frankfurt 1979
Dahrendorf, R.: Der moderne soziale Konflikt; Stuttgart 1992
Die Zeit, Nr. 5, 24. Januar 1997, 52. Jahrgang
Eigen, M.: Wir müssen wissen, wir werden wissen; H. Lenk (Hg): Wissenschaft und Ethik; Stuttgart 1991
Glatzer, W. und Zapf, W. (Hrsg.): Lebensqualität in der Bundesrepublik; Darmstadt 1984
Herzog, R.: Ansprache zur Eröffnung des 13. Weltcomputer-Kongresses in Hamburg; Informatik-Spektrum (1994)17: 277-280
Kant, I.: Kritik der Praktischen Vernunft, Analytik, § 7. Grundgesetz der reinen praktischen Vernunft; Werke; Darmstadt 1983
Krämer, W. und Trenkler, G.: Lexikon der populären Irrtümer; Frankfurt 1996
Lenk, H.: Zu einer praxisnahem Ethik der Verantwortung in den Wissenschaften; H. Lenk (Hg.): Wissenschaft und Ethik; Stuttgart 1991
Meyer-Abich, K. M.: Wege zum Frieden mit der Natur; München 1984
Mill, J. S.: Der Utilitarismus; Stuttgart 1985
Mill, J. S.: Gesammelte Werke; T. Gomperz (Hg.), Buch IV, Aalen 1968
Patzig, G.: Tatsachen, Normen, Sätze; Stuttgart 1980
Patzig, G.: Ethik ohne Metaphysik; Göttingen 1983
Pierer, H. von: Mit Informationstechnik Wirtschaft und Gesellschaft leistungsfähiger machen; Informatik-Spektrum (1994): 342-343
Platon: Sämtliche Werke, Band I; Heidelberg 1982
Popper, K.: Die offene Gesellschaft und ihre Feinde; Tübingen, 1992
Rampacher, H.: Ethik und Verantwortung in der Informatik; IBM Nachrichten Nr. 282, April 1986
Rampacher, H.: Ethisch-Gesellschaftliche Randbedingungen von Informatik-Innovationen; H. Lenk, H.Poser (Hrsg.): Neue Realitäten - Herausforderung der Philosophie; XVI. Deutscher Kongreß für Philosophie, Sektionsbeiträge I, S. 114; Berlin 1993
Rampacher, H.: Normen und Normenkonflikte; C. Hubig, H. Poser (Hrsg); Cognitio humana - Dynamik des Wissens und der Werte; XVII. Deutscher Kongreß für Philosophie, Workshop-Beiträge, Band 2, S. 1627, Leipzig 1996
Rawls, J.: Eine Theorie der Gerechtigkeit; Frankfurt 1979
Rawls, J.: Die Idee des politischen Liberalismus; Frankfurt 1992
Rödiger. K.H. et. al.: Informatik-Spektrum (1993):239-240
Süddeutsche Zeitung Nr. 43 vom 22. Februar 1994
Vorländer, K.: Immanuel Kant - Der Mann und das Werk; S. 170; Hamburg 1992
Weber, M.: Politik als Beruf; M. Weber, Gesammelte Politische Schriften, J. Winkelmann (Hg.); Tübingen 1971
Wright, G. H.von: Normen, Werte und Handlungen; Frankfurt 1994
ZEITPunkte, Nr. 1/1996