Ethik der Künstlichen Intelligenz

Ethische Fragen bei Entwicklung und Einsatz von Systemen der Künstlichen Intelligenz

Die Ethik der künstlichen Intelligenz ist ein Teilbereich der angewandten Ethik, der sich mit den ethischen Fragen von KI-Systemen[1] befasst.

Themenbereiche der KI-Ethik sind:[2]

  • die Rolle von KI-Systeme in der Gesellschaft und ethische Werte, die ihrem Einsatz zugrunde liegen.
  • ethische Normen für Menschen, die künstlich intelligente Systeme entwerfen, herstellen, testen, zertifizieren und benutzen.
  • ethisches Verhalten von KI-Systemen (Maschinenethik).
  • Konsequenzen einer sog. Singularität aufgrund einer superintelligenten KI.

Die KI-Ethik hat Berührungspunkte und Überlappungen mit anderen Teilbereichen der angewandten Ethik: Digitale Ethik, Informationsethik, Medienethik, Virtuelle Ethik, Technikethik und Roboterethik.

Die wachsende Bedeutung der KI-Ethik ergibt sich aus der Tatsache, dass „Künstliche Intelligenz (KI) und Robotik … in naher Zukunft erhebliche Auswirkungen auf die Entwicklung der Menschheit haben werden. Sie haben grundlegende Fragen darüber aufgeworfen, was wir mit diesen Systemen tun sollten, was die Systeme selbst tun sollten, welche Risiken sie bergen und wie wir diese kontrollieren können.“ Dabei sind nicht die Auswirkungen der KI-Anwendung an sich Gegenstand der KI-Ethik, sondern die Frage, wann und unter welchen Bedingungen bestimmte Auswirkungen zulässig sind.[3]

Die Debatte über ethische Fragen der KI begann bereits 1960 mit einer Arbeit[4] von Norbert Wiener und der Erwiderung von Arthur L. Samuel[5].

KI-Ethik als angewandte Ethik

Bearbeiten

KI-Ethik ist ein junges Teilgebiet der angewandten Ethik. Wie in anderen Bereichen der angewandten Ethik lassen sich auch hier zwei unterschiedliche Herangehensweisen unterscheiden: einerseits ein prinzipienethischer Ansatz, der allgemeine Prinzipien für die Behandlung praktischer Probleme aufstellt, und andererseits ein partikularistischer Ansatz, der Moralurteile für konkrete Handlungssituationen entwickelt.

Prinzipienethischer Ansatz

Bearbeiten

Der prinzipienethische Ansatz (englisch principlism) wurde in den 1970er Jahren in der Medizinethik entwickelt[6] und dient seitdem als Vorbild für die Entwicklung anderer Bereichsethiken, auch der KI-Ethik.[7]

Bei diesem Ansatz wird ein Satz von Prinzipien bereitgestellt, aus denen sich moralische Urteile für konkrete Handlungssituationen ableiten lassen, daher auch die Bezeichnung deduktivistisches Modell.[8] Die Prinzipien werden „dadurch begründet, dass sie eine Art Schnittmenge verschiedener normativer Konzeptionen darstellen“[9], so dass sie von den unterschiedlichen normativen Theorien unabhängig und mit jeder akzeptablen Ethik verträglich sind. Sie werden daher als Prinzipien mittlerer Reichweite (englisch mid-level-principles) bezeichnet und sollen außerdem an die moralischen Alltagsüberzeugungen (englisch common morality) anknüpfen. Es gibt hier kein oberstes Prinzip, das die Anwendung der anderen Prinzipien regelt, vielmehr kann es im konkreten Anwendungsfall durchaus Kollisionen zwischen den Prinzipien geben.[10]

Die Anwendung der Prinzipien auf einen konkreten Fall ist keine einfache Herleitung, sondern sie verlangt einerseits eine genaue Beschreibung der Handlungsalternativen und andererseits eine sorgfältige Interpretation und Gewichtung der Prinzipien. Ziel ist ein Überlegungsgleichgewicht wie es John Rawls in seiner Theorie der Gerechtigkeit eingeführt hat. Das Überlegungsgleichgewicht liefert kein kategorisches Urteil, sondern eine sogenannte Prima-facie- oder Ceteris-paribus-Entscheidung. „Es wird in schwierigen Fällen nicht gelingen, ein für alle Mal richtige moralische Urteile zu fällen, sie sind vielmehr immer vorläufig (defeasible).“[8]

Partikularistischer Ansatz

Bearbeiten

„Moralischer Partikularismus ist die Auffassung, dass der moralische Status einer Handlung nicht durch moralische Prinzipien bestimmt wird, sondern von der Konfiguration der moralisch relevanten Merkmale der Handlung in einem bestimmten Kontext abhängt. Die Hauptmotivation für den moralischen Partikularismus ergibt sich aus der Beobachtung, dass Ausnahmen von Prinzipien üblich und Ausnahmen von Ausnahmen nicht ungewöhnlich sind. Moralische Grundsätze, die nur für homogene Fälle geeignet sind, scheinen zu grob zu sein, um die feinen Nuancen in heterogenen moralischen Situationen zu berücksichtigen.“[11] Ob eine Eigenschaft ethisch für oder gegen eine Handlung spricht, hängt im Allgemeinen von den anderen Eigenschaften und Randbedingungen der Handlung ab.[10] Beim partikularistischen Ansatz werden konkrete Handlungsoptionen sorgfältig beschrieben und mit ähnlich gelagerten Fallbeispielen verglichen. Auch der partikularistische Ansatz greift auf ethische Prinzipien und Werte zurück.[8] Andere Bezeichnungen für diesen Ansatz sind rekonstruktives Modell[8] oder kasuistischer Ansatz.

Ethische Prinzipien der künstlichen Intelligenz

Bearbeiten

Eine Analyse[12] von 84 Dokumenten mit ethischen Prinzipien und Richtlinien für KI, die überwiegend zwischen 2016 und 2019 veröffentlicht wurden, identifizierte 11 übergreifende ethische Prinzipien. Nach der Häufigkeit ihres Auftretens geordnet sind dies:

Luciano Floridi und Josh Cowls warnen davor, dass die Vielzahl unterschiedlicher KI-Regelwerke eher zu Verwirrung führt und dass ein „Markt für Prinzipien entsteht, auf dem Interessenten versucht sein könnten, sich die attraktivsten herauszupicken.“[14] Ihre Analyse von sechs hochrangigen Initiativen für gesellschaftlich nützlichen Einsatz von KI[15][16][17][2][18][19] ergab eine weitgehende Übereinstimmung der ethischen Prinzipien, so dass es nach ihrer Ansicht möglich ist, die KI-Ethik auf die vier Prinzipien der Medizinethik und ein zusätzliches fünftes Prinzip Erklärbarkeit zu gründen[14]:

  1. Fürsorge (Benefizienz): KI-Technologie soll der Menschheit nützen, das Wohlergehen fördern, die Menschenwürde wahren und der Erhaltung des Planeten dienen.
  2. Schadensvermeidung (Non-Malefizienz): Negative Folgen eines übermäßigen oder missbräuchlichen Einsatzes von KI müssen vermieden werden, KI soll nur in einem sicheren Rahmen eingesetzt werden.
  3. Autonomie: Menschen müssen die volle Entscheidungsfreiheit darüber haben, ob und welche Aufgaben sie an KI-Systeme delegieren, ihre Freiheit, sich eigene Normen und Standards zu setzen, muss gewahrt bleiben.
  4. Gerechtigkeit: Wahrung der Solidarität, Vermeidung von Ungerechtigkeit, gleichberechtigter Zugang zu den Vorteilen der KI.
  5. Erklärbarkeit (Verständlichkeit): Die Prinzipien 1 bis 4 sind nur realisierbar, wenn auch Laien nachvollziehen können, welchen Nutzen oder Schaden KI für die Gesellschaft hat und wer für welche Auswirkungen verantwortlich ist.

Debatten der KI-Ethik

Bearbeiten

Autonomes Fahren

Bearbeiten

Die Stufen des automatisierten Fahrens werden durch die Norm SAE J3016 definiert. Ethische Probleme betreffen vor allem die Automatisierungsstufen 4 (Hochautomatisierung: das System kann in spezifischen Anwendungsfällen die Verkehrssituationen bewältigen) und 5 (Vollautomatisierung: das System beherrscht alle Verkehrssituationen).

Im Folgenden wird die Diskussion in Deutschland dargestellt. Wesentliche Quelle dafür ist der Bericht der vom Bundesministerium für Digitales und Verkehr eingesetzten Ethikkommission.[20] Die Stanford Encyclopedia of Philosophy zählt ihn zu den bemerkenswerten politischen Bemühungen in diesem Bereich. „Die daraus resultierenden deutschen und EU-Gesetze über die Zulassung des automatisierten Fahrens sind wesentlich restriktiver als die entsprechenden Vorschriften in den USA, wo das ‚Testen beim Verbraucher‘ von einigen Unternehmen als Strategie eingesetzt wird.“[21]

Ziele für den Einsatz autonomer Fahrzeuge

Bearbeiten

Automatisierte Verkehrssysteme sollen helfen, die Sicherheit für alle Verkehrsteilnehmer zu verbessern, die Mobilitätschancen zu erhöhen und weitere Vorteile wie Ressourcenschonung oder Umweltschutz zu unterstützen. Die Zulassung automatisierter Systeme ist nur dann vertretbar, wenn sie im Vergleich zur menschlichen Fahrleistung zumindest eine Schadensminderung verspricht. Eine Vollautomatisierung wird kritisch gesehen, da sie zu einem Verlust von Fähigkeiten führt und damit das autonome Handeln des Menschen einschränkt.[20]

Reaktion in Gefahrensituationen

Bearbeiten

Eine Vielzahl fachlicher und populärer Veröffentlichungen[22][23][24] behandelt die Frage, wie ein autonomes Fahrzeug bei plötzlich auftretenden Gefahren reagieren soll. Als besondere Schwierigkeit gilt, dass diese Entscheidung bereits während der Programmierung getroffen werden muss, also zu einem Zeitpunkt, an dem die Details der konkreten Situation noch nicht bekannt sind.

Als Modell für solche Entscheidungssituationen wird häufig das moralische Dilemma des Trolley-Problems in seinen verschiedenen Varianten herangezogen.[25] Fachleute bezweifeln, ob ein autonomes Auto jemals das Trolley-Problem zu lösen haben wird. Denn dabei „handelt es sich um Gedankenexperimente, bei denen die Wahlmöglichkeiten künstlich auf eine kleine, endliche Anzahl verschiedener, einmaliger Optionen beschränkt sind und der Akteur über perfektes Wissen verfügt“.[21]

Die Ethikkommission ist ähnlicher Auffassung: „Echte dilemmatische Entscheidungen, wie die Entscheidung Leben gegen Leben … sind nicht eindeutig normierbar und auch nicht ethisch zweifelsfrei programmierbar.“ In Gefahrensituationen besitzt der Schutz menschlichen Lebens höchste Priorität. „Bei unausweichlichen Unfallsituationen ist jede Qualifizierung nach persönlichen Merkmalen (Alter, Geschlecht, körperliche oder geistige Konstitution) strikt untersagt. Eine Aufrechnung von Opfern ist untersagt. Eine allgemeine Programmierung auf eine Minderung der Zahl von Personenschäden kann vertretbar sein. Die an der Erzeugung von Mobilitätsrisiken Beteiligten dürfen Unbeteiligte nicht opfern.“[20]

Eine Studie über die Akzeptanz von Entscheidungsstrategien hat gezeigt, dass die Mehrheit der Befragten eine utilitaristische Strategie, die auf eine Minimierung der Opferzahl setzt, befürwortet und wünscht, dass andere solche Fahrzeuge kaufen, aber selbst ein Fahrzeug vorziehen würde, das seine Insassen um jeden Preis schützt.[26]

Haftung und Verantwortung

Bearbeiten

„Die dem Menschen vorbehaltene Verantwortung verschiebt sich bei automatisierten und vernetzten Fahrsystemen vom Autofahrer auf die Hersteller und Betreiber der technischen Systeme und die infrastrukturellen, politischen und rechtlichen Entscheidungsinstanzen.“[20] Damit lehnt die Ethikkommission auch Überlegungen ab, die Haftung der Automobilhersteller zu begrenzen, um dadurch die Entwicklung und Verbesserung autonomer Fahrzeuge zu fördern und die Zahl schwerer Unfälle erwartungsgemäß zu senken.[27]

Soll der Nutzer verpflichtet werden, auf die Straße und den Verkehr zu achten und gegebenenfalls einzugreifen? Nida-Rümelin lehnt das ab, weil es Blinde oder ältere Menschen von der Benutzung autonomer Fahrzeuge ausschlösse und weil die Entwicklung bald einen Stand erreichen wird, an dem der Mensch nicht mehr wirksam eingreifen kann.[27] Die Ethikkommission verlangt darüber hinaus, „Software und Technik hochautomatisierter Fahrzeuge müssen so ausgelegt werden, dass die Notwendigkeit einer abrupten Übergabe der Kontrolle an den Fahrer (‚Notstand‘) praktisch ausgeschlossen ist.“[20]

Die verschuldensunabhängige Haftung für das allgemeine Risiko der Fahrzeugnutzung soll auch für autonome Fahrzeuge über eine allgemeine Haftpflichtversicherung abgesichert werden.[27]

Einschränkung der menschlichen Autonomie

Bearbeiten

Wenn autonome Fahrzeuge zur Erhöhung der Sicherheit führen, muss dann die (freiwillige) Übernahme der Steuerung durch den Menschen (Overruling), ausgeschlossen werden? Die Ethikkommission hält es für einen Ausdruck der Autonomie des Menschen, dass er auch objektiv unvernünftige Entscheidungen wie aggressives Fahren oder überhöhte Geschwindigkeit treffen kann. Es widerspräche dem Leitbild des mündigen Bürgers, wenn der Staat ein solches Verhalten bereits im Ansatz unterbinden wollte. „Er könnte damit die Grundlage einer humanen, freiheitlichen Gesellschaft untergraben. … Die Verminderung von Sicherheitsrisiken und die Begrenzung der Freiheit muss im demokratischen und grundrechtlichen Abwägungsprozess entschieden werden: Es besteht keine ethische Regel, die Sicherheit immer vor Freiheit setzt.“ Auch eine verpflichtende Einführung autonomer Systeme lässt sich nicht mit einer Erhöhung der Sicherheit begründen.[20]

Datenhoheit

Bearbeiten

Grundsätzlich entscheiden Fahrzeughalter oder Fahrzeugnutzer über Weitergabe und Verwendung ihrer anfallenden Fahrzeugdaten. Die Entwicklung des automatisierten Fahrens könnte aber auf eine zentrale Verkehrssteuerung mit der Erfassung aller Kraftfahrzeuge hinauslaufen, die einen bedeutenden Gewinn an Verkehrssicherheit, Effizienz und Komfort bringen würde. Solche zentralen Strukturen gefährden allerdings die Freiheit des Einzelnen, sich unerkannt, unbeobachtet und frei zu bewegen, und sie bergen das Risiko eines Missbrauchs. „Eine kritische Reflektion des Machbaren vor dem Hintergrund des Sinnvollen, Maßvollen und ethisch Verantwortbaren sollte daher stattfinden.“[20]

Lernende Systeme

Bearbeiten

Lernende Systeme werden während der Entwicklung trainiert, sie unterliegen der Kontrolle des Herstellers und der Zulassungsbehörden. Selbstlernende Systeme, die sich im laufenden Fahrbetrieb verändern, können ethisch erlaubt sein, wenn sie Sicherheitsgewinne bringen und Abnahmetests unterliegen. Beim gegenwärtigen Stand der Technik sollten sie jedoch von sicherheitsrelevanten Funktionen entkoppelt sein.[20]

Autonome Waffensysteme

Bearbeiten

KI wird weltweit für verschiedene militärische Aufgaben eingesetzt, um Prozesse zu optimieren und zu beschleunigen. Für die KI-Ethik sind vor allem zwei Anwendungsbereiche relevant: autonome Waffensysteme und der Einsatz von KI bei der Zielplanung und bei Führungsprozessen.[28]

Definition des Internationalen Komitees vom Roten Kreuz: „Autonome Waffensysteme wählen Ziele aus und wenden Gewalt an, ohne dass ein Mensch eingreift. Nach der anfänglichen Aktivierung oder dem Start durch eine Person leitet ein autonomes Waffensystem als Reaktion auf Informationen aus der Umgebung, die es über Sensoren erhält, und auf der Grundlage eines allgemeinen ‚Zielprofils‘ selbst einen Angriff ein oder löst ihn aus. Dies bedeutet, dass der Anwender das/die konkrete(n) Ziel(e) und den genauen Zeitpunkt und/oder Ort der daraus resultierenden Gewaltanwendung(en) nicht auswählt oder gar kennt. Der Einsatz autonomer Waffensysteme ist mit Risiken verbunden, da ihre Auswirkungen nur schwer vorhersehbar und begrenzbar sind. Dieser Verlust an menschlicher Kontrolle und Urteilsfähigkeit bei der Anwendung von Gewalt und Waffen wirft aus humanitärer, rechtlicher und ethischer Sicht ernsthafte Bedenken auf.“[29]

Autonome Waffensysteme (AWS) werden auch als Roboterwaffen oder Killerroboter bezeichnet. Tödliche autonome Waffensysteme (englisch Lethal Autonomous Weapon Systems, LAWS) sind AWS, die ausdrücklich für den offensiven Einsatz bestimmt sind.

Je nach Einflussmöglichkeit des Menschen werden drei Autonomiestufen unterschieden[30]:

  • human–in–the–loop (HITL): keine Autonomie, der Mensch trifft alle Entscheidungen, ggf. auch per Fernbedienung.
  • human–on–the–loop (HOTL): die Prozesse können autonom ablaufen, der Mensch bleibt jedoch in der Kontrollschleife und kann jederzeit eingreifen.
  • human–out–of–loop (HOOL): vollständige Autonomie, eine Kontroll- und Eingriffsmöglichkeit des Menschen ist nicht mehr vorgesehen.

Es gibt Vorschläge, militärische Entscheidungsprozesse näher an das Kampfgeschehen heranzuführen und z. B. im Cockpit von Kampfflugzeugen zu installieren, damit KI den Piloten bei der Entscheidungsfindung unterstützt. In Situationen mit extrem hohem Tempo (z. B. bei der Raketenabwehr oder bei hochintensiven Einsätzen), in denen der Mensch nicht mehr in der Lage ist, ein fundiertes Urteil zu fällen, sollte eine regelbasierte KI-Anwendung die Aufgabenkontrolle ohne menschliches Eingreifen übernehmen (HOOL-Modus).[31]

Ethikmodul für autonome Waffensysteme

Bearbeiten

Grundlagen für die ethische Bewertung von AWS sind das humanitäre Völkerrecht, die Lehre vom gerechten Krieg und die Rules of Engagement[32].

Das bislang am weitesten durchdachte[30] Ethikmodul für LAWS wurde von Ronald C. Arkin zwischen 2006 und 2009 im Auftrag des US-Verteidigungsministeriums entwickelt[33] Arkins System basiert auf vier ethischen Prinzipien, die sich aus dem Kriegs- und Völkerrecht ergeben:

  1. Unterscheidung zwischen legitimen und illegitimen Zielen: Legitim sind Kombattanten und militärische Objekte, nicht legitim sind Zivilpersonen und nichtmilitärische Ziele, insbesondere geschützte Objekte wie Schulen oder Krankenhäuser.
  2. Militärische Notwendigkeit: Der Angriff auf legitime Ziele ist nur dann erlaubt, wenn dadurch ein militärischer Vorteil zu erwarten ist.
  3. Vermeidung unnötiger Leiden und Kollateralschäden (siehe auch: Prinzip der Doppelwirkung).
  4. Verhältnismäßigkeit der Aktionen.

Die Entwicklung eines künstlichen moralischen Agenten für solche komplexen Abwägungen ist allerdings noch eine ungelöste Aufgabe. Selbst wenn es ein Ethikmodul gäbe, bliebe die Frage, wie sichergestellt werden kann, dass es sich tatsächlich an die Regeln hält. Wer soll diese Waffen wie testen, so dass sich ein Staat auf die Einhaltung des Kriegsvölkerrechts verlassen kann?[34]

Gründe für und gegen autonome Waffen- und Führungssysteme

Bearbeiten

Gründe für AWS:[35]

  • Hohe Reaktionsgeschwindigkeit und Genauigkeit, Entscheidungen beruhen auf einer breiteren Informationsbasis, da KI-Systeme große Informationsmengen mit hoher Geschwindigkeit verarbeiten können.
  • Reduzierung der menschlichen Kosten des Krieges, geringere Risiken für Soldaten.
  • AWS haben keine Emotionen, keine menschliche Schwächen und brauchen keine Pausen.
  • Strikte Einhaltung des Kriegsrechts und der Einsatzregeln gemäß ihrer Programmierung, wodurch Kriegsverbrechen und Gräueltaten weniger wahrscheinlich werden, so dass Non-Kombattanten und zivile Infrastruktur besser geschützt werden.
  • AWS können in Umgebungen eingesetzt werden, in denen eine menschliche Fernsteuerung nicht möglich ist (z. B. unter Wasser).
  • Auf lange Sicht können AWS billiger sein als Soldaten.

Gründe gegen AWS:

  • Verletzung der Menschenwürde: „Algorithmen könnten … eigenständig, ohne menschliches Einwirken, Entscheidungen über Leben und Tod treffen. Das ist aus moralischer Perspektive höchst problematisch, da ein solches Vorgehen Menschen objektiviert und die Menschenwürde verletzt.“[36]
  • Zerstörung der moralischen Instanz des Menschen: „Der Mensch hat eine moralische Instanz, die seine Entscheidungen und Handlungen leitet, selbst in Konflikten, in denen Tötungsentscheidungen gewissermaßen normal sind. Autonome Waffen schränken die menschliche Handlungsfähigkeit bei Entscheidungen zum Töten, Verletzen und Zerstören ein oder drohen sie sogar aufzuheben. Dies ist ein entmenschlichender Prozess, der unsere Werte und unsere gemeinsame Menschlichkeit untergräbt.“[37]
  • Verantwortungslücke: Wem soll die Verantwortung für ein Fehlverhalten des Systems zugeschrieben werden, wenn es unbeabsichtigt und unvorhersehbar war und keine Kontrolle mehr über das AWS bestand? Selbst ein Mensch in der Kontrollschleife (HOTL–Modus), ist auf die Daten der Maschine angewiesen und steht unter immensem Zeitdruck, so dass er kaum in der Lage ist einzugreifen.[30]
  • Fehleranfälligkeit von AWS: Aufgrund ihres begrenzten Urteilsvermögens könnten sie rechtswidrige Befehle oder unverhältnismäßige Aktionen ausführen.
  • AWS könnten die Kriegsgefahr erhöhen, indem sie Kriege weniger schlimm machen (siehe oben).
  • Cyberattacken könnten AWS so verändern, dass sie zu einer unkontrollierbaren Gefahr werden.[30]

Initiativen für Verbot oder Regulierung von AWS

Bearbeiten

Im Jahr 2008 forderte die in London ansässige „Landmine Action“, das Verbot von LAWS im Rahmen der Landminen-Verbotskonvention.[38]

Am 30. September 2009 wurde unter der Leitung von Noel Sharkey das „International Committee for Robot Arms Control“ (ICRAC) gegründet, das sich für eine Beschränkung des militärischen Einsatzes von Robotern einsetzt.[39]

Im April 2013 wurde die „Campaign to Stop Killer Robots“ gegründet. Ihre mehr als 180 Mitgliedsorganisationen (Stand 2023[40]) setzen sich für ein präventives Verbot von LAWS ein.

Der Berichterstatter des UN-Menschenrechtsrats empfahl 2013 nationale Moratorien für die Produktion, Beschaffung, Erprobung und den Einsatz von LAWS, bis ein internationales Rahmenwerk vereinbart ist.[41]

Im Juli 2015 wurde auf der International Joint Conference on Artificial Intelligence in Buenos Aires ein offener Brief präsentiert, in dem über 1.000 hochrangige Expertinnen und Experten vor einem militärischen Wettrüsten mit KI warnen und ein Verbot von LAWS fordern.[42]

Im Rahmen der UN-Waffenkonvention führen die über 100 Vertragsstaaten[43] seit 2014 Gespräche auch über LAWS. Im Jahr 2017 wurde eine „Gruppe von Regierungsexperten“ eingerichtet, die ein Rahmenwerk zu LAWS als Vorstufe für ein rechtsverbindliches Zusatzprotokoll erarbeiten soll. Ein Schritt in diese Richtung waren die 11 unverbindlichen Leitprinzipien, auf die sich die Vertragsstaaten 2019 geeinigt haben. Die zwei wichtigsten Prinzipien sind:

  • „Das humanitäre Völkerrecht gilt weiterhin uneingeschränkt für alle Waffensysteme, einschließlich der potenziellen Entwicklung und des Einsatzes von tödlichen autonomen Waffensystemen.“[44]
  • „Die menschliche Verantwortung für Entscheidungen über den Einsatz von Waffensystemen muss beibehalten werden, da Verantwortung nicht auf Maschinen übertragen werden kann. Dies ist über den gesamten Lebenszyklus des Waffensystems zu berücksichtigen.“[44]

Maschinenethik

Bearbeiten

Auf der IEEE-Robotics-Konferenz 2002 in Genua[45] wurde vereinbart, das Gebiet der Roboter-Ethik aufzuteilen[46]:

  • Maschinenethik (englisch machine ethics) befasst sich mit dem Verhalten von Maschinen gegenüber Menschen. „Die Maschinenethik ist eine Ethik für Maschinen, für ‚ethische Maschinen‘, für Maschinen als Subjekte, und nicht für die menschliche Nutzung von Maschinen als Objekte.“[3]
  • Roboterethik (englisch roboethics) befasst sich mit dem Verhalten von Menschen gegenüber Maschinen, sowohl in der Entwurfs– als auch in der Nutzungsphase.

Susan Anderson, Pionierin der Maschinenethik, definiert: „Das ultimative Ziel der Maschinenethik ist es, eine Maschine zu schaffen, die sich in ihrem Verhalten von einem idealen ethischen Prinzip oder einer Reihe von Prinzipien leiten lässt …. Vereinfacht gesagt geht es darum, der Maschine eine ‚ethische Dimension‘ zu geben.“[47]

Vincent C. Müller dämpft die Erwartungen: „Es ist nicht klar, ob es einen konsistenten Begriff der ‚Maschinenethik‘ gibt, da schwächere Versionen Gefahr laufen, «Ethik haben» auf Begriffe zu reduzieren, die normalerweise nicht als ausreichend angesehen würden (z. B. ohne ‚Reflexion‘ oder sogar ohne ‚Handlung‘); stärkere Begriffe, die sich in Richtung künstlicher moralischer Agenten bewegen, könnten eine - derzeit leere - Menge beschreiben.“[3]

Das Deutsche Institut für Normung untersuchte Ethikaspekte in der Normung und Standardisierung für KI.[48] Darin enthalten ist eine Übersicht (Stand 2020) einschlägiger ISO– und IEEE–Normen.

Maschinenethik als eine Reihe von Gesetzen zu formulieren, war eine Idee des Biochemikers und Science-Fiction-Schriftstellers Isaac Asimov. Seine Robotergesetze formulierte er erstmals 1942 in der Erzählung Runaround.[49]

Verantwortlichkeit von Maschinen

Bearbeiten

Die Frage, ob Maschinen für ihre Aktionen verantwortlich sein können, wird kontrovers diskutiert, aber von den meisten Autoren verneint.

Colin Allen et al. argumentieren, dass ein künstliches System moralisch verantwortlich sein kann, wenn sein Verhalten funktional nicht von dem einer moralischen Person zu unterscheiden ist, und prägen den Begriff eines „moralischen Turing-Tests“ („If human ‚interrogators’ cannot identify the machine at above chance accuracy, then the machine is, on this criterion, a moral agent.“)[50]

Andreas Matthias warnt vor einer Verantwortungslücke: Da der Hersteller oder Betreiber einer lernenden Maschine prinzipiell nicht mehr in der Lage ist, deren zukünftiges Verhalten vorherzusagen, kann er dafür auch nicht moralisch verantwortlich oder haftbar gemacht werden.[51]

Matthias Rath legt dar, dass Maschinen nicht verantwortlich handeln können, weil ihnen Willensfreiheit fehlt: „Die Fähigkeit, die eigene Regelvorgabe zu problematisieren – sich also über diese intentional hinweg zu setzen –, und zwar ohne Programmierung des „Aufstands“ gegen das Programm, ist für die Frage nach einem ethischen bzw. ethisch relevanten moralischen Akteur unabdingbar. … Freiheit ist, wie Immanuel Kant … gezeigt hat, zwar nicht empirisch belegbar, aber sie ist als notwendiges Postulat der moralischen Handlung ‚unmittelbar gewiss‘.“[52]

Nach Meinung des Deutschen Ethikrats können Maschinen keine Verantwortung übernehmen: „Moralische Verantwortung können nur natürliche Personen übernehmen, die über Handlungsfähigkeit verfügen, d. h. in der Lage sind, aktiv, zweckgerichtet und kontrolliert auf die Umwelt einzuwirken und dadurch Veränderungen zu verursachen. … Verantwortung kann daher nicht direkt von maschinellen Systemen übernommen werden, sondern nur von den Menschen, die in je unterschiedlichen Funktionen hinter diesen Systemen stehen, gegebenenfalls im Rahmen institutioneller Verantwortung.“[53] „Selbst wenn Maschinen komplexe Vollzüge oder Operationen durchführen … und flexibel mit anspruchsvollen Herausforderungen der menschlichen Lebenswelt umgehen können, führen sie diese Veränderungen aber nicht absichtlich herbei und haben sie diese daher auch nicht in einem moralischen und rechtlichen Sinne zu verantworten. … Das Intentionalitätskriterium ist entscheidend für die Möglichkeit der Zuschreibung von Verantwortung im Kontext von Mensch-Maschine-Interaktionen.“[54]

Der sogenannte Automation Bias – Menschen vertrauen algorithmisch generierten Ergebnissen und automatisierten Entscheidungsverfahren oft mehr als menschlichen Entscheidern – kann dazu führen, dass mit der Zeit das KI-System als Entscheider angesehen wird und menschliche Autorschaft und Verantwortung ausgehöhlt werden.[55]

Künstliche moralische Agenten

Bearbeiten

Die Abkürzung AMA für künstliche moralische Agenten geht auf die englische Bezeichnung „artificial moral agent“ zurück.

Ein rationaler Agent (auch als intelligenter Agent bezeichnet) nimmt seine Umgebung mit Hilfe von Sensoren wahr und wählt selbständig Aktionen aus, um ein vorgegebenes Ziels zu erreichen, zudem kann er seine Performance durch Lernen verbessern. Er zeichnet sich also durch Interaktivität, Autonomie und Anpassungsfähigkeit aus.[56] (siehe auch Software-Agent). Ein moralischer Agent ist ein rationaler Agent, der fähig ist, seine Aktionen nach ethischen Grundsätzen auszurichten und – zumindest auf einer höheren Stufe – seine Handlungen auch zu begründen. Daraus folgt nicht, dass moralischen Agenten auch Verantwortung zugeschrieben werden kann, denn dazu fehlt ihnen die Willensfreiheit.

James Moor definiert vier Kategorien ethischer Agenten:[57]:

  • Agenten mit ethischen Auswirkungen: Agenten, die moralische Konsequenzen erzeugen, ohne dass diese Konsequenzen als solche beabsichtigt sind.
  • Implizit ethische Agenten: Agenten, die so entwickelt wurden, dass sie unethische Ergebnisse vermeiden. Sie besitzen keine wirkliche Handlungsfähigkeit, da ihre moralischen Qualitäten ausschließlich auf ihre Konstrukteure zurückzuführen sind.
  • Explizit ethische Agenten: Agenten, die moralisch relevante Informationen erkennen und verarbeiten können und moralische Entscheidungen treffen.
  • Vollständig ethische Agenten: Agenten, die explizit moralische Urteile fällen und begründen können.

Für Wendell Wallach und Colin Allen wird der Grad von Moralität durch die unterschiedliche Ausprägung der beiden Dimensionen Autonomie und ethische Sensibilität bestimmt. Zwischen operationaler Moralität, die der untersten Stufe bei Moor entspricht, und einer voll ausgebildeten Moralität wie beim Menschen positionieren sie die als technisch realisierbar angesehene funktionale Moralität, bei der eine Maschine selbst fähig ist, moralische Herausforderungen zu bewerten und darauf zu reagieren.[58]:9

Moralische Agenten werden vor allem im Zusammenhang mit autonomen Waffensystemen und autonomen Fahrzeugen diskutiert.

Das erste ausgearbeitete Konzept eines moralischen Agenten war das von Ronald C. Arkin entwickelt Ethikmodul für autonome Waffensysteme.[33]

Realisierung moralischer Agenten

Bearbeiten

Gegen eine Realisierung moralischer Agenten spricht der auf John Searles Gedankenexperiment des chinesischen Zimmers zurückgehende Einwand, dass Maschinen keine mentalen Zustände haben können. Eine moralische Handlung setzt aber den mentalen Zustand der Absicht voraus.

Der in der modernen Kognitionspsychologie verbreitete philosophische Funktionalismus umgeht Searles Einwand, indem er mentale Zustände als funktionale Zustände versteht: Auf einen bestimmten Input reagiert das System in Abhängigkeit vom aktuellen Zustand mit einem bestimmten Output und geht in einen anderen funktionalen Zustand über. Die repräsentationale Theorie des Geistes von Jerry Fodor verbindet diese Sichtweise mit der Computertheorie des Geistes. Mentale Prozesse werden als Turing-ähnliche Berechnungen über strukturierten Symbolen – den mentalen Zuständen – verstanden. Für die Realisierbarkeit moralischer Agenten genügt es, dass Computer funktionale Zustände haben, die funktional äquivalent zu mentalen Zuständen sind. Catrin Misselhorn bezeichnet sie als quasi-intentionale Zustände.[59]:36–39

Für die Implementierung moralischer Agenten werden drei unterschiedliche Ansätze verfolgt.

  • Der Top-down–Ansatz entspricht dem prinzipienethischen Ansatz. Es wird versucht, moralische Prinzipien im Agenten abzubilden, aus denen der Agent dann ableitet, was in der konkreten Situation zu tun ist.[59]:40
  • Der Bottom-up–Ansatz entspricht dem partikularistischen Ansatz, der auf der Fähigkeit beruht, die ethisch relevanten Aspekte einer Situation zu erkennen. Um diese Fähigkeiten in künstlichen Systemen zu realisieren, wird die Mustersuche in einer Datenmenge mit einem Lernenprozess kombiniert, der eine Art ethische Evolution nachbildet.[59]:40–41
  • Der hybride Ansatz geht von einem vorgegebenen ethischen Regelwerk aus und passt es in einem Lernprozess an den spezifischen Anwendungsfall an.[59]:41

Problem des Regelkonflikts: In einer moralisch zu beurteilenden Situation können mehrere Prinzipien von Bedeutung sein. Der moralische Agent muss herausfinden, welche Prinzipien in einer Situation gelten und wie sie im Konfliktfall in Einklang zu bringen sind.[60]

Problem des Kontextwechsels: Wenn der moralische Agent für einen bestimmten Anwendungsbereich programmiert oder trainiert wurde, ist unklar, in welchen anderen Anwendungskontexten er eingesetzt werden kann.[60]

„Alle nicht-trivialen Beispiele für den echten Einsatz von KI sind bisher auf dem Niveau von ‚Agenten mit ethischen Auswirkungen‘. Ihr Verhalten kann nicht ethisch genannt werden, weil die Intention fehlt, die eine Handlung erst ethisch macht.“[60]

Datenschutz und Überwachung

Bearbeiten

Singularität durch superintelligente KI

Bearbeiten


Literatur

Bearbeiten
Bearbeiten

Einzelnachweise

Bearbeiten
  1. KI-Systeme sind „vom Menschen entwickelte Software– (und möglicherweise auch Hardware–) Systeme, die in Bezug auf ein komplexes Ziel auf physischer oder digitaler Ebene agieren, indem sie ihre Umgebung durch Datenerfassung wahrnehmen, die gesammelten strukturierten oder unstrukturierten Daten interpretieren, Schlussfolgerungen daraus ziehen oder die aus diesen Daten abgeleiteten Informationen verarbeiten und über geeignete Maßnahmen zur Erreichung des vorgegebenen Ziels entscheiden. KI-Systeme können … auch ihr Verhalten anpassen, indem sie analysieren, wie die Umgebung von ihren vorherigen Aktionen beeinflusst wird.“ Ethics guidelines for trustworthy AI. Europäische Kommission, 2019, abgerufen am 30. Juni 2023.
  2. a b Europäische Gruppe für Ethik der Naturwissenschaften und der neuen Technologien: Erklärung zu künstlicher Intelligenz, Robotik und „autonomen“ Systemen. Europäische Kommission, Generaldirektion Forschung und Innovation, 2018, abgerufen am 1. Mai 2023.
  3. a b c Vincent C. Müller: Ethics of Artificial Intelligence and Robotics. In: The Stanford Encyclopedia of Philosophy (Summer 2021 Editionn). Edward N. Zalta, Uri Nodelman, abgerufen am 20. Juni 2023 (englisch).
  4. Norbert Wiener: Some Moral and Technical Consequences of Automation. In: Science. Band 131, Nr. 3410, 1960, S. 1355–1358, JSTOR:1705998.
  5. Arthur L. Samuel: Some Moral and Technical Consequences of Automation - A Refutation. In: Science. Band 132, Nr. 3429, 1960, S. 741–742, doi:10.1126/science.132.3429.741.
  6. Tom Lamar Beauchamp und James Franklin Childress: Principles of biomedical ethics. 8. Auflage. Oxford University Press, New York, NY 2019, ISBN 978-0-19-064087-3 (1. Auflage 1979).
  7. Jaana Hallamaa, Taina Kalliokoski: AI Ethics as Applied Ethics. University of Helsinki, 2022, abgerufen am 30. Juni 2023 (englisch).
  8. a b c d Ralf Stoecker, Christian Neuhäuser, Marie-Luise Raters: Einführung und Überblick. In: Christian Neuhäuser, Marie-Luise Raters, Ralf Stoecker (Hrsg.): Handbuch Angewandte Ethik. 2. Auflage. J.B. Metzler, Stuttgart 2023, ISBN 978-3-476-05868-3, S. 33–37.
  9. Marcus Düwell: Prinzipienethik. In: Christian Neuhäuser, Marie-Luise Raters, Ralf Stoecker (Hrsg.): Handbuch Angewandte Ethik. 2. Auflage. J.B. Metzler, Stuttgart 2023, ISBN 978-3-476-05868-3, S. 3–16.
  10. a b Dominik Düber, Michael Quante: Prinzipien, Prinzipienkonflikte und moralischer Partikularismus. In: Normenbegründung in Medizinethik und Biopolitik, Kolleg-Forschergruppe WWU Münster, 2016. Abgerufen am 7. Juni 2023.
  11. Peter Shiu-Hwa Tsu: Moral Particularism. In: Internet Encyclopedia of Philosophy. Abgerufen am 8. Juli 2023 (englisch).
  12. Anna Jobin, Marcello Ienca, Effy Vayena: The global landscape of AI ethics guidelines. In: Nature Machine Intelligence. Band 1, 2019, S. 389–399, doi:10.1038/s42256-019-0088-2.
  13. Maximilian Gahntz: Erklärbare KI. Kompetenzzentrum Öffentliche IT, abgerufen am 23. Mai 2023.
  14. a b Luciano Floridi, Josh Cowls: A Unified Framework of Five Principles for AI in Society. In: Harvard Data Science Review. Band 1, Nr. 1, 2019, doi:10.1162/99608f92.8cd550d1.
  15. AI Principles. Future of Life Institute, abgerufen am 29. März 2023 (englisch).
  16. The Montréal Declaration for a Responsible Development of Artificial Intelligence. Université de Montréal, abgerufen am 27. Juli 2023 (englisch, französisch).
  17. ETHICALLY ALIGNED DESIGN – A Vision for Prioritizing Human Well-being with Autonomous and Intelligent Systems. Institute of Electrical and Electronics Engineers (IEEE), abgerufen am 27. Juli 2023 (englisch).
  18. AI in the UK: ready, willing and able? HOUSE OF LORDS – Select Committee on Artificial Intelligence, S. 125, abgerufen am 27. Juli 2023 (englisch).
  19. Our Tenets. Partnership on AI (PAI), abgerufen am 27. Juli 2023 (englisch).
  20. a b c d e f g h Bundesminister für Verkehr und digitale Infrastruktur (Hrsg.): Automatisiertes und vernetztes Fahren. Berlin Juni 2017 (bund.de).
  21. a b Vincent C. Müller: Ethics of Artificial Intelligence and Robotics. In: The Stanford Encyclopedia of Philosophy (Summer 2021 Edition). Edward N. Zalta, abgerufen am 31. Juli 2023 (englisch).
  22. Geoff Keeling: The Ethics of Automated Vehicles. Abgerufen am 6. August 2023 (englisch).
  23. Stamatis Karnouskos: self-driving car acceptance and the role of ethics. In: IEEE Transactions on Engineering Management 67(2):252-265. Band 67, Nr. 2, Mai 2020, S. 252–265, doi:10.1109/TEM.2018.2877307 (englisch, researchgate.net – dort weitere Literaturangaben).
  24. Christoph Stockburger: Was soll ihr Auto jetzt tun? In: Der Spiegel. 29. August 2016 (spiegel.de [abgerufen am 3. August 2023]).
  25. Alexander Hevelke, Julian Nida-Rümelin: Selbstfahrende Autos und Trolley-Probleme: Zum Aufrechnen von Menschenleben im Falle unausweichlicher Unfälle. In: Jahrbuch für Wissenschaft und Ethik. Band 19, Nr. 1, 2015, S. 5–24, doi:10.1515/jwiet-2015-0103.
  26. Jean-François Bonnefon, Azim Shariff, Iyad Rahwan: The Social Dilemma of Autonomous Vehicles. In: Science. Band 352, Nr. 6293, 24. Juni 2016, S. 1573–1576, doi:10.1126/science.aaf2654 (englisch, arxiv.org [PDF]).
  27. a b c Alexander Hevelke, Julian Nida-Rümelin: Responsibility for Crashes of Autonomous Vehicles: An Ethical Analysis. In: Science and Engineering Ethics. Band 21, 2015, S. 619–630, doi:10.1007/s11948-014-9565-5.
  28. Frank Sauer: Künstliche Intelligenz in den Streitkräften: Zum Handlungsbedarf bei Autonomie in Waffensystemen. Bundesakademie für Sicherheitspolitik, abgerufen am 11. August 2023.
  29. ICRC position on autonomous weapon systems. International Committee of the Red Cross, abgerufen am 9. August 2023 (englisch).
  30. a b c d Catrin Misselhorn: Autonome Waffensysteme/Kriegsroboter. In: Oliver Bendel (Hrsg.): Handbuch Maschinenethik. Springer VS, Wiesbaden 2019, ISBN 978-3-658-17482-8, S. 319–334.
  31. Jean-Michel Verney, Thomas Vinçotte: Human-On-the-Loop. In: Joint Air & Space Power Conference 2021. Abgerufen am 14. August 2023 (englisch).
  32. „Rules of Engagement“ und die Taschenkarten der Bundeswehr. Wissenschaftlicher Dienst des Bundestages, abgerufen am 15. August 2023.
  33. a b Ronald Arkin: Governing Lethal Behavior in Autonomous Robots. Chapman and Hall, New York 2009, ISBN 978-1-4200-8595-2, S. 79 ff., doi:10.1201/9781420085952.
  34. Regulierung von autonomen Waffensystemen – TAB-Bericht. Statement von Silja Vöneky. Science Media Center Germany, abgerufen am 15. August 2023.
  35. Vincent C. Müller: Autonomous killer robots are probably good news. In: Ezio Di Nucci, Filippo Santoni de Sio (Hrsg.): Drones and responsibility: Legal, philosophical and sociotechnical perspectives on the use of remotely controlled weapons. Ashgate, London 2016, ISBN 978-1-315-57818-7, S. 67–81 (online=[1]).
  36. Autonome Waffensysteme: keine Regulierung in Sicht. Deutsche Gesellschaft für die Vereinten Nationen e.V., abgerufen am 14. August 2023.
  37. What you need to know about autonomous weapons. International Committee of the Red Cross, abgerufen am 9. August 2023 (englisch).
  38. Paul Marks: Anti-landmine campaigners turn sights on war robots. In: newscientist.com. 28. März 2008, abgerufen am 2. März 2024 (englisch).
  39. Nic Fleming: Campaign asks for international treaty to limit war robots. In: newscientist.com. 30. September 2009, abgerufen am 2. März 2024 (englisch).
  40. Stop Killer Robots, About Us. Abgerufen am 16. August 2023 (englisch).
  41. Christof Heynes: Report of the Special Rapporteur on extrajudicial, summary or arbitrary executions. §113. UN General Assembly, Human Rights Council, abgerufen am 16. August 2023 (englisch).
  42. Musk, Wozniak and Hawking urge ban on warfare AI and autonomous weapons. In: The Guardian. Abgerufen am 17. August 2023 (englisch).
  43. Liste der Staaten, die die Konvention ratifiziert haben. In: Vertragssammlung der Vereinten Nationen. Vereinte Nationen, 30. März 2022, abgerufen am 30. März 2022 (englisch).
  44. a b Final report: Meeting of the High Contracting Parties to the Convention on Prohibitions or Restrictions on the use of Certain Conventional Weapons Which May Be Deemed to Be Excessively Injurious or to Have Indiscriminate Effects, Geneva, 13-15 November 2019. Anhang III. Leitprinzipien. United Nation, abgerufen am 9. August 2023 (englisch).
  45. Proceedings 2002 IEEE International Conference on Robotics and Automation. Abgerufen am 22. August 2023 (englisch).
  46. John P. Sullins: Introduction: Open Questions in Roboethics. In: Philosophy & Technology. Nr. 24, 2011, S. 233–238, doi:10.1007/s13347-011-0043-6.
  47. Susan Leigh Anderson: Machine Metaethics. 1. Auflage. Cambridge University Press, New York 2011, ISBN 978-0-521-11235-2, S. 22 (eingeschränkte Vorschau in der Google-Buchsuche).
  48. Deutsches Institut für Normung (Hrsg.): Ethik und künstliche Intelligenz. 2020 ([2] [PDF]).
  49. Isaac Asimov: Meine Freunde, die Roboter. Heyne, München 1982.
  50. Colin Allen, Gary Varner, Jason Zinser: Prolegomena to any future artificial moral agent. In: Journal of Experimental & Theoretical Artificial Intelligence. Band 12, Nr. 3, 2000, S. 251–261, doi:10.1080/09528130050111428.
  51. Andreas Matthias: The responsibility gap: Ascribing responsibility for the actions of learning automata. In: Ethics and Information Technology. Band 6, Nr. 3, 2004, S. 175–183, doi:10.1007/s10676-004-3422-1.
  52. Matthias O. Rath: Zur Verantwortungsfähigkeit künstlicher „moralischer Akteure“: Normative Grenzen autonomer Systeme. In: Matthias Rath, Friedrich Krotz, Matthias Karmasin (Hrsg.): Maschinenethik. Normative Grenzen autonomer Systeme. Springe VS, Wiesbaden 2018, ISBN 978-3-658-21082-3, S. 223–242, doi:10.1007/978-3-658-21083-0.
  53. Mensch und Maschine – Herausforderungen durch Künstliche Intelligenz. Deutscher Ethikrat, abgerufen am 22. August 2023 (S. 17, Ziffer 43).
  54. Mensch und Maschine – Herausforderungen durch Künstliche Intelligenz. Deutscher Ethikrat, abgerufen am 22. August 2023 (S. 16–17, Ziffer 37 und 41).
  55. Mensch und Maschine – Herausforderungen durch Künstliche Intelligenz. Deutscher Ethikrat, abgerufen am 22. August 2023 (S. 22, Ziffer 65).
  56. Luciano Floridi, J. W. Sanders: On the Morality of Artificial Agents. In: Minds and Machines. Band 14, Nr. 3, 2004, S. 349–379, doi:10.1023/B:MIND.0000035461.63578.9d.
  57. James Moor: The nature, importance and difficulty of machine ethics. In: IEEE Intelligent Systems. Band 21, Nr. 4, 2006, S. 18–21 ([3] [abgerufen am 26. August 2023]).
  58. Wendell Wallach, Colin Allen: Moral Machines: Teaching Robots Right from Wrong. Oxford University Press, New York 2009, ISBN 978-0-19-973797-0.
  59. a b c d Catrin Misselhorn: Artificial Moral Agents. In: S. Voeneky et al. (Hrsg.): The Cambridge Handbook of Responsible Artificial Intelligence: Interdisciplinary Perspectives (= Cambridge Law Handbooks). Cambridge University Press, Cambridge 2022, ISBN 978-1-00-920789-8, S. 31–49, doi:10.1017/9781009207898.005.
  60. a b c Alan F.T. Winfield, Katina Michael: Machine Ethics: The Design and Governance of Ethical AI and Autonomous Systems. In: Proceedings of the IEEE. Band 107, Nr. 3, 2019, S. 509–517, doi:10.1109/JPROC.2019.2900622.