Peter G. Kirchschläger | März 2021
Künstliche Intelligenz und Ethik
„Wenn wir nicht lernen, wie wir uns auf die potenziellen Risiken vorbereiten und sie vermeiden können, könnte die künstliche Intelligenz das schlimmste Ereignis in der Geschichte unserer Zivilisation sein. Sie bringt Gefahren mit sich, wie zum Beispiel mächtige autonome Waffen oder neue Wege für die Wenigen, um die Vielen zu unterdrücken. Sie könnte große Störungen unserer Wirtschaft verursachen.“[1] Neben Stephen Hawking fordert auch Elon Musk, Mitgründer des Online-Bezahlsystems PayPal, Gründer von Tesla sowie von Space X – dem Unternehmen, dass bis 2023 private Reisen um den Mond anbieten möchte –, normative Reflexion zur künstlichen Intelligenz: „Künstliche Intelligenz erweist sich als weitaus gefährlicher als Atomwaffen. Warum haben wir also keine Regulierungsaufsicht?“[2] Im Folgenden soll künstliche Intelligenz (KI) aus ethischer Perspektive durchdrungen werden.[3] Dies geschieht auf der Basis, technologiebasierten Fortschritt und Ethik in einer Interaktion zu denken.[4]
Was ist künstliche Intelligenz?
Künstliche Intelligenz kann umschrieben werden als „Maschinen, die in der Lage sind, in einer menschenähnlichen Weise zu ‚denken‘ und über höhere intellektuelle Fähigkeiten und berufliche Fertigkeiten verfügen, einschließlich der Fähigkeit, sich selbst von ihren eigenen Fehlern zu korrigieren.“[5] Künstliche Intelligenz wird heute in „schwache künstliche Intelligenz“ und „starke künstliche Intelligenz“ unterschieden. Während „schwache KI“ entwickelt wird, um eine bestimmte und begrenzte Aufgabe zu erfüllen, soll eine „starke KI“ menschlicher Intelligenz ähnlich sein und nahekommen, ja diese sogar übertreffen.[6] Ausgangspunkt der Forschung im Bereich künstlicher Intelligenz war die Überzeugung, dass „jeder Aspekt des Lernens oder jedes Merkmal der Intelligenz prinzipiell so genau beschrieben werden kann, dass man eine Maschine dazu bringen kann, sie zu simulieren.“[7] Zu Recht erfolgt dazu der Einwand: „Intelligenz erschöpft sich nicht darin, ein bestimmtes kognitives Problem zu lösen, sondern es kommt darauf an, wie das geschieht.“[8] Angesichts der Beschaffenheit von künstlicher Intelligenz ergeben sich aus ethischer Perspektive Zweifel, ob der Begriff überhaupt adäquat ist, da künstliche Intelligenz zwar danach strebt, menschliche Intelligenz zu imitieren, dies aber zum einen nur auf bestimmte Intelligenzbereiche beschränkt bleibt (z. B. gewisse kognitive Leistungen). Zum anderen ist davon auszugehen, dass künstliche Intelligenz der menschlichen Intelligenz in gewissen Intelligenzbereichen maximal ähnlich werden kann, aber nie gleich sein kann wie menschliche Intelligenz.
Ethische künstliche Intelligenz?
Können Menschen die ethische Verantwortung an künstliche Intelligenz delegieren? Bezeichnungen wie „moral technologies“ legen eine solche Möglichkeit nahe. Während künstliche Intelligenz in der Lage ist, ethische Regeln zu befolgen sowie darauf basierend zu handeln, ist ihnen aus folgenden Gründen die Moralfähigkeit, die Menschen ethisch begründbar zukommt,[9] abzusprechen: Ein Gewissen kann von Technologien nicht ausgesagt werden. Im Gewissen fließen objektiv Gesolltes und subjektiv in einer spezifischen Situation in einem bestimmten Kontext im Zuge einer konkreten Begegnung mit einzigartigen Menschen Erlebtes zusammen.[10] Die Potentiale, die Technologien hinsichtlich von moralischen Entscheidungen und Handlungen besitzen, kommen dem menschlichen Gewissen nicht in Ansätzen nahe. Ihnen fehlen die verschiedenen Ebenen der Sittlichkeit bzw. der Pflicht sowie der Existenz, die im Gewissen in unterschiedlicher Qualität, Intensität und geprägt von individueller Entwicklung bzw. sozialer Beeinflussung zusammenfließen.
Ebenso müssen Technologien ohne Freiheit gedacht werden. Denn Technologien werden von Menschen entworfen, entwickelt und hergestellt, d. h. sie werden heteronom produziert. So erweist sich auch die Aneignung ethischer Normen von Menschen gesteuert. In letzter Konsequenz bleiben demnach Maschinen immer in dieser Fremdbestimmung gefangen. Auch selbstlernende Maschinen gehen bildlich gesprochen auf eine erste Zeile des Codes zurück, die immer vom Menschen stammt.
Ohne Freiheit kann Technologien auch keine Autonomie zugesprochen werden. Während es Menschen entspricht, für sich selbst allgemeine moralische Regeln und Prinzipien zu erkennen, diese für sich selbst zu setzen und diese ihren bzw. seinen Handlungen zugrunde zu legen,[11] ist dies Technologien nicht möglich. Technologien sind primär auf Zweckmäßigkeit ausgerichtet und können sich zwar als selbstlernende Systeme Regeln setzen, z. B. um eine Effizienzsteigerung zu erreichen. Diese Regeln weisen aber keine ethische Qualität auf. Denn Maschinen scheitern am Prinzip der Verallgemeinerbarkeit. Daher ist z. B. im Bereich der Automatisierung von Mobilität der Begriff „autonome Fahrzeuge“ zu vermeiden und durch den Begriff „selbstfahrende Fahrzeuge“ zu ersetzen.[12]
Um ein allfälliges Missverständnis vorzubeugen: Künstlicher Intelligenz können ethische Regeln einprogrammiert bzw. antrainiert werden, um ein ethisch legitimes Handeln einer Maschine zu erreichen.[13] Die Menschenwürde und die Menschenrechte aller Menschen wirken in dieser Verantwortung der Menschen konstituierend und leitend, eine künstliche Intelligenz mit Ethik zu schaffen.
Vertrauenswürdige künstliche Intelligenz?
Wäre es möglich, anstatt von „ethischer künstlicher Intelligenz“ wenigstens von „vertrauenswürdiger künstlicher Intelligenz“ („trustworthy Articifial Intelligence“, AI) zu sprechen? „Der (…) Leitgedanke einer ‚vertrauenswürdigen KI‘ ist zunächst schon einmal begrifflicher Unsinn. Maschinen sind nicht vertrauenswürdig, nur Menschen können vertrauenswürdig sein – oder eben auch nicht. Wenn ein nicht vertrauenswürdiger Konzern oder eine nicht vertrauenswürdige Regierung sich unethisch verhält und in Zukunft eine gute, robuste KI-Technologie besitzt, dann kann er oder sie sich noch besser unethisch verhalten. Die Geschichte von der trustworthy AI ist eine von der Industrie erdachte Marketing-Narrative, eine Gute-Nacht-Geschichte für die Kunden von morgen. In Wirklichkeit geht es darum, Zukunftsmärkte zu entwickeln und Ethikdebatten als elegante öffentliche Dekoration für eine groß-angelegte Investitionsstrategie zu benutzen.“[14] Es lässt sich feststellen, dass die Alltagssprache einen weiter gefassten Gegenstandsbereich des Vertrauens kennt. „In Zusammenhängen alltäglicher Kommunikation vertrauen wir nicht nur konkreten Menschen wie Freunden, Verwandten oder Partnern, wir vertrauen auch ‚leblosen‘ Dingen wie technischen Apparaten, Flugzeugen, Medien oder Institutionen.“[15] Diese vermeintliche „Gesichtsunabhängigkeit“[16] des Vertrauens kann jedoch als „verkürzte Redewendungen“[17] dechiffriert werden. „Wir vertrauen nicht der Brücke per se, sondern den Ingenieuren, die die Brücke konstruiert haben; wir vertrauen nicht dem Auto per se, sondern den Technikern und Arbeitern, die es hergestellt haben; wir vertrauen nicht dem System per se, sondern den Personen, die es bevölkern; und wir vertrauen nicht dem Parlament per se, sondern den Abgeordneten, die ihm Leben einhauchen. Da wir diese Personen aber nicht persönlich kennen, richten wir das Augenmerk auf die Einrichtungen, in denen sie wirken, oder auf die technisch-dinglichen Produkte, die sie herstellen, und mit denen wir in gewisser Weise unmittelbarer konfrontiert sind.“[18]
Dies scheint aber nicht auszureichen, da ein Streben nach Vermenschlichung dieses abstrakten Vertrauens feststellbar ist. Es werden „Zugangspunkte“ gesetzt, an denen „gesichtsabhängige und gesichtsunabhängige Bindungen miteinander in Berührung kommen“[19]. Menschen treten beispielsweise als Repräsentant*innen von Technologien auf, um der Relationalität von Vertrauen Rechnung zu tragen – in der Hoffnung, dass so Vertrauen in diese menschlichen Repräsentant*innen entsteht und über diese Menschen hinaus auf die Technologien wirkt. Ohne diese menschlichen Repräsentant*innen als Bezugspunkte könnte kein Vertrauen entstehen, da Technologien nicht beziehungsfähig sind bzw. als Gegenstandsbereich von Vertrauen nicht in Frage kommen, weil mit ihnen keine Beziehungen eingegangen werden können. „Autos können zuverlässig sein, aber nicht treu, weil sie keine Gefühle haben oder auf Gründe reagieren können. Mit Bezug auf leblose Dinge können wir also nur in einem metaphorischen Sinn von Treue, Vertrauen und, so meine ich, Schuld sprechen.“[20] Da Vertrauen ein lebendiges Beziehungsgeschehen voraussetzt, haben sich aus ethischer Sicht künstliche Intelligenz einsetzende Menschen, Unternehmen und Staaten im Sinne eines nachhaltigen Beziehungsaufbaus und einer positiven Beziehungspflege zu verhalten. Dieses Vertrauen in künstliche Intelligenz einsetzende Menschen, Unternehmen und Staaten ergibt sich aufgrund von gerechtem und verantwortungsvollem Handeln, wegen der Achtung, des Respekts, der Durchsetzung und der Realisierung der Menschenrechte aller Menschen. Dieses Vertrauen resultiert nicht einfach aus Informations- und Aufklärungskampagnen, aus Vermittlung von Wissen und aus Propagandamaßnahmen – Vertrauen muss man sich verdienen. Weniger als Erklärungen, Statements und Selbstverpflichtungen – d. h. Worte – sind vertrauensstiftende Taten und vertrauenserweckendes Verhalten von künstlicher Intelligenz einsetzende Menschen, Unternehmen und Staaten gefragt.
Künstliche Intelligenz mit Ethik!
Daraus resultiert, dass die Menschen die exklusive Verantwortung tragen, ethische Prinzipien festzulegen, moralische und rechtliche Normen zu setzen sowie Rahmenbedingungen, Ziele und Grenzen der digitalen Transformation und des Einsatzes von künstlicher Intelligenz zu definieren.[21] Ein ethischer und rechtlicher Diskurs über den Zweck, über die Prioritäten, Kontexte und Schranken für technologischen Fortschritt muss konstant geführt werden.
Welche Ethik soll aber künstlicher Intelligenz mitgegeben werden, damit Letztere zu einer künstlichen Intelligenz mit Ethik wird? Der Fokus sollte grundlegend auf der Menschenwürde und den Menschenrechten als theologisch-ethische Referenzpunkte liegen[22] – wegen ihrer universellen Begründbarkeit und aufgrund der durch sie erfolgenden Förderung von kultureller, religiöser und weltanschaulicher Pluralität im Zuge ihres Schutzes der Selbstbestimmung des Individuums.[23] Die Menschenwürde kann auf der Basis des jüdisch-christlichen Glaubens an die Gottebenbildlichkeit des Menschen theologisch fundiert werden.[24] Diese Glaubensüberzeugung findet in Gen 1,26-27 ihre Basis. Gen 1,26-27 legt eine funktionale Lesart der Gottebenbildlichkeit des Menschen nahe. Gott traut dem Menschen zu bzw. Gott vertraut dem Menschen an, dass der Mensch für Gott und an seiner Stelle eine Aufgabe für die Menschen und für die Schöpfung als Ganze wahrnimmt.[25] Von Gott wird dem Menschen die Aufgabe anvertraut und die Verantwortung[26] übertragen, für die Umwelt und für die Menschen einzustehen und für sie zu sorgen.
Neben der funktionalen kommt eine relationale Lesart der Gottebenbildlichkeit hinzu.[27] Gott spricht den Menschen in der Schöpfung in Gottebenbildlichkeit an und sein Vertrauen aus – Gott tritt mit dem Menschen in eine Beziehung. Dabei wird der Mensch von Gott als relationales Wesen mit der imago Dei dazu befähigt, seine Menschlichkeit zum Ausdruck zu bringen. Ihren Mittelpunkt besitzt die Gottebenbildlichkeit in der Beziehung zwischen Gott und den Menschen und dem Verhältnis der Menschen untereinander. Doch als Schöpfer der Erde und des Menschen tritt Gott nicht nur mit dem Menschen in Beziehung, sondern mit seiner ganzen Schöpfung. Im Begriff der Relationalität wird hier das Verhältnis zwischen Schöpfer und Schöpfung konsequent zu Ende gedacht. Dies bedeutet, dass nicht nur der Mensch, sondern auch die Umwelt Bezugsgrößen der göttlichen Sorge und – stellvertretend – der menschlichen Verantwortung darstellen. Gemäß dieser theologischen Fundierung der Menschenwürde sind dank der Gottebenbildlichkeit des Menschen alle Menschen Trägerinnen und Träger der Menschenwürde und stehen alle im Dienste Gottes in der Verantwortung und Sorge für die anderen Menschen und für die Umwelt. Da die Menschenrechte die Menschenwürde schützen, kann von der theologischen Fundierung der Menschenwürde eine theologische Fundierung der Menschenrechte abgeleitet werden. Die Gottebenbildlichkeit des Menschen beantwortet also auf religiöser Basis die Frage nach dem Warum der Menschenwürde und der Menschenrechte. Menschenrechte schützen die essentiellen Elemente und Bereiche der menschlichen Existenz, die Menschen zum Überleben und zum Leben als Mensch – d. h. zu einem Leben mit Menschenwürde – brauchen.[28]
Eine ethische Begründung der Menschenwürde und der Menschenrechte kann sich auf das Prinzip der Verletzbarkeit abstützen,[29] die folgendermaßen zusammengefasst werden kann: Der Mensch nimmt sich in seiner eigenen Verletzbarkeit selbst wahr. Der z. B. jetzt gesunde Mensch weiß, dass er morgen krank werden könnte. Während dieser Bewusstwerdung der eigenen Verletzbarkeit eröffnet sich dem Menschen die „Erste-Person-Perspektive“[30] und sein „Selbstverhältnis“: Seine Verletzbarkeit und sein gesamtes Leben erlebt sie bzw. er als Subjekt (d. h. als die erste Person Singular) und sie bzw. er kann sich dazu in Bezug setzen. Dies ermöglicht dem Menschen die Wahrnehmung, dass sie bzw. er die Verletzbarkeit und die je individuelle „Erste-Person-Perspektive“ sowie das je individuelle „Selbstverhältnis“ mit allen anderen Menschen teilt: Jeder Mensch ist Subjekt seines Lebens. Die „Erste-Person-Perspektive“ und das „Selbstverhältnis“ erkennt der Mensch so als Bedingung der Möglichkeit eines Lebens als Mensch. Da sich der Mensch seiner Verletzbarkeit bewusst ist, gleichzeitig aber nicht weiß, ob und wann sich seine Verletzbarkeit in eine konkrete Verletzung wandelt, entfaltet sich die Bereitschaft, als für ihn vernünftigste und vorteilhafteste Lösung sich selbst und damit – aufgrund der diesbezüglichen Gleichheit aller Menschen – allen Menschen die „Erste-Person-Perspektive“ und das „Selbstverhältnis“ zuzugestehen. Dies bedeutet, sich und alle anderen mit Menschenrechten zu schützen. Dieser Schutz durch die Menschenrechte zielt darauf ab, eine Transformation von Verletzbarkeit zu einer konkreten Verletzung zu verhindern oder im Falle einer eventuellen Transformation von Verletzbarkeit zu konkreten Verletzungen aktive Kompensation zu erfahren. Dabei sind sich die Menschen bewusst, dass der Schutz der Menschenrechte auch mit den Menschenrechten korrespondierende Pflichten umfasst, da es sich ja um keine exklusiven Rechte, sondern um Menschenrechte handelt, die allen Menschen zustehen.
Menschenwürde und Menschenrechte sind also in ihrer Universalität ethisch begründbar. Menschenwürde und Menschenrechte ermöglichen als ethische Referenzpunkte, Menschen weder als digitalisierbar noch als durch bzw. mit künstlicher Intelligenz perfektionierbar zu denken, sondern als „homo dignitatis“[31].
Datenbasierte Systeme
Die bisherigen Ausführungen legen nahe, anstelle von künstlicher Intelligenz mit Ethik den Begriff „datenbasierte Systeme mit Ethik“ zu verwenden, da diese Bezeichnung eher das zu fassen vermag, was diese technologiebasierte Innovation ausmacht. Der Begriff „datenbasierte Systeme“ ist Ausdruck eines Bestrebens, die Realität konzeptionell nicht zu überhöhen. Im Zuge dieses Unterfangens stellt sich die Frage, ob es sich bei den Leistungen von datenbasierten Systemen um „Funktionsäquivalenzen“ handelt: „Dieselbe Funktion lässt sich auf unterschiedliche Weise erfüllen. Menschen erkennen das Gefühl anderer Menschen durch Menschenkenntnis, Intuition und Empathie. Künstliche Intelligenz kann dieselbe Funktion erfüllen, indem sie Daten generiert – etwa durch Bilderkennungsprogramme die Laune eines Menschen erkennen kann. Gleich ist nur, dass sie erkannt wird.“[32] „Funktionsäquivalenzen“ erweisen sich als nicht passend, um diese technologiebasierten Möglichkeiten datenbasierter Systeme zu erfassen. Denn datenbasierte Systeme ersetzen weder den Menschen als Ganzen noch seine Fähigkeit, sondern sie erfüllen eine Aufgabe oder eine Funktion, die bisher ein Mensch wahrgenommen hat, d. h. sie ersetzen den Menschen in der Erfüllung einer Aufgabe oder einer Funktion. Dies bedeutet, dass es immer nur Annäherungen an die Erfüllung einer Funktion oder einer Aufgabe durch den Menschen bleiben, wenn datenbasierte Systeme eine Funktion oder eine Aufgabe erfüllen; es ist nicht identisch. Beispielsweise ist und bleibt die Erfüllung der Funktion der Wahrnehmung von Gefühlen eines menschlichen Gegenübers anders, wenn dies durch einen Menschen geschieht, als wenn dies durch ein datenbasiertes System geschieht, das sich der Erfüllung der Funktion der Wahrnehmung von Gefühlen eines menschlichen Gegenübers annähert: Die technologiebasierte Funktionserfüllung ist der entsprechenden menschlichen Tätigkeit ähnlich, aber niemals gleich, weil datenbasierten Systemen menschliche Emotionalität fehlt. „Funktionsäquivalenzen“ bleiben dahingehend unterkomplex und reduktionistisch, als die Erfüllung einer Funktion oder einer Aufgabe nie im luftleeren Raum, sondern in einem Kontext geschieht, mit der sowohl Menschen als Subjekte der Erfüllung einer Funktion oder einer Aufgabe als auch – in der Folge sowie unabhängig davon – der Vorgang der Erfüllung einer Funktion oder einer Aufgabe interagieren. Wenn beispielsweise Menschen die Funktion erfüllen, Gefühle eines menschlichen Gegenübers wahrzunehmen, dann verändern sich unmittelbar sowohl die Menschen als Subjekte der Erfüllung dieser Funktion als auch – in der Folge sowie unabhängig davon – die Erfüllung der Funktion selbst sowie die Gefühle des menschlichen Gegenübers.
Komplexität von Ethik
Datenbasierte Systeme sind in der Lage, ethische Regeln zu befolgen sowie darauf basierend Handlungen zu vollziehen. Datenbasierten Systemen können ethische Regeln einprogrammiert bzw. antrainiert werden, um ein ethisch legitimes Entscheiden und Handeln einer Maschine zu erreichen. Um der Komplexität der Realität gerecht zu werden, braucht es dabei deutlich mehr als Regeln wie die „Asimovschen Gesetze“.[33]
Um der Komplexität der Ethik gerecht zu werden, ist aber nicht mathematische oder digitale Ethik zu betreiben. Dabei gilt es zu beachten, dass sich Ethik in ihrer Komplexität und in ihrer Gesamtheit wegen ihrer Sensibilität für die regelüberragende Einzigartigkeit des Konkreten als nicht in die Sprache der Mathematik und der Programmierung übersetzbar erweist. U. a. deswegen handelt es sich bei Ethik nicht um Kasuistik. Gewisse Aspekte der Ethik lassen sich als Regeln datenbasierten Systemen programmieren bzw. antrainieren. Einige ethische Elemente entziehen sich diesem digitalen Zugriff. So lassen sich datenbasierten Systemen beispielsweise das Prinzip der Menschenwürde aller Menschen und die Menschenrechte sowie ethische Handlungsmaximen (Verbot der Lüge, des Diebstahls) vermitteln. Selbst in diesem Bereich des Möglichen gilt es aber nicht zu vernachlässigen, dass datenbasierte Systeme zwar diese Regeln lernen und befolgen können, diese Achtung der Regeln ohne Wissen um die ethische Qualität der Regeln erfolgt. In anderen Worten: Datenbasierte Systeme würden auch nichtethische oder unethische Regeln in gleichem Maße respektieren.
Schwierig bis unmöglich wird ein Transfer der Ethik in die Mathematik und in die Programmierung u. a., wenn Handlungsmaximen divergieren oder kollidieren. Die zunehmende Komplexität der Lebenswirklichkeit fordert zu realitätsgerechten Normeinsichten und zu differenzierteren und besseren Abwägungen heraus, was datenbasierte Systeme wegen ihrer fehlenden Moralfähigkeit überfordert. Unmöglich erweist sich die Übersetzung der Ethik in die Sprache der Mathematik, der Programmierung und der Digitalisierung in Situationen und Fällen, wo beim Menschen die Tugend der Epikie und das Gewissen besonders zum Zuge kommen. „Epikie ist die Berichtigung des Gesetzes da, wo es in Folge seiner generellen Fassung lückenhaft ist.“[34] Epikie trägt der Wirklichkeit Rechnung, dass in der konkreten Begegnung mit konkreten Menschen in einer konkreten Situation Regeln an ihre Grenzen kommen, da das Konkrete in seiner Einzigartigkeit das Regelhafte weit übertrifft. Darüber hinaus wird den Menschen eine Normgestaltungsverantwortung zugemutet, die für datenbasierte Systeme aufgrund ihres Mangels an Moralfähigkeit unerreichbar bleibt. Diese menschliche Normgestaltungsverantwortung zielt darauf ab, dass Regeln kontinuierlich kritisch hinterfragt und – falls nötig – im Dienste einer prospektiven ethischen Verbesserung von Menschen angepasst werden.[35]
Diese prospektive kreative Ebene umfasst auch eine Normgebungsverantwortung der Menschen. „Die Wahrnehmung des sittlichen Anspruches bedeutet ja keineswegs bloss ein Ablesen von normativ festgelegten Sach- und Sinnverhalten, sondern ist immer schon ein schöpferisches Sehen und Entdecken. Schöpferisch ist dieses Sehen und Entdecken dadurch, dass der Mensch aufgefordert ist, in seiner Phantasie neue sinnvolle Momente der Lebensgestaltung zu riskieren, die im bisherigen Regelsystem nicht vorkamen. Die sittliche Gutheit der Person drängt ihn dazu, das menschlich Richtige in Form von Modellen weiterzuentwickeln.“[36] Auch die Normgebungsverantwortung geht weit über das in die Sprache der Mathematik und der Programmierung Übersetzbare hinaus und kann daher datenbasierten Systemen nicht übertragen werden.
Die Komplexität der ethischen Auseinandersetzung mit datenbasierten Systemen erhöhen zusätzlich noch zum einen die sogenannte „dual use“-Problematik. Diese umfasst das Potential, dass das gleiche datenbasierte System für einen legitimen oder illegitimen Zweck eingesetzt werden kann. Dies lässt sich am Beispiel der Drohne veranschaulichen: Drohnen können dafür eingesetzt werden, um Menschen in Katastrophengebieten mit lebensnotwendigen Nahrungsmitteln zu versorgen, wo Menschen nicht mehr hinkommen. Die gleichen Drohnen können aber auch für gezielte Tötungen als sogenannte „Killerdrohnen“ eingesetzt werden. Und selbstverständlich fällt die ethische Bewertung eines solchen datenbasierten Systems in den beiden Situationen diametral entgegengesetzt aus. Diese „dual use“-Problematik zeigen die Grenzen einer generellen Bewertung von Drohnen auf. Eine allgemeine Einschätzung zu Drohnen muss für eine differenzierte ethische Analyse durch eine Betrachtung der Drohnen in ihrer Anwendung ergänzt werden.
Zum anderen kann es zu „Ambivalenz“ kommen. Ambivalenz bezeichnet die Möglichkeit, dass ein datenbasiertes System einem ethisch guten Zweck dienen kann, dabei aber auch gleichzeitig etwas ethisch Schlechtes umfasst. Dies lässt sich am Beispiel der Automatisierung von Mobilität zeigen: Staus mit ihren ökologisch und ökonomisch negativen Auswirkungen entstehen u. a. wegen der Variation von Tempo und aufgrund der unterschiedlichen Geschwindigkeiten der einzelnen Fahrzeuge. Würde es gelingen, beides zu minimieren, käme es zu einer Verringerung von Staus. Automatisierte Mobilität umfasst beides – die Abschwächung der Variation von Geschwindigkeit durch einen Verkehrsfluss auf gleichem Tempo sowie die Vereinheitlichung von Geschwindigkeiten aller Fahrzeuge durch die dezentrale Kommunikation zwischen den einzelnen Fahrzeugen. Verbunden mit der dezentralen Kommunikation zwischen den einzelnen Fahrzeugen sind auch deutlich weniger Unfälle zu erwarten, da die fahrenden Systeme dezentral untereinander dafür sorgen, dass es großmehrheitlich nicht zu Zusammenstößen kommt. Dies bedeutet nicht, dass Unfälle vollumfänglich ausgeschlossen werden können. Denn selbstverständlich kann es bei fahrenden Systemen auch zu Fehlern kommen; sie treten aber viel seltener auf, da Unfallursachen wie z. B. Ablenkung, Müdigkeit, Stress, Emotionen ausgeschlossen werden können.[37] Weniger Staus, weniger Unfälle – erfreuliche Perspektiven aus ethischer Sicht, die sich bei der Automatisierung von Mobilität u. a. ergeben.
Gleichzeitig umfasst die Automatisierung von Mobilität die Gefährdung der menschenrechtlich geschützten Privatsphäre und des menschenrechtlich garantierten Datenschutzes. Zudem trägt sie zur global ungleichen Verteilung von Vor- und Nachteilen bei. Während reiche Länder auf automatisierte Mobilität umstellen können, leiden Menschen in ärmeren Ländern unter menschenunwürdigen und menschenrechtsverletzenden Arbeitsbedingungen bzw. moderner Sklaverei und unter Umweltzerstörung bei der Schürfung der Rohstoffe bzw. bei der Herstellung der automatisiert fahrenden Systeme. Ethik ortet hier dringlichen Handlungsbedarf.
Datenbasierte Systeme und menschliche Arbeit – das SERT-Modell
Ethik kann auch Lösungsansätze als Impulse für einen vertiefenden interdisziplinären Diskurs aufzeigen, wie im Folgenden exemplarisch am SERT-Modell kurz skizziert werden soll.[38] Der Einsatz von datenbasierten Systemen führt zur Kernkonsequenz: Immer weniger Menschen werden an einer effizienteren und effektiveren Wertschöpfungskette direkt teilnehmen und teilhaben.[39] Dies kann eine Entlastung der Menschen bedeuten oder zu einer Belastung werden. Weniger Arbeitszeit und mehr freie Lebenszeit müssen von einem ethischen Standpunkt aus keine schlechte Nachricht sein. Denn u. a. ist es vorstellbar, dass bezahlte, den Lebensunterhalt finanzierende Arbeit je nach normativer Ausrichtung weniger zur Sinn- als vielmehr zur „Unsinnstiftung“ beiträgt, die Menschen vom aus ethischer Sicht Wesentlichen ablenkt, ethisch falsche Anreize setzt oder Zwang ausübt, durch Überbelastung Zeit für andere Bereiche der menschlichen Existenz (z. B. für Muße, für politisches Engagement etc.) raubt[40] und Talente der Menschen für eine auf einen ethisch problematischen Zweck ausgerichtete Tätigkeit bindet.
Weniger Arbeitszeit kann aus ethischer Sicht zu einer guten Botschaft werden, wenn ein Wirtschaftssystem entsprechend strukturiert ist, soziale Einbindung ermöglicht bzw. wenn dem Menschen die Entfaltung eines Selbstverständnisses – mehrheitlich unabhängig von einem bezahlten Arbeitsplatz – gelingt. Damit allen Menschen ein Überleben und ein menschenwürdiges[41] Leben gewährleistet werden kann, könnte eine Entkoppelung des Einkommens von Arbeit in Betracht gezogen werden.
Die Idee eines bedingungslosen Grundeinkommens verfolgt diese Richtung. Der Ansatz kennt verschiedene Ausprägungen und Modelle, die folgende Kernelemente zu einen scheinen:[42] a. Das bedingungslose Grundeinkommen umfasst einen monetären Transfer, dessen Höhe die Existenz des Individuums absichert und seine Teilhabe an der Gesellschaft ermöglicht. b. Die Auszahlung erfolgt ohne Bedürftigkeitsprüfung (sozialadministrative Prüfung von Einkommen und Vermögen) und ohne Zwang zur Erwerbsarbeit oder anderen Gegenleistungen.
Menschenwürde und Menschenrechte als ethische Referenzpunkte erschließen, dass durch die finanzielle Absicherung aller Menschen im Rahmen des Ansatzes des bedingungslosen Grundeinkommens das Überleben aller Menschen garantiert wird, was positiv zu bewerten ist. Menschenwürde und Menschenrechte legen jedoch auch nahe, nicht nur das physische Überleben der Menschen in den Blick zu nehmen, sondern auch das Leben als Menschen – das menschenwürdige Dasein. Beim bedingungslosen Grundeinkommen scheint aber nur ein bestimmter Aspekt eines Lebens als Menschen – d. h. mit Menschenwürde – im Blick zu sein: die Ermöglichung der Teilhabe an Gesellschaft. Dies wird besonders deutlich erkennbar, wenn man sich mögliche bisherige Funktionen eines bezahlten Arbeitsplatzes vor Augen führt, die diesbezüglich von Relevanz sind: als eine Quelle der Sinnstiftung zu wirken; zur Strukturierung des Alltags beizutragen; Identität zu stiften; soziale Inklusion zu fördern…
All diese bisherigen Funktionen eines bezahlten Arbeitsplatzes kann ein bedingungsloses Grundeinkommen nicht abdecken, sodass sich die Frage stellt, ob möglicherweise durch eine Anpassung des Ansatzes des bedingungslosen Grundeinkommens eine Erfüllung einiger – oder vielleicht aller – dieser Aufgaben erreicht werden kann.
Eine Anpassung des Ansatzes des bedingungslosen Grundeinkommens hin zu einem Society-, Entrepreneurship-, Research-Time-Model (SERT) könnte hier weiterhelfen. Das SERT dient dem Ziel, dazu beizutragen, dass alle Menschen überleben und als Menschen – d. h. mit Menschenwürde – leben können. Es basiert auf der einen Seite auf der Entrichtung eines Grundeinkommens, das nicht nur die finanzielle Absicherung der physischen Existenz abdeckt, sondern ein menschenwürdiges Leben ermöglicht. Auf der anderen Seite – und hier wird an der Bedingungslosigkeit des Grundeinkommens substantiell geschraubt – besteht es aus einem Engagement eines jeden Menschen für die Gesellschaft (Society-Time), das im Gegenzug zur Grundsicherung von jedem Menschen verlangt wird. In Analogie beispielsweise zum existierenden und jahrzehntelang erprobten Modell des Schweizerischen Zivildienstes könnte jeder Mensch in einem aus einer breiten Auswahl von Optionen selbst gewählten Bereich zum gesamtgesellschaftlichen Wohl beitragen. Aus menschenrechtsethischer Perspektive ist hier besonders die Selbstbestimmung jedes Individuums in der Wahl des Bereichs des eigenen Beitrags zum gesamtgesellschaftlichen Wohl von Bedeutung. Der zeitliche Umfang dieses gesamtgesellschaftlichen Engagements wäre für alle gleich.
Um gleichzeitig Anreize für Bildung, Wissenschaft und Forschung, für Innovation sowie für Unternehmertum zu setzen, bilden im SERT ein Engagement in Bildung, Forschung und Wissenschaft, in Innovation und in Unternehmertum Gründe für eine Reduktion oder sogar für eine Befreiung von der „Society-Time“.
Der Sorge um den hohen administrativen Aufwand ist mit einer digitalen Antwort zu begegnen. Alle Reporting- und Controlling-Prozesse sind digitalisierbar, und natürlich sind auch Lösungen basierend auf der „Blockchain“-Technologie[43] in den Blick zu nehmen.
Schlussbemerkung
Datenbasierte Systeme und deren Nutzung brauchen unbedingt und mit hoher Dringlichkeit ethische Orientierung von Menschen. Ethische Prinzipien und Normen und darauf basierende rechtliche Regulierung eröffnen die Möglichkeit gezielter Förderung der Nutzung ethischer Chancen datenbasierter Systeme, um sie als Innovation zum ethisch Guten einsetzen zu können. Diese befähigen zudem zur Vermeidung von ethischen Risiken und Gefahren. Anlass zur Hoffnung und Zuversicht, dass dies möglich ist, gibt, dass die Menschheit in ihrer Geschichte bereits gezeigt hat, dass sie fähig ist, nicht immer das technisch Machbare „blind“ zu verfolgen und umzusetzen, sondern auch auf technisch Machbares verzichtet, sich zurückhält oder sich selbst beschränkt, wenn das Wohl der Menschheit und des Planeten Erde auf dem Spiel steht. Beispielsweise haben vereinfacht gesagt Menschen im Bereich der Nukleartechnologie geforscht, man hat die Atombombe entwickelt, sie wurde mehrmals abgeworfen, und dann hat die Menschheit die Forschung und Entwicklung im Bereich der Nukleartechnologie substantiell und massiv global eingeschränkt und reguliert, um noch Schlimmeres zu verhindern, obwohl es dagegen massiven Widerstand gab. Diese Unterbindung ist weitestgehend gelungen – dank eines internationalen Regimes, konkreter Durchsetzungsmechanismen und der Internationalen Atomenergiebehörde (IAEA) bei der UN.
[1] Hawking, Stephen, zitiert nach Kharpal, Arjun (2017): Stephen Hawking says A.I. could be ‘worst event in the history of our civilization’, CNBC News, November 6, 2017.
[2] Vgl. Musk, Elon zitiert nach Clifford, Catherine (2018): Elon Musk: ‘Mark my words – A.I. is far more dangerous than nukes’, CNBC News, March 13, 2018.
[3] Vgl. für eine vertiefte Betrachtung Kirchschläger, Peter G. (2021 im Druck): Digital Transformation and Ethics. Ethical Considerations on the Robotization and Automatization of Society and Economy and the Use of Artificial Intelligence. Baden-Baden: Nomos.
[4] Vgl. Kirchschläger, Peter G. (2020 im Druck): The Correlation between Ethics and Technology, in: Giulia Isetti, Elisa Innerhofer, Harald Pechlaner, Michael de Rachewiltz (eds.), Religion in the Age of Digitalization: From New Media to Spiritual Machines. Abingdon: Routledge.
[5] Tzafestas, Spyros G. (2016): Roboethics. A Navigating Overview. Berlin: Springer, S. 25.
[6] Vgl. dazu Misselhorn, Catrin (2018): Grundfragen der Maschinenethik. Stuttgart: Reclam Verlag, S. 269-270.
[7] McCarthy, John, Minsky, Marvin L., Rochester, Nathaniel, Shannon, Claude E. (2006): A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence, August 31, 1955, AI Magazine 27 (4), S. 12-14.
[8] Misselhorn, Catrin (2018): Grundfragen der Maschinenethik, a.a.O., S. 269-270, 17.
[9] Vgl. Kant, Immanuel (1974): Grundlegung zur Metaphysik der Sitten. Werkausgabe Weischedel. Vol. 7. Frankfurt a. M.: Suhrkamp.
[10] Vgl. Kirchschläger, Peter G. (2017). Gewissen aus moraltheologischer Sicht. Zeitschrift für katholische Theologie 139: S. 152-177.
[11] Vgl. Kant, Immanuel (1974): Grundlegung zur Metaphysik der Sitten, a.a.O.
[12] Vgl. Kirchschläger, Peter G. (2017): Automatisierung von Mobilität – theologisch-ethische Überlegungen. Feinschwarz, 13. Januar 2017.
[13] Vgl. Wallach, Wendell, Allen, Colin (2009): Moral Machines: Teaching Robots Right From Wrong. Oxford: Oxford University Press.
[14] Metzinger, Thomas (2019): EU-Ethikrichtlinien für Künstliche Intelligenz: Nehmt der Industrie die Ethik weg! Der Tagesspiegel, 8. April 2019.
[15] Hartmann, Martin (2011): Die Praxis des Vertrauens. Frankfurt am Main: Suhrkamp, S. 42.
[16] Vgl. Giddens, Anthony (1995): Die Konsequenzen der Moderne. Frankfurt a. M.: Suhrkamp, S. 116.
[17] Hartmann, Martin (2011): Die Praxis des Vertrauens, a.a.O., S. 283.
[18] Ebd., S. 284.
[19] Giddens, Anthony (1995): Die Konsequenzen der Moderne, a.a.O., S. 107.
[20] Scanlon, Thomas M. (2008): Moral Dimensions. Permissibility, Meaning, Blame. Cambridge. MA: Harvard University Press, S. 161.
[21] Vgl. Kirchschläger, Peter G. (2013): Human Rights as an Ethical Basis for Science. Journal of Law, Information and Science 22 (2): S. 1-17.
[22] Vgl. Kirchschläger, Peter G. (2019): Digital Transformation of Society and Economy Ethical Considerations from a Human Rights Perspective. International Journal of Human Rights and Constitutional Studies 6 (4): S. 301-321.
[23] Vgl. Kirchschläger, Peter G. (2018): Die Menschenrechte als hermeneutischer Schlüssel zu ethischen Grundfragen des 21. Jahrhunderts. Begründung und Ausblick. Zeitschrift für katholische Theologie 140: S. 361-379.
[24] Vgl. Kirchschläger, Peter G. (2016): Menschenrechte und Religionen. Nichtstaatliche Akteure und ihr Verhältnis zu den Menschenrechten. Paderborn: Verlag Ferdinand Schöningh, S. 34-42.
[25] Vgl. Middleton, Richard J. (2005): The Liberating Image. The Imago Dei in Genesis l. Grand Rapids: Brazos Press.
[26] Vgl. Kirchschläger, Peter G. (2014): Verantwortung aus christlich-sozialethischer Perspektive. ETHICA 22 (1): S. 29-54.
[27] Vorster, Jakobus M. (2010): Der Beitrag der deontologischen christlichen Ethik zum heutigen Menschenrechtsdiskurs. Evangelische Theologie 70: S. 246-262, 257.
[28] Vgl. Kirchschläger, Peter G. (2013): Wie können Menschenrechte begründet werden? Ein für religiöse und säkulare Menschenrechtskonzeptionen anschlussfähiger Ansatz. Münster: LIT Verlag, S. 194-195.
[29] Vgl. Ebd.; Kirchschläger, Peter G. (2015): Das Prinzip der Verletzbarkeit als Begründungsweg der Menschenrechte. Freiburger Zeitschrift für Philosophie und Theologie 62 (1): S. 121-141.
[30] Vgl. Runggaldier, Edmund (2003): Deutung menschlicher Grunderfahrungen im Hinblick auf unser Selbst, in: Günter Rager, Josef Quitterer, Edmund Runggaldier (Hrsg.), Unser Selbst. Identität im Wandel neuronaler Prozesse. Paderborn: Schöningh, S. 143-221.
[31] Vgl. Kirchschläger, Peter G. (2019): Homo dignitatis – Ethische Orientierung im Zuge digitaler Transformation. Psychologie in Österreich 4 (39): S. 274-284.
[32] Ohly, Lukas (2019): Ethik der Robotik und der Künstlichen Intelligenz. Berlin: Lang, S. 18.
[33] Die Asimovschen Gesetze – auch Robotergesetze genannt – wurden von Isaac Asimov 1942 in einem Science Fiction Roman beschrieben und legen u.a. fest, dass kein Roboter den Menschen (wissentlich) verletzen darf. Vgl. Asimov, Isaac (1982): Meine Freunde, die Roboter. München: Bibliothek der Science Fiction Literatur 20, Sonderausgabe, S. 67.
[34] Aristoteles (Ausgabe 1985): Nikomachische Ethik. Hamburg: Felix Meiner Verlag, S. V, 14, 26.
[35] Virt, Günter (2007): Damit Menschsein Zukunft hat: Theologische Ethik im Einsatz für eine humane Gesellschaft. Würzburg: Echter Verlag, S. 42-43.
[36] Ebd.: S. 43.
[37] Vgl. Axhausen, Kay W. (2016): Autonome Fahrzeuge: Erste Überlegungen. Vortrag am 5. September 2016 im Rahmen der Sommerakademie der Schweizerischen Studienstiftung zum Thema Automatisierung der Mobilität, Magliaso.
[38] Z. B. das Problem des Rassismus im Internet, vgl. Kirchschläger, Peter G. (2016): Zensur zum Schutz vor Rassismus versus Informationsfreiheit – Ein Spannungsfeld im Internet. Communicatio Socialis 49 (4): S. 354-366; Kirchschläger, Peter G. (2019): Verbündete, nicht Kontrahenten. Meinungsäußerungsfreiheit und Kampf gegen Rassismus nicht gegeneinander ausspielen. TANGRAM Eidgenössische Kommission gegen Rassismus EKR 43: S.142-144.
[39] Vgl. Kirchschläger, Peter G. (2017): Roboter und Ethik. Aktuelle Juristische Praxis 26 (2): S. 240-248.
[40] Vgl. Arendt, Hannah (2001): Vita activa oder Vom tätigen Leben. München: Piper.
[41] Vgl. Kirchschläger, Peter G. (2016): Missachtung der Menschenwürde als Schlüsselerfahrung, in: Klaus Krämer, Klaus Vellguth (Hrsg.), Menschenwürde. Diskurse zur Universalität und Unveräußerlichkeit, Theologie der Einen Welt, Band VIII: S. 193-206. Freiburg: Verlag Herder.
[42] Vgl. Schneider, Friedrich, Dreer, Elisabeth (2017): Grundeinkommen in Österreich. Linz: Linz Johannes-Kepler-Universität.
[43] Vgl. Kirchschläger, Peter G. (2021 im Druck): Ethics of Blockchain Technology, in: Gotlind Ulshoefer, Peter G. Kirchschläger, Markus Huppenbauer (Hrsg.), Digitalisierung – Theologische und ethische Perspektiven. Zürich: TVZ.
Der Verfasser
Prof. Dr. theol. lic. phil. Peter G. Kirchschläger, Ordinarius für Theologische Ethik und Leiter des Instituts für Sozialethik ISE, Theologische Fakultät, Universität Luzern.