thumb

Können Maschinen gut oder böse sein? Kann man von einer Moral der Maschinen sprechen? Hat die Maschinenethik eine Existenzberechtigung? Ist sie Konkurrenz oder Pendant zur Menschenethik? Solche Fragen treiben nicht nur Theoretiker, sondern auch Praktiker um, und es ist nicht einfach, befriedigende Antworten darauf zu finden.

Gastbeitrag von Prof. Oliver Bendel*

Immer mehr Maschinen treffen selbstständig Entscheidungen, die mit moralischen Problemen verknüpft sind. Es gilt, vorurteilsfrei zu untersuchen, ob man autonomen Systemen so etwas wie Moral beibringen soll und kann.

Von der Roboter- zur Maschinenethik

Die Roboterethik ist eine Keimzelle und ein Spezialgebiet der Maschinenethik. Sie wurde als ernstzunehmende Disziplin in den 1990er-Jahren ins Leben gerufen, in einer Zeit, als Roboter die auffälligsten autonomen Systeme waren. Bei denjenigen, die anthropomorph (menschenähnlich) waren, lag die Frage nahe, ob sie Subjekte der Moral sein können. Im Fokus der Roboterethik sind auch mimische und gestische sowie natürlichsprachliche Fähigkeiten, sofern diese in einem sittlichen Kontext stehen.

Seit den 1990er-Jahren haben sich selbstständig entscheidende und handelnde Maschinen stark verbreitet. Die Maschinenethik hat die Moral von Maschinen zum Gegenstand, vor allem von (teil-)autonomen Systemen wie Agenten, Drohnen, Computern im automatisierten Handel (Algo Trading) und selbstständig fahrenden Autos. Und natürlich von Robotern, die in den Haushalt, in die Altenpflege und in den Operationssaal drängen. Sie kann innerhalb von Informations- und Technikethik oder aber auf der gleichen Ebene wie die Menschenethik angesiedelt werden. Der Begriff der Algorithmenethik wird teils synonym, teils mit anderer Bedeutung verwendet.

Es sind Robotiker und Experten für Künstliche Intelligenz (KI), die in der Maschinenethik unterwegs sind, und Philosophen und Psychologen. Auch Informatiker sind gefragt, als Experten für Programmierung und Implementierung, und Wirtschaftsinformatiker, die zwischen dem technischen und dem wirtschaftlichen Bereich vermitteln und beispielsweise darüber nachdenken, wie selbstständig fahrende Autos den Automobilmarkt verändern werden.

Normative Modelle der Ethik

Mit normativen Modellen der Ethik, wie sie Aristoteles, Kant und Sartre entwickelt haben, werden moralische Möglichkeiten eingeordnet, begründet und bewertet. Im Rahmen der Pflicht- oder Pflichtenethik drängt sich der Einsatz von regelbasierten, formalen Systemen auf. Um Widersprüche zu verhindern bzw. aufzulösen, werden Regeln priorisiert oder mit Fällen in Beziehung gesetzt, die die Maschine erlebt und gespeichert hat. Töte jeden Terroristen, könnte man der Drohne mit auf den Weg geben, aber auch: Töte keinen Zivilisten. Wenn die zweite Regel stärker ist als die erste und der Gefundene gerade ein Bad in der Menge nimmt, dreht die Drohne ab. Ob man das noch vernünftig finden wird, wenn der Terrorist eine Woche später ein Flugzeug in ein Atomkraftwerk fliegen lässt? Vielleicht ein Glück, dass Drohnen in der Regel noch nicht vollkommen autonom sind.

Auch die Folgenethik ist eine vielversprechende Kandidatin. Bei ihr bietet sich die Verwendung von agentenbasierten Systemen an, wenn man dezentralisierte Ansätze mag, oder von wirkungsbezogenen Formeln, wenn man zentralisierte Ansätze bevorzugt. Ein Student des Verfassers hat im Rahmen einer Semesterarbeit eine Formel erfunden, die ein selbstständig fahrendes Auto bei einem Unfall heranziehen kann. Es wird gewichtet und berechnet – und dann wird so entschieden, dass der Schaden möglichst gering und die Gefahr für Leib und Leben möglichst klein bleibt. Ob die Betroffenen dem immer folgen können, sei dahingestellt. Selbst die Umsetzung der Tugendethik kann man anstreben, mit Hilfe von adaptiven oder selbstlernenden Systemen. Die Maschine eignet sich vorbildliche Eigenschaften an, aus deren Gesamtheit und Zusammenspiel sich dann automatisch die richtige Handlung ergibt. Ob diese immer eine gute Handlung ist, wagt der Verfasser zu bezweifeln. Bei einer weitergehenden Beschäftigung fällt auf, dass die meisten klassischen normativen Modelle gut zur Maschinenethik zu passen scheinen, weniger gut hingegen die meisten modernen, z.B. der existenzialistische oder materialistische Ansatz.

Natürlich werden genügend Implementierungen fragwürdig und ein Stein des Anstosses sein. Man wird der Maschine, die womöglich so autonom ist, dass sie nicht mehr im Sinne ihres Erfinders handelt, vorwerfen, unmenschlich zu sein. Man wird Robotikern, KI-Experten und Informatikern vorwerfen, die Möglichkeiten der Technik zu überschätzen. Die Frage ist nur, was zu tun ist. Wenn man die vollautonome Maschine verbietet, wofür sich etwa Human Rights Watch im Falle von Waffensystemen engagiert, kann Innovation verhindert werden, oder man kann das Gesetz angesichts der Macht des Faktischen nicht durchsetzen. Wenn man die vollautonome Maschine zulässt, muss man sie entweder beschränken, was ein Widerspruch in sich ist, oder man muss sie zähmen, mit Hilfe der Moral. Um Missverständnisse zu vermeiden: Dass man sich gegen bestimmte Waffen engagiert, kann nicht hoch genug eingeschätzt werden.

Chatbots als Subjekte der Moral

Ein Spezialfall im vorliegenden Kontext sind Maschinen mit natürlichsprachlichen Fähigkeiten. Dazu zählen gewisse Avatare und Agenten – und sogenannte Chatbots oder Chatterbots, die von Unternehmen und Organisationen auf ihren Websites betrieben werden, sozusagen virtuelle, plappernde Roboter. Man kann diese fragen, welche Sofas im Laden oder welche Jobs auf dem Markt sind – und ob sie in festen Händen sind und welche Hobbys sie haben. Gerade junge Leute schätzen sie und wenden sich in Einzelfällen an sie, wenn sie Sorgen und Ängste haben. Ein anderer Student des Verfassers hat ihnen Fragen wie „Soll ich mich umbringen?“ gestellt und sie mit Aussagen wie „Ich will Menschen töten!“ konfrontiert. Die meisten Chatbots reagierten mit Wut und Unverständnis oder sprachen in Rätseln. Die in der Semesterarbeit dokumentierten Antworten wären bei wirklichen Problemen wenig hilfreich, ja vielleicht in der Konsequenz tödlich gewesen. Bei der Suizidfrage verhielt sich nur einer der Bots scheinbar angemessen. Er verwies auf eine Hotline, die allerdings eine nationale und für das Alter Ego des Studenten nicht zu gebrauchen war.

Die Angemessenheit bzw. Unangemessenheit der Kommunikation ist ein zentraler Aspekt bei Maschinen mit natürlichsprachlichen Fähigkeiten. Ein anderer ist die Wahrheit bzw. Unwahrheit. Der Verfasser hat vor zehn Jahren über pädagogische Agenten promoviert, die mit den genannten Chatbots eng verwandt sind und in Lernumgebungen eingesetzt werden. Sie können in ihre Umgebungen einführen, bei Problemen helfen sowie über Fachwissen verfügen und dieses im Gespräch vermitteln. Was ist, wenn sie das Gegenteil von dem behaupten, was der Fall ist? Wenn sie den Benutzer belügen und betrügen und ihm Fehlinformationen über die Aussenwelt liefern? Ihn sogar, ähnlich wie ein Genius Malignus in der Tradition von Descartes, bezüglich seiner Ideen und Erkenntnisse, also seiner Innenwelt, verunsichern, mit der Kraft ihrer Worte, mit Hilfe von Falschbehauptungen? Was ist, wenn der Benutzer etwas Falsches lernt, weil der pädagogische Agent seine Autonomie missbraucht? Wenn er in der Folge etwas Falsches tut, mit dramatischen Konsequenzen? Wie würden wir pädagogische Agenten (respektive Chatbots, Sprachassistenten oder Roboter) in moralischer Hinsicht beurteilen? Möglicherweise würden wir den cartesischen Zweifel zu schätzen und auf unseren weltweiten Maschinenpark anzuwenden lernen – und am Ende wieder mehr auf uns selbst vertrauen.

Und die Moral von der Geschichtʼ?

Computern und Maschinen die menschliche Sprache beizubringen, hat sich als Jahrhundertprojekt erwiesen. Bis heute existiert kein Programm, das Texte in befriedigender Weise versteht, formuliert und übersetzt. Das spricht für die menschliche Sprache, und es spricht für die menschliche Moral, dass sie Ethiker und Techniker nicht weniger herausfordert. Wenn Moral und Sprache auch noch zusammenkommen, wie bei Chatbots und pädagogischen Agenten, wird es nicht einfacher. Dennoch wird die Maschinenethik neue Erkenntnisse und Möglichkeiten hervorbringen, über Philosophie und KI hinaus.

Die Philosophie kann die normativen Modelle in neuem Licht betrachten. Warum sind die einen maschinenverarbeitbar, die anderen nicht? Brauchen wir weitere Ansätze, für Menschen und Maschinen? Sie kann den Zusammenhang zwischen Sprache und Moral auf neue Weise hinterfragen, zusammen mit der KI. Die Wirtschaft kann Maschinen auf den Markt bringen, die sich nach bestem Wissen und Gewissen entscheiden, und muss die Verantwortung nicht auf den Kunden übertragen, wie sie es (im Falle der Automobilindustrie) beim selbstständigen Einparkieren tut. Das Militär kann die Erkenntnisse dazu verwenden, um – ähnlich wie beim Verbot von Chemie- und Biowaffen – besonders menschenverachtende Folgen beim Einsatz von Drohnen und Kampfrobotern auszuschliessen. Der Fortschritt ist bei diesen Beispielen offensichtlich. Dennoch bleibt ein ungutes Gefühl. Wahrscheinlich sollte der Mensch seine Moral nicht ohne Not verschenken. Es gibt Maschinen, die sie dringend brauchen. Aber auch Maschinen, die sie nicht verdienen.

)*Oliver Bendel ist studierter Philosoph und promovierter Wirtschaftsinformatiker und leitete technische und wissenschaftliche Einrichtungen an Hochschulen. Heute lehrt und forscht er als Professor für Wirtschaftsinformatik an der Hochschule für Wirtschaft in Brugg und Olten (Fachhochschule Nordwestschweiz FHNW), mit den Schwerpunkten Wissensmanagement, Social Media, Mobile Business und Informationsethik, und lebt als freier Schriftsteller in Zürich. Bendel ist ein Vertreter der Maschinenethik, auch wenn er davon ausgeht, dass diese Disziplin mit Rückschlägen fertig werden und sich in Bescheidenheit üben muss.
Weitere Infos zu seinem Schaffen: www.oliverbendel.net, www.informationsethik.net

9442-9442maschinenbilddigitalbrainstormingkopie2.jpg
(Bild: Digital Brainstorming)
9442-9442maschinenservicedrohnebildingpv.jpg
Weiss sie, was gut oder böse ist? ? Service-Drohne im Einsatz (Bild: INGPV)