Sollten Maschinen moralisch handeln können?
Finja & Molin

Diese Frage haben wir uns gestellt, da es uns interessiert wie sehr Maschinen weiterentwickelt und genutzt werden sollten.
Zu dieser Frage haben wir uns daher folgende Gedanken gemacht:
Als erstes haben wir überlegt, was überhaupt moralisch richtiges handeln ist und wer darüber entscheidet. Wir haben lange diskutiert, sind allerdings zu keinem zufriedenstellenden Ergebnis gekommen, denn die Frage nach dem richtigen Handeln ist eine lang umstrittene philosophische Frage, auf die es keine klare Antwort gibt. Als moralisch richtig wird etwas bezeichnet, das der Ideologie entspricht, die diejenige Person verfolgt, doch wie ist das bei einer Maschine?
Aufgrund der gegebenen Schwierigkeiten konnten wir uns am Anfang nicht entscheiden, ob Maschinen moralisch handeln sollten oder nicht. Aber nachdem wir uns umfassend mit dem Thema auseinander gesetzt haben, sind wir zu dem Schluss gekommen, dass wir es nicht befürworten, wenn Maschinen moralisch handeln könnten, da es sehr viele Gefahren mit sich bringt.
Dies möchten wir ihnen an vier Argumenten verdeutlichen:

  1. Dadurch das künstliche Intelligenz moralisch denken kann, erlangt sie mehr Verständnis und Wissen, was dazu führen kann, dass die Maschinen uns überlegen sind und an die Macht kommen.

  2. Wenn es Robotern möglich ist moralisch zu handeln, kommen sie dem Mensch immer näher, was wiederum ermöglichen würde eine starke emotionale Bindung zu ihnen aufzubauen, dies kann positiv wie negativ gesehen werden, allerdings haben wir es eher negativ aufgefasst.

  3. Ein weiteres starkes Argument ist, dass es stets darauf ankommt wer entscheidet welcher Moral die Roboter folgen. Beispiel: Ein selbstfahrendes Auto steht vor der Wahl fünf spielende Kinder zu überfahren oder stattdessen die zwei Insassen umzubringen, es muss also entscheiden was moralisch richtig wäre. Einer Umfrage der „Washington Post“ ist zu entnehmen, das von 40.000 Menschen 59% ein Auto kaufen würden was darauf programmiert ist stets die Insassen zu retten, egal ob es moralisch vertretbar ist oder nicht und nur 21% der Befragten würden ein Auto kaufen was den moralischen Grundsätzen folgt, auch wenn es so sein könnte das es die Insassen umbringt. Und da die Konzerne die die Autos verkaufen, auf Profit aus sind, werden sie der künstlichen Intelligenz beibringen, die Insassen um jeden Preis zu retten, da der Großteil der Menschen sich sonst dieses Auto nicht kaufen würde.

  4. Unser letztes Argument ist die Frage, wer zur Verantwortung gezogen wird, wenn eine Maschine einen Fehler macht. Denn eine Maschine oder eben ein Programm kann nicht wie ein Mensch zur Rechenschaft gezogen und bestraft werden.

Wie wir oben bereits erwähnt haben, haben wir auch einige befürwortende Argumente gefunden:

  1. Stellen Sie sich vor, wir würden einen Krieg gewinnen, ohne einen einzigen Soldaten zu verlieren. Dies könnten wir erreichen, indem wir Maschinen statt Soldaten in den Krieg schicken. Wenn diese nun moralisch handeln können und entscheiden können, ob sie unschuldige Menschen umbringen oder nicht, würden wir weitere Menschenleben retten. Dies können wir auch anhand einiger Filme sehen, die zeigen, was alles passieren könnte, wenn Maschinen die Macht übernehmen würden. Einige Beispiele wären Matrix oder Terminator.
  2. Allerdings könnte man dies auch erreichen, indem die Maschinen so programmiert werden, dass sie sich nur gegenseitig bekämpfen und den Menschen keinerlei Schaden zufügen.

  3. Ein weiteres Beispiel in dem moralischen Handeln gefordert wird, ist die smart City. In einer Notsituation, wie z.B. in einer Pandemie, müssen die Maschinen in der Lage sein, wichtige Entscheidungen zu treffen die an unseren moralischen Maßstäben gemessen sind.
  4. In einer Notsituation sind die Menschen gefragt, um sich gegenseitig zu helfen oder man programmiert die Roboter so, das sie in solchen Situationen immer zu erst einer bestimmten Menschengruppe helfen, z.B. als erstes Kindern und alten Menschen.

  5. Auch in einer Situation in der ein Roboter entscheiden muss, ob ein Mensch Hilfe braucht oder nicht, ist moralisches handeln gefragt. Zum Beispiel wenn Roboter in der Pflege eingesetzt werden und ein Patient die nötigen Medikamente verweigert, entscheidet er den Patienten zu zwingen die Medikamente zu nehmen oder akzeptiert er die Entscheidung.
  6. In einem solchen Moment ist der Mensch für sich selbst verantwortlich, die Roboter müssten also darauf programmiert sein, die Entscheidung des Menschen stets zu akzeptieren.

Obwohl dies nur ein kleiner Ausschnitt und ein paar Gedanken von einem sehr großen Thema waren, hoffen wir, Sie haben einen guten Einblick in die Thematik bekommen und wir sind gespannt auf ihre Meinungen.