„Schon Staubsauger-Roboter müssen moralische Entscheidungen treffen“


Soll das autonome Auto im Notfall ein Kind oder eine Gruppe älterer Menschen verschonen? Maschinen werden immer intelligenter und müssen immer häufiger moralische Entscheidungen treffen. Wie funktioniert das? Und wo liegen die Grenzen? Das sind Fragen, mit denen sich Catrin Misselhorn beschäftigt.

Von Christoph Scheffer | hr iNFO

Wenn bei ihr zu Hause nicht so viel Spielzeug von der kleinen Tochter herumliegen würde, dann hätte Catrin Misselhorn auch gerne einen Staubsauger-Roboter. Doch schon eine solche eher simple Maschine steht vor moralischen Problemen: „Was passiert eigentlich mit kleinen Tieren, die dem Roboter vor die Düse laufen? Soll er die einsaugen oder verschonen?“ Käfer und Spinnen zu erkennen und drum herum zu fahren – das ist für den Roboter technisch kein Problem. Aber wie er sich verhalten soll, das muss ihm sein Benutzer beibringen. Den Prototyp eines Staubsaugers mit „Kill-Button“ gibt es schon.

Unlösbare Fragen

Die so genannte Maschinenethik ist das Forschungsgebiet von Catrin Misselhorn, Philosophie-Professorin und Direktorin des Instituts für Philosophie an der Uni Stuttgart. Ein Bereich, in dem sie eng mit Programmierern und Ingenieuren zusammenarbeitet und der – entgegen allen Vorurteilen über „Philosophie im Elfenbeinturm“ – eine ganz praktische Bedeutung hat, zum Beispiel beim autonomen Fahren: Soll ein sich selbst steuerndes Auto eher ein Kind verschonen, das plötzlich auf die Straße springt, oder eine Gruppe älterer Menschen? Die Philosophin ist überzeugt, dass es in einem solchen Dilemma „letztlich keine richtige Entscheidung gibt“. Daher lehnt sie autonome Autos ab, die eine solche Entscheidung treffen könnten. Bestimmte Menschengruppen von vorneherein als mögliche Opfer zu definieren, das sei ethisch nicht zulässig, mahnt Catrin Misselhorn.

weiterlesen