Kann man Robotern Moral beibringen?


Bild: 4ever.eu bearb.: bb
Bild: 4ever.eu bearb.: bb
Vernunft, Entscheidungsfähigkeit, Urteilskraft – wie viel von diesen menschlichen Kompetenzen lässt sich auf Roboter übertragen? Maschinen könnten durchaus ähnlich wie ein Mensch handeln, sie seien „Quasi-Akteure“, sagt die Philosophin Janina Sombetzki.


Janina Sombetzki im Gespräch mit Liane von Billerbeck|Deutschlandradio Kultur

In Köln findet derzeit das Internationale Festival der Philosophie „phil.COLOGNE“ statt. Dort wird die Kieler Philosophin Janina Sombetzki einen Vortrag zum Thema Roboterethik halten.

Maschinen könnten durchaus ähnlich „wie ein Mensch“ handeln, sie seien als „Quasi-Akteure“ zu betrachten, sagte Sombetzki im Deutschlandradio Kultur. Bestimmte menschliche Fähigkeiten und Kompetenzen ließen sich in äquivalenter Weise auf Maschinen übertragen, etwa Urteilskraft, Entscheidungsfähigkeit, Vernunft oder Autonomie.

„So dass man nicht sagen muss: Maschinen haben Autonomie, Maschinen haben  Verantwortung. Sondern sie tragen etwas vergleichsweise Ähnliches. Sie funktionieren in einer ähnlichen Weise wie Menschen. Und sie werden in Situationen zum Einsatz gebracht, in denen eben vorher auch Menschen handelten und immer noch handeln.“

Bei der Diskussion um Roboterethik sei das Verständnis von Autonomie von zentraler Bedeutung, meinte Sombetzki. Viele Kritiker definierten Autonomie ausschließlich als das Fehlen von äußeren Gründen. Dem sei eine andere Definition von Autonomie „im starken Sinne“ entgegenzusetzen:

„Autonomie ist überall dort, wo wir unserem Handeln Gründe setzen. Bei Menschen ist das relativ einfach, da sagt man: wie kommen wir zu unseren guten Gründen? Durch Erziehung beispielsweise, durch Bildung, durch Kommunikation. Und bei Maschinen müssten wir dann sagen: Die guten Gründe stellen sozusagen die Programmierung dar.“

Aufgabe der Wissenschaftler sei es, den Diskurs über die Roboterethik in die Öffentlichkeit zu tragen. Dabei gehe es besonders um moralische und ethische Fragen:

weiterlesen