Autonome Kampfroboter: Wettrennen zwischen Ingenieuren und Diplomaten


us_drohne

Um die Entwicklung autonomer Killerroboter zu verhindern, bleibt nicht mehr viel Zeit

Von Hans-Arthur Marsiske|TELEPOLIS

Vor eineinhalb Jahren erklärte die Bundesverteidigungsministerin Ursula von der Leyen, sich für eine „völkerrechtliche Ächtung autonomer Waffensysteme“ einsetzen zu wollen. Ihr sei sehr daran gelegen, dass „es immer ein Mensch ist, der darüber entscheidet, ob eine Waffe ausgelöst wird oder nicht“, sagt die Ministerin am 2. Juli 2014 in einer Aktuellen Stunde des Bundestages.

Zur gleichen Zeit arbeiten allerdings tausende Wissenschaftler in aller Welt mit großer Energie daran, die Intelligenz von Robotern zu steigern. Wenn Maschinen zukünftig mehr und mehr komplexe Aufgaben übernehmen sollen, etwa Fahrzeuge sicher durch den Verkehr zu steuern, Pflegebedürftige zu betreuen oder im engen Kontakt mit Menschen in Werkstätten zu arbeiten, geht es nicht ohne wachsende Autonomie. Wie soll diese wachsende Intelligenz auf Dauer von Waffen tragenden Robotern ferngehalten werden? Vor allem: Wann soll das geschehen?

Vonseiten der Wissenschaft gibt es dringende Mahnungen, die Entwicklung hin zu selbstständig agierenden Kampfrobotern ernst zu nehmen und rechtzeitig Maßnahmen dagegen zu treffen. Ein Offener Brief, der ein Verbot autonomer Waffen fordert, wurde Ende Juli 2015 zur Eröffnung der bedeutendsten Konferenz zu künstlicher Intelligenz vorgestellt und mittlerweile von über 3.000 Robotikforschern sowie mehr als 17.000 anderen Personen unterzeichnet, darunter namhafte Vertreter von Firmen, die mit der Technologie ebenfalls vertraut sind wie Steve Wozniak (Apple), Elon Musk (SpaceX) oder Jaan Tallinn (Skype). Sie alle warnen: „Die Technologie künstlicher Intelligenz hat einen Punkt erreicht, der den Einsatz solcher Systeme innerhalb von Jahren möglich macht, nicht erst in Jahrzehnten.“

weiterlesen